~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ A5DE24BD67C06E3C7BBB304BDF584EE9__1718808000 ✰
Заголовок документа оригинал.:
✰ InfiniBand - Wikipedia ✰
Заголовок документа перевод.:
✰ InfiniBand — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/InfiniBand ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/a5/e9/a5de24bd67c06e3c7bbb304bdf584ee9.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/a5/e9/a5de24bd67c06e3c7bbb304bdf584ee9__translat.html ✰
Дата и время сохранения документа:
✰ 22.06.2024 17:24:54 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 19 June 2024, at 17:40 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

InfiniBand — Википедия Jump to content

ИнфиниБэнд

Из Википедии, бесплатной энциклопедии
Торговая ассоциация InfiniBand
Формирование 1999
Тип Промышленно-торговая группа
Цель Продвижение InfiniBand
Главное управление Бивертон, Орегон , США
Веб-сайт infinibandta.org

InfiniBand ( IB ) — это стандарт компьютерной сетевой связи, используемый в высокопроизводительных вычислениях и обеспечивающий очень высокую пропускную способность и очень низкую задержку . Он используется для передачи данных как между компьютерами, так и внутри них. InfiniBand также используется в качестве прямого или коммутируемого соединения между серверами и системами хранения, а также в качестве соединения между системами хранения. Он спроектирован с возможностью масштабирования и использует топологию коммутируемой коммутируемой сети . С 2014 по июнь 2016 г. [1] это было наиболее часто используемое межсоединение в списке TOP500 суперкомпьютеров.

Mellanox (приобретенная Nvidia InfiniBand ) производит адаптеры главной шины и сетевые коммутаторы , которые используются крупными поставщиками компьютерных систем и баз данных в своих линейках продуктов. [2]

В качестве межсоединения компьютерного кластера IB конкурирует с Ethernet , Fibre Channel и Intel Omni-Path . Технология продвигается торговой ассоциацией InfiniBand .

История [ править ]

InfiniBand возникла в 1999 году в результате слияния двух конкурирующих разработок: Future I/O и Next Generation I/O (NGIO). NGIO возглавляла Intel , а спецификация была выпущена в 1998 году. [3] и к ним присоединились Sun Microsystems и Dell . Будущий ввод-вывод был поддержан Compaq , IBM и Hewlett-Packard . [4] Это привело к формированию Торговой ассоциации InfiniBand (IBTA), в которую вошли как поставщики оборудования, так и поставщики программного обеспечения, такие как Microsoft . В то время считалось, что некоторые из наиболее мощных компьютеров приближаются к месту шины PCI узкому , несмотря на такие обновления, как PCI-X . [5] Версия 1.0 спецификации архитектуры InfiniBand была выпущена в 2000 году. Первоначально концепция IBTA для IB была одновременно заменой PCI в вводе-выводе, Ethernet в машинном помещении , межкластерном соединении и Fibre Channel . IB IBTA также предусмотрела разложение серверного оборудования на структуру .

Компания Mellanox была основана в 1999 году для разработки технологии NGIO, но к 2001 году выпустила линейку продуктов InfiniBand под названием InfiniBridge со скоростью 10 Гбит/с. [6] После того, как лопнул пузырь доткомов, отрасль не решалась инвестировать в столь далеко идущий технологический скачок. [7] К 2002 году Intel объявила, что вместо поставок интегральных схем («чипов») IB она сосредоточится на разработке PCI Express , а Microsoft прекратила разработку IB в пользу расширения Ethernet. Sun Microsystems и Hitachi продолжали поддерживать IB. [8]

В 2003 году суперкомпьютер System X , построенный в Технологическом институте Вирджинии, использовал InfiniBand в том, что на тот момент считалось третьим по величине компьютером в мире. [9] Альянс OpenIB (позже переименованный в OpenFabrics Alliance) был основан в 2004 году для разработки открытого набора программного обеспечения для ядра Linux . К февралю 2005 г. поддержка была включена в ядро ​​Linux 2.6.11. [10] [11] В ноябре 2005 года устройства хранения данных наконец-то были выпущены с использованием InfiniBand от таких поставщиков, как Engenio. [12] Cisco, желая исключить с рынка технологию, превосходящую Ethernet, приняла стратегию «покупай, чтобы убить». Cisco успешно убила компании, занимающиеся коммутацией InfiniBand, такие как Topspin, путем приобретения. [13]

Из 500 лучших суперкомпьютеров в 2009 году Gigabit Ethernet использовался в качестве технологии внутреннего соединения в 259 установках, по сравнению с 181, использующей InfiniBand. [14] В 2010 году лидеры рынка Mellanox и Voltaire объединились, в результате чего остался только один поставщик IB, QLogic , в основном поставщик Fibre Channel . [15] На Международной суперкомпьютерной конференции 2011 года были анонсированы и продемонстрированы на соединительных стендах на выставке каналы связи со скоростью около 56 гигабит в секунду (известные как FDR, см. ниже). [16] В 2012 году Intel приобрела технологию InfiniBand компании QLogic, оставив только одного независимого поставщика. [17]

К 2014 году InfiniBand стала самой популярной технологией внутреннего соединения суперкомпьютеров, хотя через два года 10-гигабитный Ethernet . ее начал вытеснять [1]

В 2016 году сообщалось, что корпорация Oracle (инвестор Mellanox) может разработать собственное оборудование InfiniBand. [2]

В 2019 году Nvidia приобрела Mellanox, последнего независимого поставщика продуктов InfiniBand. [18]

Спецификация [ править ]

Технические характеристики опубликованы торговой ассоциацией InfiniBand.

Производительность [ править ]

Первоначальные названия скоростей были «одинарная скорость передачи данных» (SDR), «двойная скорость передачи данных» (DDR) и «четверенная скорость передачи данных» (QDR), как указано ниже. [12] Впоследствии были добавлены другие трехбуквенные сокращения для еще более высоких скоростей передачи данных. [19]

Скорость однонаправленной передачи данных InfiniBand
Год [20] Код линии Скорость передачи данных (Гбит/с) Пропускная способность (Гбит/с) [21] Задержка адаптера (мкс) [22]
1x 4x 8x 12x
СДР 2001, 2003 НРЗ 8б/10б [23] 2.5 2 8 16 24 5
ГДР 2005 5 4 16 32 48 2.5
ГДР 2007 10 8 32 64 96 1.3
ФДР10 2011 64б/66б 10.3125 [24] 10 40 80 120 0.7
Рузвельт 2011 14.0625 [25] [19] 13.64 54.54 109.08 163.64 0.7
ЭДР 2014 [26] 25.78125 25 100 200 300 0.5
HDR 2018 [26] ПАМ4 53.125 [27] 50 200 400 600 <0,6 [28]
отчет о недоставке 2022 [26] 256б/257б [я] 106.25 [29] 100 400 800 1200 ?
ШДР 2024 [30] [ быть определенным ] [ быть определенным ] 200 200 800 1600 2400 [ быть определенным ]
ГДР будет объявлено позднее 400 400 1600 3200 4800
Примечания

Каждая ссылка является дуплексной. Каналы можно агрегировать: в большинстве систем используется разъем с 4 каналами/полосами (QSFP). HDR часто использует 2x канала (также известный как HDR100, канал 100 Гбит с использованием 2 линий HDR, но при этом используется разъем QSFP). 8x требуется для портов коммутатора NDR с использованием разъемов OSFP (восьмеричный подключаемый модуль малого форм-фактора). «Определения кабелей и разъемов» .

InfiniBand обеспечивает возможности удаленного прямого доступа к памяти (RDMA) для снижения нагрузки на процессор.

Топология [ править ]

InfiniBand использует топологию коммутируемой фабрики , в отличие от раннего Ethernet с разделяемой средой . Все передачи начинаются или заканчиваются на адаптере канала. Каждый процессор содержит адаптер главного канала (HCA), а каждое периферийное устройство имеет адаптер целевого канала (TCA). Эти адаптеры также могут обмениваться информацией о безопасности или качестве обслуживания (QoS).

Сообщения [ править ]

InfiniBand передает данные пакетами размером до 4 КБ, которые вместе образуют сообщение. Сообщение может быть:

  • удаленный прямой доступ к памяти для чтения или записи
  • канал отправки или получения
  • операция, основанная на транзакциях (которая может быть отменена)
  • многоадресная передача
  • атомарная операция

Физическое соединение [ править ]

Коммутатор InfiniBand с разъемами CX4/SFF-8470

Помимо подключения форм-фактора платы, можно использовать как активный, так и пассивный медный (до 10 метров) и оптоволоконный кабель (до 10 км). [31] QSFP Используются разъемы .

Ассоциация InfiniBand также определила систему разъемов CXP для скоростей до 120 Гбит/с по медным, активным оптическим кабелям и оптическим трансиверам с использованием параллельных многомодовых оптоволоконных кабелей с 24-волоконными разъемами MPO. [ нужна цитата ]

Программные интерфейсы [ править ]

Поддержка операционной системы Mellanox доступна для Solaris , FreeBSD , [32] [33] Red Hat Enterprise Linux , SUSE Linux Enterprise Server (SLES), Windows , HP-UX , VMware ESX , [34] и АИКС . [35]

InfiniBand не имеет специального стандартного интерфейса прикладного программирования (API). В стандарте указан только набор глаголов, таких как ibv_open_device или ibv_post_send, которые являются абстрактными представлениями функций или методов, которые должны существовать. Синтаксис этих функций оставлен на усмотрение поставщиков. Иногда для справки это называют API глаголов . Стандартное программное обеспечение де-факто разработано OpenFabrics Alliance и называется Open Fabrics Enterprise Distribution (OFED). Он выпускается под двумя лицензиями GPL2 или BSD для Linux и FreeBSD, а также под названием Mellanox OFED для Windows (названия продуктов: WinOF / WinOF-2; атрибутируется как драйвер хост-контроллера для соответствия конкретным устройствам ConnectX 3–5). [36] по выбору лицензии BSD для Windows. Он был принят большинством поставщиков InfiniBand для Linux , FreeBSD и Microsoft Windows . IBM ссылается на библиотеку программного обеспечения под названием libibverbs, для своей операционной системы AIX , а также «глаголы AIX InfiniBand». [37] Поддержка ядра Linux была интегрирована в 2005 году в ядро ​​версии 2.6.11. [38]

Ethernet через InfiniBand [ править ]

Ethernet over InfiniBand, сокращенно EoIB, представляет собой реализацию Ethernet на основе протокола InfiniBand и технологии разъемов. EoIB обеспечивает несколько полос пропускания Ethernet , различающихся в зависимости от версии InfiniBand (IB). [39] Ethernet Реализация пакета интернет-протоколов , обычно называемого TCP/IP, в некоторых деталях отличается от прямого протокола InfiniBand в IP over IB (IPoIB).

Производительность Ethernet через InfiniBand
Тип Дорожки Пропускная способность (Гбит/с) Совместимые типы Ethernet Совместимое количество Ethernet
СДР 00 1 000 2.5 от GbE до 2,5 GbE от 0 2 × GbE до 1 × 0 2,5 GbE
00 4 00 10 от GbE до 10 GbE от 10 × GbE до 1 × 10 GbE
00 8 00 20 от GbE до 10 GbE от 20 × GbE до 2 × 10 GbE
0 12 00 30 от GbE до 25 GbE От 30 × GbE до 1 × 25 GbE + 1 × 0,5 GbE
ГДР 00 1 000 5 от GbE до 5 GbE от 0 5 × GbE до 1 × 0 5 GbE
00 4 00 20 от GbE до 10 GbE от 20 × GbE до 2 × 10 GbE
00 8 00 40 от GbE до 40 GbE от 40 × GbE до 1 × 40 GbE
0 12 00 60 от GbE до 50 GbE От 60 × GbE до 1 × 50 GbE + 1 × 10 GbE
ГДР 00 1 00 10 от GbE до 10 GbE от 10 × GbE до 1 × 10 GbE
00 4 00 40 от GbE до 40 GbE от 40 × GbE до 1 × 40 GbE

См. также [ править ]

Ссылки [ править ]

  1. ^ Перейти обратно: а б «Основные события – июнь 2016» . Топ500.Орг. Июнь 2016 года . Проверено 26 сентября 2021 г. Технология InfiniBand сейчас используется в 205 системах (вместо 235) и является второй наиболее часто используемой технологией внутреннего межсистемного соединения. Количество систем Gigabit Ethernet выросло до 218 со 182 систем, во многом благодаря тому, что 176 систем теперь используют интерфейсы 10G.
  2. ^ Перейти обратно: а б Тимоти Прикетт Морган (23 февраля 2016 г.). «Инженеры Oracle разрабатывают собственные межсоединения InfiniBand» . Следующая платформа . Проверено 26 сентября 2021 г.
  3. ^ Скотт Беккер (11 ноября 1998 г.). «Intel представляет ввод-вывод следующего поколения для вычислительных серверов» . Торговый партнер Редмонда . Проверено 28 сентября 2021 г.
  4. ^ Уилл Уэйд (31 августа 1999 г.). «Воюющие группы NGIO и Future I/O объединяются» . ЭЭ Таймс . Проверено 26 сентября 2021 г.
  5. ^ Пентакал, Одиссей. «Введение в архитектуру InfiniBand» . О'Рейли . Проверено 28 июля 2014 г.
  6. ^ "График" . Мелланокс Технологии . Проверено 26 сентября 2021 г.
  7. ^ Ким, Тед. «Краткая история InfiniBand: от хайпа к прагматизму» . Оракул. Архивировано из оригинала 8 августа 2014 года . Проверено 28 сентября 2021 г.
  8. ^ Computerwire (2 декабря 2002 г.). «Sun подтверждает приверженность InfiniBand» . Регистр . Проверено 26 сентября 2021 г.
  9. ^ «Технологический институт штата Вирджиния построил компьютер мощностью 10 терафлопс» . Мир исследований и разработок . 30 ноября 2003 года . Проверено 28 сентября 2021 г.
  10. ^ Шон Майкл Кернер (24 февраля 2005 г.). «Ядро Linux 2.6.11 поддерживает InfiniBand» . Новости Интернета . Проверено 28 сентября 2021 г.
  11. ^ Альянс OpenIB (21 января 2005 г.). «Альянс OpenIB добился признания Kernel.org» . Пресс-релиз . Проверено 28 сентября 2021 г.
  12. ^ Перейти обратно: а б Энн Сильверторн (12 января 2006 г.), «Готов ли InfiniBand к возвращению?» , Инфостор , 10 (2) , получено 28 сентября 2021 г.
  13. ^ Коннор, Дени. «Что означает сделка Cisco-Topspin для InfiniBand» . Сетевой мир . Проверено 19 июня 2024 г.
  14. ^ Лоусон, Стивен (16 ноября 2009 г.). «Два конкурирующих суперкомпьютера борются за первое место» . Компьютерный мир . Проверено 29 сентября 2021 г.
  15. ^ Раффо, Дэйв. «Крупнейшие поставщики InfiniBand объединяются; рассматривают конвергентные сети» . Архивировано из оригинала 1 июля 2017 года . Проверено 29 июля 2014 г.
  16. ^ Микаэль Рикнес (20 июня 2011 г.). «Демонстрационная версия Mellanox, усовершенствованная версия InfiniBand» . ИТ-директор . Архивировано из оригинала 6 апреля 2012 года . Проверено 30 сентября 2021 г.
  17. ^ Майкл Фельдман (23 января 2012 г.). «Intel приобретает технологию InfiniBand, линейку продуктов от QLogic» . HPCwire . Проверено 29 сентября 2021 г.
  18. ^ «Nvidia приобретет Mellanox за 6,9 миллиарда долларов» . Пресс-релиз . 11 марта 2019 года . Проверено 26 сентября 2021 г.
  19. ^ Перейти обратно: а б «Информационный бюллетень о FDR InfiniBand» . Торговая ассоциация InfiniBand. 11 ноября 2021 г. . Проверено 30 сентября 2021 г.
  20. ^ Панда, Дхабалешвар К.; Саянтан-Сур (2011). «Ускорение скорости сети с помощью IB и HSE» (PDF) . Проектирование систем облачных и грид-вычислений с использованием InfiniBand и высокоскоростного Ethernet . Ньюпорт-Бич, Калифорния, США: CCGrid 2011. с. 23 . Проверено 13 сентября 2014 г.
  21. ^ «Дорожная карта InfiniBand: IBTA — Торговая ассоциация InfiniBand» . Архивировано из оригинала 29 сентября 2011 г. Проверено 27 октября 2009 г.
  22. ^ http://www.hpcadvisorycouncil.com/events/2014/swiss-workshop/presos/Day_1/1_Mellanox.pdf // Mellanox.
  23. ^ «Типы и скорости InfiniBand» .
  24. ^ «Интерфейсы» . Документы NVIDIA . Проверено 12 ноября 2023 г. FDR10 — это нестандартная скорость передачи данных InfiniBand, при которой каждая полоса порта 4X имеет скорость передачи данных 10,3125 Гбит/с с кодировкой 64/66b, что обеспечивает эффективную пропускную способность 40 Гбит/с. FDR10 поддерживает на 20 % большую пропускную способность по сравнению с QDR благодаря лучшей скорости кодирования.
  25. ^ «Руководство пользователя аппаратной платформы коммутатора InfiniBand FDR SwitchX® на 324 порта» (PDF) . нвидиа . 29 апреля 2018 г. раздел 1.2 . Проверено 12 ноября 2023 г. Обзор InfiniBand FDR и FDR10 [...] FDR, стандартная скорость передачи данных InfiniBand, при которой каждая линия порта 4X имеет скорость передачи данных 14,0625 Гбит/с с кодировкой 64b/66b, что приводит к эффективной пропускной способности 54,54 Гбит/с. . Физический уровень FDR — это физический уровень, указанный IBTA, использующий различные типы блоков, механизм устранения перекоса и правила кадрирования. Коммутатор SX6518 также поддерживает FDR10, нестандартную скорость передачи данных InfiniBand, при которой каждая линия порта 4X работает со скоростью передачи данных 10,3125 Гбит/с с кодировкой 64b/66b, что обеспечивает эффективную пропускную способность 40 Гбит/с.
  26. ^ Перейти обратно: а б с «Дорожная карта InfiniBand — развитие InfiniBand» . Торговая ассоциация InfiniBand .
  27. ^ "Введение" . Документы NVIDIA . Проверено 12 ноября 2023 г.
  28. ^ https://www.mellanox.com/files/doc-2020/pb-connectx-6-vpi-card.pdf [ пустой URL PDF ]
  29. ^ "Введение" . Документы NVIDIA . Проверено 12 ноября 2023 г.
  30. ^ «NVIDIA анонсирует новые коммутаторы, оптимизированные для вычислений на графических процессорах с триллионом параметров и инфраструктуры искусственного интеллекта» . Отдел новостей NVIDIA . Проверено 19 марта 2024 г.
  31. ^ «Часто задаваемые вопросы по спецификациям» . ИТА. Архивировано из оригинала 24 ноября 2016 года . Проверено 30 июля 2014 г.
  32. ^ «Mellanox OFED для FreeBSD» . Мелланокс . Проверено 19 сентября 2018 г.
  33. ^ Mellanox Technologies (3 декабря 2015 г.). «Руководство по интерфейсам ядра FreeBSD, mlx5en» . Справочные страницы FreeBSD . FreeBSD . Проверено 19 сентября 2018 г.
  34. ^ «Карты InfiniBand — обзор» . Мелланокс . Проверено 30 июля 2014 г.
  35. ^ «Внедрение InfiniBand в IBM System p (IBM Redbook SG24-7351-00)» (PDF) .
  36. ^ Mellanox OFED для Windows - WinOF / WinOF-2
  37. ^ «API глаголов» . Документация IBM AIX 7.1 . 2020 . Проверено 26 сентября 2021 г.
  38. ^ Дотан Барак (11 марта 2014 г.). «Учебник по программированию глаголов» (PDF) . ОпенШЕМ, 2014 . Мелланокс . Проверено 26 сентября 2021 г.
  39. ^ «10 преимуществ InfiniBand» . НАДДОД . Проверено 28 января 2023 г.

Внешние ссылки [ править ]

Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: A5DE24BD67C06E3C7BBB304BDF584EE9__1718808000
URL1:https://en.wikipedia.org/wiki/InfiniBand
Заголовок, (Title) документа по адресу, URL1:
InfiniBand - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)