InfiniBand ( IB ) - это стандарт компьютерной сетевой связи, используемый в высокопроизводительных вычислениях, который отличается очень высокой пропускной способностью и очень низкой задержкой . Он используется для передачи данных как между компьютерами, так и внутри них. InfiniBand также используется как прямое или переключаемое соединение между серверами и системами хранения, а также как соединение между системами хранения. Он разработан с учетом возможности масштабирования и использует топологию сети с коммутируемой структурой .
По состоянию на 2014 год [Обновить]это было наиболее часто используемое межсоединение в суперкомпьютерах. Mellanox производит адаптеры хост-шины InfiniBand и сетевые коммутаторы , а в феврале 2016 года сообщалось, что корпорация Oracle разработала собственные коммутаторы InfiniBand и микросхемы серверных адаптеров для использования в собственных линейках продуктов и третьими сторонами. [1] Карты Mellanox IB доступны для Solaris , FreeBSD , [2] [3] RHEL , SLES , Windows , HP-UX , VMware ESX , [4] и AIX.. [5]
В качестве межсоединения IB конкурирует с Ethernet , Fibre Channel и Intel Omni-Path .
Технология продвигается торговой ассоциацией InfiniBand .
Спецификация [ править ]
Производительность [ править ]
SDR | DDR | QDR | FDR10 | FDR | EDR | HDR | Отчет о недоставке | XDR | ||
---|---|---|---|---|---|---|---|---|---|---|
Скорость передачи (Гбит / с) | 2,5 | 5 | 10 | 10,3125 | [6] | 14.062525.78125 | 50 | 100 | 250 | |
Теоретическая эффективная пропускная способность ( Гбит / с ) [7] | для | 1 ссылка2 | 4 | 8 | 10 | 13,64 | 25 | 50 | 100 | 250 |
для | 4 ссылки8 | 16 | 32 | 40 | 54,54 | 100 | 200 | 400 | 1000 | |
для | 8 ссылок16 | 32 | 64 | 80 | 109,08 | 200 | 400 | 800 | 2000 г. | |
для 12 ссылок | 24 | 48 | 96 | 120 | 163,64 | 300 | 600 | 1200 | 3000 | |
Кодирование ( биты ) | 8b / 10b | 64b / 66b | подлежит уточнению | подлежит уточнению | ||||||
Задержка адаптера ( мкс ) [8] | 5 | 2,5 | 1,3 | 0,7 | 0,7 | 0,5 | меньше? | подлежит уточнению | подлежит уточнению | |
Год [9] | 2001, 2003 | 2005 г. | 2007 г. | 2011 г. | 2011 г. | 2014 [10] | 2018 [10] | 2021 [10] | после 2023 г.? |
Ссылки могут быть агрегированы: в большинстве систем используется 4-кратное агрегирование. Каналы 8 × и 12 × обычно используются для межкомпонентных соединений кластера и суперкомпьютера, а также для межкоммутаторных соединений.
InfiniBand также предоставляет возможности RDMA для снижения нагрузки на ЦП.
Топология [ править ]
InfiniBand использует топологию коммутируемой фабрики, в отличие от ранней разделяемой среды Ethernet . Все передачи начинаются или заканчиваются на адаптере канала. Каждый процессор содержит адаптер канала хоста (HCA), а каждое периферийное устройство имеет адаптер целевого канала (TCA). Эти адаптеры также могут обмениваться информацией для обеспечения безопасности или качества обслуживания (QoS).
Сообщения [ править ]
InfiniBand передает данные пакетами размером до 4 КБ, которые собираются вместе для формирования сообщения. Сообщение может быть:
- удаленный прямой доступ к памяти для чтения или записи
- канал отправить или получить
- операция на основе транзакции (которая может быть отменена)
- многоадресной передачи
- атомарная операция
Физическое соединение [ править ]
Помимо форм-фактора подключения платы, он может использовать как активный, так и пассивный медный кабель (до 10 метров) и оптоволоконный кабель (до 10 км). [11] Используются разъемы QSFP .
Ассоциация InfiniBand также определила систему разъемов CXP для скорости до 120 Гбит / с по медным, активным оптическим кабелям и оптическим трансиверам с использованием параллельных многомодовых оптоволоконных кабелей с 24-волоконными разъемами MPO. [ необходима цитата ]
API [ править ]
InfiniBand не имеет стандартного API . Стандарт перечисляет только набор глаголов, таких как ibv_open_device
или ibv_post_send
, которые являются абстрактными представлениями функций или методов, которые должны существовать. Синтаксис этих функций оставлен на усмотрение поставщиков. Иногда для справки это называется API глаголов . Стандартный программный стек де-факто разработан OpenFabrics Alliance . Он выпущен под двумя лицензиями GPL2 или BSD для GNU / Linux и FreeBSD и как Mellanox OFED для Windows (названия продуктов: WinOF / WinOF-2; приписывается как драйвер хост-контроллера для сопоставления конкретных устройств ConnectX 3–5) [12]по выбору лицензии BSD для Windows. Он принят большинством поставщиков InfiniBand для GNU / Linux , FreeBSD и Windows . IBM заявляет об этом в своем центре знаний по API глаголов :
- An AIX ® приложение может определить глаголы API , который является либо Distribution Open Fabrics Enterprise ( OFED ) глаголами или в AIX InfiniBand (IB) глаголы , которые должны взаимодействовать с конкретным назначением. [13]
В презентации Mellanox Technologies, датированной 2014 годом, с заголовком «Учебник по программированию глаголов» на странице 31 говорится: [14]
- libibverbs , разработанные и поддерживаемые Roland Dreier с 2006 года, де-факто являются стандартом API глаголов в * nix.
- Разработан как открытый исходный код
- Ядровая часть глаголов интегрирована в ядро Linux с 2005 года - ядро 2.6.11.
- Входящие в нескольких дистрибутивах * nix
- Существуют низкоуровневые библиотеки от нескольких поставщиков аппаратного обеспечения.
История [ править ]
InfiniBand возник в 1999 году в результате слияния двух конкурирующих проектов: Future I / O и Next Generation I / O. Это привело к формированию торговой ассоциации InfiniBand (IBTA), который включал Compaq , Dell , Hewlett-Packard , IBM , Intel , Microsoft и Sun . В то время считалось, что некоторые из более мощных компьютеров приближались к узкому месту соединения шины PCI , несмотря на такие обновления, как PCI-X . [15]Версия 1.0 спецификации архитектуры InfiniBand была выпущена в 2000 году. Первоначально видение IBTA для IB было одновременно заменой PCI в вводе-выводе, Ethernet в машинном отделении , межсоединения кластера и Fibre Channel . IBTA предусматривается также разлагать серверное оборудование на IB ткани . После того, как лопнул пузырь доткомов, в отрасли возникли сомнения относительно того, стоит ли инвестировать в такой далеко идущий технологический скачок. [16]
Хронология [ править ]
- 2001: Mellanox поставляет устройства InfiniBridge 10 Гбит / с и поставляет более 10 000 портов InfiniBand. [17]
- 2002: принятие терпит неудачу, когда Intel объявляет, что вместо поставки чипов IB она сосредоточится на разработке PCI Express , а Microsoft прекращает разработку IB в пользу расширения Ethernet, хотя Sun и Hitachi продолжают поддерживать IB. [18]
- 2003: Технологический институт штата Вирджиния создает кластер InfiniBand, который в то время занимал третье место в Top500 .
- 2004: IB начинает рассматривать внедрение как кластерное межсоединение, превосходящее Ethernet по задержкам и цене. [16] OpenFabrics Alliance разрабатывает стандартизированную, Linux на основе InfiniBand стека программного обеспечения. В следующем году Linux добавляет поддержку IB. [19]
- 2005: IB начинает реализовываться как межсоединение для устройств хранения. [20]
- 2009 г .: из 500 лучших суперкомпьютеров в мире Gigabit Ethernet является внутренней технологией межсоединений в 259 установках по сравнению с 181, использующим InfiniBand. [21]
- 2010: Лидеры рынка Mellanox и Voltaire объединяются, в результате чего остается только один другой поставщик IB, QLogic , в основном поставщик Fibre Channel. [22] Oracle делает крупные инвестиции в Mellanox.
- 2011: Коммутаторы и адаптеры FDR анонсированы на Международной конференции по суперкомпьютерам . [23]
- 2012: Intel приобретает технологию InfiniBand от QLogic. [24]
- 2016: Oracle Corporation производит собственные межкомпонентные микросхемы и коммутаторы InfiniBand. [25]
- 2019: Nvidia приобрела Mellanox за 6,9 млрд долларов [26]
Ethernet через InfiniBand [ править ]
Ethernet через InfiniBand, сокращенно EoIB, представляет собой реализацию Ethernet через протокол InfiniBand и технологию соединителей.
EoIB обеспечивает несколько полос пропускания Ethernet, различающихся в версии InfiniBand (IB).
Реализация пакета Internet Protocol Suite в Ethernet , обычно называемого TCP / IP, отличается от некоторых реализаций, используемых поверх протокола InfiniBand в IP over IB (IPoIB).
Тип | Переулки | Пропускная способность (Гбит / с) | Совместимый тип (ы) Ethernet | Совместимое количество Ethernet |
---|---|---|---|---|
SDR | 1 | 2,5 | GbE до 2,5 GbE | 2 × GbE в 1 × 2,5 GbE |
4 | 10 | GbE на 10 GbE | От 10 × GbE до 1 × 10 GbE | |
8 | 20 | GbE на 10 GbE | От 20 × GbE до 2 × 10 GbE | |
12 | 30 | GbE на 25 GbE | От 30 × GbE до 1 × 25 GbE + 1 × | 5 GbE|
DDR | 1 | 5 | GbE на 5 GbE | 5 × GbE в 1 × 5 GbE |
4 | 20 | GbE на 10 GbE | От 20 × GbE до 2 × 10 GbE | |
8 | 40 | GbE на 40 GbE | От 40 × GbE до 1 × 40 GbE | |
12 | 60 | GbE на 50 GbE | От 60 × GbE до 1 × 50 GbE + 1 × 10 GbE | |
QDR | 1 | 10 | GbE на 10 GbE | От 10 × GbE до 1 × 10 GbE |
4 | 40 | GbE на 40 GbE | От 40 × GbE до 1 × 40 GbE |
См. Также [ править ]
- 100 Гбит Ethernet
- Расширения iSCSI для RDMA
- iWARP
- Список битрейтов интерфейса
- Оптическая связь
- Параллельный оптический интерфейс
- Протокол SCSI RDMA
Ссылки [ править ]
- ^ «Oracle разрабатывает собственные межкомпонентные соединения InfiniBand» . 23 февраля 2016.
- ^ "Mellanox OFED для FreeBSD" . Mellanox . Проверено 19 сентября 2018 года .
- ^ Mellanox Technologies (3 декабря 2015 г.). "Руководство по интерфейсам ядра FreeBSD, mlx5en" . Справочные страницы FreeBSD . FreeBSD . Проверено 19 сентября 2018 года .
- ^ «Карты InfiniBand - Обзор» . Mellanox . Проверено 30 июля 2014 года .
- ^ «Внедрение InfiniBand в IBM System p (IBM Redbook SG24-7351-00)» (PDF) .
- ^ https://cw.infinibandta.org/document/dl/7260
- ^ "Архивная копия" . Архивировано из оригинала на 2011-09-29 . Проверено 27 октября 2009 .CS1 maint: заархивированная копия как заголовок ( ссылка )
- ^ http://www.hpcadvisorycouncil.com/events/2014/swiss-workshop/presos/Day_1/1_Mellanox.pdf // Mellanox
- ^ Панда, Dhabaleswar K .; Саянтан Сур (2011). «Ускорение скорости сети с помощью IB и HSE» (PDF) . Проектирование облачных и сетевых вычислительных систем с InfiniBand и высокоскоростным Ethernet . Ньюпорт-Бич, Калифорния, США: CCGrid 2011. стр. 23 . Проверено 13 сентября 2014 года .
- ^ a b c «Дорожная карта InfiniBand - Развитие InfiniBand» . Торговая ассоциация InfiniBand .
- ^ «Спецификация FAQ» . ITA. Архивировано из оригинального 24 ноября 2016 года . Проверено 30 июля 2014 года .
- ^ Mellanox OFED для Windows - WinOF / WinOF-2
- ^ API глаголов
- ^ Учебник по программированию глаголов
- ^ Pentakalos, Одиссей. «Введение в архитектуру InfiniBand» . О'Рейли . Проверено 28 июля 2014 .
- ^ а б Ким, Тед. «Краткая история InfiniBand: обман к прагматизму» . Oracle. Архивировано из оригинала 8 -го августа 2014 года . Проверено 28 июля 2014 .
- ^ «Хронология» . Mellanox Technologies . Проверено 28 июля 2014 .
- ^ «Sun подтверждает приверженность InfiniBand» . Реестр . Проверено 28 июля 2014 .
- ^ «Ядро Linux 2.6.11 поддерживает InfiniBand» . Проверено 29 июля 2014 года .
- ^ "InfiniBand готов к возвращению?" , Инфостор , 10 (2)
- ^ Лоусон, Стивен. «Два конкурирующих суперкомпьютера побеждают за первое место» . КОМПЬЮТЕРНЫЙ МИР . Проверено 29 июля 2014 года .
- ^ Раффо, Дэйв. «Крупнейшие поставщики InfiniBand объединяются; конвергентные сети на глаз» . Проверено 29 июля 2014 года .
- ^ "Mellanox демонстрирует улучшенную версию InfiniBand" . ИТ-директор. 20 июня 2011 . Проверено 1 августа 2011 года .
- ^ "Intel Snaps Up InfiniBand Technology, продуктовая линейка от QLogic" . HPCwire . 23 января 2012 . Проверено 27 января 2012 .
- ^ «Oracle разрабатывает собственные межкомпонентные соединения InfiniBand» . Следующая платформа . Проверено 24 февраля 2016 .
- ^ https://nvidianews.nvidia.com/news/nvidia-to-acquire-mellanox-for-6-9-billion
Внешние ссылки [ править ]
- Керр, Грегори (2011), Анатомический Маленькую InfiniBand приложения Использование API глаголов , Arxiv : 1105,1827 , Bibcode : 2011arXiv1105.1827K