Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску
Логотип Консорциума HyperTransport

HyperTransport ( HT ), ранее известный как Lightning Data Transport ( LDT ), представляет собой технологию для соединения процессоров компьютеров. Это двунаправленный последовательный / параллельный с высокой пропускной способностью, низкой латентностью соединение точка-точка , которая была введена 2 апреля 2001 года [1] Консорциум HyperTransport отвечает за продвижение и развитие технологии HyperTransport.

HyperTransport лучше всего известен как системной шины архитектуры AMD центральных процессоров (CPU) от Athlon 64 через AMD FX и связанных с Nvidia Nforce материнских плат микросхем. HyperTransport также использовался IBM и Apple для компьютеров Power Mac G5 , а также для ряда современных систем MIPS .

Текущая спецификация HTX 3.1 оставалась конкурентоспособной для высокоскоростной (2666 и 3200 МТ / с или около 10,4 и 12,8 ГБ / с) оперативной памяти DDR4 2014 года  и более медленной (около 1 ГБ / с [1], аналогично высокопроизводительным твердотельным накопителям PCIe. ULLtraDIMM технология флэш - память) [ разъяснение необходимости ] -a более широкий диапазон скоростей RAM на общую шине процессора Intel , чем любая системную шина. Технологии Intel требуют, чтобы каждый диапазон скоростей ОЗУ имел собственный интерфейс, что приводит к более сложной компоновке материнской платы, но с меньшим количеством узких мест. HTX 3.1 со скоростью 26 ГБ / с может служить единой шиной для целых четырех модулей памяти DDR4, работающих на самых быстрых из предложенных скоростей. Помимо этого, для оперативной памяти DDR4 может потребоваться две или более шины HTX 3.1, что снижает ее ценность в качестве унифицированного транспорта.

Обзор [ править ]

Ссылки и оценки [ править ]

HyperTransport выпускается в четырех версиях: 1.x, 2.0, 3.0 и 3.1, которые работают от 200  МГц до 3,2 ГГц. Это также соединение DDR или « двойной скорости передачи данных », что означает, что оно отправляет данные как по переднему, так и по заднему фронту тактового сигнала . Это обеспечивает максимальную скорость передачи данных 6400 МТ / с при работе на частоте 3,2 ГГц. В современных вычислениях рабочая частота автоматически согласовывается с набором микросхем материнской платы (северный мост).

HyperTransport поддерживает автосогласование ширины битов от 2 до 32 бит на ссылку; на каждую шину HyperTransport приходится два однонаправленных канала. С появлением версии 3.1, использующей полные 32-битные каналы и полную рабочую частоту спецификации HyperTransport 3.1, теоретическая скорость передачи данных составляет 25,6  ГБ / с (3,2 ГГц × 2 передачи за тактовый цикл × 32 бита на канал) в каждом направлении, или 51,2 ГБ / с совокупная пропускная способность, что делает его быстрее, чем большинство существующих стандартов шины для рабочих станций и серверов ПК, а также делает его быстрее, чем большинство стандартов шины для высокопроизводительных вычислений и сетей.

Ссылки различной ширины могут быть смешаны вместе в одной конфигурации системы, например, в одной 16-битной ссылке на другой ЦП и одной 8-битной ссылке на периферийное устройство, что обеспечивает более широкое соединение между ЦП и более низкую пропускную способность соединения с периферийными устройствами по мере необходимости. Он также поддерживает разделение ссылок, когда одна 16-битная ссылка может быть разделена на две 8-битные ссылки. Эта технология также обычно имеет меньшую задержку, чем другие решения, из-за меньших накладных расходов.

В электрическом отношении HyperTransport похож на низковольтную дифференциальную сигнализацию (LVDS), работающую при напряжении 1,2 В. [2] HyperTransport 2.0 добавила функцию понижения уровня посткурсора . В HyperTransport 3.0 добавлены скремблирование и фазовая синхронизация приемника, а также дополнительная функция уменьшения предшественника передатчика.

Пакетно-ориентированный [ править ]

HyperTransport основан на пакетах , где каждый пакет состоит из набора 32-битных слов независимо от физической ширины канала. Первое слово в пакете всегда содержит командное поле. Многие пакеты содержат 40-битный адрес. Если требуется 64-битная адресация, добавляется дополнительный 32-битный пакет управления. Полезные данные отправляются после пакета управления. Передачи всегда дополняются до кратного 32 битам, независимо от их фактической длины.

Пакеты HyperTransport входят в межсоединение сегментами, известными как битовое время. Количество требуемых битов зависит от ширины ссылки. HyperTransport также поддерживает обмен сообщениями управления системой, сигнализацию прерываний, отправку зондов для соседних устройств или процессоров, транзакции ввода-вывода и транзакции общих данных. Поддерживаются два типа команд записи: опубликованные и неопубликованные. Отправленные записи не требуют ответа от адресата. Обычно это используется для устройств с высокой пропускной способностью, таких как унифицированный трафик доступа к памяти или прямой доступ к памяти.переводы. Неопубликованная запись требует ответа от получателя в виде ответа «цель выполнена». Чтения также требуют ответа, содержащего прочитанные данные. HyperTransport поддерживает модель заказа потребителя / производителя PCI.

Управляемая мощностью [ править ]

HyperTransport также облегчает управление питанием, поскольку он соответствует спецификации Advanced Configuration and Power Interface . Это означает, что изменения в состояниях сна процессора (состояния C) могут сигнализировать об изменениях состояний устройства (состояния D), например, об отключении питания дисков, когда ЦП переходит в режим сна. В HyperTransport 3.0 добавлены дополнительные возможности, позволяющие контроллеру централизованного управления питанием реализовывать политики управления питанием.

Приложения [ править ]

Замена передней шины [ править ]

Основное использование HyperTransport заключается в замене определенной Intel интерфейсной шины , которая отличается для каждого типа процессора Intel. Например, Pentium нельзя подключить к шине PCI Express напрямую, но сначала необходимо пройти через адаптер для расширения системы. Собственная передняя шина должна подключаться через адаптеры для различных стандартных шин, таких как AGP или PCI Express. Обычно они включены в соответствующие функции контроллера, а именно в северный и южный мосты .

Напротив, HyperTransport - это открытая спецификация, опубликованная консорциумом, состоящим из нескольких компаний. Один чип адаптера HyperTransport будет работать с широким спектром микропроцессоров с поддержкой HyperTransport.

AMD использовала HyperTransport для замены фронтальной шины в своих микропроцессорах семейств Opteron , Athlon 64 , Athlon II , Sempron 64 , Turion 64 , Phenom , Phenom II и FX .

Многопроцессорное соединение [ править ]

Еще одно применение HyperTransport - это соединение для многопроцессорных компьютеров NUMA . AMD использует HyperTransport с проприетарным расширением когерентности кэша как часть своей архитектуры Direct Connect в линейке процессоров Opteron и Athlon 64 FX ( архитектура Dual Socket Direct Connect (DSDC) ). Межсоединения ХОРУСА от Newisys расширяет эту концепцию на более крупные кластеры. Устройство Aqua от 3Leaf Systems виртуализирует и соединяет ЦП, память и ввод-вывод.

Замена маршрутизатора или коммутатора [ править ]

HyperTransport также можно использовать в качестве шины в маршрутизаторах и коммутаторах . Маршрутизаторы и коммутаторы имеют несколько сетевых интерфейсов и должны передавать данные между этими портами как можно быстрее. Например, для четырехпортового маршрутизатора Ethernet 1000  Мбит / с требуется максимальная внутренняя пропускная способность 8000 Мбит / с (1000 Мбит / с × 4 порта × 2 направления) - HyperTransport значительно превышает полосу пропускания, необходимую для этого приложения. Однако для маршрутизатора 10 Гбит / с с 4 + 1 портами потребуется внутренняя пропускная способность 100 Гбит / с. Добавьте к этому антенны 802.11ac 8, и стандарт WiGig 60 ГГц (802.11ad), и HyperTransport станет более осуществимым (от 20 до 24 полос, используемых для необходимой полосы пропускания).

Соединение сопроцессора [ править ]

Проблема задержки и пропускной способности между процессорами и сопроцессорами обычно была основным камнем преткновения на пути их практической реализации. Появились сопроцессоры, такие как FPGA , которые могут получить доступ к шине HyperTransport и интегрироваться в материнскую плату. ПЛИС текущего поколения от обоих основных производителей ( Altera и Xilinx ) напрямую поддерживают интерфейс HyperTransport и имеют IP-ядра . Такие компании, как XtremeData, Inc. и DRC, берут эти ПЛИС (Xilinx в случае DRC) и создают модуль, который позволяет ПЛИС подключаться непосредственно к сокету Opteron.

21 сентября 2006 г. AMD начала инициативу под названием Torrenza , направленную на дальнейшее продвижение использования HyperTransport для сменных карт и сопроцессоров . Эта инициатива открыла их "Socket F" для дополнительных плат, таких как XtremeData и DRC.

Разъем для дополнительной карты (HTX и HTX3) [ править ]

Разъемы сверху вниз: HTX, PCI-Express для райзер-карты, PCI-Express

Консорциум HyperTransport выпустил спецификацию разъема, которая позволяет периферийному устройству на базе слотов иметь прямое соединение с микропроцессором с помощью интерфейса HyperTransport. Он известен как H yper T ransport e X pansion ( HTX ). Используя перевернутый экземпляр того же механического разъема, что и 16-полосный слот PCI-Express (плюс разъем x1 для контактов питания), HTX позволяет разрабатывать подключаемые карты, которые поддерживают прямой доступ к ЦП и DMA к системной ОЗУ . Первоначальной картой для этого слота была QLogic InfiniPath InfiniBand HCA. IBM и HP , среди прочих, выпустили системы, совместимые с HTX.

Исходный стандарт HTX ограничен 16 битами и 800 МГц. [3]

В августе 2008 года Консорциум HyperTransport выпустил HTX3, который увеличивает тактовую частоту HTX до 2,6 ГГц (5,2 GT / s, 10,7 GTi, реальная скорость передачи данных 5,2 ГГц, скорость редактирования 3 MT / s) и сохраняет обратную совместимость. [4]

Тестирование [ править ]

Испытательный разъем «DUT» [5] предназначен для обеспечения соединения стандартизированной системы функционального тестирования.

Infinity Fabric [ править ]

Infinity Fabric (IF) - это надмножество HyperTransport, анонсированного AMD в 2016 году в качестве межсоединения для своих графических процессоров и процессоров. Он также может использоваться в качестве межчипового соединения для связи между процессорами и графическими процессорами (для архитектуры гетерогенной системы ), схема, известная как архитектура бесконечности . [6] [7] [8] Компания заявила, что Infinity Fabric будет масштабироваться с 30 ГБ / с до 512 ГБ / с и будет использоваться в процессорах на базе Zen и графических процессорах Vega, которые впоследствии были выпущены в 2017 году.

В процессорах Zen и Zen + межсоединения данных «SDF» работают на той же частоте, что и тактовая частота памяти DRAM (MEMCLK), решение было принято для устранения задержки, вызванной разными тактовыми частотами. В результате использование более быстрого модуля RAM ускоряет работу всей шины. Каналы имеют ширину 32 бита, как и в HT, но за цикл выполняется 8 передач (128-битные пакеты) по сравнению с исходными 2. Для повышения энергоэффективности произведены электрические изменения. [9] В процессорах Zen 2 и Zen 3 шина IF находится на отдельной тактовой частоте, либо в соотношении 1: 1 или 2: 1 к тактовой частоте DRAM, из-за ранних проблем Zen с высокоскоростной DRAM, влияющей на скорость IF, и, следовательно, стабильность системы. Ширина автобуса также увеличилась вдвое. [10]

Реализации [ править ]

  • AMD AMD64 и Direct Connect Architecture на базе процессоров
  • Чипсеты AMD
    • AMD-8000 серии
    • AMD 480 серии
    • AMD 580 серии
    • AMD 690 серии
    • AMD серии 700
    • AMD серии 800
    • AMD серии 900
  • Чипсеты ATI
    • ATI Radeon Xpress 200 для процессора AMD
    • ATI Radeon Xpress 3200 для процессора AMD
  • Broadcom (затем ServerWorks ) Контроллеры ввода-вывода HyperTransport System
    • HT-2000
    • HT-2100
  • Процессоры Cisco QuantumFlow
  • ht_tunnel из проекта OpenCores (лицензия MPL)
  • Чипсеты IBM CPC925 и CPC945 (северные мосты PowerPC 970 )
  • Процессор Loongson -3 MIPS
  • Чипсеты Nvidia nForce
    • nForce Professional MCP (мультимедийный и коммуникационный процессор)
    • nForce 3 серии
    • nForce 4 серии
    • nForce 500 серии
    • nForce 600 серии
    • nForce 700 серии
    • nForce 900 серии
  • Процессор PMC-Sierra RM9000X2 MIPS
  • Power Mac G5 [11]
  • Процессоры потоков Raza
  • Процессоры SiByte MIPS от Broadcom
  • Процессоры Transmeta TM8000 Efficeon
  • Чипсеты VIA серии K8

Частотные характеристики [ править ]

* AMD Athlon 64 , Athlon 64 FX, Athlon 64 X2 , Athlon X2, Athlon II , Phenom, Phenom II , Sempron , Turion series и более поздние версии используют одно 16-битное соединение HyperTransport. AMD Athlon 64 FX ( 1207 ), Opteronиспользуйте до трех 16-битных ссылок HyperTransport. Общие тактовые частоты для этих каналов процессора составляют от 800 МГц до 1 ГГц (старые однопроцессорные системы и системы с несколькими разъемами на каналах 754/939/940) и от 1,6 ГГц до 2,0 ГГц (более новые системы с одним разъемом на каналах AM2 + / AM3 - большинство новых процессоров используют 2.0. ГГц). Хотя сам HyperTransport поддерживает связи с 32-битной шириной, эта ширина в настоящее время не используется никакими процессорами AMD. Однако некоторые наборы микросхем даже не используют 16-битную ширину, используемую процессорами. К ним относятся Nvidia nForce3 150, nForce3 Pro 150 и ULi M1689, которые используют 16-битный нисходящий канал HyperTransport, но ограничивают восходящий канал HyperTransport до 8 бит.

Имя [ редактировать ]

Там были некоторые маркетинга путаница между использованием HT со ссылкой на H Yper T ransport и последующего использования HT ссылаться на Intel «s Hyper-Threading функции на некотором Pentium 4 основанное и новой Nehalem и Westmere на базе Intel Core микропроцессоров . Гиперпоточный официально известно как H yper- Т hreading Т ехнология ( НТТЫ ) или технология HT . Из-за возможности возникновения путаницы Консорциум HyperTransport всегда использует выписанную форму: «HyperTransport».

См. Также [ править ]

  • Эластичная интерфейсная шина
  • Fibre Channel
  • Фронтальный автобус
  • Intel QuickPath Interconnect
  • Список пропускной способности устройства
  • PCI Express
  • RapidIO
  • AGESA

Ссылки [ править ]

  1. ^ «API NetWorks ускоряет использование технологии HyperTransport с запуском первого в отрасли микросхемы моста между технологией HyperTransport и PCI» (пресс-релиз). Консорциум HyperTransport. 2001-04-02. Архивировано из оригинала на 2006-10-10.
  2. ^ Обзор (PDF) , Hyper Transport, заархивировано из оригинала ( PDF ) 16 июля 2011 г. .
  3. ^ Эмберсон, Дэвид; Холден, Брайан (2007-12-12). «Спецификация HTX» (PDF) : 4. Архивировано из оригинального (PDF) на 2012-03-08 . Проверено 30 января 2008 . Цитировать журнал требует |journal=( помощь )
  4. ^ Emberson, Дэвид (2008-06-25). «Спецификация HTX3» (PDF) : 4. Архивировано из оригинального (PDF) на 2012-03-08 . Проверено 17 августа 2008 . Цитировать журнал требует |journal=( помощь )
  5. ^ Холден, Брайан; Мешке, Майкл «Майк»; Абу-Лебдех, Зиад; Д'Орфани, Ренато. «Коннектор DUT и тестовая среда для HyperTransport» (PDF) . Архивировано из оригинального (PDF) 03.09.2006. Цитировать журнал требует |journal=( помощь )
  6. ^ AMD. «AMD_presentation_EPYC» . Архивировано из оригинала на 2017-08-21 . Дата обращения 24 мая 2017 .
  7. ^ Мерритт, Рик (13 декабря 2016). «AMD Clocks Ryzen на 3,4 ГГц +» . EE Times . Архивировано из оригинала 8 августа 2019 года . Проверено 17 января 2017 года .
  8. Март 2020, Пол Алкорн, 03. «Подробное описание структуры AMD CPU-to-GPU Infinity Fabric» . Оборудование Тома .
  9. ^ «Infinity Fabric (IF) - AMD» . WikiChip .
  10. ^ «Анализ микроархитектуры AMD Zen 2: Ryzen 3000 и EPYC Rome» .
  11. Стив Джобс, Apple (25 июня 2003 г.). "Основной доклад WWDC 2003" . YouTube . Проверено 16 октября 2009 .

Внешние ссылки [ править ]

  • Консорциум HyperTransport (главная).
  • Технологии , HyperTransport[ постоянная мертвая ссылка ] .
  • Технические характеристики , HyperTransport, заархивировано из оригинала 22августа2008 г..
  • Центр передового опыта в области гипертранспорта , Германия : Uni HD.