Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску
SGI Altix суперкомпьютер с 23000 процессоров на Cines объекте во Франции

Подходы к архитектуре суперкомпьютеров резко изменились с тех пор, как первые системы были представлены в 1960-х годах. Ранние суперкомпьютерные архитектуры, впервые разработанные Сеймуром Креем, основывались на компактных инновационных конструкциях и локальном параллелизме для достижения превосходной максимальной вычислительной производительности. [1] Однако со временем потребность в увеличенных вычислительных мощностях привела к эпохе массовых параллельных систем.

В то время как суперкомпьютеры 1970-х годов использовали всего несколько процессоров , в 1990-х годах начали появляться машины с тысячами процессоров, а к концу 20-го века были массово параллельные суперкомпьютеры с десятками тысяч стандартных процессоров. норма. Суперкомпьютеры 21 века могут использовать более 100 000 процессоров (некоторые из которых являются графическими устройствами ), соединенных быстрыми соединениями. [2] [3]

На протяжении десятилетий управление плотностью тепла оставалось ключевым вопросом для большинства централизованных суперкомпьютеров. [4] [5] [6] Большое количество тепла, выделяемого системой, может также иметь другие эффекты, такие как сокращение срока службы других компонентов системы. [7] Существуют различные подходы к управлению теплом, от прокачки Fluorinert через систему до гибридной системы жидкостно-воздушного охлаждения или воздушного охлаждения с нормальной температурой кондиционирования . [8] [9]

Системы с огромным количеством процессоров обычно выбирают один из двух путей: в одном подходе, например, при вычислении сетки, вычислительная мощность большого количества компьютеров в распределенных, разнообразных административных доменах может использоваться всякий раз, когда компьютер доступен. [10] В другом подходе большое количество процессоров используется в непосредственной близости друг от друга, например, в компьютерном кластере . В такой централизованной массивно-параллельной системе скорость и гибкость межсоединений становятся очень важными, и современные суперкомпьютеры используют различные подходы, начиная от усовершенствованных систем Infiniband и заканчивая межсоединениями трехмерного тора . [11][12]

Контекст и обзор [ править ]

С конца 1960-х годов мощность и распространение суперкомпьютеров резко возросли, и основные архитектурные направления этих систем претерпели значительные изменения. В то время как первые суперкомпьютеры полагались на небольшое количество тесно связанных процессоров, которые обращались к общей памяти , суперкомпьютеры 21-го века используют более 100 000 процессоров, соединенных быстрыми сетями. [2] [3]

На протяжении десятилетий управление плотностью тепла оставалось ключевым вопросом для большинства централизованных суперкомпьютеров. [4] Девиз Сеймура Крея «вытащить тепло» был центральным в его философии проектирования и продолжает оставаться ключевым вопросом в суперкомпьютерных архитектурах, например, в крупномасштабных экспериментах, таких как Blue Waters . [4] [5] [6] Большое количество тепла, выделяемого системой, может также иметь другие эффекты, такие как сокращение срока службы других компонентов системы. [7]

IBM HS22 лезвие

Существуют различные подходы к управлению теплом, например , Cray 2 прокачивает Fluorinert через систему, тогда как System X использует гибридную систему жидкостно-воздушного охлаждения, а Blue Gene / P имеет воздушное охлаждение с нормальной температурой кондиционирования . [8] [13] [14] Тепло суперкомпьютера « Аквазар» используется для обогрева университетского городка. [15] [16]

Плотность тепла, создаваемого суперкомпьютером, напрямую зависит от типа процессора, используемого в системе, при этом более мощные процессоры обычно выделяют больше тепла, учитывая аналогичные лежащие в основе полупроводниковые технологии . [7] В то время как ранние суперкомпьютеры использовали несколько быстрых, плотно упакованных процессоров, которые использовали преимущества локального параллелизма (например, конвейерной обработки и векторной обработки ), со временем количество процессоров росло, и вычислительные узлы можно было размещать дальше, например, в компьютерный кластер или может быть географически рассредоточен в грид-вычислениях . [2] [17] По мере роста количества процессоров в суперкомпьютере "частота отказов компонентов »становится серьезной проблемой. Если суперкомпьютер использует тысячи узлов, каждый из которых может выходить из строя в среднем один раз в год, то система будет испытывать несколько отказов узлов каждый день. [9]

По мере того как соотношение цены и производительности графических процессоров общего назначения (GPGPU) улучшалось, ряд суперкомпьютеров в петафлопсах, таких как Tianhe-I и Nebulae , начали полагаться на них. [18] Тем не менее, другие системы, такие как компьютер K, продолжают использовать обычные процессоры, такие как конструкции на основе SPARC, и общая применимость GPGPU в приложениях для высокопроизводительных вычислений общего назначения была предметом споров, поскольку GPGPU может быть настроенный на хорошие результаты по конкретным тестам, его общая применимость к повседневным алгоритмам может быть ограничена, если не будут затрачены значительные усилия на настройку приложения для этого. [19]Тем не менее, графические процессоры набирают популярность, и в 2012 году суперкомпьютер Jaguar был преобразован в Titan путем замены процессоров на графические процессоры. [20] [21] [22]

По мере увеличения числа независимых процессоров в суперкомпьютере становится очевидным то, как они обращаются к данным в файловой системе, а также как они совместно используют и получают доступ к вторичным ресурсам хранения . За прошедшие годы был разработан ряд систем для распределенного управления файлами , например , IBM General Parallel File System , BeeGFS , Parallel Virtual File System , Hadoop и т. Д. [23] [24] Ряд суперкомпьютеров из списка TOP100, таких как как Tianhe-я использую Linux «s файловую систему Luster . [4]

Ранние системы с несколькими процессорами [ править ]

В CDC 6600 серии компьютеров были очень ранние попытки суперкомпьютеров и получила свое преимущество по сравнению с существующими системами на сместив работу периферийных устройств , освобождая CPU ( центральный процессор ) для обработки фактических данных. С компилятором Миннесотского FORTRAN 6600 может выдерживать 500 килофлопс на стандартных математических операциях. [25]

Цилиндрическая форма первых компьютеров Cray обеспечивала централизованный доступ, сохраняя короткие и равномерные расстояния. [3]

Другие ранние суперкомпьютеры, такие как Cray 1 и Cray 2 , появившиеся позже, использовали небольшое количество быстрых процессоров, которые работали согласованно и были равномерно подключены к наибольшему объему разделяемой памяти, которым можно было управлять в то время. [3]

Эти ранние архитектуры представили параллельную обработку на уровне процессора с такими нововведениями, как векторная обработка , при которой процессор может выполнять несколько операций в течение одного тактового цикла , вместо того, чтобы ждать последовательных циклов.

Со временем по мере увеличения количества процессоров возникли различные архитектурные проблемы. Две проблемы, которые необходимо решить по мере увеличения количества процессоров, - это распределение памяти и обработка. В подходе с распределенной памятью каждый процессор физически упакован вместе с некоторой локальной памятью. Тогда память, связанная с другими процессорами, будет «дальше» на основе параметров полосы пропускания и задержки при неоднородном доступе к памяти .

В 1960-х конвейерная обработка считалась новшеством, а к 1970-м годам использование векторных процессоров стало широко распространенным. К 1980-м годам многие суперкомпьютеры использовали параллельные векторные процессоры. [2]

Относительно небольшое количество процессоров в ранних системах позволяло им легко использовать архитектуру разделяемой памяти , которая позволяет процессорам получать доступ к общему пулу памяти. В первые дни распространенным подходом было использование унифицированного доступа к памяти (UMA), при котором время доступа к области памяти было одинаковым для разных процессоров. Использование неоднородного доступа к памяти (NUMA) позволяло процессору получать доступ к собственной локальной памяти быстрее, чем к другим ячейкам памяти, в то время как архитектуры памяти только кэш-памяти (COMA) позволяли использовать локальную память каждого процессора в качестве кеша, таким образом требуется согласование при изменении значений памяти. [26]

По мере увеличения числа процессоров эффективная межпроцессорная связь и синхронизация на суперкомпьютере становятся проблемой. Для достижения этой цели можно использовать несколько подходов. Например, в начале 1980 - х годов, в Cray X-MP системы, общие регистры были использованы. В этом подходе все процессоры имели доступ к общим регистрам, которые не перемещали данные туда и обратно, а использовались только для межпроцессорной связи и синхронизации. Однако неотъемлемые проблемы управления большим объемом разделяемой памяти между многими процессорами привели к переходу на более распределенные архитектуры . [27]

Массивный централизованный параллелизм [ править ]

Blue Gene / L корпус , показывающий сложенные лопасти , каждый из которых содержит множество процессоров

В течение 1980-х годов, когда спрос на вычислительные мощности увеличился, началась тенденция к гораздо большему количеству процессоров, открыв эру массово-параллельных систем с распределенной памятью и распределенными файловыми системами , учитывая, что архитектуры с общей памятью не могли масштабироваться до большое количество процессоров. [2] [28] Гибридные подходы, такие как распределенная разделяемая память, также появились после ранних систем. [29]

Подход компьютерной кластеризации соединяет ряд легко доступных вычислительных узлов (например, персональных компьютеров, используемых в качестве серверов) через быструю частную локальную сеть . [30] Действия вычислительных узлов управляются «промежуточным программным обеспечением кластеризации», программным уровнем, который располагается поверх узлов и позволяет пользователям рассматривать кластер как в целом один связанный вычислительный блок, например, через концепцию единого образа системы . [30]

Кластеризация компьютеров основана на централизованном подходе к управлению, который делает узлы доступными как согласованные общие серверы . Он отличается от других подходов, таких как одноранговые или грид-вычисления, которые также используют множество узлов, но имеют гораздо более распределенный характер . [30] К 21 - м веке, в TOP500 полугодовая список организации из 500 самых быстрых суперкомпьютеров часто включает в себя множество кластеров, например , самый быстрый в мире в 2011 году, K компьютер с распределенной памятью , кластерная архитектура. [31] [32]

Когда используется большое количество локальных полунезависимых вычислительных узлов (например, в кластерной архитектуре), скорость и гибкость межсоединения становятся очень важными. Современные суперкомпьютеры используют разные подходы к решению этой проблемы, например, Tianhe-1 использует проприетарную высокоскоростную сеть на основе Infiniband QDR, дополненную процессорами FeiTeng-1000 . [4] С другой стороны, система Blue Gene / L использует трехмерный тор, соединенный с вспомогательными сетями для глобальной связи. [11] В этом подходе каждый узел связан со своими шестью ближайшими соседями. Похожий тор использовался в Cray T3E . [12]

В массивных централизованных системах иногда используются специализированные процессоры, разработанные для конкретного приложения, и могут использоваться микросхемы программируемых вентильных матриц (FPGA), чтобы повысить производительность, жертвуя общностью. Примеры суперкомпьютеров специального назначения включают Belle , [33] Deep Blue , [34] и Hydra , [35] для игры в шахматы , Gravity Pipe для астрофизики, [36] MDGRAPE-3 для вычисления структуры белка, молекулярной динамики [37] и Deep Crack , [38] для взлома шифра DES .

Массивный распределенный параллелизм [ править ]

Пример архитектуры географически разнесенной вычислительной системы, соединяющей множество узлов по сети

Грид-вычисления используют большое количество компьютеров в распределенных, разнообразных административных доменах. Это оппортунистический подход, при котором ресурсы используются всякий раз, когда они доступны. [10] Примером может служить BOINC - добровольная , гибкая сеточная система. [39] Некоторые приложения BOINC достигли уровня в несколько петафлопс за счет использования почти полумиллиона компьютеров, подключенных к Интернету, всякий раз, когда появляются добровольные ресурсы. [40] Однако такие результаты часто не появляются в рейтингах TOP500, потому что они не запускают общий тест Linpack .

Хотя грид-вычисления успешно выполняются при параллельном выполнении задач, требовательные суперкомпьютерные приложения, такие как моделирование погоды или вычислительная гидродинамика , остаются недосягаемыми, отчасти из-за препятствий в надежном распределении большого количества задач, а также из-за надежной доступности. ресурсов в данный момент времени. [39] [41] [42]

В квази-оппортунистических суперкомпьютерах большое количество географически разнесенных компьютеров организовано с помощью встроенных средств защиты . [43] Квази-оппортунистический подход выходит за рамки добровольных вычислений в сильно распределенных системах, таких как BOINC , или общих грид-вычислений в такой системе, как Globus , позволяя промежуточному программному обеспечению обеспечивать почти беспрепятственный доступ ко многим вычислительным кластерам, так что существующие программы на языках такие как Fortran или C, могут быть распределены между несколькими вычислительными ресурсами. [43]

Квази-оппортунистические суперкомпьютеры нацелены на обеспечение более высокого качества обслуживания, чем гибкое совместное использование ресурсов . [44] Квази-оппортунистический подход позволяет выполнять требовательные приложения в компьютерных сетях путем заключения соглашений о распределении ресурсов по сетям; и передача отказоустойчивых сообщений для абстрактной защиты от сбоев базовых ресурсов, таким образом поддерживая некоторый оппортунизм, обеспечивая более высокий уровень контроля. [10] [43] [45]

Архитектурные тенденции 21 века [ править ]

Человек идет между стойками суперкомпьютера Cray XE6

Архитектура суперкомпьютера IBM Blue Gene с воздушным охлаждением сочетает в себе скорость процессора с низким энергопотреблением, так что большее количество процессоров можно использовать при комнатной температуре с использованием обычного кондиционирования воздуха. [14] [46] Система Blue Gene / P второго поколения имеет процессоры со встроенной логикой межузловой связи. [47] Он энергоэффективен, достигая 371 MFLOPS / Вт . [48]

К компьютером является водяным охлаждением , однородный процессор, распределенная память системы с кластерной архитектурой . [32] [49] В ней используется более 80 000 процессоров SPARC64 VIIIfx , каждый с восемью ядрами , в общей сложности более 700 000 ядер - почти вдвое больше, чем в любой другой системе. Он состоит из более чем 800 шкафов, каждый с 96 вычислительными узлами (каждый с 16 ГБ памяти) и 6 узлами ввода-вывода. Несмотря на то, что он более мощный, чем следующие пять систем в списке TOP500 вместе взятых, при 824,56 MFLOPS / Вт он имеет самое низкое соотношение мощности к производительности среди всех существующих крупных суперкомпьютерных систем. [50] [51]Последующая система для K-компьютера, названная PRIMEHPC FX10, использует то же шестимерное торцевое соединение, но по-прежнему только один процессор на узел. [52]

В отличие от компьютера K, система Tianhe-1A использует гибридную архитектуру и объединяет центральные и графические процессоры. [4] Он использует более 14 000 универсальных процессоров Xeon и более 7 000 универсальных графических процессоров Nvidia Tesla (GPGPU) на примерно 3 500 блейд- серверах . [53] Он имеет 112 компьютерных шкафов и 262 терабайта распределенной памяти; 2 петабайта дискового хранилища реализованы с помощью кластерных файлов Lustre . [54] [55] [56] [4] Tianhe-1 использует проприетарную высокоскоростную сеть связи для подключения процессоров. [4]Запатентованная межкомпонентная сеть была основана на Infiniband QDR, дополненном процессорами FeiTeng-1000 китайского производства . [4] В случае межсоединения система в два раза быстрее, чем Infiniband, но медленнее, чем некоторые межсоединения на других суперкомпьютерах. [57]

Пределы конкретных подходов продолжают проверяться, поскольку границы достигаются посредством крупномасштабных экспериментов, например, в 2011 году IBM прекратила свое участие в проекте Blue Waters petaflops в Университете Иллинойса. [58] [59] Архитектура Blue Waters была основана на процессоре IBM POWER7 и должна была иметь 200 000 ядер с петабайтом «глобально адресуемой памяти» и 10 петабайтами дискового пространства. [6] Цель стабильного петафлопа привела к выбору дизайна, оптимизирующему одноядерную производительность и, следовательно, меньшему количеству ядер. Тогда ожидалось, что меньшее количество ядер повысит производительность программ, которые плохо масштабируются для большого количества процессоров. [6]Архитектура большой глобально адресуемой памяти была направлена ​​на эффективное решение проблем с адресом памяти для однотипных программ. [6] Предполагалось, что Blue Waters будет работать с постоянной скоростью, по крайней мере, в один петафлоп, и полагались на особый подход водяного охлаждения для управления теплом. За первые четыре года работы Национальный научный фонд потратил на проект около 200 миллионов долларов. Вскоре после этого IBM выпустила вычислительный узел Power 775, созданный на основе технологии этого проекта, но фактически отказалась от подхода Blue Waters. [58] [59]

Архитектурные эксперименты продолжаются в нескольких направлениях, например, в системе Cyclops64 используется подход «суперкомпьютер на кристалле», в направлении от использования массивных распределенных процессоров. [60] [61] Каждый 64-битный чип Cyclops64 содержит 80 процессоров, и вся система использует архитектуру памяти с глобальной адресацией . [62] Процессоры соединены переключающей панелью без внутренней блокировки и обмениваются данными друг с другом через глобальную перемежаемую память. В архитектуре нет кеша данных , но половина каждого банка SRAM может использоваться в качестве оперативной памяти. [62]Хотя этот тип архитектуры допускает неструктурированный параллелизм в динамически несмежной системе памяти, он также создает проблемы при эффективном отображении параллельных алгоритмов на многоядерную систему. [61]

См. Также [ править ]

  • Операционные системы суперкомпьютеров
  • Суперкомпьютеры в Китае
  • Суперкомпьютерные технологии в Европе
  • История суперкомпьютеров
  • Суперкомпьютеры в Индии
  • Суперкомпьютеры в Японии

Ссылки [ править ]

  1. Сао-Цзе Чен; Гуан-Хуэй Линь; Пао-Анн Сюн; Ю-Хен Ху (9 февраля 2009 г.). Совместное проектирование аппаратного обеспечения мультимедийной социальной платформы . Springer. С. 70–72. ISBN 978-1-4020-9622-8. Проверено 15 июня 2012 года .
  2. ^ a b c d e Хоффман, Аллан Р. (1989). Суперкомпьютеры: направления в технологии и приложениях . Вашингтон, округ Колумбия: Национальная академия прессы. С. 35–47. ISBN 978-0-309-04088-4.
  3. ^ a b c d Hill, Mark D .; Джуппи, Норман П .; Сохи, Гуриндар (2000). Чтения по компьютерной архитектуре . Сан-Франциско: Морган Кауфманн. С. 40–49. ISBN 978-1-55860-539-8.
  4. ^ Б с д е е г ч я Yang, Xue-Jun; Ляо, Сян-Кэ; Лу, Кай; Ху Цин-Фэн; Сун, Цзюнь-Цян; Су, Джин-Шу (2011). «Суперкомпьютер TianHe-1A: его аппаратное и программное обеспечение». Журнал компьютерных наук и технологий . 26 (3): 344–351. DOI : 10.1007 / s02011-011-1137-8 .
  5. ^ a b Мюррей, Чарльз Дж. (1997). Супермены: история Сеймура Крея и технических волшебников, создавших суперкомпьютер . Нью-Йорк: Джон Вили. С.  133–135 . ISBN 978-0-471-04885-5.
  6. ^ a b c d e Biswas, под редакцией Рупака (2010). Параллельная вычислительная гидродинамика: последние достижения и будущие направления: доклады 21-й Международной конференции по параллельной вычислительной гидродинамике . Ланкастер, Пенсильвания: публикации DEStech. п. 401. ISBN. 978-1-60595-022-8.CS1 maint: дополнительный текст: список авторов ( ссылка )
  7. ^ a b c Юнге Хуан, изд. (2008). Успехи исследований в области суперкомпьютеров . Нью-Йорк: Nova Science Publishers. С. 313–314. ISBN 978-1-60456-186-9.
  8. ^ а б Тохи, Миссури; Hossain, MA; Шахид, MH (2003). Параллельные вычисления для обработки сигналов и управления в реальном времени . Лондон [ua]: Спрингер. С. 201–202. ISBN 978-1-85233-599-1.
  9. ^ а б Вейди С. Сундерам, изд. (2005). Вычислительная наука - ICCS 2005. 5-я международная конференция, Атланта, Джорджия, США, 22-25 мая 2005 г .: материалы (1-е изд.). Берлин: Springer. С. 60–67. ISBN 978-3-540-26043-1.
  10. ^ a b c Продан, Раду; Томас Фарингер (2007). Управление экспериментами по грид-вычислениям, интеграция инструментов и научные рабочие процессы . Берлин: Springer. С. 1–4. ISBN 978-3-540-69261-4.
  11. ^ a b Knight, Will (27 июня 2007 г.). «IBM создает самый мощный компьютер в мире» . Новый ученый .
  12. ^ а б Адига, Н.Р .; Блюмрих, Массачусетс; Chen, D .; Coteus, P .; Gara, A .; Giampapa, ME; Heidelberger, P .; Singh, S .; Steinmacher-Burow, BD; Takken, T .; Tsao, M .; Вранас, П. (март 2005 г.). "Blue Gene / L torus interconnection network" (PDF) . Журнал исследований и разработок IBM . 49 (2.3): 265–276. DOI : 10.1147 / rd.492.0265 . Архивировано из оригинального (PDF) на 2011-08-15. CS1 maint: несколько имен: список авторов ( ссылка )
  13. ^ Варадараджан, S. (14 марта 2005). System X строит суперкомпьютер Virginia Tech . Компьютерные коммуникации и сети, 2004. ICCCN 2004. Труды. 13-я Международная конференция по . п. 1. дои : 10,1109 / ICCCN.2004.1401570 . ISBN 978-0-7803-8814-7. ISSN  1095-2055 .
  14. ^ Б Прикетт Морган, Тимоти (22 ноября 2010). «IBM обнаруживает 20 петафлопс BlueGene / Q super» . Реестр .
  15. ^ "Суперкомпьютер IBM с водяным охлаждением запускается в ETH Zurich" . HPCwire . Цюрих. 2 июля 2010. Архивировано из оригинала 13 августа 2012 года.
  16. ^ LaMonica, Мартин (10 мая 2010). «Суперкомпьютер IBM с жидкостным охлаждением нагревает здание» . Зеленые технологии . Cnet.
  17. ^ Хендерсон, Гарри (2008). «Архитектура суперкомпьютера». Энциклопедия компьютерных наук и технологий . п. 217. ISBN. 978-0-8160-6382-6.
  18. ^ Прикетт Морган, Тимоти (31 мая 2010 г.). «Топ-500 суперов - рассвет графических процессоров» . Реестр .
  19. Райнер Келлер; Дэвид Крамер; Ян-Филипп Вайс (1 декабря 2010 г.). Столкнувшись с многоядерным вызовом: аспекты новых парадигм и технологий в параллельных вычислениях . Springer. С. 118–121. ISBN 978-3-642-16232-9. Проверено 15 июня 2012 года .
  20. ^ Poeter, Дэймон (11 октября 2011). «Суперкомпьютер Cray Titan для ORNL может быть самым быстрым в мире» . Журнал ПК .
  21. ^ Фельдман, Майкл (11 октября 2011 г.). «Графические процессоры превратят Jaguar ORNL в титан мощностью 20 петафлоп» . Провод HPC .
  22. ^ Прикетт Морган, Тимоти (11 октября 2011). «Oak Ridge меняет позиции Jaguar с CPU на GPU» .
  23. ^ Хай-Сян Линь; Майкл Александр; Марти Форселл, ред. (2010). Семинары по параллельной обработке Euro-Par 2009: HPPC, HeteroPar, PROPER, ROIA, UNICORE, VHPC, Делфт, Нидерланды, 25-28 августа 2009 г .; семинары (Online-Ausg. ed.). Берлин: Springer. п. 345. ISBN 978-3-642-14121-8.
  24. ^ Райнер Думка; Рене Браунгартен; Гюнтер Бюрен (3 декабря 2008 г.). Программный процесс и измерение продукта: Международные конференции, IWSM 2008, MetriKon 2008 и Mensura 2008, Мюнхен, Германия, 18-19 ноября 2008 г .: Материалы . Springer. С. 144–117. ISBN 978-3-540-89402-5. Проверено 15 июня 2012 года .
  25. Перейти ↑ Frisch, Michael J. (декабрь 1972 г.). «Замечания по алгоритму 352 [S22], алгоритму 385 [S13], алгоритму 392 [D3]». Коммуникации ACM . 15 (12): 1074. DOI : 10,1145 / 361598,361914 .
  26. ^ Эль-Rewini, Hesham; Мостафа Абд-эль-Барр (2005). Расширенная компьютерная архитектура и параллельная обработка . Хобокен, Нью-Джерси: Wiley-Interscience. С. 77–80. ISBN 978-0-471-46740-3.
  27. ^ JJ Dongarra; Л. Грандинетти; Дж. Ковалик; Г. Р. Жубер (13 сентября 1995 г.). Высокопроизводительные вычисления: технологии, методы и приложения . Эльзевир. С. 123–125. ISBN 978-0-444-82163-8. Проверено 15 июня 2012 года .
  28. ^ Грег Астфальк (1996). Приложения на компьютерах с продвинутой архитектурой . СИАМ. С. 61–64. ISBN 978-0-89871-368-8. Проверено 15 июня 2012 года .
  29. ^ Jelica протонных; Мило Томашевич; Мило Томашевич; Велько Милутинович (1998). Распределенная разделяемая память: концепции и системы . Издательство IEEE Computer Society Press. стр. ix – x. ISBN 978-0-8186-7737-3. Проверено 15 июня 2012 года .
  30. ^ a b c Томоя Энокидо; Леонард Баролли; Макото Такидзава, ред. (2007). Сетевые информационные системы: первая международная конференция, NBiS 2007, Регенсбург, Германия, 3-7 сентября 2007: материалы . Берлин: Springer. п. 375. ISBN 978-3-540-74572-3.
  31. ^ Список TOP500 Чтобы просмотреть все кластеры в списке TOP500, выберите «кластер» в качестве архитектуры из «меню подсписка» на сайте TOP500.
  32. ^ a b Yokokawa, M .; Сёдзи, Фумиёси; Уно, Ацуя; Курокава, Мотоёси; Ватанабэ, Тадаши (22 августа 2011 г.). Компьютер K: японский проект по разработке суперкомпьютеров нового поколения . Маломощная электроника и дизайн (ISLPED) 2011 Международный симпозиум по . С. 371–372. DOI : 10.1109 / ISLPED.2011.5993668 . ISBN 978-1-61284-658-3.
  33. ^ Кондон, JH и K.Thompson, "Belle Chess Hardware", в развитие компьютерных шахмат 3 (ed.MRBClarke), Пергамон Пресс, 1982.
  34. Перейти ↑ Hsu, Feng-hsiung (2002). За Deep Blue: создание компьютера, победившего чемпиона мира по шахматам . Издательство Принстонского университета . ISBN 978-0-691-09065-8.CS1 maint: ref = harv ( ссылка )
  35. ^ Доннингер, Chrilly; Ульф Лоренц (2004). Гидра шахматного монстра . Конспект лекций по информатике. 3203 . С. 927–932. DOI : 10.1007 / 978-3-540-30117-2_101 . ISBN 978-3-540-22989-6.
  36. Макино, Дзюнъитиро; Макото Тайцзи (1998). Научное моделирование на специальных компьютерах: системы GRAPE . Чичестер [ua]: Уайли. ISBN 978-0-471-96946-4.
  37. ^ RIKEN прессрелиз, Завершение одного-петафлопсом компьютерной системы для моделирования молекулярной динамики Архивной 2012-12-02 в Wayback Machine
  38. ^ Electronic Frontier Foundation (1998). Взлом DES - Секреты исследования шифрования, политики прослушивания телефонных разговоров и дизайна микросхем . Oreilly & Associates Inc. ISBN 978-1-56592-520-5.
  39. ^ a b Вега, Франсиско Фернандес де Вега (2010). Эрик Канту-Пас (ред.). Параллельный и распределенный вычислительный интеллект (Online-Ausg. Ed.). Берлин: Springer-Verlag. С. 65–68. ISBN 978-3-642-10674-3.
  40. ^ Статистика BOIN, 2011 г. Архивировано 19 сентября 2010 г. на Wayback Machine
  41. ^ Гуан Р. Гао, изд. (2010). Языки и компиляторы для параллельных вычислений: 22-й международный семинар, LCPC 2009, Ньюарк, Делавэр, США, 8-10 октября 2009 г., пересмотренные избранные статьи (1-е изд.). Берлин: Springer. С. 10–11. ISBN 978-3-642-13373-2.
  42. ^ Марио Р. Гуаррачино, изд. (2011-06-24). Евро-2010 пар, параллельная обработка Мастерские Heteropar, СКЦ, Hibb, Coregrid, Uchpc, HPCF, Proper, CCPI, Vhpc, Iscia, Италия, 31 августа - 3 сентября 2010 . Берлин [ua]: Springer-Verlag New York Inc., стр. 274–277. ISBN 978-3-642-21877-4.
  43. ^ a b c Кравцов, Валентин; Дэвид Кармели; Вернер Дубицкий; Ариэль Орда; Ассаф Шустер; Бенни Йошпа (2007). «Квазиоппортунистические суперкомпьютеры в сетях» . Международный симпозиум IEEE по высокопроизводительным распределенным вычислениям : 233–244.
  44. ^ Мариан Бубак, изд. (2008). Вычислительная наука - ICCS 2008: 8-я международная конференция, Краков, Польша, 23-25 ​​июня 2008 г .; разбирательства (Online-Ausg. ed.). Берлин: Springer. С. 112–113. ISBN 978-3-540-69383-3.
  45. ^ Габриэль Аллен , изд. (2009). Вычислительные науки - ICCS 2009: 9-я международная конференция, Батон-Руж, Луизиана, США, 25-27 мая 2009 г .; разбирательства . Берлин: Springer. С. 387–388. ISBN 978-3-642-01969-2.
  46. Перейти ↑ Cunha, José C. (2005). Euro-Par 2005 Параллельная обработка . [Нью-Йорк]: Springer-Verlag Berlin / Heidelberg. С. 560–567. ISBN 978-3-540-28700-1.
  47. ^ «IBM утроила производительность самого быстрого и самого энергоэффективного суперкомпьютера в мире» . 2007-06-27 . Проверено 24 декабря 2011 .
  48. ^ "Список Green500" . Архивировано из оригинала на 2016-08-26 . Проверено 13 февраля 2020 .
  49. ^ Список TOP500 Архивировано 20 января 2012 г. на Wayback Machine
  50. Такуми Маруяма (2009). SPARC64 (TM) VIIIfx: восьмиъядерный процессор Fujitsu нового поколения для вычислений в масштабе PETA (PDF) . Труды Hot Chips 21. Компьютерное общество IEEE.
  51. ^ "RIKEN Advanced Institute for Computational Science" (PDF) . РИКЕН . Архивировано из оригинального (PDF) 27 июля 2011 года . Проверено 20 июня 2011 года .
  52. ^ Fujitsu представляет суперкомпьютер Post-K HPC Wire 7 ноября 2011 г.
  53. ^ «MSN | Outlook, Office, Skype, Bing, последние новости и последние видео» . Архивировано из оригинала на 2010-10-07.
  54. ^ "Китай ..." 28 октября 2010 г.
  55. ^ "Top100 ..." 28 октября 2010 г.
  56. ^ Тяньхэ-1А
  57. ^ Тибодо, Патрик (4 ноября 2010). «США заявляют, что Китай строит« полностью местные »суперкомпьютеры» . Компьютерный мир . Архивировано из оригинального 11 октября 2012 года . Проверено 5 февраля 2012 года .
  58. ^ a b The Register : IBM разрывает сеть на суперкомпьютере "Blue Waters"
  59. ^ a b The Statesman Компьютерный бизнес Unix компании IBM переживает бум
  60. ^ Ню, Янвэй; Цзян Ху; Кеннет Барнер; Гуан Р. Гао (2005). Моделирование производительности и оптимизация доступа к памяти на архитектуре сотового компьютера cyclops64 . Proceeding NPC'05 Proceedings of the 2005 IFIP International Conference on Network and Parallel Computing . Конспект лекций по информатике. 3779 . С. 132–143. DOI : 10.1007 / 11577188_18 . ISBN 978-3-540-29810-6.
  61. ^ а б Тан, Гуанмин; Sreedhar, Vugranam C .; Гао, Гуан Р. (13 ноября 2009 г.). «Анализ и результаты производительности централизации вычислительной среды на IBM Cyclops64». Журнал суперкомпьютеров . 56 (1): 1–24. DOI : 10.1007 / s11227-009-0339-9 .
  62. ^ а б Хай Джин; Дэниел А. Рид; Вэньбинь Цзян (2005). Сети и параллельные вычисления: Международная конференция IFIP, NPC 2005, Пекин, Китай, 30 ноября - 3 декабря 2005 г .; Ход работы . Birkhäuser. С. 132–133. ISBN 978-3-540-29810-6. Проверено 15 июня 2012 года .