Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

IBM Blue Gene / P суперкомпьютер «Intrepid» в Аргоннской национальной лаборатории работает 164,000 процессорных ядер с использованием нормального центром обработки данных кондиционера, сгруппированный в 40 стойках / шкафов , соединенных высокоскоростной 3-D торы сети. [1] [2]
FLOPS на крупнейшем суперкомпьютере с течением времени

Суперкомпьютер является компьютером с высоким уровнем производительности по сравнению с компьютером общего назначения. Производительность суперкомпьютера обычно измеряется в операциях с плавающей запятой в секунду ( FLOPS ) вместо миллиона инструкций в секунду (MIPS). С 2017 года существуют суперкомпьютеры, которые могут выполнять более 10 17 FLOPS (сто квадриллионов FLOPS, 100 петафлопс или 100 PFLOPS). [3] С ноября 2017 года все 500 самых быстрых суперкомпьютеров в мире работают под управлением операционных систем на базе Linux . [4] Дополнительные исследования проводятся вСоединенным Штатам , Европейскому Союзу , Тайваню , Японии и Китаю - создать более быстрые, более мощные и технологически превосходящие эксафлопсные суперкомпьютеры . [5]

Суперкомпьютеры играют важную роль в области вычислительной науки и используются для широкого круга вычислительно-ресурсоемких задач в различных областях, включая квантовую механику , прогнозирование погоды , исследования климата , разведку нефти и газа , молекулярное моделирование (вычисление структур и свойств химических соединений, биологических макромолекул , полимеров и кристаллов) и физического моделирования (например, моделирования ранних моментов развития Вселенной, аэродинамики самолетов и космических кораблей , детонации ядерного оружия и ядерного синтеза). Они сыграли важную роль в области криптоанализа . [6]

Суперкомпьютеры были представлены в 1960-х годах, и в течение нескольких десятилетий самые быстрые из них были созданы Сеймуром Крэем из Control Data Corporation (CDC), Cray Research и последующими компаниями, носящими его имя или монограмму. Первые такие машины были хорошо настроенными традиционными конструкциями, которые работали быстрее, чем их более универсальные современники. В течение десятилетия было добавлено все больше параллелизма , обычно от одного до четырех процессоров . В 1970-х годах стали преобладать векторные процессоры, работающие с большими массивами данных. Ярким примером является очень успешный Cray-1.1976 года. Векторные компьютеры оставались доминирующей конструкцией в 1990-е годы. С тех пор и до сегодняшнего дня массово-параллельные суперкомпьютеры с десятками тысяч стандартных процессоров стали нормой. [7] [8]

США долгое время были лидером в области суперкомпьютеров, сначала благодаря почти непрерывному доминированию Cray в этой области, а затем благодаря множеству технологических компаний. Япония добилась значительных успехов в этой области в 1980-х и 90-х годах, а Китай становится все более активным в этой области. По состоянию на июнь 2020 года самым быстрым суперкомпьютером в списке суперкомпьютеров TOP500 является Fugaku в Японии с оценкой теста LINPACK 415 PFLOPS, за которым следует Summit , примерно на 266,7 PFLOPS. [9] В США четыре из 10 лучших; В Китае и Италии по два, в Швейцарии - по одному. [9] В июне 2018 года все суперкомпьютеры в списке преодолели отметку в 1 эксафлопс .[10]

История [ править ]

Печатная плата от IBM 7030
CDC 6600. За системной консолью находятся два «плеча» шкафа в форме знака «плюс» с открытыми крышками. На каждом плече машины было до четырех таких стоек. Справа - система охлаждения.
Cray-1 сохраняется в музее Deutsches

В 1960 году UNIVAC построил Ливерморский компьютер для атомных исследований (LARC), который сегодня считается одним из первых суперкомпьютеров для Центра исследований и разработок ВМС США. Он по-прежнему использовал высокоскоростную барабанную память , а не новую технологию дисководов . [11] Также среди первых суперкомпьютеров был IBM 7030 Stretch . IBM 7030 был построен IBM для Национальной лаборатории Лос-Аламоса , которая в 1955 году запросила компьютер в 100 раз быстрее, чем любой из существующих компьютеров. В IBM 7030 используются транзисторы , память на магнитных сердечниках, конвейернаяинструкции, предварительно загруженные данные через контроллер памяти и включенные в новаторские диски с произвольным доступом. IBM 7030 был построен в 1961 году, и, несмотря на то, что он не справился со стократным увеличением производительности, он был куплен Лос-Аламосской национальной лабораторией. Заказчики из Англии и Франции также купили компьютер, и он стал основой для IBM 7950 Harvest , суперкомпьютера, созданного для криптоанализа . [12]

Третьим новаторским суперкомпьютерным проектом в начале 1960-х был Атлас в Манчестерском университете , созданный командой под руководством Тома Килберна . Он разработал Атлас так, чтобы в нем было место в памяти для миллиона слов по 48 бит, но поскольку магнитная память такой емкости была недоступна, фактическая основная память Атласа составляла всего 16000 слов, а барабан предоставлял память еще для 96000. слова. Операционная система Atlas меняла местами данные в виде страниц между магнитным сердечником и барабаном. Операционная система Atlas также ввела разделение времени в суперкомпьютере, так что на суперкомпьютере можно было одновременно выполнять более одной программы. [13]Atlas был совместным предприятием Ферранти и Манчестерского университета и был разработан для работы со скоростью обработки, приближающейся к одной микросекунде на инструкцию, то есть около миллиона инструкций в секунду. [14]

CDC 6600 , разработанный Seymour Cray , был закончен в 1964 году и отмечен переход от германия в кремниевые транзисторы. Кремниевые транзисторы могли работать быстрее, и проблема перегрева была решена за счет внедрения охлаждения в конструкцию суперкомпьютера. [15] Таким образом, CDC6600 стал самым быстрым компьютером в мире. Учитывая, что 6600 превзошел все другие современные компьютеры примерно в 10 раз, он был назван суперкомпьютером и определил рынок суперкомпьютеров, когда сто компьютеров были проданы по 8 миллионов долларов каждый. [16] [17] [18] [19]

Крей покинул CDC в 1972 году, чтобы основать собственную компанию Cray Research . [17] Через четыре года после ухода из CDC, Cray в 1976 году поставил 80 МГц Cray-1 , который стал одним из самых успешных суперкомпьютеров в истории. [20] [21] Cray-2 был выпущен в 1985 году было восемь центральных процессоров (ЦП), жидкостного охлаждения и охлаждающей жидкости электроники Fluorinert прокачивали через архитектуру суперкомпьютеров . Он работал со скоростью 1,9 гигафлопс и был вторым по скорости в мире после суперкомпьютера М-13 в Москве. [22]

Массивно параллельные конструкции [ править ]

Шкаф массивно параллельного Blue Gene / L, демонстрирующий сложенные друг на друга лезвия , на каждом из которых установлено несколько процессоров.

Единственным компьютером, который серьезно бросил вызов производительности Cray-1 в 1970-х, был ILLIAC IV . Эта машина была первым реализованным примером настоящего массово-параллельногокомпьютер, в котором множество процессоров работали вместе, чтобы решить разные части одной большой проблемы. В отличие от векторных систем, которые были разработаны для максимально быстрого запуска единого потока данных, в этой концепции компьютер вместо этого передает отдельные части данных на совершенно разные процессоры, а затем повторно объединяет результаты. Конструкция ILLIAC была завершена в 1966 году с 256 процессорами и обеспечивала скорость до 1 GFLOPS, по сравнению с пиковым значением Cray-1 1970-х годов в 250 MFLOPS. Однако проблемы разработки привели к созданию только 64 процессоров, и система никогда не могла работать быстрее, чем примерно 200 MFLOPS, будучи намного больше и сложнее, чем Cray. Другая проблема заключалась в том, что написание программного обеспечения для системы было трудным, и для достижения максимальной производительности требовались серьезные усилия.

Но частичный успех ILLIAC IV был широко расценен как указатель пути в будущее суперкомпьютеров. Крей возражал против этого, как известно, шутя: «Если бы вы вспахивали поле, что бы вы предпочли использовать? Двух сильных волов или 1024 цыплят?» [23] Но к началу 1980-х несколько команд работали над параллельными проектами с тысячами процессоров, в частности, Connection Machine (CM), которая была разработана на основе исследований в MIT . В CM-1 использовалось до 65 536 упрощенных специализированных микропроцессоров, объединенных в сеть для обмена данными. Последовало несколько обновленных версий; Суперкомпьютер CM-5 - это компьютер с массовым параллелизмом, способный выполнять многие миллиарды арифметических операций в секунду.[24]

В 1982 году , Университет Осаки «s LINKS-1 Компьютерная графика система использовала массивно параллельной архитектуры обработки, с 514 микропроцессорами , в том числе 257 Zilog Z8001 процессоров управления и 257 iAPX 86/20 процессоров с плавающей точкой . В основном он использовался для рендеринга реалистичной компьютерной 3D-графики . [25] Fujitsu VPP500 1992 года является необычным, поскольку для достижения более высоких скоростей в его процессорах использовался GaAs , материал, обычно предназначенный для микроволновых приложений из-за его токсичности. [26] Fujitsu «S Численное аэродинамическая трубасуперкомпьютер использовал 166 векторных процессоров, чтобы занять первое место в 1994 году с пиковой скоростью 1,7  гигафлопс (GFLOPS) на процессор. [27] [28] Hitachi SR2201 получил максимальную производительность 600 GFLOPS в 1996 году с использованием 2048 процессоров , соединенных с помощью быстрого трехмерной поперечин сети. [29] [30] [31] Intel Paragon может быть от 1000 до 4000 Intel i860 процессоров в различных конфигурациях и ранжируются самый быстрый в мире в 1993 году Paragon был MIMDмашина, которая соединяет процессоры через высокоскоростную двумерную сетку, позволяя процессам выполняться на отдельных узлах, обмениваясь данными через интерфейс передачи сообщений . [32]

Разработка программного обеспечения оставалась проблемой, но серия CM вызвала серьезные исследования по этому вопросу. Подобные проекты с использованием специального оборудования были созданы многими компаниями, включая Evans & Sutherland ES-1 , MasPar , nCUBE , Intel iPSC и Goodyear MPP . Но к середине 1990-х годов производительность ЦП общего назначения настолько возросла, что суперкомпьютер можно было построить с их использованием в качестве отдельных процессоров вместо использования собственных микросхем. На рубеже 21-го века конструкции с десятками тысяч стандартных процессоров стали нормой, а более поздние машины добавляли графические блоки в эту смесь. [7] [8]

Доля CPU в TOP500
Схема трехмерного межсоединения тора, используемого такими системами, как Blue Gene, Cray XT3 и т. Д.

Системы с большим количеством процессоров обычно выбирают один из двух путей. В подходе к сетевым вычислениям вычислительная мощность многих компьютеров, организованных в виде распределенных, различных административных доменов, используется оппортунистически всякий раз, когда компьютер доступен [33], а в другом подходе многие процессоры используются в непосредственной близости друг от друга, например, в компьютерный кластер . В такой централизованной массивно-параллельной системе скорость и гибкость межсоединений становятся очень важными, и современные суперкомпьютеры использовали различные подходы, начиная от усовершенствованных систем Infiniband и заканчивая межсоединениями трехмерного тора . [34] [35]Использование многоядерных процессоров в сочетании с централизацией - новое направление, например, как в системе Cyclops64 . [36] [37]

По мере того как цена, производительность и энергоэффективность графических процессоров общего назначения (GPGPU) улучшились, [38] ряд суперкомпьютеров с петафлопсами, таких как Tianhe-I и Nebulae , начали полагаться на них. [39] Тем не менее, другие системы, такие как компьютер K, продолжают использовать обычные процессоры, такие как конструкции на основе SPARC, и общая применимость GPGPU.в универсальных высокопроизводительных вычислительных приложениях был предметом споров, поскольку, хотя GPGPU может быть настроен для получения хороших результатов в конкретных тестах, его общая применимость к повседневным алгоритмам может быть ограничена, если не будут затрачены значительные усилия на настройку приложения для Это. [40] [41] Тем не менее, графические процессоры набирают обороты, и в 2012 году суперкомпьютер Jaguar был преобразован в Titan путем модернизации процессоров с помощью графических процессоров. [42] [43] [44]

Ожидаемый жизненный цикл высокопроизводительных компьютеров составляет около трех лет, прежде чем потребуется обновление. [45] Gyoukou суперкомпьютер уникален тем , что он использует и в широком масштабе параллельную конструкцию и погружение в жидкость охлаждения .

Суперкомпьютеры специального назначения [ править ]

Был разработан ряд систем «специального назначения», посвященных одной проблеме. Это позволяет использовать специально запрограммированные микросхемы FPGA или даже специализированные ASIC , обеспечивая лучшее соотношение цена / производительность за счет отказа от универсальности. Примеры суперкомпьютеров специального назначения включают Belle , [46] Deep Blue , [47] и Hydra , [48] для игры в шахматы , Gravity Pipe для астрофизики, [49] MDGRAPE-3 для вычисления молекулярной динамики структуры белка [50] и Deep Crack , [51] за нарушение Шифр DES .

Использование энергии и управление теплом [ править ]

Summit суперкомпьютер по состоянию на ноябрь 2018 года самый быстрый суперкомпьютер в мире. [52] При измеренной энергоэффективности 14,668 Гфлопс / ватт он также занимает 3-е место в мире по энергоэффективности. [53]

На протяжении десятилетий управление плотностью тепла оставалось ключевым вопросом для большинства централизованных суперкомпьютеров. [54] [55] [56] Большое количество тепла, выделяемого системой, также может иметь другие эффекты, например, сокращение срока службы других компонентов системы. [57] Существуют различные подходы к управлению теплом, от прокачки Fluorinert через систему до гибридной системы жидкостно-воздушного охлаждения или воздушного охлаждения с нормальной температурой кондиционирования . [58] [59] Типичный суперкомпьютер потребляет большое количество электроэнергии, почти вся она преобразуется в тепло, требующее охлаждения. Например, Тяньхэ-1Апотребляет 4,04  мегаватт (МВт) электроэнергии. [60] Затраты на питание и охлаждение системы могут быть значительными, например, 4 МВт при цене 0,10 долл. США / кВтч составляют 400 долл. США в час или около 3,5 млн долл. США в год.

IBM HS20 лезвие

Управление теплом является серьезной проблемой в сложных электронных устройствах и по-разному влияет на мощные компьютерные системы. [61] В конструкции электрические тепловые и CPU рассеиваемой мощности вопросы в суперкомпьютерах превосходят традиционные компьютерное охлаждение технологий. Награды за « зеленые» вычисления в области суперкомпьютеров отражают эту проблему. [62] [63] [64]

Упаковка тысяч процессоров вместе неизбежно генерирует значительное количество тепла, с которым необходимо иметь дело. Cray 2 был жидкостным охлаждением , и использовали Fluorinert «охлаждающий водопад» , который был вынужден через модули под давлением. [58] Однако подход с погруженным жидкостным охлаждением был непрактичным для систем с несколькими шкафами на базе стандартных процессоров, а в System X вместе с системой Liebert была разработана специальная система охлаждения, сочетающая кондиционирование воздуха с жидкостным охлаждением. компания . [59]

В системе Blue Gene компания IBM намеренно использовала процессоры с низким энергопотреблением, чтобы справиться с плотностью нагрева. [65] IBM Power 775 , выпущенный в 2011 году, имеет плотно упакованные элементы, требующие водяного охлаждения. [66] Система IBM Aquasar использует охлаждение горячей водой для достижения энергоэффективности, причем вода также используется для обогрева зданий. [67] [68]

Энергоэффективность компьютерных систем обычно измеряется в единицах « FLOPS на ватт ». В 2008 году скорость Roadrunner от IBM составляла 3,76  MFLOPS / Вт . [69] [70] В ноябре 2010 года показатель Blue Gene / Q достиг 1,684 MFLOPS / Вт [71] [72], а в июне 2011 года две первые позиции в списке Green 500 заняли машины Blue Gene в Нью-Йорке (одно достигнув 2097 MFLOPS / W) с кластером DEGIMA в Нагасаки, занявшим третье место с 1375 MFLOPS / W. [73]

Поскольку медные провода могут передавать энергию в суперкомпьютер с гораздо более высокой плотностью мощности , чем принудительные воздушная или циркулирующие хладагенты могут удалить отработанное тепло , [74] способность систем охлаждения для удаления отработанного тепла является ограничивающим фактором. [75] [76] По состоянию на 2015 год многие существующие суперкомпьютеры обладают большей пропускной способностью инфраструктуры, чем фактическая пиковая потребность машины - разработчики обычно консервативно проектируют инфраструктуру питания и охлаждения для обработки большей, чем теоретическая пиковая электрическая мощность, потребляемая суперкомпьютером. Конструкции суперкомпьютеров будущего имеют ограниченную мощность - расчетная тепловая мощностьДля суперкомпьютера в целом объем, с которым может справиться инфраструктура питания и охлаждения, несколько превышает ожидаемое нормальное энергопотребление, но меньше теоретического пикового энергопотребления электронного оборудования. [77]

Программное обеспечение и управление системой [ править ]

Операционные системы [ править ]

С конца 20 века операционные системы суперкомпьютеров претерпели серьезные преобразования, основанные на изменениях в архитектуре суперкомпьютеров . [78] В то время как ранние операционные системы были адаптированы для каждого суперкомпьютера для увеличения скорости, тенденция заключалась в отходе от внутренних операционных систем к адаптации общего программного обеспечения, такого как Linux . [79]

Поскольку современные суперкомпьютеры с массовым параллелизмом обычно отделяют вычисления от других служб, используя несколько типов узлов , они обычно запускают разные операционные системы на разных узлах, например, используя небольшое и эффективное легкое ядро, такое как CNK или CNL, на вычислительных узлах, но более крупную систему, такую ​​как как производное от Linux на сервере и узлах ввода-вывода . [80] [81] [82]

В то время как в традиционной многопользовательской компьютерной системе планирование заданий , по сути, представляет собой проблему постановки задач для обработки и периферийных ресурсов, в массивно-параллельной системе система управления заданиями должна управлять распределением как вычислительных, так и коммуникационных ресурсов, а также изящно справляться с неизбежными сбоями оборудования при наличии десятков тысяч процессоров. [83]

Хотя большинство современных суперкомпьютеров используют операционную систему на базе Linux , у каждого производителя есть своя собственная производная Linux, и отраслевых стандартов не существует, отчасти из-за того, что различия в аппаратных архитектурах требуют изменений для оптимизации операционной системы для каждой конструкции оборудования. . [78] [84]

Программные инструменты и передача сообщений [ править ]

Широкоугольный вид коррелятора ALMA [85]

Параллельная архитектура суперкомпьютеров часто требует использования специальных методов программирования для увеличения их скорости. Программные инструменты для распределенной обработки включают стандартные API, такие как MPI и PVM , VTL , и программное обеспечение с открытым исходным кодом, такое как Beowulf .

В наиболее распространенном сценарии используются такие среды, как PVM и MPI для слабо связанных кластеров и OpenMP для жестко скоординированных машин с общей памятью. Требуются значительные усилия для оптимизации алгоритма с учетом характеристик межсоединения машины, на которой он будет работать; цель состоит в том, чтобы не допустить, чтобы какой-либо из процессоров тратил время на ожидание данных от других узлов. GPGPU имеют сотни процессорных ядер и программируются с использованием таких моделей программирования, как CUDA или OpenCL .

Кроме того, отлаживать и тестировать параллельные программы довольно сложно. Для тестирования и отладки таких приложений необходимо использовать специальные методы .

Распределенные суперкомпьютеры [ править ]

Оппортунистические подходы [ править ]

Пример архитектуры системы грид-вычислений , соединяющей множество персональных компьютеров через Интернет

Оппортунистический суперкомпьютер - это форма сетевых грид-вычислений, при которой «супер-виртуальный компьютер» из множества слабосвязанных вычислительных машин-добровольцев выполняет очень большие вычислительные задачи. Грид-вычисления применялись к ряду крупномасштабных до неловко параллельных задач, которые требуют масштабирования производительности суперкомпьютеров. Однако базовые подходы к сетевым и облачным вычислениям , основанные на добровольных вычислениях, не могут обрабатывать традиционные задачи суперкомпьютеров, такие как гидродинамическое моделирование. [86]

Самая быстрая система распределенных вычислений - это проект распределенных вычислений Folding @ home (F @ h). F @ h сообщил о 2,5 эксафлопс вычислительной мощности x86 по состоянию на апрель 2020 года . Из них более 100 PFLOPS вносятся клиентами, работающими на различных графических процессорах, а остальные - от различных систем CPU. [87]

Платформа Berkeley Open Infrastructure for Network Computing (BOINC) содержит ряд проектов распределенных вычислений. По состоянию на февраль 2017 года BOINC зафиксировал вычислительную мощность более 166 петафлопс на более чем 762 тысячах активных компьютеров (хостов) в сети. [88]

По состоянию на октябрь 2016 года поисковый запрос Mersenne Prime, распространяемый компанией Great Internet Mersenne Prime Search (GIMPS), достиг 0,313 PFLOPS на более чем 1,3 миллионах компьютеров. [89] Интернет PrimeNet Сервер поддерживает грид - компьютинга подход GIMPS, одного из самых ранних и наиболее успешных [ править ] проектов сетевых вычислений, начиная с 1997 года.

Квази-оппортунистические подходы [ править ]

Квази-оппортунистические суперкомпьютеры - это форма распределенных вычислений, при которой «супервиртуальный компьютер» многих сетевых географически разнесенных компьютеров выполняет вычислительные задачи, требующие огромной вычислительной мощности. [90] Квази-оппортунистические суперкомпьютеры стремятся обеспечить более высокое качество обслуживания, чем гибкие сетевые вычисления.за счет достижения большего контроля над назначением задач распределенным ресурсам и использования информации о доступности и надежности отдельных систем в суперкомпьютерной сети. Однако квазиоппортунистическое распределенное выполнение требовательного программного обеспечения для параллельных вычислений в гридах должно достигаться за счет реализации соглашений о распределении по сетке, подсистем совместного распределения, механизмов распределения с учетом топологии связи, отказоустойчивых библиотек передачи сообщений и предварительной обработки данных. [90]

Облака для высокопроизводительных вычислений [ править ]

Облачные вычисления с их недавним и быстрым расширением и развитием в последние годы привлекли внимание пользователей и разработчиков высокопроизводительных вычислений (HPC). Облачные вычисления пытаются предоставить HPC-as-a-service точно так же, как другие формы услуг, доступных в облаке, такие как программное обеспечение как услуга , платформа как услуга и инфраструктура как услуга . Пользователи HPC могут извлечь выгоду из облака с разных сторон, например, масштабируемость, доступность ресурсов по требованию, скорость и недорого. С другой стороны, перемещение приложений высокопроизводительных вычислений также связано с рядом проблем. Хорошим примером таких проблем является виртуализация.накладные расходы в облаке, мультитенантность ресурсов и проблемы с задержкой в ​​сети. В настоящее время проводится много исследований, чтобы преодолеть эти проблемы и сделать высокопроизводительные вычисления в облаке более реальной возможностью. [91] [92] [93] [94]

В 2016 году Penguin Computing , R-HPC, Amazon Web Services , Univa , Silicon Graphics International , Sabalcore и Gomput начали предлагать облачные вычисления HPC . Облако Penguin On Demand (POD) - это вычислительная модель без оборудования для выполнения кода, но каждому пользователю предоставляется виртуализированный узел входа. Вычислительные узлы POD подключаются через невиртуализированные сети Ethernet 10 Гбит / с или QDR InfiniBand . Возможности подключения пользователей к центру обработки данных POD варьируются от 50 Мбит / с до 1 Гбит / с. [95] Ссылаясь на Elastic Compute Cloud EC2 Amazon, Penguin Computing утверждает, что виртуализациявычислительных узлов не подходит для HPC. Penguin Computing также критиковала то, что облака HPC могли выделять вычислительные узлы клиентам, находящимся далеко друг от друга, что приводило к задержке, снижающей производительность некоторых приложений HPC. [96]

Измерение производительности [ править ]

Возможности против емкости [ править ]

Суперкомпьютеры обычно стремятся к максимальным вычислительным возможностям, а не к вычислительным мощностям. Вычисление возможностей обычно рассматривается как использование максимальной вычислительной мощности для решения одной большой проблемы в кратчайшие сроки. Часто система возможностей может решить проблему такого размера или сложности, которую не может сделать ни один другой компьютер, например, очень сложное приложение моделирования погоды . [97]

Вычисление емкости, напротив, обычно рассматривается как использование эффективной рентабельной вычислительной мощности для решения нескольких довольно больших проблем или множества мелких проблем. [97] Архитектуры, которые позволяют поддерживать множество пользователей для выполнения рутинных повседневных задач, могут обладать большой емкостью, но обычно не считаются суперкомпьютерами, поскольку они не решают ни одной очень сложной проблемы. [97]

Показатели производительности [ править ]

Максимальная скорость суперкомпьютера: скорость в логарифмическом масштабе за 60 лет

В общем, скорость суперкомпьютеров измеряется и оценивается в FLOPS («операции с плавающей запятой в секунду»), а не в MIPS («миллион инструкций в секунду»), как в случае с компьютерами общего назначения. [98 ] Эти измерения обычно используются с префиксом SI, таким как тера- , в сочетании с сокращением «TFLOPS» (10 12 FLOPS, произносится как терафлопс ) или пета- , объединенным в сокращение «PFLOPS» (10 15 FLOPS, произносится как петафлопс) . ) " Петаскаль "суперкомпьютеры могут обрабатывать один квадриллион (10 15) (1000 трлн) FLOPS. Exascale обеспечивает производительность вычислений в диапазоне exaFLOPS (EFLOPS). EFLOPS - это один квинтиллион (10 18 ) FLOPS (один миллион TFLOPS).

Ни одно число не может отражать общую производительность компьютерной системы, но цель теста Linpack - приблизительно оценить, насколько быстро компьютер решает числовые задачи, и он широко используется в отрасли. [99] Измерение FLOPS основано либо на теоретической производительности процессора с плавающей запятой (полученной из спецификаций процессора производителя и показанной как «Rpeak» в списках TOP500), что обычно недостижимо при выполнении реальных рабочих нагрузок, либо на достижимой пропускной способности. , полученный из тестов LINPACK и показанный как «Rmax» в списке TOP500. [100] Тест LINPACK обычно выполняет LU-разложение большой матрицы. [101]Производительность LINPACK дает некоторое представление о производительности для некоторых реальных проблем, но не обязательно соответствует требованиям обработки многих других рабочих нагрузок суперкомпьютеров, которые, например, могут потребовать большей пропускной способности памяти, или могут потребовать более высокой производительности целочисленных вычислений, или могут потребоваться высокопроизводительная система ввода-вывода для достижения высокого уровня производительности. [99]

Список TOP500 [ править ]

20 лучших суперкомпьютеров мира (июнь 2014 г.)

С 1993 года самые быстрые суперкомпьютеры попадают в список TOP500 в соответствии с результатами тестов LINPACK . Список не претендует на беспристрастность или окончательность, но это широко цитируемое текущее определение «самого быстрого» суперкомпьютера, доступного в любой момент времени.

Это недавний список компьютеров, которые оказались в верхней части списка TOP500 [102], а «Пиковая скорость» дана как рейтинг «Rmax». В 2018 году Lenovo стала крупнейшим в мире поставщиком суперкомпьютеров TOP500, выпустив 117 единиц. [103]

Приложения [ править ]

Этапы применения суперкомпьютера можно кратко изложить в следующей таблице:

Компьютер IBM Blue Gene / P использовался для моделирования ряда искусственных нейронов, эквивалентных примерно одному проценту коры головного мозга человека, содержащих 1,6 миллиарда нейронов с примерно 9 триллионами соединений. Этой же исследовательской группе также удалось с помощью суперкомпьютера смоделировать количество искусственных нейронов, эквивалентное всему мозгу крысы. [111]

Современное прогнозирование погоды также опирается на суперкомпьютеры. Национальное управление океанических и атмосферных исследований использует суперкомпьютеры грызть сотни миллионов наблюдений , чтобы помочь сделать прогнозы погоды более точными. [112]

В 2011 году проблемы и трудности, связанные с выходом за пределы суперкомпьютеров, были подчеркнуты отказом IBM от проекта Petascale Blue Waters . [113]

Программа Advanced Simulation and Computing Program в настоящее время использует суперкомпьютеры для обслуживания и моделирования ядерных арсеналов Соединенных Штатов. [114]

В начале 2020 года коронавирус был в центре внимания в мире. Суперкомпьютеры использовали различные модели для поиска соединений, которые потенциально могут остановить распространение. Эти компьютеры работают десятки часов, используя несколько параллельно работающих процессоров для моделирования различных процессов. [115] [116] [117]

Развитие и тенденции [ править ]

Распределение суперкомпьютеров TOP500 по странам, ноябрь 2015 г.

В 2010-х годах Китай, США, Европейский Союз и другие страны соревновались за то, чтобы первыми создать суперкомпьютер 1 exaFLOP (10 18 или один квинтиллион FLOPS). [118] Эрик П. ДеБенедиктис из Sandia National Laboratories предположил, что компьютер с zettaFLOPS (10 21 или один секстиллион FLOPS) необходим для выполнения полного моделирования погоды , которое может точно охватывать двухнедельный период времени. [119] [120] [121] Такие системы могут быть построены примерно в 2030 году. [122]

Многие моделирование методом Монте-Карло использует тот же алгоритм для обработки случайно сгенерированного набора данных; в частности, интегро-дифференциальные уравнения, описывающие физические процессы переноса , случайные траектории , столкновения, а также энерговыделение нейтронов, фотонов, ионов, электронов и т. д.Следующим шагом для микропроцессоров может стать третье измерение ; и специализируясь на Монте-Карло, многие слои могут быть идентичными, что упрощает процесс проектирования и производства. [123]

Стоимость эксплуатации высокопроизводительных суперкомпьютеров выросла, в основном из-за увеличения энергопотребления. В середине 1990-х годов топ-10 суперкомпьютеров требовал мощности 100 киловатт, а в 2010 году топ-10 суперкомпьютеров требовал от 1 до 2 мегаватт. [124] Исследование, проведенное в 2010 году по заказу DARPA, определило энергопотребление как наиболее распространенную проблему при достижении Exascale-вычислений . [125] В то время один мегаватт энергии в год стоил около 1 миллиона долларов. Были построены суперкомпьютерные средства для эффективного отвода увеличивающегося количества тепла, производимого современными многоядерными центральными процессорами.. Исходя из энергопотребления суперкомпьютеров из списка Green 500 в период с 2007 по 2011 год, суперкомпьютеру с 1 экзафлопс в 2011 году потребовалось бы почти 500 мегаватт. Операционные системы были разработаны для существующего оборудования, чтобы по возможности экономить энергию. [126] Ядра ЦП, не используемые во время выполнения распараллеленного приложения, были переведены в состояние с низким энергопотреблением, что привело к экономии энергии для некоторых приложений суперкомпьютеров. [127]

Растущая стоимость эксплуатации суперкомпьютеров была движущим фактором в тенденции к объединению ресурсов через распределенную суперкомпьютерную инфраструктуру. Национальные суперкомпьютерные центры сначала возникли в США, затем в Германии и Японии. Европейский Союз запустил Партнерство по передовым вычислениям в Европе (PRACE) с целью создания устойчивой панъевропейской суперкомпьютерной инфраструктуры с услугами для поддержки ученых всего Европейского Союза в портировании, масштабировании и оптимизации суперкомпьютерных приложений. [124] Исландия построила первый в мире суперкомпьютер с нулевым уровнем выбросов. Расположен в дата-центре Thor в Рейкьявике., Исландия, этот суперкомпьютер использует полностью возобновляемые источники энергии, а не ископаемое топливо. Более холодный климат также снижает потребность в активном охлаждении, что делает его одним из самых экологически чистых объектов в мире компьютеров. [128]

Финансирование суперкомпьютерного оборудования также становилось все труднее. В середине 1990-х годов 10 лучших суперкомпьютеров стоили около 10 миллионов евро, тогда как в 2010 году 10 лучших суперкомпьютеров требовали инвестиций в размере от 40 до 50 миллионов евро. [124] В 2000-х годах национальные правительства внедрили различные стратегии финансирования суперкомпьютеров. В Великобритании суперкомпьютеры полностью финансировались правительством страны, а высокопроизводительные вычисления были переданы под контроль национального финансового агентства. Германия разработала смешанную модель финансирования, объединяющую местное государственное финансирование и федеральное финансирование. [124]

В художественной литературе [ править ]

Многие фантасты писатели изображали суперкомпьютеры в своих работах, как до , так и после исторического построения таких компьютеров. Большая часть такой фантастики посвящена отношениям людей с компьютерами, которые они строят, и возможности конфликта, который в конечном итоге может развиться между ними. Примеры суперкомпьютеров в художественной литературе включают HAL-9000 , Multivac , The Machine Stops , GLaDOS , The Evitable Conflict , Vulcan's Hammer , Colossus , WOPR и Deep Thought .

См. Также [ править ]

  • Конференция по суперкомпьютерам ACM / IEEE
  • ACM SIGHPC
  • Высокопроизводительные технические вычисления
  • Вычисления в джунглях
  • Персональный суперкомпьютер Nvidia Tesla
  • Параллельные вычисления
  • Суперкомпьютеры в Китае
  • Суперкомпьютерные технологии в Европе
  • Суперкомпьютеры в Индии
  • Суперкомпьютеры в Японии
  • Тестирование высокопроизводительных вычислительных приложений
  • Ультра Сетевые Технологии
  • Квантовые вычисления

Примечания и ссылки [ править ]

  1. ^ "Объявление гена IBM Blue" . 03.ibm.com. 26 июня 2007 . Проверено 9 июня 2012 года .
  2. ^ "Бесстрашный" . Вычислительный центр Argonne Leadership Computing . Аргоннская национальная лаборатория . Архивировано из оригинала 7 мая 2013 года . Проверено 26 марта 2020 года .
  3. ^ «Список: июнь 2018» . Топ 500 . Проверено 25 июня 2018 .
  4. ^ «Семейство операционных систем / Linux» . TOP500.org . Проверено 30 ноября 2017 года .
  5. Андерсон, Марк (21 июня 2017 г.). «Глобальная гонка за Exascale приведет к массовому развитию суперкомпьютеров и ИИ». Spectrum.IEEE.org . Проверено 20 января 2019.
  6. Лемке, Тим (8 мая 2013 г.). «АНБ открывает путь к созданию массового вычислительного центра» . Проверено 11 декабря 2013 года .
  7. ^ а б Хоффман, Аллан Р .; и другие. (1990). Суперкомпьютеры: направления в технологии и приложениях . Национальные академии. С. 35–47. ISBN 978-0-309-04088-4.
  8. ^ а б Хилл, Марк Дональд; Джуппи, Норман Пол ; Сохи, Гуриндар (1999). Чтения по компьютерной архитектуре . С. 40–49. ISBN 978-1-55860-539-8.
  9. ^ a b «Япония захватила корону TOP500 с помощью суперкомпьютера с ручным приводом - сайт TOP500» . www.top500.org .
  10. ^ «Развитие производительности - TOP500 суперкомпьютерных сайтов» . www.top500.org .
  11. ^ Эрик Г. Сведин; Дэвид Л. Ферро (2007). Компьютеры: история жизни технологии . JHU Press. п. 57. ISBN 9780801887741.
  12. ^ Эрик Г. Сведин; Дэвид Л. Ферро (2007). Компьютеры: история жизни технологии . JHU Press. п. 56. ISBN 9780801887741.
  13. ^ Эрик Г. Сведин; Дэвид Л. Ферро (2007). Компьютеры: история жизни технологии . JHU Press. п. 58. ISBN 9780801887741.
  14. Атлас Манчестерского университета, заархивировано из оригинала 28 июля 2012 г. , получено 21 сентября 2010 г.
  15. ^ Суперменов , Чарльз Мюррей, Wiley & Sons, 1997.
  16. ^ Пол Э. Серуцци (2003). История современных вычислений . MIT Press. п. 161 . ISBN 978-0-262-53203-7.
  17. ^ a b Ханнан, Кэрин (2008). Биографический словарь Висконсина . Государственные исторические издания. С. 83–84. ISBN 978-1-878592-63-7.
  18. ^ Джон Импальяццо; Джон А. Н. Ли (2004). История информатики в образовании . Springer Science & Business Media. п. 172 . ISBN 978-1-4020-8135-4.
  19. ^ Эндрю Р. Л. Кейтон; Ричард Сиссон; Крис Захер (2006). Американский Средний Запад: Интерпретативная энциклопедия . Издательство Индианского университета. п. 1489. ISBN 978-0-253-00349-2.
  20. ^ Чтения по компьютерной архитектуре Марка Дональда Хилла, Нормана Пола Джуппи, Гуриндар Сохи 1999 ISBN 978-1-55860-539-8 стр. 41-48 
  21. ^ Вехи в области информатики и информационных технологий Эдвин Д. Рейли 2003 ISBN 1-57356-521-0 стр. 65 
  22. ^ "Михаил Карцев, M1, M4, M10, M13. Развитие информатики и технологий в Украине" . www.icfcst.kiev.ua .
  23. ^ "Цитаты Сеймура Крея" . BrainyQuote .
  24. Стив Нельсон (3 октября 2014 г.). "ComputerGK.com: Суперкомпьютеры" .
  25. ^ "LINKS-1 Система компьютерной графики-Компьютерный музей" . Museum.ipsj.or.jp .
  26. ^ "VPP500 (1992) - Fujitsu Global" .
  27. ^ "Годовой отчет TOP500 1994" . Netlib.org. 1 октября 1996 . Проверено 9 июня 2012 года .
  28. Н. Хиросе и М. Фукуда (1997). Численное исследование аэродинамической трубы (NWT) и CFD в Национальной аэрокосмической лаборатории . Материалы HPC-Asia '97. Страницы компьютерного общества IEEE. DOI : 10.1109 / HPC.1997.592130 .
  29. ^ Х. Фуджи, Ю. Ясуда, Х. Акаси, Ю. Инагами, М. Кога, О. Исихара, М. Сязван, Х. Вада, Т. Сумимото, Архитектура и производительность системы массового параллелизма Hitachi SR2201 , Труды 11-го Международного симпозиума по параллельной обработке, апрель 1997 г., страницы 233–241.
  30. Y. Iwasaki, Проект CP-PACS, Nuclear Physics B: Proceedings Supplements, том 60, выпуски 1–2, январь 1998 г., страницы 246–254.
  31. AJ van der Steen, Обзор новейших суперкомпьютеров , публикация NCF, Stichting Nationale Computer Faciliteiten, Нидерланды, январь 1997 г.
  32. ^ Масштабируемый ввод / вывод: достижение баланса системы Дэниел А. Рид 2003 ISBN 978-0-262-68142-1 стр. 182 
  33. ^ Продан, Раду; Фарингер, Томас (2007). Грид-вычисления: управление экспериментами, интеграция инструментов и научные рабочие процессы . С.  1–4 . ISBN 978-3-540-69261-4.
  34. ^ Найт, Уилл: « IBM создает самый мощный компьютер в мире », служба новостей NewScientist.com , июнь 2007 г.
  35. ^ NR Agida; и другие. (2005). "Blue Gene / L Torus Interconnection Network | Журнал исследований и разработок IBM" (PDF) . Сеть межсоединений Torus . п. 265. Архивировано из оригинального (PDF) 15 августа 2011 года.
  36. ^ Ню, Янвэй; Ху, Цзян; Барнер, Кеннет; Гао, Гуан Р. (2005). «Моделирование производительности и оптимизация доступа к памяти на архитектуре сотового компьютера Cyclops64» (PDF) . Сетевые и параллельные вычисления . Конспект лекций по информатике. 3779 . С. 132–143. DOI : 10.1007 / 11577188_18 . ISBN  978-3-540-29810-6.
  37. ^ Анализ и результаты производительности вычислений центральности промежуточности на IBM Cyclops64 Гуанмин Тан, Вугранам С. Сридхар и Гуан Р. Гао Журнал суперкомпьютеров Том 56, номер 1, 1–24 сентября 2011 г.
  38. ^ Миттал и др., « Обзор методов анализа и повышения энергоэффективности графических процессоров », ACM Computing Surveys, 2014.
  39. ^ Прикетт, Тимофей (31 мая 2010). «Топ-500 суперов - рассвет графических процессоров» . Theregister.co.uk.
  40. ^ " Обзор методов гетерогенных вычислений CPU-GPU ", ACM Computing Surveys, 2015
  41. ^ Ханс Хакер; Карстен Тринитис; Йозеф Вайдендорфер; Маттиас Брем (2010). «Рассмотрение GPGPU для центров HPC: стоит ли прилагать усилия?» . У Райнера Келлера; Дэвид Крамер; Ян-Филипп Вайс (ред.). Столкнувшись с многоядерным вызовом: аспекты новых парадигм и технологий в параллельных вычислениях . Springer Science & Business Media. С. 118–121. ISBN 978-3-642-16232-9.
  42. ^ Damon Poeter (11 октября 2011). «Суперкомпьютер Cray's Titan для ORNL может быть самым быстрым в мире» . Pcmag.com.
  43. ^ Фельдман, Майкл (11 октября 2011 г.). «Графические процессоры превратят Jaguar ORNL в титан мощностью 20 петафлоп» . Hpcwire.com.
  44. ^ Тимоти Прикетт Морган (11 октября 2011). «Oak Ridge меняет позиции Jaguar с CPU на GPU» . Theregister.co.uk.
  45. ^ "Суперкомпьютер NETL" . страница 2.
  46. ^ Кондон, JH и K.Thompson, " Belle Chess Hardware ", в развитие компьютерных шахмат 3 (ed.MRBClarke), Пергамон Пресс, 1982.
  47. Перейти ↑ Hsu, Feng-hsiung (2002). За Deep Blue: создание компьютера, победившего чемпиона мира по шахматам . Издательство Принстонского университета . ISBN 978-0-691-09065-8.
  48. ^ С. Donninger, У. Лоренц. Гидра шахматного монстра. Proc. 14-й Международной конференции по программируемой логике и приложениям (FPL), 2004 г., Антверпен - Бельгия, LNCS 3203, стр. 927 - 932
  49. Дж. Макино и М. Тайцзи, Научное моделирование с помощью компьютеров специального назначения: системы GRAPE , Wiley. 1998 г.
  50. ^ RIKEN прессрелиз, завершение компьютерной системы один-петафлопс для моделирования молекулярной динамики
  51. ^ Electronic Frontier Foundation (1998). Взлом DES - Секреты исследования шифрования, политики прослушивания телефонных разговоров и дизайна микросхем . Oreilly & Associates Inc. ISBN 978-1-56592-520-5.
  52. ^ Лор, Стив (8 июня 2018). «Давай, Китай: США снова являются домом для самого быстрого суперкомпьютера в мире» . Нью-Йорк Таймс . Проверено 19 июля 2018 .
  53. ^ «Список Green500 - ноябрь 2018» . ТОП500 . Проверено 19 июля 2018 .
  54. ^ Сюэ-Джун Ян; Сян-Кэ Ляо; и другие. (2011). «Суперкомпьютер TianHe-1A: его аппаратное и программное обеспечение». Журнал компьютерных наук и технологий . 26 (3): 344–351. DOI : 10.1007 / s02011-011-1137-8 . S2CID 1389468 . 
  55. ^ Супермены: История Сеймура Крея и технических волшебников за суперкомпьютером Чарльзом Дж. Мюрреем 1997, ISBN 0-471-04885-2 , страницы 133–135 
  56. ^ Параллельная вычислительная гидродинамика; Последние достижения и будущие направления под редакцией Рупака Бисваса 2010 ISBN 1-60595-022-X стр. 401 
  57. ^ Достижения исследований суперкомпьютеров Юнгге Хуан, 2008, ISBN 1-60456-186-6 , страницы 313-314 
  58. ^ a b Параллельные вычисления для обработки сигналов и управления в реальном времени, автор MO Tokhi, Mohammad Alamgir Hossain 2003, ISBN 978-1-85233-599-1 , страницы 201–202 
  59. ^ a b Вычислительные науки - ICCS 2005: 5-я международная конференция под редакцией Вейди С. Сандерама 2005, ISBN 3-540-26043-9 , страницы 60–67 
  60. ^ «NVIDIA Tesla GPUs Power the World's Fastest Supercomputer» (Пресс-релиз). Nvidia. 29 октября 2010 г.
  61. Баландин, Александр А. (октябрь 2009 г.). «Улучшение вычислений за счет охлаждения процессора» . Spectrum.ieee.org.
  62. ^ "Зеленый 500" . Green500.org.
  63. ^ "Зеленый список 500 ранжирует суперкомпьютеры" . iTnews Австралия . Архивировано из оригинального 22 октября 2008 года.
  64. Wu-chun Feng (2003). «Обоснование эффективности суперкомпьютеров | Журнал ACM Queue, том 1, выпуск 7, 10 января 2003 г., doi 10.1145 / 957717.957772» (PDF) . Очередь . 1 (7): 54. DOI : 10,1145 / 957717,957772 . S2CID 11283177 . Архивировано из оригинального (PDF) 30 марта 2012 года.  
  65. ^ "IBM раскрывает 20 петафлопс BlueGene / Q super" . Реестр . 22 ноября 2010 . Проверено 25 ноября 2010 года .
  66. ^ Прикетт, Тимоти (15 июля 2011). « Реестр : суперузел IBM 'Blue Waters' вымывается на берег в августе» . Theregister.co.uk . Проверено 9 июня 2012 года .
  67. ^ "Суперкомпьютер IBM с водяным охлаждением запускается в ETH Zurich" . Комната новостей IBM . 2 июля 2010 года. Архивировано 10 января 2011 года . Дата обращения 16 марта 2020 .
  68. ^ Martin LaMonica (10 мая 2010). «CNet 10 мая 2010» . News.cnet.com . Проверено 9 июня 2012 года .
  69. ^ «Правительство представляет самый быстрый компьютер в мире» . CNN . Архивировано из оригинала на 10 июня 2008 года выполняет 376 миллионов расчетов на каждый ватт электроэнергии используется.
  70. ^ "IBM Roadrunner берет золото в гонке петафлопов" . Архивировано 17 декабря 2008 года . Дата обращения 16 марта 2020 .
  71. ^ «Список суперкомпьютеров Top500 показывает тенденции в области вычислений» . IBM ... Система BlueGene / Q .. установив рекорд энергоэффективности со значением 1680 MFLOPS / Вт, что более чем в два раза больше, чем у следующей лучшей системы.
  72. ^ "IBM Research - явный победитель в категории Green 500" . 18 ноября 2010 г.
  73. ^ "Зеленый список 500" . Green500.org. Архивировано 3 июля 2011 года . Дата обращения 16 марта 2020 .
  74. ^ Саед Г. Юнис. «Асимптотически нулевые вычисления энергии с использованием логики восстановления заряда двухуровневой» . 1994. стр. 14.
  75. ^ «Горячая тема - проблема охлаждения суперкомпьютеров». Архивировано 18 января 2015 года на Wayback Machine .
  76. ^ Ананд Лал Шимпи. «Внутри суперкомпьютера Titan: 299 тыс. Ядер AMD x86 и 18,6 тыс. Графических процессоров NVIDIA» . 2012 г.
  77. ^ Кертис Сторли; Джо Секстон; Скотт Пакин; Майкл Ланг; Брайан Райх; Уильям Раст. «Моделирование и прогнозирование энергопотребления высокопроизводительных вычислений» . 2014 г.
  78. ^ a b Энциклопедия параллельных вычислений Дэвида Падуа 2011 ISBN 0-387-09765-1 страницы 426–429 
  79. ^ Зная машины: очерки технических изменений Дональда Маккензи 1998 ISBN 0-262-63188-1 стр. 149-151 
  80. ^ Euro-Par 2004 Параллельная обработка: 10-я Международная конференция Euro-Par 2004, Марко Данелутто, Марко Ваннески и Доменико Лафоренца, ISBN 3-540-22924-8 , стр. 835 
  81. ^ Euro-Par 2006 Параллельная обработка: 12-я Международная конференция Euro-Par , 2006, Вольфганг Э. Нагель, Вольфганг В. Вальтер и Вольфганг Ленер ISBN 3-540-37783-2 стр. 
  82. ^ Оценка Cray XT3 Национальной лаборатории Ок-Ридж , Садаф Р. Алам и др. Международный журнал приложений для высокопроизводительных вычислений, февраль 2008 г., т. 22 нет. 1 52–80
  83. ^ Открытая архитектура управления заданиями для суперкомпьютера Blue Gene / L Ярива Аридора и др. в Стратегии планирования заданий для параллельной обработки , Дрор Г. Фейтельсон, 2005 ISBN 978-3-540-31024-2, страницы 95–101 
  84. ^ "Таблица ОС Top500" . Top500.org. Архивировано из оригинала 5 марта 2012 года . Проверено 31 октября 2010 года .
  85. ^ "Широкоугольный вид коррелятора ALMA" . Пресс-релиз ESO . Проверено 13 февраля 2013 года .
  86. ^ https://www.academia.edu/3991932/Chapter_03_Software_and_System_Management
  87. ^ Pande lab. «Клиентская статистика по ОС» . Складной @ дома . Стэнфордский университет . Проверено 10 апреля 2020 .
  88. ^ "BOINC Combined" . BOINCstats . BOINC . Архивировано из оригинального 19 сентября 2010 года . Проверено 30 октября 2016 г. Обратите внимание, что по этой ссылке можно получить текущую статистику, а не дату последнего доступа.
  89. ^ "Internet PrimeNet Server Distributed Computing Technology for the Great Internet Mersenne Prime Search" . GIMPS . Проверено 6 июня 2011 года .
  90. ^ а б Кравцов, Валентин; Кармели, Дэвид; Дубицкий, Вернер; Орда, Ариэль; Шустер, Ассаф ; Йошпа, Бенни. «Квазиоппортунистические суперкомпьютеры в гридах, статья по горячей теме (2007)» . Международный симпозиум IEEE по высокопроизводительным распределенным вычислениям . IEEE . Проверено 4 августа 2011 года .
  91. ^ Jamalian, S .; Раджаи, Х. (1 марта 2015 г.). ASETS: система планирования задач с поддержкой SDN для HPCaaS в облаке . 2015 IEEE Международная конференция по облачным инженерии . С. 329–334. DOI : 10.1109 / IC2E.2015.56 . ISBN 978-1-4799-8218-9. S2CID  10974077 .
  92. ^ Jamalian, S .; Раджаи, Х. (1 июня 2015 г.). Планирование задач высокопроизводительных вычислений с интенсивным использованием данных с помощью SDN для включения высокопроизводительных вычислений как услуги . 2015 IEEE 8-я Международная конференция по облачным вычислениям . С. 596–603. DOI : 10,1109 / CLOUD.2015.85 . ISBN 978-1-4673-7287-9. S2CID  10141367 .
  93. ^ Гупта, А .; Милойчич, Д. (1 октября 2011 г.). Оценка приложений HPC в облаке . 2011 Шестой открытый саммит Cirrus . С. 22–26. CiteSeerX 10.1.1.294.3936 . DOI : 10.1109 / OCS.2011.10 . ISBN  978-0-7695-4650-6. S2CID  9405724 .
  94. ^ Ким, H .; эль-Khamra, Y .; Jha, S .; Парашар, М. (1 декабря 2009 г.). Автономный подход к использованию интегрированной сети высокопроизводительных вычислений и облака . 2009 Пятая Международная конференция IEEE по электронной науке . С. 366–373. CiteSeerX 10.1.1.455.7000 . DOI : 10.1109 / e-Science.2009.58 . ISBN  978-1-4244-5340-5. S2CID  11502126 .
  95. ^ Eadline, Дуглас. «Перенос высокопроизводительных вычислений в облако» . Журнал Admin . Журнал Admin . Проверено 30 марта 2019 .
  96. ^ Никколай, Джеймс (11 августа 2009 г.). «Penguin переносит высокопроизводительные вычисления в облако» . PCWorld . IDG Consumer & SMB . Проверено 6 июня +2016 .
  97. ^ a b c Потенциальное влияние высокопроизводительных вычислений на четыре иллюстративных области науки и техники Комитетом по потенциальному влиянию высокопроизводительных вычислений на иллюстративные области науки и техники и Национальным исследовательским советом (28 октября 2008 г.) ISBN 0 -309-12485-9 страница 9 
  98. ^ Xingfu Wu (1999). Оценка производительности, прогнозирование и визуализация параллельных систем . Springer Science & Business Media. С. 114–117. ISBN 978-0-7923-8462-5.
  99. ^ a b Донгарра, Джек Дж .; Лущек, Петр; Petitet, Антуан (2003), "The LINPACK Benchmark: прошлое, настоящее и будущее" (PDF) , параллелизм и Исчисление: практика и опыт , 15 (9): 803-820, DOI : 10.1002 / cpe.728 , S2CID 1900724  
  100. ^ «Понимание показателей производительности суперкомпьютера и емкости системы хранения» . Университет Индианы . Дата обращения 3 декабря 2017 .
  101. ^ «Часто задаваемые вопросы» . TOP500.org . Дата обращения 3 декабря 2017 .
  102. ^ Брошюра Intel - 11/91. «Страница каталога для списков Top500. Результат для каждого списка с июня 1993 года» . Top500.org . Проверено 31 октября 2010 года .
  103. ^ «Lenovo достигает статуса крупнейшего мирового поставщика суперкомпьютеров TOP500» . Деловой провод . 25 июня 2018.
  104. ^ "Компьютерная система Cray-1" (PDF) . Cray Research, Inc . Проверено 25 мая 2011 года .
  105. Джоши, Раджани Р. (9 июня 1998 г.). «Новый эвристический алгоритм вероятностной оптимизации». Компьютеры и исследования операций . 24 (7): 687–697. DOI : 10.1016 / S0305-0548 (96) 00056-1 .
  106. ^ "Аннотация для SAMSY - Модульная система анализа защиты" . Агентство по ядерной энергии ОЭСР, Исси-ле-Мулино, Франция . Проверено 25 мая 2011 года .
  107. ^ "Исходный код взломщика EFF DES" . Cosic.esat.kuleuven.be . Проверено 8 июля 2011 года .
  108. ^ "Дипломатия по разоружению: - Программа суперкомпьютеров и тестового моделирования DOE" . Acronym.org.uk. 22 августа 2000 . Проверено 8 июля 2011 года .
  109. ^ «Инвестиции Китая в суперкомпьютеры на GPU начинают окупаться!» . Blogs.nvidia.com . Проверено 8 июля 2011 года .
  110. ^ Эндрю, Скотти. «Самый быстрый суперкомпьютер в мире обнаружил химические вещества, которые могут остановить распространение коронавируса, что стало решающим шагом на пути к лечению» . CNN . Дата обращения 12 мая 2020 .
  111. Каку, Мичио. Физика будущего (Нью-Йорк: Doubleday, 2011), 65.
  112. ^ «Более быстрые суперкомпьютеры, помогающие прогнозировать погоду» . News.nationalgeographic.com. 28 октября 2010 . Проверено 8 июля 2011 года .
  113. ^ "Проект суперкомпьютера IBM Drops 'Blue Waters'" . International Business Times . 9 августа 2011 . Проверено 14 декабря 2018 года .  - через  EBSCO (требуется подписка)
  114. ^ «Суперкомпьютеры» . Министерство энергетики США . Проверено 7 марта 2017 года .
  115. ^ «Суперкомпьютерное моделирование помогает продвинуть исследования электрохимических реакций» . ucsdnews.ucsd.edu . Дата обращения 12 мая 2020 .
  116. ^ «Саммит IBM - Суперкомпьютер для борьбы с коронавирусом» . Электронный журнал MedicalExpo . 16 апреля 2020 . Дата обращения 12 мая 2020 .
  117. ^ «OSTP финансирует суперкомпьютерные исследования для борьбы с COVID-19 - MeriTalk» . Дата обращения 12 мая 2020 .
  118. ^ "Проект суперкомпьютера стоимостью 1,2 евро для нескольких компьютеров 10-100 PetaFLOP к 2020 году и exaFLOP к 2022 году | NextBigFuture.com" . NextBigFuture.com . 4 февраля 2018 . Проверено 21 мая 2018 .
  119. ^ DeBenedictis, Erik P. (2004). «Путь к экстремальным вычислениям» (PDF) . Зеттафлопс . Сандийские национальные лаборатории. Архивировано 3 августа 2007 года из оригинального (PDF) . Дата обращения 9 сентября 2020 .
  120. Рианна Коэн, Реувен (28 ноября 2013 г.). «Глобальная вычислительная мощность Биткойн теперь в 256 раз быстрее, чем суперкомпьютеры 500 лучших вместе взятых!» . Forbes . Дата обращения 1 декабря 2017 .
  121. ^ DeBenedictis, Erik P. (2005). «Обратимая логика для суперкомпьютеров» . Труды 2-й конференции «Вычислительные границы» . С. 391–402. ISBN 978-1-59593-019-4.
  122. ^ «IDF: Intel утверждает, что закон Мура действует до 2029 года» . Heise Online . 4 апреля 2008 года в архив с оригинала на 8 декабря 2013.
  123. ^ Solem, JC (1985). «MECA: концепция мультипроцессора, специально разработанная для Монте-Карло» . Труды Объединенной национальной лаборатории Лос-Аламоса - Совещание Комиссариата по атомной энергии, состоявшееся в замке Кадараш, Прованс, Франция, 22–26 апреля 1985 г .; Методы Монте-Карло и их применение в нейтронике, фотонике и статистической физике, Alcouffe, R .; Dautray, R .; Forster, A .; Forster, G .; Мерсье, В .; Ред. (Springer Verlag, Берлин) . Конспект лекций по физике. 240 : 184–195. Bibcode : 1985LNP ... 240..184S . DOI : 10.1007 / BFb0049047 . ISBN 978-3-540-16070-0.
  124. ^ a b c d Яннис Котронис; Энтони Даналис; Димитрис Николопулос; Джек Донгарра (2011). Последние достижения в интерфейсе передачи сообщений: 18-е заседание Европейской группы пользователей MPI, EuroMPI 2011, Санторини, Греция, 18-21 сентября 2011 г. Материалы . Springer Science & Business Media. ISBN 9783642244483.
  125. ^ Джеймс Х. Ларос III; Кевин Педретти; Сюзанна М. Келли; Вэй Шу; Курт Феррейра; Джон Ван Дайк; Куртенэ Воан (2012). Энергоэффективные высокопроизводительные вычисления: измерение и настройка . Springer Science & Business Media. п. 1 . ISBN 9781447144922.
  126. ^ Джеймс Х. Ларос III; Кевин Педретти; Сюзанна М. Келли; Вэй Шу; Курт Феррейра; Джон Ван Дайк; Куртенэ Воан (2012). Энергоэффективные высокопроизводительные вычисления: измерение и настройка . Springer Science & Business Media. п. 2 . ISBN 9781447144922.
  127. ^ Джеймс Х. Ларос III; Кевин Педретти; Сюзанна М. Келли; Вэй Шу; Курт Феррейра; Джон Ван Дайк; Куртенэ Воан (2012). Энергоэффективные высокопроизводительные вычисления: измерение и настройка . Springer Science & Business Media. п. 3 . ISBN 9781447144922.
  128. ^ «Зеленый суперкомпьютер обрабатывает большие данные в Исландии» . intelfreepress.com . 21 мая 2015. Архивировано из оригинала 20 мая 2015 года . Дата обращения 18 мая 2015 .

Внешние ссылки [ править ]

  • Макдоннелл, Маршалл Т. (2013) Дизайн суперкомпьютера: начальные усилия по улавливанию экологических, экономических и социальных воздействий. Публикации и другие работы в области химической и биомолекулярной инженерии.