Суперкомпьютер является компьютером с высоким уровнем производительности по сравнению с компьютером общего назначения. Производительность суперкомпьютера обычно измеряется в операциях с плавающей запятой в секунду ( FLOPS ) вместо миллиона инструкций в секунду (MIPS). С 2017 года существуют суперкомпьютеры, которые могут выполнять более 10 17 FLOPS (сто квадриллионов FLOPS, 100 петафлопс или 100 PFLOPS). [3] С ноября 2017 года все 500 самых быстрых суперкомпьютеров в мире работают под управлением операционных систем на базе Linux . [4] Дополнительные исследования проводятся вСоединенным Штатам , Европейскому Союзу , Тайваню , Японии и Китаю - создать более быстрые, более мощные и технологически превосходящие суперкомпьютеры exascale . [5]
Суперкомпьютеры играют важную роль в области вычислительной науки и используются для широкого круга вычислительно-ресурсоемких задач в различных областях, включая квантовую механику , прогноз погоды , исследования климата , разведку нефти и газа , молекулярное моделирование (вычисление структур и свойств химических соединений, биологических макромолекул , полимеров и кристаллов) и физического моделирования (например, моделирования ранних моментов развития Вселенной, аэродинамики самолетов и космических кораблей , детонации ядерного оружия и ядерного синтеза ). Они сыграли важную роль в области криптоанализа . [6]
Суперкомпьютеры были представлены в 1960-х годах, и в течение нескольких десятилетий самые быстрые из них были созданы Сеймуром Крэем из Control Data Corporation (CDC), Cray Research и последующими компаниями, носящими его имя или монограмму. Первые такие машины были хорошо настроенными традиционными конструкциями, которые работали быстрее, чем их более универсальные современники. В течение десятилетия было добавлено все большее количество параллелизма , обычно от одного до четырех процессоров . В 1970-х годах стали преобладать векторные процессоры, работающие с большими массивами данных. Ярким примером является весьма успешный Cray-1 1976 года. Компьютеры Vector оставались доминирующей разработкой до 1990-х годов. С тех пор и по сегодняшний день массово-параллельные суперкомпьютеры с десятками тысяч стандартных процессоров стали нормой. [7] [8]
США долгое время были лидером в области суперкомпьютеров, сначала благодаря почти непрерывному доминированию Cray в этой области, а затем благодаря множеству технологических компаний. Япония добилась больших успехов в этой области в 1980-х и 90-х годах, при этом Китай становится все более активным в этой области. По состоянию на июнь 2020 года самым быстрым суперкомпьютером в списке суперкомпьютеров TOP500 является Fugaku в Японии с оценкой теста LINPACK 415 PFLOPS, за которым следует Summit , примерно на 266,7 PFLOPS. [9] В США четыре из 10 лучших; В Китае и Италии по два, в Швейцарии - по одному. [9] В июне 2018 года все суперкомпьютеры в списке преодолели отметку в 1 эксафлопс . [10]
История
В 1960 году UNIVAC построил Ливерморский компьютер для атомных исследований (LARC), который сегодня считается одним из первых суперкомпьютеров для Центра исследований и разработок ВМС США. Он по-прежнему использовал высокоскоростную барабанную память , а не недавно появившуюся технологию дисковых накопителей . [11] Также среди первых суперкомпьютеров был IBM 7030 Stretch . IBM 7030 был построен IBM для Национальной лаборатории Лос-Аламоса , которая в 1955 году запросила компьютер в 100 раз быстрее, чем любой из существующих компьютеров. В IBM 7030 использовались транзисторы , память на магнитных сердечниках, конвейерные инструкции, данные, предварительно загруженные через контроллер памяти, и были включены новаторские дисковые накопители с произвольным доступом. IBM 7030 был построен в 1961 году, и, несмотря на то, что он не справился с задачей стократного увеличения производительности, он был куплен Лос-Аламосской национальной лабораторией. Заказчики в Англии и Франции также купили компьютер, и он стал основой для IBM 7950 Harvest , суперкомпьютера, созданного для криптоанализа . [12]
Третьим новаторским суперкомпьютерным проектом в начале 1960-х годов стал Атлас в Манчестерском университете , созданный командой под руководством Тома Килберна . Он спроектировал Атлас так, чтобы в памяти было до миллиона слов по 48 бит, но поскольку магнитная память такой емкости была недоступна, фактическая основная память Атласа составляла всего 16000 слов, а барабан предоставлял память еще для 96000 слов. слова. Операционная система Atlas меняла местами данные в виде страниц между магнитным сердечником и барабаном. Операционная система Atlas также ввела разделение времени в суперкомпьютере, так что на суперкомпьютере можно было одновременно выполнять несколько программ. [13] Atlas был совместным предприятием Ферранти и Манчестерского университета и был разработан для работы со скоростью обработки, приближающейся к одной микросекунде на инструкцию, то есть около миллиона инструкций в секунду. [14]
CDC 6600 , разработанный Seymour Cray , был закончен в 1964 году и отмечен переход от германия в кремниевые транзисторы. Кремниевые транзисторы могли работать быстрее, и проблема перегрева была решена путем внедрения охлаждения в конструкцию суперкомпьютера. [15] Таким образом, CDC6600 стал самым быстрым компьютером в мире. Учитывая, что 6600 превзошел все другие современные компьютеры примерно в 10 раз, он был назван суперкомпьютером и определил рынок суперкомпьютеров, когда сто компьютеров были проданы по 8 миллионов долларов каждый. [16] [17] [18] [19]
Крей покинул CDC в 1972 году, чтобы основать собственную компанию Cray Research . [17] Через четыре года после ухода из CDC, в 1976 году Cray поставил 80 МГц Cray-1 , который стал одним из самых успешных суперкомпьютеров в истории. [20] [21] Cray-2 был выпущен в 1985 году было восемь центральных процессоров (ЦП), жидкостного охлаждения и охлаждающей жидкости электроники Fluorinert прокачивали через архитектуру суперкомпьютеров . Он работал со скоростью 1,9 гигафлопс и был вторым по скорости в мире после суперкомпьютера М-13 в Москве. [22]
Массивно параллельные конструкции
Единственным компьютером, который серьезно бросил вызов производительности Cray-1 в 1970-х, был ILLIAC IV . Эта машина была первым реализованным примером настоящего компьютера с массовым параллелизмом , в котором множество процессоров работали вместе для решения различных частей одной более крупной задачи. В отличие от векторных систем, которые были разработаны для максимально быстрого запуска единого потока данных, в этой концепции компьютер вместо этого передает отдельные части данных на совершенно разные процессоры, а затем повторно объединяет результаты. Конструкция ILLIAC была завершена в 1966 году с 256 процессорами и предлагала скорость до 1 Гфлопс по сравнению с пиковым значением Cray-1 1970-х годов в 250 MFLOPS. Однако проблемы разработки привели к созданию только 64 процессоров, и система никогда не могла работать быстрее, чем примерно 200 MFLOPS, будучи намного больше и сложнее, чем Cray. Другая проблема заключалась в том, что написание программного обеспечения для системы было трудным, и для достижения максимальной производительности требовались серьезные усилия.
Но частичный успех ILLIAC IV был широко расценен как указатель пути в будущее суперкомпьютеров. Крей возражал против этого, как известно, остроумно говоря: «Если бы вы вспахивали поле, что бы вы предпочли использовать? Двух сильных волов или 1024 цыплят?» [23] Но к началу 1980-х несколько команд работали над параллельными проектами с тысячами процессоров, в частности, Connection Machine (CM), которая была разработана в результате исследований в Массачусетском технологическом институте . CM-1 использовал до 65 536 упрощенных специализированных микропроцессоров, объединенных в сеть для обмена данными. Последовало несколько обновленных версий; Суперкомпьютер CM-5 - это компьютер с массовым параллелизмом, способный выполнять многие миллиарды арифметических операций в секунду. [24]
В 1982 году , Университет Осаки «s LINKS-1 Компьютерная графика система использовала массивно параллельной архитектуры обработки, с 514 микропроцессорами , в том числе 257 Zilog Z8001 процессоров управления и 257 iAPX 86/20 процессоров с плавающей точкой . В основном он использовался для рендеринга реалистичной компьютерной 3D-графики . [25] Fujitsu VPP500 1992 года выпуска необычен, поскольку для достижения более высоких скоростей в его процессорах использовался GaAs , материал, обычно предназначенный для микроволновых приложений из-за его токсичности. [26] Fujitsu «ы Численное аэродинамическая суперкомпьютер используется 166 векторных процессоров , чтобы получить первое место в 1994 с пиковой скоростью 1,7 гигафлопс (GFLOPS) на каждый процессор. [27] [28] Hitachi SR2201 получил максимальную производительность 600 GFLOPS в 1996 году с использованием 2048 процессоров , соединенных с помощью быстрого трехмерной поперечин сети. [29] [30] [31] Intel Paragon может иметь от 1000 до 4000 Intel i860 процессоров в различных конфигурациях и занял самый быстрый в мире в 1993 году Paragon был MIMD машина , которая соединила процессоры с помощью высокой скорости двумерная mesh, позволяя процессам выполняться на отдельных узлах, взаимодействуя через интерфейс передачи сообщений . [32]
Разработка программного обеспечения оставалась проблемой, но серия CM вызвала серьезное исследование этого вопроса. Подобные проекты с использованием специального оборудования были созданы многими компаниями, включая Evans & Sutherland ES-1 , MasPar , nCUBE , Intel iPSC и Goodyear MPP . Но к середине 1990-х производительность ЦП общего назначения настолько улучшилась, что суперкомпьютер можно было построить, используя их в качестве отдельных процессоров, вместо того, чтобы использовать специальные микросхемы. К началу 21-го века проекты с десятками тысяч стандартных процессоров стали нормой, а более поздние машины добавляли графические блоки в эту смесь. [7] [8]
Системы с большим количеством процессоров обычно выбирают один из двух путей. В подходе к сетевым вычислениям вычислительная мощность многих компьютеров, организованных в виде распределенных, различных административных доменов, оппортунистически используется всякий раз, когда компьютер доступен [33], а в другом подходе многие процессоры используются в непосредственной близости друг от друга, например, в компьютерный кластер . В такой централизованной массивно-параллельной системе скорость и гибкостьмежсоединение становится очень важным, и современные суперкомпьютеры используют различные подходы, начиная от усовершенствованныхсистемInfiniband изаканчиваямежсоединениями в видетрехмерноготора. [34] [35] Использованиемногоядерных процессоров всочетании с централизацией является новым направлением, например, как в системеCyclops64. [36] [37]
По мере того как цена, производительность и энергоэффективность графических процессоров общего назначения (GPGPU) улучшились, ряд суперкомпьютеров с петафлопсами, таких как Tianhe-I и Nebulae , начали полагаться на них. [38] Тем не менее, другие системы, такие как компьютер K, продолжают использовать обычные процессоры, такие как конструкции на основе SPARC, и общая применимость GPGPU в универсальных высокопроизводительных вычислительных приложениях была предметом споров, в то время как GPGPU может быть настроен для получения хороших результатов в конкретных тестах, его общая применимость к повседневным алгоритмам может быть ограничена, если не будут затрачены значительные усилия на настройку приложения для этого. [39] Тем не менее, графические процессоры набирают обороты, и в 2012 году суперкомпьютер Jaguar был преобразован в Titan путем модернизации процессоров с помощью графических процессоров. [40] [41] [42]
Ожидаемый жизненный цикл высокопроизводительных компьютеров составляет около трех лет, прежде чем потребуется обновление. [43] Gyoukou суперкомпьютер уникален тем , что он использует и в широком масштабе параллельную конструкцию и погружение в жидкость охлаждения .
Суперкомпьютеры специального назначения
Было разработано несколько систем специального назначения, посвященных одной проблеме. Это позволяет использовать специально запрограммированные микросхемы FPGA или даже специализированные микросхемы ASIC , обеспечивая лучшее соотношение цена / производительность за счет отказа от универсальности. Примеры суперкомпьютеров специального назначения включают Belle , [44] Deep Blue , [45] и Hydra , [46] для игры в шахматы , Gravity Pipe для астрофизики, [47] MDGRAPE-3 для вычисления молекулярной динамики структуры белка [48] и Deep Crack , [49] за взлом шифра DES .
Использование энергии и управление теплом
На протяжении десятилетий управление плотностью тепла оставалось ключевым вопросом для большинства централизованных суперкомпьютеров. [52] [53] [54] Большое количество тепла, выделяемого системой, также может иметь другие эффекты, например, сокращение срока службы других компонентов системы. [55] Существуют различные подходы к управлению теплом, от прокачки Fluorinert через систему до гибридной системы жидкостно-воздушного охлаждения или воздушного охлаждения с нормальной температурой кондиционирования . [56] [57] Типичный суперкомпьютер потребляет большое количество электроэнергии, почти вся она преобразуется в тепло, требующее охлаждения. Например, Тяньхэ-1А потребляет 4,04 мегаватт (МВт) электроэнергии. [58] Затраты на питание и охлаждение системы могут быть значительными, например, 4 МВт при цене 0,10 долл. США / кВт · ч - это 400 долл. США в час или около 3,5 млн долл. США в год.
Управление теплом является серьезной проблемой в сложных электронных устройствах и по-разному влияет на мощные компьютерные системы. [59] Расчетная тепловая мощность и рассеиваемая мощность процессора в суперкомпьютерах превосходят проблемы традиционных технологий охлаждения компьютеров . Награды за « зеленые» вычисления в области суперкомпьютеров отражают эту проблему. [60] [61] [62]
Упаковка тысяч процессоров вместе неизбежно приводит к значительному тепловыделению, с которым необходимо иметь дело. Cray 2 был жидкостным охлаждением , и использовали Fluorinert «охлаждающий водопад» , который был вынужден через модули под давлением. [56] Однако подход с погружным жидкостным охлаждением был непрактичным для систем с несколькими шкафами на базе стандартных процессоров, а в System X вместе с системой Liebert была разработана специальная система охлаждения, сочетающая кондиционирование воздуха с жидкостным охлаждением. компания . [57]
В системе Blue Gene IBM намеренно использовала процессоры с низким энергопотреблением, чтобы справиться с плотностью нагрева. [63] IBM Power 775 , выпущенный в 2011 году, имеет плотно упакованные элементы, требующие водяного охлаждения. [64] Система IBM Aquasar использует охлаждение горячей водой для достижения энергоэффективности, причем вода также используется для обогрева зданий. [65] [66]
Энергоэффективность компьютерных систем обычно измеряется в единицах « FLOPS на ватт ». В 2008 году скорость Roadrunner от IBM составляла 3,76 MFLOPS / Вт . [67] [68] В ноябре 2010 года показатель Blue Gene / Q достиг 1,684 MFLOPS / Вт [69] [70], а в июне 2011 года две верхние позиции в списке Green 500 заняли машины Blue Gene в Нью-Йорке (одно достигнув 2097 MFLOPS / W) с кластером DEGIMA в Нагасаки, занявшим третье место с 1375 MFLOPS / W. [71]
Поскольку медные провода могут передавать энергию в суперкомпьютер с гораздо более высокой плотностью мощности , чем принудительные воздушная или циркулирующие хладагенты могут удалить отработанное тепло , [72] способность систем охлаждения для удаления отработанного тепла является ограничивающим фактором. [73] [74] По состоянию на 2015 год[Обновить], многие существующие суперкомпьютеры обладают большей пропускной способностью инфраструктуры, чем фактическая пиковая потребность машины - разработчики обычно консервативно проектируют инфраструктуру питания и охлаждения для обработки большей, чем теоретическая пиковая электрическая мощность, потребляемая суперкомпьютером. Конструкции суперкомпьютеров будущего имеют ограниченную мощность - расчетная тепловая мощность суперкомпьютера в целом, объем, с которым может справиться инфраструктура питания и охлаждения, несколько больше, чем ожидаемое нормальное энергопотребление, но меньше, чем теоретическая пиковая потребляемая мощность электронное оборудование. [75]
Программное обеспечение и управление системой
Операционные системы
С конца 20 века операционные системы суперкомпьютеров претерпели серьезные преобразования, основанные на изменениях в архитектуре суперкомпьютеров . [76] В то время как ранние операционные системы были адаптированы для каждого суперкомпьютера для увеличения скорости, тенденция заключалась в отходе от внутренних операционных систем к адаптации общего программного обеспечения, такого как Linux . [77]
Поскольку современные суперкомпьютеры с массовым параллелизмом обычно отделяют вычисления от других служб, используя несколько типов узлов , они обычно запускают разные операционные системы на разных узлах, например, используя небольшое и эффективное легкое ядро, такое как CNK или CNL, на вычислительных узлах, но более крупную систему, такую как как производное от Linux на сервере и узлах ввода-вывода . [78] [79] [80]
В то время как в традиционной многопользовательской компьютерной системе планирование заданий , по сути, является проблемой постановки задач для обработки и периферийных ресурсов, в массивно-параллельной системе система управления заданиями должна управлять распределением как вычислительных, так и коммуникационных ресурсов, а также изящно справляться с неизбежными сбоями оборудования при наличии десятков тысяч процессоров. [81]
Хотя в большинстве современных суперкомпьютеров используется операционная система на базе Linux , у каждого производителя есть своя собственная производная от Linux, и отраслевого стандарта не существует, отчасти из-за того, что различия в аппаратных архитектурах требуют изменений для оптимизации операционной системы для каждой конструкции оборудования. . [76] [82]
Программные инструменты и передача сообщений
Параллельная архитектура суперкомпьютеров часто требует использования специальных методов программирования для повышения их скорости. Программные инструменты для распределенной обработки включают стандартные API, такие как MPI и PVM , VTL , и программное обеспечение с открытым исходным кодом, такое как Beowulf .
В наиболее распространенном сценарии используются такие среды, как PVM и MPI для слабо связанных кластеров и OpenMP для жестко скоординированных машин с общей памятью. Требуются значительные усилия для оптимизации алгоритма с учетом характеристик межсоединения машины, на которой он будет работать; цель состоит в том, чтобы не допустить, чтобы любой из процессоров тратил время на ожидание данных от других узлов. GPGPU имеют сотни процессорных ядер и программируются с использованием таких моделей программирования, как CUDA или OpenCL .
Более того, отлаживать и тестировать параллельные программы довольно сложно. Для тестирования и отладки таких приложений необходимо использовать специальные методы .
Распределенные суперкомпьютеры
Оппортунистические подходы
Оппортунистический суперкомпьютер - это форма сетевых грид-вычислений, при которой «супер-виртуальный компьютер» из множества слабосвязанных вычислительных машин-добровольцев выполняет очень большие вычислительные задачи. Грид-вычисления применялись для решения ряда крупномасштабных до неловко параллельных задач, которые требуют масштабирования производительности суперкомпьютеров. Однако базовые подходы к сетевым и облачным вычислениям , основанные на добровольных вычислениях, не могут справиться с традиционными задачами суперкомпьютеров, такими как гидродинамическое моделирование. [84]
Самая быстрая система распределенных вычислений - это проект распределенных вычислений Folding @ home (F @ h). F @ h сообщил о 2,5 эксафлопс вычислительной мощности x86 по состоянию на апрель 2020 г.[Обновить]. Из них более 100 PFLOPS вносятся клиентами, работающими на различных графических процессорах, а остальные - от различных систем ЦП. [85]
Платформа Berkeley Open Infrastructure for Network Computing (BOINC) содержит ряд проектов распределенных вычислений. По состоянию на февраль 2017 г.[Обновить], BOINC зафиксировал вычислительную мощность более 166 петафлопс на более чем 762 тысячах активных компьютеров (хостов) в сети. [86]
По состоянию на октябрь 2016 г.[Обновить], Great Internet Mersenne Prime Search «s (GIMPS) , распределенный Мерсено поиск достиг около 0,313 PFLOPS через более чем 1,3 миллионов компьютеров. [87] Интернет PrimeNet Сервер поддерживает грид - компьютинга подход GIMPS, одного из самых ранних и наиболее успешных [ править ] проектов сетевых вычислений, начиная с 1997 года.
Квази-оппортунистические подходы
Квазиоппортунистические суперкомпьютеры - это форма распределенных вычислений, при которой «супервиртуальный компьютер» многих сетевых географически разнесенных компьютеров выполняет вычислительные задачи, требующие огромной вычислительной мощности. [88] Квази-оппортунистические суперкомпьютеры нацелены на обеспечение более высокого качества обслуживания, чем гибкие грид-вычисления, за счет достижения большего контроля над назначением задач распределенным ресурсам и использования информации о доступности и надежности отдельных систем в суперкомпьютерной сети. Однако квазиоппортунистическое распределенное выполнение требовательного программного обеспечения для параллельных вычислений в гридах должно достигаться за счет реализации соглашений о распределении по сетке, подсистем совместного распределения, механизмов распределения с учетом топологии связи, отказоустойчивых библиотек передачи сообщений и предварительной обработки данных. [88]
Облака для высокопроизводительных вычислений
Облачные вычисления с их недавним и быстрым расширением и развитием в последние годы привлекли внимание пользователей и разработчиков высокопроизводительных вычислений (HPC). Облачные вычисления пытаются предоставлять HPC-as-a-service точно так же, как другие формы услуг, доступных в облаке, такие как программное обеспечение как услуга , платформа как услуга и инфраструктура как услуга . Пользователи HPC могут извлечь выгоду из облака с разных сторон, например, масштабируемость, доступность ресурсов по требованию, скорость и недорого. С другой стороны, перемещение приложений высокопроизводительных вычислений также связано с рядом проблем. Хорошими примерами таких проблем являются накладные расходы на виртуализацию в облаке, мультиарендность ресурсов и проблемы с задержкой в сети. В настоящее время проводится много исследований, чтобы преодолеть эти проблемы и сделать высокопроизводительные вычисления в облаке более реальной возможностью. [89] [90] [91] [92]
В 2016 году Penguin Computing , R-HPC, Amazon Web Services , Univa , Silicon Graphics International , Sabalcore и Gomput начали предлагать облачные вычисления HPC . Облако Penguin On Demand (POD) - это вычислительная модель без оборудования для выполнения кода, но каждому пользователю предоставляется виртуализированный узел входа. Вычислительные узлы POD подключаются через невиртуализированные сети Ethernet 10 Гбит / с или QDR InfiniBand . Возможности подключения пользователей к центру обработки данных POD варьируются от 50 Мбит / с до 1 Гбит / с. [93] Ссылаясь на Elastic Compute Cloud EC2 от Amazon, компания Penguin Computing утверждает, что виртуализация вычислительных узлов не подходит для высокопроизводительных вычислений. Penguin Computing также критиковала за то, что облака HPC могли выделять вычислительные узлы клиентам, находящимся далеко друг от друга, вызывая задержки, снижающие производительность некоторых приложений HPC. [94]
Измерение производительности
Возможности против емкости
Суперкомпьютеры обычно стремятся к максимальным вычислительным возможностям, а не к вычислительным мощностям. Вычисление возможностей обычно понимается как использование максимальной вычислительной мощности для решения одной большой проблемы в кратчайшие сроки. Часто система возможностей способна решить проблему такого размера или сложности, которую не может сделать ни один другой компьютер, например, очень сложное приложение для моделирования погоды . [95]
Вычисление емкости, напротив, обычно рассматривается как использование эффективной рентабельной вычислительной мощности для решения нескольких довольно больших проблем или множества мелких проблем. [95] Архитектуры, которые поддаются поддержке многих пользователей для выполнения рутинных повседневных задач, могут обладать большой емкостью, но обычно не считаются суперкомпьютерами, поскольку они не решают ни одной очень сложной проблемы. [95]
Показатели эффективности
Как правило, скорость суперкомпьютеров измеряется и оценивается в FLOPS («операции с плавающей запятой в секунду»), а не в MIPS («миллион инструкций в секунду»), как в случае с компьютерами общего назначения [96]. ] Эти измерения обычно используются с префиксом SI, таким как тера- , в сочетании с сокращением «TFLOPS» (10 12 FLOPS, произносится как терафлопс ) или пета- , объединенным в сокращение «PFLOPS» (10 15 FLOPS, произносится как петафлопс) . Суперкомпьютеры " Petascale " могут обрабатывать один квадриллион (10 15 ) (1000 триллионов) FLOPS. Exascale - это производительность вычислений в диапазоне exaFLOPS (EFLOPS). EFLOPS - это один квинтиллион (10 18 ) FLOPS (один миллион TFLOPS).
Ни одно число не может отражать общую производительность компьютерной системы, но цель теста Linpack - приблизительно оценить, насколько быстро компьютер решает числовые задачи, и он широко используется в отрасли. [97] Измерение FLOPS основано либо на теоретической производительности процессора с плавающей запятой (полученной из спецификаций процессора производителя и показанной как «Rpeak» в списках TOP500), что обычно недостижимо при выполнении реальных рабочих нагрузок, либо на достижимой пропускной способности. , полученный из тестов LINPACK и показанный как «Rmax» в списке TOP500. [98] Тест LINPACK обычно выполняет LU-разложение большой матрицы. [99] Производительность LINPACK дает некоторое представление о производительности для некоторых реальных проблем, но не обязательно соответствует требованиям обработки многих других рабочих нагрузок суперкомпьютеров, которые, например, могут потребовать большей пропускной способности памяти или могут потребовать более высокой производительности целочисленных вычислений, или может потребоваться высокопроизводительная система ввода-вывода для достижения высокого уровня производительности. [97]
Список ТОП500
С 1993 года самые быстрые суперкомпьютеры попадают в список TOP500 в соответствии с результатами тестов LINPACK . Список не претендует на беспристрастность или окончательность, но это широко цитируемое текущее определение «самого быстрого» суперкомпьютера, доступного в любой момент времени.
Это недавний список компьютеров, которые оказались в верхней части списка TOP500, [100] и «Пиковая скорость» дана как рейтинг «Rmax». В 2018 году Lenovo стала крупнейшим в мире поставщиком суперкомпьютеров TOP500, выпустив 117 единиц. [101]
Год | Суперкомпьютер | Rmax (TFlop / s) | Место расположения |
---|---|---|---|
2020 г. | Fujitsu Fugaku | 442 010,0 | Кобе , Япония |
2018 г. | Саммит IBM | 148 600,0 | Ок-Ридж , США |
2018 г. | IBM / Nvidia / Mellanox Sierra | 94 640,0 | Ливермор , США |
2016 г. | Sunway TaihuLight | 93 014,6 | Уси , Китай |
2013 | НУДТ Тяньхэ-2 | 61 444,5 | Гуанчжоу , Китай |
2019 г. | Dell Frontera | 23 516,4 | Остин , США |
2012 г. | Крей / HPE Piz Daint | 21 230,0 | Лугано , Швейцария |
2015 г. | Cray / HPE Trinity | 20 158,7 | Нью-Мексико , США |
2018 г. | Fujitsu ABCI | 19 880,0 | Токио , Япония |
2018 г. | Lenovo SuperMUC-NG | 19 476,6 | Гархинг , Германия |
Приложения
Этапы применения суперкомпьютера можно кратко изложить в следующей таблице:
Десятилетие | Использование и компьютер |
---|---|
1970-е | Прогноз погоды, аэродинамические исследования ( Cray-1 ). [102] |
1980-е | Вероятностный анализ, [103] моделирование радиационной защиты [104] ( CDC Cyber ). |
1990-е | Взлом кода методом грубой силы ( взломщик EFF DES ). [105] |
2000-е | Трехмерное моделирование ядерных испытаний вместо законного поведения Договора о нераспространении ядерного оружия ( ASCI Q ). [106] |
2010-е | Моделирование молекулярной динамики ( Tianhe-1A ) [107] |
2020-е годы | Научные исследования для предотвращения вспышек болезней / Исследования электрохимических реакций [108] |
Компьютер IBM Blue Gene / P использовался для моделирования ряда искусственных нейронов, эквивалентных примерно одному проценту коры головного мозга человека, содержащих 1,6 миллиарда нейронов с примерно 9 триллионами соединений. Этой же исследовательской группе также удалось использовать суперкомпьютер для моделирования ряда искусственных нейронов, эквивалентных всему мозгу крысы. [109]
Современное прогнозирование погоды также опирается на суперкомпьютеры. Национальное управление океанических и атмосферных исследований использует суперкомпьютеры грызть сотни миллионов наблюдений , чтобы помочь сделать прогнозы погоды более точными. [110]
В 2011 году , проблемы и трудности , толкая конверт суперкомпьютеров были подчеркнуты на IBM оставлении «s в Blue Waters проекта petascale. [111]
Программа Advanced Simulation and Computing Program в настоящее время использует суперкомпьютеры для обслуживания и моделирования ядерных арсеналов Соединенных Штатов. [112]
В начале 2020 года COVID-19 был в центре внимания в мире. Суперкомпьютеры использовали различные модели для поиска соединений, которые потенциально могли бы остановить распространение. Эти компьютеры работают в течение десятков часов, используя несколько параллельно работающих процессоров для моделирования различных процессов. [113] [114] [115]
Развитие и тенденции
В 2010-х годах Китай, США, Европейский Союз и другие страны соревновались за то, чтобы первыми создать суперкомпьютер 1 exaFLOP (10 18 или один квинтиллион FLOPS). [116] Эрик П. ДеБенедиктис из Sandia National Laboratories предположил, что компьютер с zettaFLOPS (10 21 или один секстиллион FLOPS) необходим для выполнения полного моделирования погоды , которое могло бы точно охватывать двухнедельный период времени. [117] [118] [119] Такие системы могут быть построены примерно в 2030 году. [120]
Во многих моделированиях Монте-Карло используется один и тот же алгоритм для обработки случайно сгенерированного набора данных; в частности, интегро-дифференциальные уравнения, описывающие физические процессы переноса , случайные траектории , столкновения, а также передачу энергии и импульса нейтронов, фотонов, ионов, электронов и т. д.Следующим шагом для микропроцессоров может стать третье измерение ; и специализируясь на Монте-Карло, многие слои могут быть идентичными, что упрощает процесс проектирования и производства. [121]
Стоимость эксплуатации высокопроизводительных суперкомпьютеров выросла, в основном из-за увеличения энергопотребления. В середине 1990-х годов топ-10 суперкомпьютеров требовал мощности в диапазоне 100 киловатт, в 2010 году 10 лучших суперкомпьютеров требовали от 1 до 2 мегаватт. [122] Исследование 2010 года, проведенное по заказу DARPA, определило энергопотребление как наиболее распространенную проблему при достижении Exascale-вычислений . [123] В то время мегаватт энергии в год стоил около 1 миллиона долларов. Были построены суперкомпьютерные средства для эффективного отвода увеличивающегося количества тепла, производимого современными многоядерными центральными процессорами . Исходя из энергопотребления суперкомпьютеров из списка Green 500 в период с 2007 по 2011 год, суперкомпьютеру с производительностью 1 экзафлопс в 2011 году потребовалось бы почти 500 мегаватт. Операционные системы были разработаны для существующего оборудования, чтобы по возможности экономить энергию. [124] Ядра ЦП, не используемые во время выполнения распараллеленного приложения, были переведены в состояние с низким энергопотреблением, что привело к экономии энергии для некоторых суперкомпьютерных приложений. [125]
Растущая стоимость эксплуатации суперкомпьютеров была движущим фактором тенденции к объединению ресурсов через распределенную суперкомпьютерную инфраструктуру. Национальные суперкомпьютерные центры сначала возникли в США, затем в Германии и Японии. Европейский Союз запустил Партнерство по передовым вычислениям в Европе (PRACE) с целью создания устойчивой панъевропейской суперкомпьютерной инфраструктуры с услугами для поддержки ученых всего Европейского Союза в портировании, масштабировании и оптимизации суперкомпьютерных приложений. [122] Исландия построила первый в мире суперкомпьютер с нулевым уровнем выбросов. Этот суперкомпьютер, расположенный в центре обработки данных Thor в Рейкьявике , Исландия, использует полностью возобновляемые источники энергии, а не ископаемое топливо. Более холодный климат также снижает потребность в активном охлаждении, что делает его одним из самых экологичных объектов в мире компьютеров. [126]
Становилось все труднее и труднее финансировать суперкомпьютерное оборудование. В середине 1990-х годов 10 лучших суперкомпьютеров стоили около 10 миллионов евро, в то время как в 2010 году 10 лучших суперкомпьютеров требовали инвестиций в размере от 40 до 50 миллионов евро. [122] В 2000-х годах правительства стран разработали различные стратегии финансирования суперкомпьютеров. В Великобритании национальное правительство полностью финансировало суперкомпьютеры, а высокопроизводительные вычисления были переданы под контроль национального финансового агентства. Германия разработала смешанную модель финансирования, объединяющую местное государственное финансирование и федеральное финансирование. [122]
В художественной литературе
Многие фантасты писатели изображали суперкомпьютеры в своих работах, как до , так и после исторического построения таких компьютеров. Большая часть таких художественных произведений посвящена отношениям людей с компьютерами, которые они создают, и возможности конфликта, который в конечном итоге может развиться между ними. Примеры суперкомпьютеров в художественной литературе включают HAL-9000 , Multivac , The Machine Stops , GLaDOS , The Evitable Conflict , Vulcan's Hammer , Colossus , WOPR и Deep Thought .
Смотрите также
- Конференция по суперкомпьютерам ACM / IEEE
- ACM SIGHPC
- Высокопроизводительные технические вычисления
- Вычисления в джунглях
- Персональный суперкомпьютер Nvidia Tesla
- Параллельные вычисления
- Суперкомпьютеры в Китае
- Суперкомпьютерные технологии в Европе
- Суперкомпьютеры в Индии
- Суперкомпьютеры в Японии
- Тестирование высокопроизводительных вычислительных приложений
- Ультра Сетевые Технологии
- Квантовые вычисления
Примечания и ссылки
- ^ "Объявление гена IBM Blue" . 03.ibm.com. 26 июня 2007 . Проверено 9 июня 2012 года .
- ^ «Бесстрашный» . Вычислительный центр Argonne Leadership Computing . Аргоннская национальная лаборатория . Архивировано из оригинала 7 мая 2013 года . Проверено 26 марта 2020 года .
- ^ «Список: июнь 2018» . Топ 500 . Проверено 25 июня 2018 .
- ^ «Семейство операционных систем / Linux» . TOP500.org . Проверено 30 ноября 2017 года .
- ↑ Андерсон, Марк (21 июня 2017 г.). «Глобальная гонка за Exascale приведет к массовому развитию суперкомпьютеров и искусственного интеллекта». Spectrum.IEEE.org . Проверено 20 января 2019.
- ^ Лемке, Тим (8 мая 2013 г.). «АНБ открывает путь к созданию массового вычислительного центра» . Проверено 11 декабря 2013 года .
- ^ а б Хоффман, Аллан Р .; и другие. (1990). Суперкомпьютеры: направления в технологии и приложениях . Национальные академии. С. 35–47. ISBN 978-0-309-04088-4.
- ^ а б Хилл, Марк Дональд; Джуппи, Норман Пол ; Сохи, Гуриндар (1999). Чтения по компьютерной архитектуре . С. 40–49. ISBN 978-1-55860-539-8.
- ^ а б «Япония захватила корону TOP500 с помощью суперкомпьютера с ручным приводом - сайт TOP500» . www.top500.org .
- ^ «Разработка производительности - ТОП500 суперкомпьютерных сайтов» . www.top500.org .
- ^ Эрик Г. Сведин; Дэвид Л. Ферро (2007). Компьютеры: история жизни технологии . JHU Press. п. 57. ISBN 9780801887741.
- ^ Эрик Г. Сведин; Дэвид Л. Ферро (2007). Компьютеры: история жизни технологии . JHU Press. п. 56. ISBN 9780801887741.
- ^ Эрик Г. Сведин; Дэвид Л. Ферро (2007). Компьютеры: история жизни технологии . JHU Press. п. 58. ISBN 9780801887741.
- ^ Атлас Манчестерского университета, заархивировано из оригинала 28 июля 2012 года , получено 21 сентября 2010 года.
- ^ Суперменов , Чарльз Мюррей, Wiley & Sons, 1997.
- ^ Пол Э. Серуцци (2003). История современных вычислений . MIT Press. п. 161 . ISBN 978-0-262-53203-7.
- ^ а б Ханнан, Кэрин (2008). Биографический словарь Висконсина . Государственные исторические издания. С. 83–84. ISBN 978-1-878592-63-7.
- ^ Джон Импальяццо; Джон А. Н. Ли (2004). История информатики в образовании . Springer Science & Business Media. п. 172 . ISBN 978-1-4020-8135-4.
- ^ Эндрю Р.Л. Кейтон; Ричард Сиссон; Крис Захер (2006). Американский Средний Запад: интерпретирующая энциклопедия . Издательство Индианского университета. п. 1489. ISBN 978-0-253-00349-2.
- ^ Чтения по компьютерной архитектуре Марка Дональда Хилла, Нормана Пола Джуппи, Гуриндара Сохи 1999 ISBN 978-1-55860-539-8 стр. 41-48
- ^ Вехи в компьютерных науках и информационных технологиях Эдвин Д. Рейли 2003 ISBN 1-57356-521-0 стр. 65
- ^ «Михаил Александрович Карцев, М1, М4, М10, М13. Развитие информатики и технологий в Украине» . www.icfcst.kiev.ua .
- ^ «Цитаты Сеймура Крея» . BrainyQuote .
- ^ Стив Нельсон (3 октября 2014 г.). "ComputerGK.com: Суперкомпьютеры" .
- ^ "Система компьютерной графики ЛИНКС-1-Компьютерный музей" . Museum.ipsj.or.jp .
- ^ «VPP500 (1992 г.) - Fujitsu Global» .
- ^ «Годовой отчет ТОП500 за 1994 год» . Netlib.org. 1 октября 1996 . Проверено 9 июня 2012 года .
- ^ Н. Хиросе и М. Фукуда (1997). Численные исследования аэрокосмической трубы (NWT) и CFD в Национальной аэрокосмической лаборатории . Материалы HPC-Asia '97. Страницы компьютерного общества IEEE. DOI : 10.1109 / HPC.1997.592130 .
- ^ Х. Фуджи, Ю. Ясуда, Х. Акаси, Ю. Инагами, М. Кога, О. Исихара, М. Сязван, Х. Вада, Т. Сумимото, Архитектура и производительность системы массового параллелизма Hitachi SR2201 , Труды 11-го Международного симпозиума по параллельной обработке, апрель 1997 г., страницы 233–241.
- ↑ Y. Iwasaki, Проект CP-PACS, Nuclear Physics B: Proceedings Supplements, том 60, выпуски 1–2, январь 1998 г., страницы 246–254.
- ↑ AJ van der Steen, Обзор новейших суперкомпьютеров , публикация NCF, Stichting Nationale Computer Faciliteiten, Нидерланды, январь 1997 г.
- ^ Масштабируемый ввод / вывод: достижение баланса системы Дэниел А. Рид 2003 ISBN 978-0-262-68142-1 стр.182
- ^ Продан, Раду; Фарингер, Томас (2007). Грид-вычисления: управление экспериментами, интеграция инструментов и научные рабочие процессы . С. 1–4 . ISBN 978-3-540-69261-4.
- ^ Найт, Уилл: « IBM создает самый мощный компьютер в мире », служба новостей NewScientist.com , июнь 2007 г.
- ^ NR Agida; и другие. (2005). "Blue Gene / L Torus Interconnection Network | IBM Journal of Research and Development" (PDF) . Сеть межсоединений Torus . п. 265. Архивировано из оригинального (PDF) 15 августа 2011 года.
- ^ Ню, Янвэй; Ху, Цзян; Барнер, Кеннет; Гао, Гуан Р. (2005). «Моделирование производительности и оптимизация доступа к памяти на архитектуре сотового компьютера Cyclops64» (PDF) . Сетевые и параллельные вычисления . Конспект лекций по информатике. 3779 . С. 132–143. DOI : 10.1007 / 11577188_18 . ISBN 978-3-540-29810-6.
- ^ Анализ и результаты производительности вычислений центральности промежуточности на IBM Cyclops64 Гуанмин Тан, Вугранам С. Сридхар и Гуан Р. Гао Журнал суперкомпьютеров Том 56, номер 1, 1–24 сентября 2011 г.
- ^ Прикетт, Тимоти (31 мая 2010 г.). «Топ-500 суперов - расцвет графических процессоров» . Theregister.co.uk.
- ^ Ханс Хакер; Карстен Тринитис; Йозеф Вайдендорфер; Матиас Брем (2010). «Рассмотрение GPGPU для центров высокопроизводительных вычислений: стоит ли прилагать усилия?» . У Райнера Келлера; Дэвид Крамер; Ян-Филипп Вайс (ред.). Столкнувшись с многоядерным вызовом: аспекты новых парадигм и технологий в параллельных вычислениях . Springer Science & Business Media. С. 118–121. ISBN 978-3-642-16232-9.
- ^ Дэймон Поэтер (11 октября 2011 г.). «Суперкомпьютер Cray's Titan для ORNL может быть самым быстрым в мире» . Pcmag.com.
- ^ Фельдман, Майкл (11 октября 2011 г.). «Графические процессоры превратят Jaguar ORNL в титан мощностью 20 петафлоп» . Hpcwire.com.
- ^ Тимоти Прикетт Морган (11 октября 2011 г.). «Oak Ridge меняет позиции Jaguar с центральных процессоров на графические процессоры» . Theregister.co.uk.
- ^ "Суперкомпьютер NETL" . страница 2.
- ^ Кондон, JH и K.Thompson, " Belle Chess Hardware ", в развитие компьютерных шахмат 3 (ed.MRBClarke), Пергамон Пресс, 1982.
- ^ Сюй, Фэн-сюн (2002). За Deep Blue: создание компьютера, победившего чемпиона мира по шахматам . Издательство Принстонского университета . ISBN 978-0-691-09065-8.
- ^ К. Доннингер, У. Лоренц. Гидра шахматного монстра. Proc. 14-й Международной конференции по программируемой логике и приложениям (FPL), 2004, Антверпен - Бельгия, LNCS 3203, стр. 927 - 932
- ↑ Дж. Макино и М. Тайцзи, Научное моделирование с помощью компьютеров специального назначения: системы GRAPE , Wiley. 1998 г.
- ^ RIKEN прессрелиз, завершение компьютерной системы один-петафлопс для моделирования молекулярной динамики
- ^ Фонд электронных границ (1998 г.). Взлом DES - Секреты исследования шифрования, политики прослушивания телефонных разговоров и дизайна микросхем . Oreilly & Associates Inc. ISBN 978-1-56592-520-5.
- ^ Лор, Стив (8 июня 2018 г.). «Давай, Китай: США снова являются домом для самого быстрого суперкомпьютера в мире» . Нью-Йорк Таймс . Проверено 19 июля 2018 года .
- ^ «Список Green500 - ноябрь 2018» . ТОП500 . Проверено 19 июля 2018 года .
- ^ Сюэ-Джун Ян; Сян-Кэ Ляо; и другие. (2011). «Суперкомпьютер TianHe-1A: его аппаратное и программное обеспечение». Журнал компьютерных наук и технологий . 26 (3): 344–351. DOI : 10.1007 / s02011-011-1137-8 . S2CID 1389468 .
- ^ Супермены: История Сеймура Крея и технических волшебников за суперкомпьютером Чарльзом Дж. Мюрреем 1997, ISBN 0-471-04885-2 , страницы 133–135
- ^ Параллельная вычислительная гидродинамика; Последние достижения и будущие направления под редакцией Рупака Бисваса, 2010 г. ISBN 1-60595-022-X стр. 401
- ^ Достижения исследований суперкомпьютеров Юнгге Хуан, 2008 г., ISBN 1-60456-186-6 , страницы 313–314
- ^ a b Параллельные вычисления для обработки сигналов и управления в реальном времени, автор MO Tokhi, Mohammad Alamgir Hossain 2003, ISBN 978-1-85233-599-1 , страницы 201–202
- ^ a b Вычислительные науки - ICCS 2005: 5-я международная конференция под редакцией Вейди С. Сандерама 2005, ISBN 3-540-26043-9 , страницы 60–67
- ^ «Графические процессоры NVIDIA Tesla делают самый быстрый суперкомпьютер в мире» (пресс-релиз). Nvidia. 29 октября 2010 г.
- ^ Баландин Александр Александрович (октябрь 2009 г.). «Улучшение вычислений за счет охлаждения процессора» . Spectrum.ieee.org.
- ^ «Зеленый 500» . Green500.org.
- ^ «Список Зеленых 500 ранжирует суперкомпьютеры» . iTnews Австралия . Архивировано из оригинального 22 октября 2008 года.
- ^ У-чун Фэн (2003). «Создание аргументов в пользу эффективных суперкомпьютеров | Журнал ACM Queue, том 1, выпуск 7, 10 января 2003 г., doi 10.1145 / 957717.957772» (PDF) . Очередь . 1 (7): 54. DOI : 10,1145 / 957717,957772 . S2CID 11283177 . Архивировано из оригинального (PDF) 30 марта 2012 года.
- ^ «IBM раскрывает 20 петафлопс BlueGene / Q super» . Реестр . 22 ноября 2010 . Проверено 25 ноября 2010 года .
- ^ Прикетт, Тимоти (15 июля 2011 г.). « Реестр : суперузел IBM 'Blue Waters' вымывается на берег в августе» . Theregister.co.uk . Проверено 9 июня 2012 года .
- ^ «Суперкомпьютер IBM с водяным охлаждением запускается в ETH Zurich» . Комната новостей IBM . 2 июля 2010 года. Архивировано 10 января 2011 года . Дата обращения 16 марта 2020 .
- ^ Мартин Ламоника (10 мая 2010 г.). «CNet 10 мая 2010» . News.cnet.com . Проверено 9 июня 2012 года .
- ^ «Правительство представляет самый быстрый компьютер в мире» . CNN . Архивировано из оригинала на 10 июня 2008 года
выполняет 376 миллионов расчетов на каждый ватт электроэнергии используется.
- ^ «IBM Roadrunner забирает золото в гонке в петафлопс» . Архивировано 17 декабря 2008 года . Дата обращения 16 марта 2020 .
- ^ «Список суперкомпьютеров Top500 раскрывает тенденции в области вычислений» .
IBM ... Система BlueGene / Q .. установив рекорд энергоэффективности со значением 1680 MFLOPS / Вт, что более чем в два раза больше, чем у следующей лучшей системы.
- ^ «IBM Research - явный победитель в категории« 500 зеленых »» . 18 ноября 2010 г.
- ^ «Список Зеленых 500» . Green500.org. Архивировано 3 июля 2011 года . Дата обращения 16 марта 2020 .
- ^ Саед Г. Юнис. «Асимптотически нулевые вычисления с использованием логики восстановления заряда» . 1994. стр. 14.
- ^ «Горячая тема - проблема охлаждения суперкомпьютеров». Архивировано 18 января 2015 года на Wayback Machine .
- ^ Ананд Лал Шимпи. «Внутри суперкомпьютера Titan: 299 тыс. Ядер AMD x86 и 18,6 тыс. Графических процессоров NVIDIA» . 2012 г.
- ^ Кертис Сторли; Джо Секстон; Скотт Пакин; Майкл Ланг; Брайан Райх; Уильям Раст. «Моделирование и прогнозирование энергопотребления высокопроизводительных вычислений» . 2014 г.
- ^ a b Энциклопедия параллельных вычислений Дэвида Падуа 2011 ISBN 0-387-09765-1 страницы 426–429
- ^ Зная машины: очерки технических изменений Дональда Маккензи 1998 ISBN 0-262-63188-1 стр. 149-151
- ^ Euro-Par 2004 Параллельная обработка: 10-я Международная конференция Euro-Par 2004, Марко Данелутто, Марко Ваннески и Доменико Лафоренца, ISBN 3-540-22924-8 , стр. 835
- ^ Euro-Par 2006 Параллельная обработка: 12-я Международная конференция Euro-Par , 2006, Вольфганг Э. Нагель, Вольфганг В. Вальтер и Вольфганг Ленер ISBN 3-540-37783-2 стр.
- ^ Оценка Cray XT3 Национальной лаборатории Ок-Ридж , Садаф Р. Алам и др. Международный журнал приложений для высокопроизводительных вычислений, февраль 2008 г., т. 22 нет. 1 52–80
- ^ Открытая архитектура управления заданиями для суперкомпьютера Blue Gene / L Ярива Аридора и др. в Стратегии планирования заданий для параллельной обработки Дрор Дж. Фейтельсон, 2005 г. ISBN 978-3-540-31024-2 страницы 95–101
- ^ «Таблица ОС Top500» . Top500.org. Архивировано из оригинала 5 марта 2012 года . Проверено 31 октября 2010 года .
- ^ «Широкоугольный обзор коррелятора ALMA» . Пресс-релиз ESO . Проверено 13 февраля 2013 года .
- ^ https://www.academia.edu/3991932/Chapter_03_Software_and_System_Management
- ^ Pande lab. «Клиентская статистика по ОС» . Складной @ дома . Стэнфордский университет . Проверено 10 апреля 2020 .
- ^ «BOINC Комбинированный» . BOINCstats . BOINC . Архивировано из оригинального 19 сентября 2010 года . Проверено 30 октября 2016 г. Обратите внимание, что по этой ссылке можно получить текущую статистику, а не дату последнего доступа.CS1 maint: postscript ( ссылка )
- ^ "Серверная технология распределенных вычислений Internet PrimeNet для большого поиска Мерсенн Прайм в Интернете" . GIMPS . Проверено 6 июня 2011 года .
- ^ а б Кравцов, Валентин; Кармели, Дэвид; Дубицкий, Вернер; Орда, Ариэль; Шустер, Ассаф ; Йошпа, Бенни. «Квази-оппортунистические суперкомпьютеры в гридах, статья на горячие темы (2007)» . Международный симпозиум IEEE по высокопроизводительным распределенным вычислениям . IEEE . Проверено 4 августа 2011 года .
- ^ Jamalian, S .; Раджаи, Х. (1 марта 2015 г.). ASETS: система планирования задач с поддержкой SDN для HPCaaS в облаке . 2015 IEEE Международная конференция по облачным инженерии . С. 329–334. DOI : 10.1109 / IC2E.2015.56 . ISBN 978-1-4799-8218-9. S2CID 10974077 .
- ^ Jamalian, S .; Раджаи, Х. (1 июня 2015 г.). Планирование задач высокопроизводительных вычислений с интенсивным использованием данных с помощью SDN для включения высокопроизводительных вычислений как услуги . 2015 8-я Международная конференция IEEE по облачным вычислениям . С. 596–603. DOI : 10,1109 / CLOUD.2015.85 . ISBN 978-1-4673-7287-9. S2CID 10141367 .
- ^ Gupta, A .; Милойчич, Д. (1 октября 2011 г.). Оценка приложений высокопроизводительных вычислений в облаке . 2011 Шестой открытый саммит Cirrus . С. 22–26. CiteSeerX 10.1.1.294.3936 . DOI : 10.1109 / OCS.2011.10 . ISBN 978-0-7695-4650-6. S2CID 9405724 .
- ^ Kim, H .; эль-Khamra, Y .; Jha, S .; Парашар, М. (1 декабря 2009 г.). Автономный подход к использованию интегрированных сетей высокопроизводительных вычислений и облачных вычислений . 2009 Пятая Международная конференция IEEE по электронной науке . С. 366–373. CiteSeerX 10.1.1.455.7000 . DOI : 10.1109 / e-Science.2009.58 . ISBN 978-1-4244-5340-5. S2CID 11502126 .
- ^ Эдлин, Дуглас. «Перенос высокопроизводительных вычислений в облако» . Журнал Admin . Журнал Admin . Проверено 30 марта 2019 .
- ^ Никколай, Джеймс (11 августа 2009 г.). «Penguin переносит высокопроизводительные вычисления в облако» . PCWorld . IDG Consumer & SMB . Проверено 6 июня +2016 .
- ^ a b c Потенциальное влияние высокопроизводительных вычислений на четыре иллюстративных области науки и техники Комитетом по потенциальному влиянию высокопроизводительных вычислений на иллюстративные области науки и техники и Национальным исследовательским советом (28 октября 2008 г.) ISBN 0-309-12485-9 стр. 9
- ^ Синфу Ву (1999). Оценка производительности, прогнозирование и визуализация параллельных систем . Springer Science & Business Media. С. 114–117. ISBN 978-0-7923-8462-5.
- ^ а б Донгарра, Джек Дж .; Лущек, Петр; Petitet, Антуан (2003), "The LINPACK Benchmark: прошлое, настоящее и будущее" (PDF) , параллелизм и Исчисление: практика и опыт , 15 (9): 803-820, DOI : 10.1002 / cpe.728 , S2CID 1900724
- ^ «Понимание показателей производительности суперкомпьютера и емкости системы хранения данных» . Университет Индианы . Дата обращения 3 декабря 2017 .
- ^ «Часто задаваемые вопросы» . TOP500.org . Дата обращения 3 декабря 2017 .
- ^ Брошюра Intel - 11/91. «Страница каталога для списков Top500. Результат для каждого списка с июня 1993 года» . Top500.org . Проверено 31 октября 2010 года .
- ^ «Lenovo стала крупнейшим мировым поставщиком суперкомпьютеров TOP500» . Деловой провод . 25 июня 2018.
- ^ "Компьютерная система Cray-1" (PDF) . Cray Research, Inc . Проверено 25 мая 2011 года .
- ^ Джоши, Раджани Р. (9 июня 1998 г.). «Новый эвристический алгоритм вероятностной оптимизации». Компьютеры и исследования операций . 24 (7): 687–697. DOI : 10.1016 / S0305-0548 (96) 00056-1 .
- ^ "Аннотация для SAMSY - Модульная система анализа экранирования" . Агентство по ядерной энергии ОЭСР, Исси-ле-Мулино, Франция . Проверено 25 мая 2011 года .
- ^ "Исходный код взломщика EFF DES" . Cosic.esat.kuleuven.be . Проверено 8 июля 2011 года .
- ^ «Дипломатия в области разоружения: - Программа суперкомпьютеров и тестового моделирования DOE» . Acronym.org.uk. 22 августа 2000 . Проверено 8 июля 2011 года .
- ^ «Китайские инвестиции в суперкомпьютеры на GPU начинают окупаться!» . Blogs.nvidia.com . Проверено 8 июля 2011 года .
- ^ Эндрю, Скотти. «Самый быстрый суперкомпьютер в мире обнаружил химические вещества, которые могут остановить распространение коронавируса, что является решающим шагом на пути к лечению» . CNN . Дата обращения 12 мая 2020 .
- ↑ Каку, Мичио. Физика будущего (Нью-Йорк: Doubleday, 2011), 65.
- ^ «Более быстрые суперкомпьютеры, помогающие прогнозировать погоду» . News.nationalgeographic.com. 28 октября 2010 . Проверено 8 июля 2011 года .
- ^ «Проект суперкомпьютера IBM Drops 'Blue Waters'» . International Business Times . 9 августа 2011 . Проверено 14 декабря 2018 . - через EBSCO (требуется подписка)
- ^ «Суперкомпьютеры» . Министерство энергетики США . Проверено 7 марта 2017 года .
- ^ «Суперкомпьютерное моделирование помогает продвинуть исследования электрохимических реакций» . ucsdnews.ucsd.edu . Дата обращения 12 мая 2020 .
- ^ «Саммит IBM - суперкомпьютер в борьбе с коронавирусом» . Электронный журнал MedicalExpo . 16 апреля 2020 . Дата обращения 12 мая 2020 .
- ^ «OSTP финансирует суперкомпьютерные исследования для борьбы с COVID-19 - MeriTalk» . Дата обращения 12 мая 2020 .
- ^ «Проект суперкомпьютера стоимостью 1,2 евро для нескольких компьютеров мощностью 10-100 петафлопов к 2020 году и exaFLOP к 2022 году | NextBigFuture.com» . NextBigFuture.com . 4 февраля 2018 . Проверено 21 мая 2018 .
- ^ ДеБенедиктис, Эрик П. (2004). «Путь к экстремальным вычислениям» (PDF) . Зеттафлопс . Сандийские национальные лаборатории. Архивировано из оригинального (PDF) 3 августа 2007 года . Дата обращения 9 сентября 2020 .
- ^ Коэн, Реувен (28 ноября 2013 г.). «Глобальная вычислительная мощность Биткойн теперь в 256 раз быстрее, чем суперкомпьютеры 500 лучших вместе взятых!» . Forbes . Проверено 1 декабря 2017 года .
- ^ ДеБенедиктис, Эрик П. (2005). «Обратимая логика для суперкомпьютеров» . Труды 2-й конференции «Вычислительные рубежи» . С. 391–402. ISBN 978-1-59593-019-4.
- ^ «IDF: Intel утверждает, что закон Мура действует до 2029 года» . Heise Online . 4 апреля 2008 года в архив с оригинала на 8 декабря 2013.
- ^ Solem, JC (1985). «MECA: многопроцессорная концепция, специально разработанная для Монте-Карло» . Труды Объединенной национальной лаборатории Лос-Аламос - Совещание Комиссариата по атомной энергии, состоявшееся в замке Кадараш, Прованс, Франция, 22–26 апреля 1985 г .; Методы Монте-Карло и их применение в нейтронике, фотонике и статистической физике, Alcouffe, R .; Dautray, R .; Forster, A .; Forster, G .; Mercier, B .; Ред. (Springer Verlag, Берлин) . Конспект лекций по физике. 240 : 184–195. Bibcode : 1985LNP ... 240..184S . DOI : 10.1007 / BFb0049047 . ISBN 978-3-540-16070-0.
- ^ а б в г Яннис Котронис; Энтони Даналис; Димитрис Николопулос; Джек Донгарра (2011). Последние достижения в интерфейсе передачи сообщений: 18-е заседание Европейской группы пользователей MPI, EuroMPI 2011, Санторини, Греция, 18-21 сентября 2011 г. Материалы . Springer Science & Business Media. ISBN 9783642244483.
- ^ Джеймс Х. Ларос III; Кевин Педретти; Сюзанна М. Келли; Вэй Шу; Курт Феррейра; Джон Ван Дайк; Куртенэ Воан (2012). Энергоэффективные высокопроизводительные вычисления: измерение и настройка . Springer Science & Business Media. п. 1 . ISBN 9781447144922.
- ^ Джеймс Х. Ларос III; Кевин Педретти; Сюзанна М. Келли; Вэй Шу; Курт Феррейра; Джон Ван Дайк; Куртенэ Воан (2012). Энергоэффективные высокопроизводительные вычисления: измерение и настройка . Springer Science & Business Media. п. 2 . ISBN 9781447144922.
- ^ Джеймс Х. Ларос III; Кевин Педретти; Сюзанна М. Келли; Вэй Шу; Курт Феррейра; Джон Ван Дайк; Куртенэ Воан (2012). Энергоэффективные высокопроизводительные вычисления: измерение и настройка . Springer Science & Business Media. п. 3 . ISBN 9781447144922.
- ^ «Зеленый суперкомпьютер обрабатывает большие данные в Исландии» . intelfreepress.com . 21 мая 2015. Архивировано из оригинала 20 мая 2015 года . Дата обращения 18 мая 2015 .
Внешние ссылки
- Макдоннелл, Маршалл Т. (2013) Дизайн суперкомпьютера: начальные усилия по улавливанию экологических, экономических и социальных воздействий. Публикации и другие работы в области химической и биомолекулярной инженерии.