Национальный центр вычислительной наук ( NCCS ) является Министерство энергетики США (DOE) Leadership Computing Facility , что дома Oak Ridge Leadership Computing Facility (OLCF), НОО Управление по науке Facility пользователя заряжена с помогая исследователям решать сложные научные проблемы глобальный интерес с сочетанием ведущих ресурсов высокопроизводительных вычислений (HPC) и международного опыта в области научных вычислений. [1]
NCCS предоставляет ресурсы для вычислений и моделирования в таких областях, как астрофизика, материаловедение и климатические исследования, пользователям из правительства, академических кругов и промышленности, которые сталкиваются со многими из самых серьезных вычислительных проблем в науке. [2]
Флагманский суперкомпьютер OLCF, IBM AC922 Summit , поддерживает передовые инструменты управления и анализа данных. В центре размещалась система Cray XK7 Titan , один из самых мощных научных инструментов своего времени, с 2012 года до его вывода на пенсию в августе 2019 года. В том же году началось строительство Frontier , который должен дебютировать как первая эксафлопсная система OLCF в 2021. [3]
История
9 декабря 1991 года Конгресс подписал Закон о высокопроизводительных вычислениях (HPCA) 1991 года, созданный сенатором Элом Гором . HPCA предложила национальную информационную инфраструктуру для построения коммуникационных сетей и баз данных, а также призвала к подаче предложений по созданию новых высокопроизводительных вычислительных средств для обслуживания науки. [4]
24 мая 1992 года ORNL был награжден научно-исследовательским центром высокопроизводительных вычислений под названием Центр вычислительных наук, или CCS, как часть HPCA. [5] ORNL также получил 66-процессорный процессор Intel Paragon XP / S 5 с серийным номером 1 для разработки кода в том же году. Пиковая производительность системы составила 5 гигафлопс (5 миллиардов операций с плавающей запятой в секунду).
Национальная лаборатория Ок-Ридж (ORNL) объединилась с тремя другими национальными лабораториями и семью университетами, чтобы подать предложение о партнерстве в области вычислительной науки (PICS) в Министерство энергетики США в рамках Инициативы по высокопроизводительным вычислениям и коммуникациям. [6] [7]
В соответствии с Законом о возрождении высокопроизводительных вычислений от 2004 года, CCS было поручено реализовать проект Leadership Computing Facility (LCF) в ORNL с целью разработки и установки суперкомпьютера со скоростью петафлопс к концу 2008 года. [8] Центр в том же году официально изменил свое название с Центра вычислительных наук на NCCS.
9 декабря 2019 года Джорджия Турасси, которая ранее занимала должность директора Института медицинских данных ORNL и руководила группой биомедицинских наук, инженерии и вычислений ORNL, была назначена директором NCCS, сменив Джеймса Хака. [9]
Предыдущие системы [10]
Intel Paragons
Создание CCS в 1992 году положило начало серии компьютеров Intel Paragon , в том числе:
- Intel Paragon XP / S 5 (1992): Intel Paragon XP / S 5 обеспечивал 128 вычислительных узлов GP, расположенных в прямоугольную сетку из 16 строк на 8 столбцов, состоящую из одной группы 8 на 8 по 16 МБ и одной группы 8 на 8 размером 32 МБ. узлы. Также были доступны четыре вычислительных узла 128 МБ MP в сетке 2 строки на 2 столбца. Кроме того, имелся загрузочный узел MP 128 МБ, четыре служебных узла GP 32 МБ и шесть узлов ввода-вывода , пять из которых были подключены к дискам RAID 4,8 ГБ, а шестой - к диску RAID объемом 16 ГБ. Это обеспечило в общей сложности 40 ГБ системного дискового пространства. [11]
- Intel Paragon XP / S 35 (1992): Intel Paragon XP / S 35 обеспечивал 512 вычислительных процессоров, расположенных в прямоугольную сетку с 16 строками на 32 столбца. Кроме того, было пять сервисных узлов и 27 узлов ввода-вывода, каждый из которых был подключен к RAID-диску объемом 4,8 ГБ. Это обеспечило в общей сложности 130 ГБ системного дискового пространства. У каждого из пяти сервисных узлов и 512 вычислительных узлов было 32 МБ памяти. [12]
- Intel Paragon XP / S 150 (1995): Самый быстрый компьютер в мире на момент поставки ORNL [13] Intel Paragon XP / S 150 имел 1024 узла, расположенных в прямоугольную сетку из 16 строк на 64 столбца. Это были узлы MP, что означало, что на каждый узел приходилось два вычислительных процессора. У большинства узлов было 64 МБ, но у 64 узлов было 128 МБ. Кроме того, было пять сервисных узлов и 127 узлов ввода-вывода (119 обычных узлов ввода-вывода и 4 высокопроизводительных узла ввода-вывода SCSI-16), каждый из которых был подключен к RAID-диску объемом 4,8 ГБ. Это обеспечило в общей сложности 610 ГБ системного дискового пространства. [14]
Орел (2000–2005) [15]
Eagle представлял собой 184-узловой IBM RS / 6000 SP, управляемый Отделом компьютерных наук и математики ORNL. В нем было 176 «тонких» узлов Winterhawk-II, каждый с четырьмя процессорами Power3- II с тактовой частотой 375 МГц и 2 ГБ памяти. У Eagle также было восемь «широких» узлов Winterhawk-II - каждый с двумя процессорами Power3-II с тактовой частотой 375 МГц и 2 ГБ памяти - для использования в качестве серверов файловой системы и других инфраструктурных задач. Расчетная вычислительная мощность Eagle в вычислительном разделе превышала 1 терафлоп.
Сокол (2000) [16]
Falcon представлял собой 64-узловой Compaq AlphaServer SC, управляемый CCS и приобретенный в рамках проекта ранней оценки. Он имел четыре процессора Alpha EV67 667 МГц с 2 ГБ памяти на узел и 2 ТБ подключенного диска Fibre Channel, что дало расчетную вычислительную мощность 342 гигафлопса.
Гепард [17] (2001–2008 гг.) [18]
Cheetah - это система IBM pSeries 4.5 TF, управляемая CCS. Вычислительный раздел Cheetah включал 27 узлов p690, каждый с тридцатью двумя процессорами Power4 1,3 ГГц . Разделы входа и выхода вместе включали 8 узлов p655, каждый с четырьмя процессорами Power4 1,7 ГГц. Все узлы были подключены через межсоединение IBM Federation.
Иерархия памяти Power4 состояла из трех уровней кеш-памяти. Первый и второй уровни были на микросхеме Power4 (два процессора на микросхему). Кэш-память инструкций уровня 1 составляла 128 КБ (64 КБ на процессор), а кэш данных - 64 КБ (32 КБ на процессор). Кэш-память уровня 2 составляла 1,5 МБ, совместно используемых двумя процессорами. Кэш-память 3-го уровня была 32 МБ и была вне кристалла. На узел приходилось 16 микросхем или 32 процессора.
У большинства вычислительных узлов Cheetah было 32 ГБ памяти. У пяти было 64 ГБ памяти, а у двух - 128 ГБ. На некоторых узлах Cheetah было около 160 ГБ локального дискового пространства, которое можно было использовать как временное рабочее пространство.
В июне 2002 года Cheetah занял восьмое место в рейтинге самых быстрых компьютеров в мире согласно TOP500 , полугодовому списку лучших суперкомпьютеров в мире. [19]
Рам (2003–2007) [20]
Ram был суперкомпьютером SGI Altix, предоставленным в качестве системы поддержки NCCS.
Ram был установлен в 2003 году и использовался в качестве системы поддержки до и после обработки выделенных проектов NCCS до 2007 года.
У Ram было 256 процессоров Intel Itanium2 , работающих на частоте 1,5 ГГц, каждый с 6 МБ кеш-памяти L3, 256 КБ кеш-памяти L2 и 32 КБ кеш-памяти L1. У Ram было 8 ГБ памяти на процессор, всего 2 ТБ общей памяти. Напротив, первый суперкомпьютер ORNL, Cray XMP, установленный в 1985 году, имел одну миллионную память, чем SGI Altix.
Феникс (OLCF-1) (2003–2008) [21]
Phoenix представлял собой Cray X1E, который использовался в качестве основной системы в NCCS.
Оригинальный X1 был установлен в 2003 году и прошел несколько обновлений, достигнув своей окончательной конфигурации в 2005 году. С октября 2005 по 2008 год он обеспечил почти 17 миллионов процессорных часов. Система поддержала более 40 крупных проектов в исследовательских областях, включая климат, горение, физику высоких энергий, термоядерный синтез, химию, информатику, материаловедение и астрофизику.
В окончательной конфигурации Phoenix имел 1024 многопоточных векторных процессора (MSP). Каждый MSP имел 2 МБ кеш-памяти и пиковую скорость вычислений 18 гигафлопс. Четыре MSP сформировали узел с 8 ГБ общей памяти. Пропускная способность памяти была очень высокой, примерно вдвое меньше пропускной способности кеша. Межсоединение функционировало как расширение системы памяти, предлагая каждому узлу прямой доступ к памяти на других узлах с высокой пропускной способностью и низкой задержкой.
Ягуар (OLCF-2) (2005–2012) [22]
Jaguar начинался как Cray XT3 на 25 терафлопв 2005 году. Позже он был модернизирован до XT4, содержащего 7832 вычислительных узла, каждый из которых содержит четырехъядерный процессор AMD Opteron 1354 с тактовой частотой 2,1 ГГц, 8 ГБ памяти DDR2-800 (некоторые узлы использовалась память DDR2-667) и маршрутизатор SeaStar2. Результирующий раздел содержал 31 328 процессорных ядер, более 62 ТБ памяти, более 600 ТБ дискового пространства и пиковую производительность 263 терафлопс (263 триллиона операций с плавающей запятой в секунду).
В 2008 году Jaguar был модернизирован до Cray XT5 и стал первой системой, которая запускала научное приложение с устойчивой производительностью в петафлоп. К моменту своего окончательного преобразования в Titan в 2012 году [23] Jaguar содержал почти 300 000 процессорных ядер и имел теоретическую пиковую производительность в 3,3 петафлопс. Jaguar имел 224 256 ядер процессора AMD Opteron на базе x86 и работал с версией Linux под названием Cray Linux Environment .
С ноября 2009 года по ноябрь 2010 года Jaguar был самым мощным компьютером в мире.
Ястреб (2006–2008) [24]
Hawk был кластером Linux с 64 узлами, предназначенным для высококачественной визуализации.
Hawk был установлен в 2006 году и использовался в качестве основного кластера визуализации Центра до мая 2008 года, когда он был заменен 512-ядерной системой под названием Lens. [25]
Каждый узел содержал два одноядерных процессора Opteron и 2 ГБ памяти. Кластер был подключен к сети Quadrics Elan3, обеспечивающей высокую пропускную способность и низкую задержку связи. Кластер был заполнен двумя разновидностями видеокарт NVIDIA, подключенных к AGP8x: 5900 и QuadroFX 3000G. Узлы с картами 3000G были напрямую подключены к EVEREST PowerWall и были зарезервированы для использования PowerWall.
Эвоки (2006–2011 годы) [26]
Ewok был кластером InfiniBand на базе Intel под управлением Linux. Система была предоставлена как сквозной ресурс для пользователей центра. Он использовался для автоматизации рабочего процесса при выполнении заданий с суперкомпьютера Jaguar и для расширенного анализа данных. В системе 81 узел. Каждый узел содержал два процессора Pentium IV с тактовой частотой 3,4 ГГц, центральный процессор (ЦП) Intel Xeon с тактовой частотой 3,4 ГГц и 6 ГБ памяти. Дополнительный узел содержал 4 двухъядерных процессора AMD и 64 ГБ памяти. Система была сконфигурирована с файловой системой Lustre 13 ТБ для рабочего пространства.
Евгений (2008–2011) [27]
Юджин был 27-терафлоп-системой IBM Blue Gene / P, управляемой NCCS. Он предоставляет около 45 миллионов процессорных часов в год для сотрудников ORNL и для содействия сотрудничеству в исследованиях между ORNL и его основными университетскими партнерами-членами.
Система состояла из 2048 четырехъядерных процессоров IBM 450d PowerPC с тактовой частотой 850 МГц и 2 ГБ памяти на каждый узел. У Юджина было 64 узла ввода-вывода; каждое представленное задание должно было использовать хотя бы один узел ввода-вывода. Это означает, что каждое задание потребляло минимум 32 узла на выполнение.
Официально Юджин был выведен из эксплуатации в октябре 2011 года. Однако 13 декабря того же года часть оборудования Юджина была передана в дар Argonne Leadership Computing Facility (ALCF) в Аргоннской национальной лаборатории . [28]
Eos (2013–2019)
Eos представлял собой кластер Cray XC30 с 736 узлами и общим объемом памяти 47,104 ТБ. Его процессор был Intel Xeon E5-2670 . Он имел 16 сервисных узлов ввода / вывода и 2 внешних узла входа в систему. Его вычислительные узлы были организованы в виде лезвий. Каждое лезвие содержало 4 узла. У каждого узла было 2 сокета по 8 физических ядер в каждом. Технология Intel HyperThreading (HT) позволяла каждому физическому ядру работать как 2 логических ядра, поэтому каждый узел мог работать так, как если бы он имел 32 ядра. Всего вычислительный раздел Eos содержал 11 776 традиционных процессорных ядер (23 552 логических ядра с включенной технологией HT). [29]
Eos предоставил пространство для переноса инструментов и приложений, небольших заданий для подготовки запусков возможностей на Titan, а также для создания, проверки и оптимизации программного обеспечения. [30]
Титан (OLCF-3) (2012–2019)
Titan представляла собой систему Cray XK7 с гибридной архитектурой с теоретической пиковой производительностью, превышающей 27 000 триллионов вычислений в секунду (27 петафлопс). Он содержал как продвинутые 16-ядерные процессоры AMD Opteron, так и графические процессоры (GPU) NVIDIA Kepler. Эта комбинация позволила Titan достичь 10-кратной скорости и 5-кратной энергоэффективности своего предшественника, суперкомпьютера Jaguar, при этом потребляя лишь немного больше энергии и занимая те же физические площади. [31]
Titan имел 18 688 вычислительных узлов, общую системную память 710 ТБ и высокопроизводительную сеть Gemini от Cray. Его 299 008 ядер ЦП управляли имитацией, а сопутствующие графические процессоры одновременно выполняли сотни вычислений. Система позволила сократить время до решения, повысить сложность моделей и повысить реалистичность моделирования. [32] В ноябре 2012 года Titan занял первое место в списке суперкомпьютеров TOP500. [33]
После 7 лет службы Titan был списан в августе 2019 года, чтобы освободить место для суперкомпьютера Frontier. [34]
Текущие системы
Паук
Центральная файловая система Lustre OLCF , называемая Spider , представляет собой рабочую файловую систему для большинства вычислительных ресурсов OLCF. Как чрезвычайно высокопроизводительная система Spider имеет более 20 000 клиентов, предоставляющих 32 ПБ дискового пространства, и может перемещать данные со скоростью более 1 ТБ / с. Spider состоит из двух файловых систем, Atlas1 и Atlas2, чтобы обеспечить высокую доступность и балансировку нагрузки между несколькими серверами метаданных для повышения производительности. [35]
HPSS
HPSS , архивный ресурс массового хранения ORNL, состоит из компонентов ленточного и дискового хранилища, серверов Linux и программного обеспечения High Performance Storage System (HPSS). Ленточное хранилище обеспечивается роботизированными ленточными библиотеками StorageTek SL8500, каждая из которых может вместить до 10 000 картриджей. [36] Каждая библиотека содержит 24 диска T10K-A , 60 дисков T10K-B, 36 дисков T10K-C и 72 диска T10K-D. [37]
ЭВЕРЕСТ
ЭВЕРЕСТ (Исследовательская среда визуализации для исследований в области науки и технологий) - это крупномасштабная площадка для исследования и анализа данных. EVEREST имеет размеры 30 футов в длину и 8 футов в высоту, и его главная особенность - это PowerWall с 27 проекторами с общим количеством пикселей 35 миллионов пикселей. Проекторы расположены в виде массива 9 × 3, каждый из которых обеспечивает яркость 3500 люмен для очень яркого дисплея.
Стена с разрешением 11 520 на 3072 пикселей предлагает огромное количество визуальных деталей. Стена интегрирована с остальной частью вычислительного центра, создавая канал передачи данных с высокой пропускной способностью между крупномасштабными высокопроизводительными вычислениями и крупномасштабной визуализацией данных.
EVEREST управляется 14-узловым кластером. Каждый узел содержит четыре двухъядерных процессора AMD Opteron. Эти 14 узлов имеют графические карты NVIDIA QuadroFX 3000G, подключенные к проекторам, что обеспечивает возможность визуализации с очень высокой пропускной способностью. Лаборатория визуализации действует как экспериментальная установка для развития будущих возможностей визуализации . В нем размещается 12-панельный плиточный ЖК-дисплей, узлы тестового кластера, устройства взаимодействия и видеооборудование.
Рея
Rhea - это стандартный Linux-кластер с 521 узлом. Rhea обеспечивает канал для крупномасштабных научных открытий посредством предварительной и последующей обработки данных моделирования, созданных на суперкомпьютере Titan. Каждый из первых 512 узлов Rhea содержит два 8-ядерных процессора Intel Xeon 2,0 ГГц с технологией Intel HT и 128 ГБ оперативной памяти. Rhea также имеет девять узлов GPU с большой памятью. Каждый из этих узлов имеет 1 ТБ оперативной памяти и два графических процессора NVIDIA K80 с двумя 14-ядерными процессорами Intel Xeon 2,30 ГГц с технологией HT. Rhea подключена к высокопроизводительной файловой системе Lustre OLCF, Atlas. [38]
Вомбат
Wombat - это кластер с одной стойкой от HPE, основанный на 64-битной архитектуре ARM вместо традиционной архитектуры на базе x86. Эта система доступна для поддержки исследовательских проектов в области информатики, направленных на изучение архитектуры ARM.
Кластер Wombat имеет 16 вычислительных узлов, к четырем из которых подключены два ускорителя AMD GPU (всего в системе восемь графических процессоров). Каждый вычислительный узел имеет два 28-ядерных процессора Cavium ThunderX2, 256 ГБ оперативной памяти (16 модулей DDR4 DIMM) и твердотельный накопитель на 480 ГБ для локального хранилища узлов. Узлы подключены к EDR InfiniBand (~ 100 Гбит / с). [39]
Саммит (OLCF-4)
IBM AC922 Summit , или OLCF-4 , является 200-петафлоп флагман суперкомпьютер ORNL в. Summit был первоначально запущен в июне 2018 года, и по состоянию на ноябрь 2019 года в списке TOP500 это самый быстрый компьютер в мире с производительностью High Performance Linpack (HPL) 148,6 петафлопс. [40] Summit также является первым компьютером, достигшим экзадачной производительности, достигая максимальной пропускной способности 1,88 экзаопса за счет сочетания операций с плавающей запятой одинарной и половинной точности . [41]
Как и его предшественник Titan, Summit использует гибридную архитектуру, которая объединяет 9216 процессоров Power9 и 27 648 графических процессоров NVIDIA Volta V100 с использованием NVIDIA NVLink. [42] Summit включает 4 608 узлов (почти четверть из 18 688 узлов Titan), каждый с 512 ГБ двойной скорости передачи данных 4 синхронной динамической памяти произвольного доступа (DDR4) и 96 ГБ памяти с высокой пропускной способностью (HBM2) на узел, с общая емкость хранилища 250 петабайт. [43]
Граница (OLCF-5)
Запланированная на поставку в 2021 году, а доступ пользователей станет доступен в следующем году, Frontier станет первой устойчивой эксафлопсной системой ORNL, то есть она будет способна выполнять один квинтиллион - один миллиард миллиардов - операций в секунду. Система будет состоять из более чем 100 кабинетов Cray Shasta с ожидаемой максимальной производительностью около 1,5 эксафлоп. [44]
Области исследований
- Биология - с суперкомпьютерными ресурсами OLCF исследователи могут использовать знания о молекулярном масштабе для разработки новых лекарств и медицинских методов лечения, изучения сложных биологических систем и моделирования регуляции генов. [45]
- Химия - суперкомпьютеры, такие как Summit, могут исследовать тонкости материи на атомном уровне, что позволяет делать открытия из первых принципов и детальные молекулярные модели. [46]
- Компьютерные науки - исследователи разрабатывают инструменты, необходимые для оценки ряда суперкомпьютерных систем, с целью выяснить, как лучше всего использовать каждую, как найти наиболее подходящую для любого конкретного приложения и как адаптировать приложения для достижения максимальной производительности. [47]
- Науки о Земле - высокопроизводительные вычисления позволяют проводить крупномасштабные вычисления сложных экологических и географических систем, и исследователи NCCS используют эту информацию, чтобы лучше понять изменения климата Земли, вызванные глобальным потеплением. [48]
- Инжиниринг - ресурсы OLCF, такие как Summit, используются для инженерных приложений, таких как моделирование газовых турбин и двигателей внутреннего сгорания. [49]
- Fusion - Понимание поведения термоядерной плазмы и моделирования различных аспектов устройства дает исследователям представление о строительстве ИТЭР , электростанции гибридного прототипа. [50]
- Материаловедение. Исследования в области материаловедения в ORNL направлены на улучшение различных областей современной жизни, от производства и передачи электроэнергии до транспортировки и производства более быстрых, компактных и универсальных компьютеров и запоминающих устройств. [51]
- Ядерная энергия . Разработка новых ядерных реакторов, в которых используются усовершенствованные топливные циклы и соблюдаются современные ограничения в области безопасности и нераспространения, требует сложного моделирования и моделирования. [52] Часто сложность такого моделирования требует использования суперкомпьютеров, которые могут гарантировать точность моделей. [53]
- Физика - физики используют высокопроизводительные вычислительные мощности NCCS, чтобы раскрыть фундаментальную природу материи, включая поведение кварков, электронов и других элементарных частиц, из которых состоят атомы. [54]
Рекомендации
- ^ «Обзор» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «Обзор» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «Граница» . www.olcf.ornl.gov . Проверено 11 марта 2020 .
- ^ «Обзор» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «Май 2007» . web.ornl.gov . Проверено 11 марта 2020 .
- ^ Хурай, Пол Г. (1999-02-24). «Партнерство в области вычислительной науки» . Электронная библиотека ЕНТ . Проверено 11 марта 2020 .
- ^ «Май 2007» . web.ornl.gov . Проверено 11 марта 2020 .
- ^ Биггерт, Джуди (30 ноября 2004 г.). "HR4516 - 108-й Конгресс (2003-2004 гг.): Закон 2004 г. Министерства энергетики о возрождении высокопроизводительных вычислений" . www.congress.gov . Проверено 11 марта 2020 .
- ^ «Турасси назначен директором Национального центра вычислительных наук ORNL» . WYSH AM 1380 . 2019-12-23 . Проверено 22 июня 2020 .
- ^ «Национальный центр вычислительных наук» Списанные системы » . 2012-09-13. Архивировано из оригинала на 2012-09-13 . Проверено 11 марта 2020 .
- ^ «Описание оборудования XP / S 5» . 1997-01-21. Архивировано из оригинала на 1997-01-21 . Проверено 11 марта 2020 .
- ^ "Вычислительный центр лидерства Ок-Ридж" . www.tiki-toki.com . Проверено 11 марта 2020 .
- ^ "Вычислительный центр лидерства Ок-Ридж" . www.tiki-toki.com . Проверено 11 марта 2020 .
- ^ «Аппаратное описание Intel Paragon XP / S 150» . Архивировано 28 апреля 1999 года.
- ^ «CCS: IBM SP (Eagle)» . 2006-06-22. Архивировано из оригинала на 2006-06-22 . Проверено 11 марта 2020 .
- ^ "Ресурсы ORNL CCS" . 2000-12-10. Архивировано из оригинала на 2000-12-10 . Проверено 11 марта 2020 .
- ^ «CCS: IBM pSeries Cluster (Cheetah)» . 2005-03-04. Архивировано из оригинала на 2005-03-04 . Проверено 11 марта 2020 .
- ^ «Декабрь 2007 года» . web.ornl.gov . Проверено 11 марта 2020 .
- ^ «The Oak Ridger Online - Feature: Business - восьмой по скорости компьютер Cheetah 21.06.02» . www.csm.ornl.gov . Проверено 11 марта 2020 .
- ^ «Национальный центр вычислительных наук» Списанные системы » . 2012-09-13. Архивировано из оригинала на 2012-09-13 . Проверено 11 марта 2020 .
- ^ «Национальный центр вычислительных наук» Списанные системы » . 2012-09-13. Архивировано из оригинала на 2012-09-13 . Проверено 11 марта 2020 .
- ^ «Национальный центр вычислительных наук» Списанные системы » . 2012-09-13. Архивировано из оригинала на 2012-09-13 . Проверено 11 марта 2020 .
- ^ Назад, • 7 лет. «Ягуар ушел, но не забыт» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «Национальный центр вычислительных наук» Списанные системы » . 2012-09-13. Архивировано из оригинала на 2012-09-13 . Проверено 11 марта 2020 .
- ^ "Линза | Национальный центр вычислительных наук" . 2009-12-21. Архивировано из оригинала на 2009-12-21 . Проверено 11 марта 2020 .
- ^ «Национальный центр вычислительных наук» Списанные системы » . 2012-09-13. Архивировано из оригинала на 2012-09-13 . Проверено 11 марта 2020 .
- ^ «Списанные системы» . Архивировано 13 сентября 2012 года.
- ^ Назад, • 8 лет. "Вычислительная компания Ок-Ридж передает систему Юджина Аргонне" . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «Эос» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «Эос» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «Титан» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «Титан» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ "Титан: Национальная лаборатория Ок-Ридж | TOP500 суперкомпьютерных сайтов" . www.top500.org . Проверено 11 марта 2020 .
- ^ «Прощай, Титан» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «Паук» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «HPSS» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «HPSS» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «Рея» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «Вомбат» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «Ноябрь 2019 | ТОП500 суперкомпьютерных сайтов» . www.top500.org . Проверено 11 марта 2020 .
- ^ «Кодекс геномики превосходит Exaops на суперкомпьютере Summit» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ Суперкомпьютеры Summit и Sierra: взгляд изнутри на новые предэкзадачные системы Министерства энергетики США (PDF) . Тератек (Отчет).
- ^ «Саммит: в цифрах» (PDF) .
- ^ «Граница» . www.olcf.ornl.gov . Проверено 11 марта 2020 .
- ^ «Биология» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «Химия» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «Информатика» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «Науки о Земле» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «Инжиниринг» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «Ускорение к будущему термоядерного синтеза» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «Материаловедение» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «Атомная энергия» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «Прогнозирующая химия реалистичных систем для перспективной ядерной энергетики» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
- ^ «Физика» . Вычислительный центр Oak Ridge Leadership Computing . Проверено 11 марта 2020 .
Внешние ссылки
- СМИ, связанные с Oak Ridge Leadership Computing Facility на Викискладе?
- Сайт компании Oak Ridge Leadership Computing Facility
- Веб-сайт Окриджской национальной лаборатории