Обзор агентства | |
---|---|
Сформирован | 1982 г. |
Предыдущие агентства |
|
Штаб-квартира | НАСА Эймс исследовательский центр , Моффетфильд , Калифорния 37 ° 25'16 "N 122 ° 03'53" W / 37,42111 ° N 122,06472 ° W |
Руководитель агентства |
|
Родительский отдел | Управление разведочных технологий исследовательского центра Эймса |
Материнское агентство | Национальное управление по аэронавтике и исследованию космического пространства (НАСА) |
Веб-сайт | www |
Современные суперкомпьютерные системы | |
Плеяды | Сверхскопление SGI / HPE ICE X |
Эйткен [1] | Система HPE E-Cell |
Электра [2] | Система SGI / HPE ICE X и HPE E-Cell |
Стараться | Система с общей памятью SGI UV |
Меропа [3] | Сверхскопление SGI Altix |
Подразделение NASA Advanced Supercomputing (NAS) расположено в исследовательском центре NASA Ames Research Center , Моффетт-Филд, в самом сердце Кремниевой долины в Маунтин-Вью , штат Калифорния . Это был главный ресурс суперкомпьютеров, моделирования и моделирования для миссий НАСА в области аэродинамики, исследования космоса, изучения погодных условий и океанских течений, а также проектирования и разработки космических челноков и самолетов на протяжении почти сорока лет.
Объект в настоящее время находится в petascale Плеяды , Эйткен, и Electra суперкомпьютеров , а также TeraScale Endeavor суперкомпьютер. Системы основаны на архитектуре SGI и HPE с процессорами Intel. В главном здании также находятся дисковые и архивные ленточные системы хранения данных с емкостью более эксабайта данных, система визуализации гиперволла и одна из крупнейших сетевых структур InfiniBand в мире. [4] Подразделение NAS является частью Управления исследовательских технологий НАСА и управляет проектом НАСА по высокопроизводительным вычислительным возможностям (HECC). [5]
В середине 1970-х группа аэрокосмических инженеров из Исследовательского центра Эймса начала изучать возможность перевода аэрокосмических исследований и разработок от дорогостоящих и трудоемких испытаний в аэродинамической трубе к проектированию и проектированию на основе моделирования с использованием моделей вычислительной гидродинамики (CFD) на суперкомпьютерах. более мощные, чем коммерчески доступные в то время. Это начинание позже было названо Проектом численного аэродинамического симулятора (NAS), и первый компьютер был установлен в Центральном вычислительном центре в Исследовательском центре Эймса в 1984 году.
14 марта 1985 г. был заложен современный суперкомпьютерный комплекс, в котором было построено здание, где специалисты по вычислительной гидродинамике, компьютерные специалисты, специалисты по визуализации, инженеры по сетям и системам хранения данных могли бы находиться под одной крышей в среде для совместной работы. В 1986 году NAS было преобразовано в полноценное подразделение NASA, а в 1987 году персонал и оборудование NAS, включая второй суперкомпьютер Cray-2 под названием Navier, были переведены в новый объект, который был открыт 9 марта 1987 года. [ 6]
В 1995 году NAS изменило свое название на Подразделение численного аэрокосмического моделирования, а в 2001 году - на нынешнее.
NAS был одним из ведущих новаторов в мире суперкомпьютеров, разработав множество инструментов и процессов, которые стали широко использоваться в коммерческих суперкомпьютерах. Некоторые из этих первых включают: [7]
NAS разрабатывает и адаптирует программное обеспечение, чтобы «дополнять и улучшать работу, выполняемую на его суперкомпьютерах, включая программное обеспечение для поддержки систем, систем мониторинга, безопасности и научной визуализации», и часто предоставляет это программное обеспечение своим пользователям в рамках Соглашения об открытом исходном коде NASA ( НОСА). [9]
Некоторые из важных разработок программного обеспечения NAS включают:
С момента постройки в 1987 году Advanced Supercomputing Facility NASA размещало и эксплуатировало одни из самых мощных суперкомпьютеров в мире. Многие из этих компьютеров включают в себя испытательные стенды , созданные для тестирования новой архитектуры, оборудования или сетевых настроек, которые могут использоваться в более крупных масштабах. [6] [8] Пиковая производительность показана в операциях с плавающей запятой в секунду (FLOPS) .
Имя компьютера | Архитектура | Пиковая производительность | Количество процессоров | Дата установки |
---|---|---|---|---|
Крей XMP-12 | 210,53 мегафлопс | 1 | 1984 | |
Навье | Cray 2 | 1,95 гигафлопс | 4 | 1985 г. |
Чак | Выпуклый 3820 | 1,9 гигафлопс | 8 | 1987 г. |
Пьер | Мыслительные машины CM2 | 14,34 гигафлопс | 16 000 | 1987 г. |
43 гигафлопс | 48 000 | 1991 г. | ||
Стокса | Cray 2 | 1,95 гигафлопс | 4 | 1988 г. |
Пайпер | CDC / ETA-10Q | 840 мегафлопс | 4 | 1988 г. |
Рейнольдс | Крей Y-MP | 2,54 гигафлопс | 8 | 1988 г. |
2,67 гигафлопс | 88 | 1988 г. | ||
Лагранж | Intel iPSC / 860 | 7,88 гигафлопс | 128 | 1990 г. |
Гамма | Intel iPSC / 860 | 7,68 гигафлопс | 128 | 1990 г. |
фон Карман | Выпуклый 3240 | 200 мегафлопс | 4 | 1991 г. |
Больцман | Мыслительные машины CM5 | 16,38 гигафлопс | 128 | 1993 г. |
Сигма | Intel Paragon | 15,60 гигафлопс | 208 | 1993 г. |
фон Нейман | Cray C90 | 15,36 гигафлопс | 16 | 1993 г. |
Орел | Cray C90 | 7,68 гигафлопс | 8 | 1993 г. |
благодать | Intel Paragon | 15,6 гигафлопс | 209 | 1993 г. |
Бэббидж | IBM SP-2 | 34,05 гигафлопс | 128 | 1994 г. |
42,56 гигафлопс | 160 | 1994 г. | ||
Да Винчи | SGI Power Challenge | 16 | 1994 г. | |
SGI Power Challenge XL | 11,52 гигафлопс | 32 | 1995 г. | |
Ньютон | Cray J90 | 7,2 гигафлопс | 36 | 1996 г. |
Поросенок | SGI Origin 2000/250 МГц | 4 гигафлопс | 8 | 1997 г. |
Тьюринг | SGI Origin 2000/195 МГц | 9,36 гигафлопс | 24 | 1997 г. |
25 гигафлопс | 64 | 1997 г. | ||
Ферми | SGI Origin 2000/195 МГц | 3,12 гигафлопс | 8 | 1997 г. |
Бункер | SGI Origin 2000/250 МГц | 32 гигафлопс | 64 | 1997 г. |
Эвелин | SGI Origin 2000/250 МГц | 4 гигафлопс | 8 | 1997 г. |
Steger | SGI Origin 2000/250 МГц | 64 гигафлопс | 128 | 1997 г. |
128 гигафлопс | 256 | 1998 г. | ||
Lomax | SGI Origin 2800/300 МГц | 307,2 гигафлопс | 512 | 1999 г. |
409,6 гигафлопс | 512 | 2000 г. | ||
Лу | SGI Origin 2000/250 МГц | 4,68 гигафлопс | 12 | 1999 г. |
Ариэль | SGI Origin 2000/250 МГц | 4 гигафлопс | 8 | 2000 г. |
Себастьян | SGI Origin 2000/250 МГц | 4 гигафлопс | 8 | 2000 г. |
СН1-512 | SGI Origin 3000/400 МГц | 409,6 гигафлопс | 512 | 2001 г. |
Яркий | Cray SVe1 / 500 МГц | 64 гигафлопс | 32 | 2001 г. |
Чепмен | SGI Origin 3800/400 МГц | 819,2 гигафлопс | 1,024 | 2001 г. |
1,23 терафлопс | 1,024 | 2002 г. | ||
Ломакс II | SGI Origin 3800/400 МГц | 409,6 гигафлопс | 512 | 2002 г. |
Калпана [14] | SGI Altix 3000 [15] | 2,66 терафлопс | 512 | 2003 г. |
Cray X1 [16] | 204,8 гигафлопс | 2004 г. | ||
Колумбия | SGI Altix 3000 [17] | 63 терафлопс | 10 240 | 2004 г. |
SGI Altix 4700 | 10 296 | 2006 г. | ||
85,8 терафлопс [18] | 13 824 | 2007 г. | ||
Schirra | IBM POWER5 + [19] | 4,8 терафлопс | 640 | 2007 г. |
RT Джонс | SGI ICE 8200 , процессоры Intel Xeon "Harpertown" | 43,5 терафлопс | 4096 | 2007 г. |
Плеяды | SGI ICE 8200, процессоры Intel Xeon "Harpertown" [20] | 487 терафлопс | 51 200 | 2008 г. |
544 терафлопс [21] | 56 320 | 2009 г. | ||
SGI ICE 8200, Intel Xeon "Harpertown" / "Nehalem" Процессоры [22] | 773 терафлопс | 81 920 | 2010 г. | |
SGI ICE 8200/8400, Intel Xeon "Harpertown" / / "Nehalem" "Westmere" Процессоры [23] | 1,09 петафлопс | 111 104 | 2011 г. | |
SGI ICE 8200 / X, Intel Xeon "Harpertown" / / / "Nehalem" "Westmere" / 8400 "Sandy Bridge" Процессоры [24] | 1,24 петафлопс | 125 980 | 2012 г. | |
SGI ICE 8200 / X, Intel Xeon "Nehalem" / / / "Westmere" "Sandy Bridge" / 8400 "Ivy Bridge" Процессоры [25] | 2,87 петафлопс | 162 496 | 2013 | |
3,59 петафлопс | 184 800 | 2014 г. | ||
SGI ICE 8400 / X, Intel Xeon "Westmere" / "Sandy Bridge" / "Ivy Bridge" / "Haswell" Процессоры [26] | 4,49 петафлопс | 198 432 | 2014 г. | |
5,35 петафлопс [27] | 210 336 | 2015 г. | ||
SGI ICE X, Intel Xeon "Sandy Bridge" / "Ivy Bridge" / "Haswell" / "Broadwell" Процессоры [28] | 7,25 петафлопс | 246 048 | 2016 г. | |
Стараться | SGI UV 2000 , процессоры Intel Xeon "Sandy Bridge" [29] | 32 терафлопс | 1,536 | 2013 |
Меропа | SGI ICE 8200, процессоры Intel Xeon "Harpertown" [25] | 61 терафлопс | 5 120 | 2013 |
SGI ICE 8400, процессоры Intel Xeon "Nehalem" / "Westmere" [26] | 141 терафлопс | 1,152 | 2014 г. | |
Электра | SGI ICE X, процессоры Intel Xeon "Broadwell" [30] | 1,9 петафлопс | 1,152 | 2016 г. |
SGI ICE X / ГФЭ SGI 8600 E-Cell, Intel Xeon / "Бродуэлла" "Skylake" Процессоры [31] | 4,79 петафлопс | 2 304 | 2017 г. | |
8,32 петафлопс [32] | 3 456 | 2018 г. | ||
Aitken | HPE SGI 8600 E-Cell, Intel Xeon "Каскад - Лейк" Процессоры [33] | 3,69 петафлопс | 1,150 | 2019 г. |
Имя компьютера | Архитектура | Пиковая производительность | Количество процессоров | Дата установки |
В 1987 году NAS в партнерстве с Агентством перспективных исследовательских проектов Министерства обороны (DARPA) и Калифорнийским университетом в Беркли в проекте создания избыточного массива недорогих дисков (RAID), который стремился создать технологию хранения, объединяющую несколько компонентов дисковых накопителей в один логический. Ед. изм. Завершенный в 1992 году проект RAID привел к созданию технологии распределенного хранения данных, используемой сегодня. [6]
В настоящее время в системе NAS размещается дисковое хранилище на параллельном DMF-кластере SGI с программным обеспечением высокой доступности, состоящим из четырех 32-процессорных интерфейсных систем, которые подключены к суперкомпьютерам и архивной ленточной системе хранения. В системе имеется 192 ГБ памяти на интерфейс [34] и 7,6 петабайт (ПБ) дискового кэша. [4] Данные, хранящиеся на диске, регулярно переносятся в ленточные архивные системы хранения на предприятии, чтобы освободить место для других пользовательских проектов, выполняемых на суперкомпьютерах.
В 1987 году NAS разработала первую иерархическую систему хранения данных на основе UNIX, получившую название NAStore. Он содержал двух ленточных роботов StorageTek 4400, каждый из которых имел емкость примерно 1,1 терабайта, сокращая время извлечения ленты с 4 минут до 15 секунд. [6]
С установкой суперкомпьютера Pleiades в 2008 году системы StorageTek, которые NAS использовала в течение 20 лет, не смогли удовлетворить потребности большего числа пользователей и увеличить размеры файлов наборов данных каждого проекта . [35] В 2009 году NAS представила роботизированные ленточные системы Spectra Logic T950, которые увеличили максимальную емкость объекта до 16 петабайт пространства, доступного пользователям для архивации своих данных с суперкомпьютеров. [36] По состоянию на март 2019 года, хранилище NAS увеличило общую емкость архивного хранилища ленточных библиотек Spectra Logic до 1048 петабайт (или 1 эксабайт) при 35% сжатии. [34] Средство переноса данных SGI (DMF) и OpenVault управляют переносом данных с диска на ленту и переносом с ленты на диск для устройства NAS.
По состоянию на март 2019 года в системе архивного хранения NAS хранится более 110 петабайт уникальных данных. [34]
В 1984 году NAS приобрела 25 графических терминалов SGI IRIS 1000, что положило начало их долгому партнерству с компанией из Кремниевой долины, которое оказало значительное влияние на постобработку и визуализацию результатов CFD, выполняемых на суперкомпьютерах на предприятии. [6] Визуализация стала ключевым процессом в анализе данных моделирования, выполняемых на суперкомпьютерах, позволяя инженерам и ученым просматривать свои результаты пространственно и таким образом, который позволил лучше понять силы CFD, действующие в их проектах.
В 2002 году специалисты по визуализации NAS разработали систему визуализации, названную «гиперволой», которая включала 49 связанных ЖК- панелей, которые позволяли ученым просматривать сложные наборы данных на большом динамическом массиве экранов размером семь на семь. У каждого экрана была собственная вычислительная мощность, позволяющая отображать, обрабатывать и обмениваться наборами данных, чтобы одно изображение могло отображаться на всех экранах или настраиваться так, чтобы данные могли отображаться в «ячейках», как гигантская визуальная электронная таблица. [37]
Второе поколение «гиперволлы-2» было разработано NAS в 2008 году в партнерстве с Colfax International и состоит из 128 ЖК-экранов, расположенных по сетке 8x16 шириной 23 фута и высотой 10 футов. Он способен отображать четверть миллиарда пикселей , что делает его самой высокой в мире системой научной визуализации с самым высоким разрешением. [38] Он содержит 128 узлов, каждый с двумя четырехъядерными процессорами AMD Opteron ( Barcelona ) и графическим процессором (GPU) Nvidia GeForce 480 GTX для выделенной пиковой вычислительной мощности 128 терафлопс по всей системе - в 100 раз мощнее. чем исходный гиперволл. [39] Гиперволл-2 напрямую подключен к файловой системе суперкомпьютера Pleiades через сеть InfiniBand, что позволяет системе считывать данные непосредственно из файловой системы без необходимости копировать файлы в память гиперволла-2.
В 2014 году гиперволл был обновлен за счет нового оборудования: 256 процессоров Intel Xeon «Ivy Bridge» и 128 графических процессоров NVIDIA Geforce 780 Ti. Обновление увеличило пиковую вычислительную мощность системы с 9 терафлопс до 57 терафлопс и теперь имеет почти 400 гигабайт графической памяти. [40]
В 2020 году гиперволл был дополнительно модернизирован с помощью нового оборудования: 256 процессоров Intel Xeon Platinum 8268 (Cascade Lake) и 128 графических процессоров NVIDIA Quadro RTX 6000 с общим объемом графической памяти 3,1 терабайта. Обновление увеличило пиковую вычислительную мощность системы с 57 терафлопс до 512 терафлопс. [41]
Важной особенностью технологии гиперволлы, разработанной в NAS, является то, что она позволяет «одновременную визуализацию» данных, что позволяет ученым и инженерам анализировать и интерпретировать данные, пока вычисления выполняются на суперкомпьютерах. Это не только показывает текущее состояние вычислений для мониторинга, управления и завершения времени выполнения, но также «обеспечивает визуализацию с более высоким временным разрешением по сравнению с постобработкой, поскольку требования к вводу-выводу и пространству для хранения в значительной степени устраняются ... [и ] может отображать в моделировании особенности, которые в противном случае были бы невидимы ". [42]
Группа визуализации NAS разработала настраиваемый параллельный конвейер для использования с массивно-параллельной моделью прогноза, запущенной на суперкомпьютере Columbia в 2005 году, чтобы помочь спрогнозировать сезон ураганов в Атлантике для Национального центра ураганов . Из-за крайних сроков подачи каждого из прогнозов было важно, чтобы процесс визуализации не сильно затруднял моделирование или не приводил к его сбою.