Подразделение NASA Advanced Supercomputing (NAS) расположено в исследовательском центре NASA Ames Research Center , Моффетт-Филд, в самом сердце Кремниевой долины в Маунтин-Вью , штат Калифорния . Это был главный ресурс суперкомпьютеров, моделирования и моделирования для миссий НАСА в области аэродинамики, исследования космоса, изучения погодных условий и океанских течений, а также проектирования и разработки космических челноков и самолетов на протяжении почти сорока лет.
Обзор агентства | |
---|---|
Сформирован | 1982 г. |
Предыдущие агентства |
|
Штаб-квартира | Исследовательский центр НАСА Эймс , Моффет-Филд , Калифорния, 37 ° 25′16 ″ с.ш., 122 ° 03′53 ″ з.д. / 37,42111 ° с.ш.122,06472 ° з.д. |
Руководитель агентства |
|
Родительский отдел | Управление разведочных технологий исследовательского центра Эймса |
Материнское агентство | Национальное управление по аэронавтике и исследованию космического пространства (НАСА) |
Веб-сайт | www |
Современные суперкомпьютерные системы | |
Плеяды | Сверхскопление SGI / HPE ICE X |
Эйткен [1] | Система HPE E-Cell |
Электра [2] | Система SGI / HPE ICE X и HPE E-Cell |
Стараться | Система с общей памятью SGI UV |
Меропа [3] | Сверхскопление SGI Altix |
Объект в настоящее время находится в petascale Плеяды , Эйткен, и Electra суперкомпьютеров , а также TeraScale Endeavor суперкомпьютер. Системы основаны на архитектуре SGI и HPE с процессорами Intel. В главном здании также находятся дисковые и архивные ленточные системы хранения данных с емкостью более эксабайта данных, система визуализации гиперволла и одна из крупнейших сетевых структур InfiniBand в мире. [4] Подразделение NAS является частью Управления исследовательских технологий НАСА и управляет проектом НАСА по высокопроизводительным вычислительным возможностям (HECC). [5]
История
Основание
В середине 1970-х годов группа аэрокосмических инженеров из Исследовательского центра Эймса начала изучать возможность перевода аэрокосмических исследований и разработок от дорогостоящих и трудоемких испытаний в аэродинамической трубе к проектированию и проектированию на основе моделирования с использованием моделей вычислительной гидродинамики (CFD) на суперкомпьютерах. более мощные, чем коммерчески доступные в то время. Это начинание позже было названо Проектом численного аэродинамического симулятора (NAS), и первый компьютер был установлен в Центральном вычислительном центре в Исследовательском центре Эймса в 1984 году.
14 марта 1985 г. был заложен современный суперкомпьютерный комплекс, в котором было построено здание, где специалисты по вычислительной гидродинамике, компьютерные ученые, специалисты по визуализации, инженеры по сетям и системам хранения данных могли бы находиться под одной крышей в среде для совместной работы. В 1986 году NAS было преобразовано в полноценное подразделение NASA, а в 1987 году персонал и оборудование NAS, включая второй суперкомпьютер Cray-2 под названием Navier, были переведены в новый объект, который был открыт 9 марта 1987 года. [ 6]
В 1995 году NAS изменило свое название на Подразделение численного аэрокосмического моделирования, а в 2001 году - на нынешнее.
Ведущие инновации в отрасли
NAS был одним из ведущих новаторов в мире суперкомпьютеров, разработав множество инструментов и процессов, которые стали широко использоваться в коммерческих суперкомпьютерах. Некоторые из этих первых включают: [7]
- Установлен первый суперкомпьютер Cray на базе UNIX [8]
- Реализована модель клиент / сервер, связывающая суперкомпьютеры и рабочие станции вместе для распределения вычислений и визуализации.
- Разработал и внедрил высокоскоростную глобальную сеть (WAN), соединяющую суперкомпьютерные ресурсы с удаленными пользователями (AEROnet).
- Соавтор разработал первый метод НАСА для динамического распределения производственных нагрузок между суперкомпьютерными ресурсами в географически удаленных местах (NASA Metacenter)
- Реализована сеть TCP / IP в суперкомпьютерной среде.
- Разработал пакетную систему массового обслуживания суперкомпьютеров (NQS).
- Разработал основанную на UNIX иерархическую систему хранения данных (NAStore).
- Со развитой (с SGI) первого IRIX одного образа системы 256-, 512- и 1024 процессоров суперкомпьютеров
- Совместно с SGI разработал первые односистемные суперкомпьютеры на базе Linux с 512 и 1024 процессорами.
- Среда с общей памятью на 2048 процессоров
Разработка программного обеспечения
NAS разрабатывает и адаптирует программное обеспечение, чтобы «дополнять и улучшать работу, выполняемую на его суперкомпьютерах, включая программное обеспечение для поддержки систем, систем мониторинга, безопасности и научной визуализации», и часто предоставляет это программное обеспечение своим пользователям в рамках Соглашения об открытом исходном коде NASA ( НОСА). [9]
Некоторые из важных разработок программного обеспечения NAS включают:
- NAS Parallel Benchmarks (NPB) были разработаны для оценки высокопараллельных суперкомпьютеров и имитации характеристик крупномасштабных приложений CFD.
- Portable Batch System (PBS) была первым программным обеспечением пакетной обработки очередей для параллельных и распределенных систем. Он был выпущен в продажу в 1998 году и до сих пор широко используется в промышленности.
- PLOT3D был создан в 1982 году и представляет собой программу для компьютерной графики, которая до сих пор используется для визуализации сеток и решений структурированных наборов данных CFD. Команда PLOT3D была удостоена четвертого по величине приза, когда-либо полученного программой NASA Space Act за разработку своего программного обеспечения, которое произвело революцию в научной визуализации и анализе решений 3D CFD. [6]
- FAST (Flow Analysis Software Toolkit) - это программная среда, основанная на PLOT3D и используемая для анализа данных численного моделирования, которые, хотя и адаптированы для визуализации CFD, могут использоваться для визуализации практически любых скалярных и векторных данных. В 1995 году он был удостоен награды НАСА «Программное обеспечение года» [10].
- INS2D и INS3D - это коды, разработанные инженерами NAS для решения уравнений Навье-Стокса несжимаемой жидкости в двух- и трехмерных обобщенных координатах, соответственно, для стационарного и изменяющегося во времени потока. В 1994 году INS3D получил награду НАСА «Программное обеспечение года». [6]
- Cart3D - это пакет высокоточного анализа для аэродинамического проектирования, который позволяет пользователям выполнять автоматизированное моделирование CFD на сложных формах. Он до сих пор используется в НАСА и других правительственных учреждениях для тестирования концептуальных и предварительных проектов самолетов и космических аппаратов. [11] Команда Cart3D получила награду НАСА «Программное обеспечение года» в 2002 году.
- OVERFLOW (вытесненный поток сетки решатель) представляет собой пакет программного обеспеченияразработанного для имитации жидкости обтекания твердых телиспользованием Рейнольдс усредненных, уравнения Навье-Стокса CFD. Это был первый универсальный CFD-код НАСА для систем координатной сетки с перекрытием (Химера), выпущенный за пределами НАСА в 1992 году.
- Chimera Grid Tools (CGT) - это программный пакет, содержащий множество инструментов для подхода с заменой сетки Chimera для решения задач CFD построения поверхностных и объемных сеток; а также манипуляции с сеткой, сглаживание и проекция.
- HiMAP Трехуровневый (внутри- / междисциплинарный, многоцелевой) параллельный высокоточный мультидисциплинарный процесс анализа (жидкости, структуры, элементы управления) [12] , [13]
История суперкомпьютеров
С момента постройки в 1987 году Advanced Supercomputing Facility NASA размещало и эксплуатировало одни из самых мощных суперкомпьютеров в мире. Многие из этих компьютеров включают в себя испытательные стенды , созданные для тестирования новой архитектуры, оборудования или сетевых настроек, которые могут использоваться в более крупных масштабах. [6] [8] Пиковая производительность показана в операциях с плавающей запятой в секунду (FLOPS) .
Имя компьютера | Архитектура | Пиковая производительность | Количество процессоров | Дата установки |
---|---|---|---|---|
Крей XMP-12 | 210,53 мегафлопс | 1 | 1984 | |
Навье | Cray 2 | 1,95 гигафлопс | 4 | 1985 г. |
Чак | Выпуклый 3820 | 1,9 гигафлопс | 8 | 1987 г. |
Пьер | Мыслительные машины CM2 | 14,34 гигафлопс | 16 000 | 1987 г. |
43 гигафлопс | 48 000 | 1991 г. | ||
Стокса | Cray 2 | 1,95 гигафлопс | 4 | 1988 г. |
Пайпер | CDC / ETA-10Q | 840 мегафлопс | 4 | 1988 г. |
Рейнольдс | Крей Y-MP | 2,54 гигафлопс | 8 | 1988 г. |
2,67 гигафлопс | 88 | 1988 г. | ||
Лагранж | Intel iPSC / 860 | 7,88 гигафлопс | 128 | 1990 г. |
Гамма | Intel iPSC / 860 | 7,68 гигафлопс | 128 | 1990 г. |
фон Карман | Выпуклый 3240 | 200 мегафлопс | 4 | 1991 г. |
Больцман | Мыслительные машины CM5 | 16,38 гигафлопс | 128 | 1993 г. |
Сигма | Intel Paragon | 15,60 гигафлопс | 208 | 1993 г. |
фон Нейман | Cray C90 | 15,36 гигафлопс | 16 | 1993 г. |
Орел | Cray C90 | 7,68 гигафлопс | 8 | 1993 г. |
милость | Intel Paragon | 15,6 гигафлопс | 209 | 1993 г. |
Бэббидж | IBM SP-2 | 34,05 гигафлопс | 128 | 1994 г. |
42,56 гигафлопс | 160 | 1994 г. | ||
Да Винчи | SGI Power Challenge | 16 | 1994 г. | |
SGI Power Challenge XL | 11,52 гигафлопс | 32 | 1995 г. | |
Ньютон | Cray J90 | 7,2 гигафлопс | 36 | 1996 г. |
Поросенок | SGI Origin 2000/250 МГц | 4 гигафлопс | 8 | 1997 г. |
Тьюринг | SGI Origin 2000/195 МГц | 9,36 гигафлопс | 24 | 1997 г. |
25 гигафлопс | 64 | 1997 г. | ||
Ферми | SGI Origin 2000/195 МГц | 3,12 гигафлопс | 8 | 1997 г. |
Бункер | SGI Origin 2000/250 МГц | 32 гигафлопс | 64 | 1997 г. |
Эвелин | SGI Origin 2000/250 МГц | 4 гигафлопс | 8 | 1997 г. |
Steger | SGI Origin 2000/250 МГц | 64 гигафлопс | 128 | 1997 г. |
128 гигафлопс | 256 | 1998 г. | ||
Lomax | SGI Origin 2800/300 МГц | 307,2 гигафлопс | 512 | 1999 г. |
409,6 гигафлопс | 512 | 2000 г. | ||
Лу | SGI Origin 2000/250 МГц | 4,68 гигафлопс | 12 | 1999 г. |
Ариэль | SGI Origin 2000/250 МГц | 4 гигафлопс | 8 | 2000 г. |
Себастьян | SGI Origin 2000/250 МГц | 4 гигафлопс | 8 | 2000 г. |
СН1-512 | SGI Origin 3000/400 МГц | 409,6 гигафлопс | 512 | 2001 г. |
Яркий | Cray SVe1 / 500 МГц | 64 гигафлопс | 32 | 2001 г. |
Чепмен | SGI Origin 3800/400 МГц | 819,2 гигафлопс | 1,024 | 2001 г. |
1,23 терафлопс | 1,024 | 2002 г. | ||
Ломакс II | SGI Origin 3800/400 МГц | 409,6 гигафлопс | 512 | 2002 г. |
Калпана [14] | SGI Altix 3000 [15] | 2,66 терафлопс | 512 | 2003 г. |
Cray X1 [16] | 204,8 гигафлопс | 2004 г. | ||
Колумбия | SGI Altix 3000 [17] | 63 терафлопс | 10 240 | 2004 г. |
SGI Altix 4700 | 10 296 | 2006 г. | ||
85,8 терафлопс [18] | 13 824 | 2007 г. | ||
Schirra | IBM POWER5 + [19] | 4,8 терафлопс | 640 | 2007 г. |
RT Джонс | SGI ICE 8200 , процессоры Intel Xeon "Harpertown" | 43,5 терафлопс | 4096 | 2007 г. |
Плеяды | SGI ICE 8200, процессоры Intel Xeon "Harpertown" [20] | 487 терафлопс | 51 200 | 2008 г. |
544 терафлопс [21] | 56 320 | 2009 г. | ||
SGI ICE 8200, Intel Xeon "Harpertown" / "Nehalem" Процессоры [22] | 773 терафлопс | 81 920 | 2010 г. | |
SGI ICE 8200/8400, Intel Xeon "Harpertown" / / "Nehalem" "Westmere" Процессоры [23] | 1,09 петафлопс | 111 104 | 2011 г. | |
SGI ICE 8200 / X, Intel Xeon "Harpertown" / / / "Nehalem" "Westmere" / 8400 "Sandy Bridge" Процессоры [24] | 1,24 петафлопс | 125 980 | 2012 г. | |
SGI ICE 8200 / X, Intel Xeon "Nehalem" / / / "Westmere" "Sandy Bridge" / 8400 "Ivy Bridge" Процессоры [25] | 2,87 петафлопс | 162 496 | 2013 | |
3,59 петафлопс | 184 800 | 2014 г. | ||
SGI ICE 8400 / X, Intel Xeon "Westmere" / "Sandy Bridge" / "Ivy Bridge" / "Haswell" Процессоры [26] | 4,49 петафлопс | 198 432 | 2014 г. | |
5,35 петафлопс [27] | 210 336 | 2015 г. | ||
SGI ICE X, Intel Xeon "Sandy Bridge" / "Ivy Bridge" / "Haswell" / "Broadwell" Процессоры [28] | 7,25 петафлопс | 246 048 | 2016 г. | |
Стараться | SGI UV 2000 , процессоры Intel Xeon "Sandy Bridge" [29] | 32 терафлопс | 1,536 | 2013 |
Меропа | SGI ICE 8200, процессоры Intel Xeon "Harpertown" [25] | 61 терафлопс | 5 120 | 2013 |
SGI ICE 8400, процессоры Intel Xeon "Nehalem" / "Westmere" [26] | 141 терафлопс | 1,152 | 2014 г. | |
Электра | SGI ICE X, процессоры Intel Xeon "Broadwell" [30] | 1,9 петафлопс | 1,152 | 2016 г. |
SGI ICE X / ГФЭ SGI 8600 E-Cell, Intel Xeon / "Бродуэлла" "Skylake" Процессоры [31] | 4,79 петафлопс | 2 304 | 2017 г. | |
8,32 петафлопс [32] | 3 456 | 2018 г. | ||
Aitken | HPE SGI 8600 E-Cell, Intel Xeon "Каскад - Лейк" Процессоры [33] | 3,69 петафлопс | 1,150 | 2019 г. |
Имя компьютера | Архитектура | Пиковая производительность | Количество процессоров | Дата установки |
Ресурсы для хранения
Дисковое хранилище
В 1987 году NAS в партнерстве с Агентством перспективных исследовательских проектов Министерства обороны США (DARPA) и Калифорнийским университетом в Беркли в проекте создания избыточного массива недорогих дисков (RAID), который стремился создать технологию хранения, объединяющую несколько компонентов дисков в один логический Блок. Завершенный в 1992 году проект RAID привел к созданию технологии распределенного хранения данных, используемой сегодня. [6]
В настоящее время в системе NAS размещается дисковое хранилище на параллельном DMF-кластере SGI с программным обеспечением высокой доступности, состоящим из четырех 32-процессорных интерфейсных систем, которые подключены к суперкомпьютерам и архивной ленточной системе хранения. В системе имеется 192 ГБ памяти на интерфейс [34] и 7,6 петабайт (ПБ) дискового кэша. [4] Данные, хранящиеся на диске, регулярно переносятся в ленточные архивные системы хранения на предприятии, чтобы освободить место для других пользовательских проектов, выполняемых на суперкомпьютерах.
Системы архива и хранения
В 1987 году NAS разработала первую иерархическую систему массового хранения на основе UNIX, получившую название NAStore. Он содержал двух ленточных роботов с картриджами StorageTek 4400, каждый емкостью примерно 1,1 терабайта, сокращая время извлечения ленты с 4 минут до 15 секунд. [6]
С установкой суперкомпьютера Pleiades в 2008 году системы StorageTek, которые NAS использовала в течение 20 лет, не смогли удовлетворить потребности большего числа пользователей и увеличить размеры файлов наборов данных каждого проекта . [35] В 2009 году NAS представила роботизированные ленточные системы Spectra Logic T950, которые увеличили максимальную емкость объекта до 16 петабайт пространства, доступного пользователям для архивации своих данных с суперкомпьютеров. [36] По состоянию на март 2019 года, хранилище NAS увеличило общую емкость архивного хранилища ленточных библиотек Spectra Logic до 1048 петабайт (или 1 эксабайт) при 35% сжатии. [34] Средство переноса данных (DMF) SGI и OpenVault управляют переносом данных с диска на ленту и переносом с ленты на диск для системы NAS.
По состоянию на март 2019 года в системе архивного хранения NAS хранится более 110 петабайт уникальных данных. [34]
Системы визуализации данных
В 1984 году NAS приобрела 25 графических терминалов SGI IRIS 1000, что положило начало их долгому партнерству с компанией из Кремниевой долины, которое оказало значительное влияние на постобработку и визуализацию результатов CFD, выполняемых на суперкомпьютерах на предприятии. [6] Визуализация стала ключевым процессом в анализе данных моделирования, выполняемых на суперкомпьютерах, позволяя инженерам и ученым просматривать свои результаты пространственно и таким образом, который позволил лучше понять силы CFD, действующие в их проектах.
Гиперволла
В 2002 году специалисты по визуализации NAS разработали систему визуализации, названную «гиперволой», которая включала 49 связанных ЖК- панелей, которые позволяли ученым просматривать сложные наборы данных на большом динамическом массиве экранов размером семь на семь. У каждого экрана была собственная вычислительная мощность, позволяющая отображать, обрабатывать и обмениваться наборами данных, так что одно изображение могло отображаться на всех экранах или настраиваться таким образом, чтобы данные могли отображаться в «ячейках», как гигантская визуальная электронная таблица. [37]
Второе поколение «гиперволлы-2» было разработано NAS в 2008 году в партнерстве с Colfax International и состоит из 128 ЖК-экранов, расположенных по сетке 8x16 шириной 23 фута и высотой 10 футов. Он способен отображать четверть миллиарда пикселей , что делает его самой высокой в мире системой научной визуализации с самым высоким разрешением. [38] Он содержит 128 узлов, каждый с двумя четырехъядерными процессорами AMD Opteron ( Barcelona ) и графическим процессором (GPU) Nvidia GeForce 480 GTX для выделенной пиковой вычислительной мощности 128 терафлопс во всей системе, что в 100 раз больше. чем исходный гиперволл. [39] Гиперволл-2 напрямую связан с файловой системой суперкомпьютера Pleiades через сеть InfiniBand, что позволяет системе читать данные непосредственно из файловой системы без необходимости копировать файлы в память гиперволла-2.
В 2014 году в гиперволл было добавлено новое оборудование: 128 процессоров Intel Xeon «Ivy Bridge» и графические процессоры NVIDIA Geforce 780 Ti. Обновление увеличило пиковую вычислительную мощность системы с 9 терафлопс до 57 терафлопс и теперь имеет почти 400 гигабайт графической памяти. [40]
Параллельная визуализация
Важной особенностью технологии гиперволлы, разработанной в NAS, является то, что она позволяет «одновременную визуализацию» данных, что позволяет ученым и инженерам анализировать и интерпретировать данные, пока вычисления выполняются на суперкомпьютерах. Это не только показывает текущее состояние вычислений для мониторинга, управления и завершения времени выполнения, но также «обеспечивает визуализацию с более высоким временным разрешением по сравнению с постобработкой, поскольку требования к вводу-выводу и пространству для хранения в значительной степени устраняются ... [и ] может отображать в моделировании особенности, которые в противном случае были бы невидимы ". [41]
Группа визуализации NAS разработала настраиваемый параллельный конвейер для использования с массивно-параллельной моделью прогноза, запущенной на суперкомпьютере Columbia в 2005 году, чтобы помочь спрогнозировать сезон ураганов в Атлантике для Национального центра ураганов . Из-за крайних сроков подачи каждого из прогнозов было важно, чтобы процесс визуализации существенно не препятствовал моделированию или не приводил к его сбою.
Рекомендации
- ^ "Домашняя страница суперкомпьютера Aitken" . NAS.
- ^ "Домашняя страница Суперкомпьютера Электра" . NAS.
- ^ "Домашняя страница суперкомпьютера Merope" . NAS.
- ^ а б "НАСА Advanced Supercomputing Division: Advanced Computing" (PDF) . NAS. 2019.
- ^ "Домашняя страница НАН - О отделении НАН Украины" . NAS.
- ^ Б с д е е г "Брошюра к 25-летнему юбилею Advanced Supercomputing Division НАСА (PDF)" (PDF) . NAS. Архивировано из оригинального (PDF) 2 марта 2013 года. CS1 maint: обескураженный параметр ( ссылка )
- ^ «Домашняя страница НАН: История отдела» . NAS.
- ^ а б "История высокопроизводительных компьютеров NAS". Точки привязки : 1A – 12A. Весна 2002 г.
- ^ «Программное обеспечение NAS и наборы данных» . NAS.
- ^ «Набор инструментов НАСА для анализа потоков» . НАСА.
- ^ «Домашняя страница NASA Cart3D» .
- ^ https://www.nasa.gov/centers/ames/news/releases/2002/02_76AR.html
- ^ https://www.nas.nasa.gov/assets/pdf/staff/Guruswamy_G_Development_and_Applications_of_a_Large_Scale_Fluids_Structures_Simulation_Process_on_Clusters.pdf
- ^ «НАСА назовет суперкомпьютер в честь астронавта Колумбии» . NAS. Май 2005 г.
- ^ «НАСА Эймс устанавливает первый в мире суперкомпьютер Alitx с 512 процессорами» . NAS. Ноябрь 2003 г.
- ^ «Новая система Cray X1 прибывает в NAS» . NAS. Апрель 2004 г.
- ^ «НАСА представляет свой новейший и самый мощный суперкомпьютер» . НАСА. Октябрь 2004 г.
- ^ "Домашняя страница Columbia Supercomputer Legacy" . НАСА.
- ^ «НАСА выбирает IBM для суперкомпьютерных приложений следующего поколения» . НАСА. Июнь 2007 г.
- ^ «Суперкомпьютер НАСА входит в число самых быстрых в мире - ноябрь 2008 г.» . НАСА. Ноябрь 2008 г.
- ^ « „ Интеграция Live“из Плеяд Rack Экономит 2 миллиона часов» . NAS. Февраль 2010 г.
- ^ «Суперкомпьютер НАСА удваивает мощность, увеличивает эффективность» . НАСА. Июнь 2010 г.
- ^ «Суперкомпьютер НАСА Pleiades входит в число самых быстрых в мире» . НАСА. Июнь 2011 г.
- ^ "Суперкомпьютер Pleiades становится немного более мощным" . НАСА. Июнь 2012 г.
- ^ а б «Суперкомпьютер НАСА« Плеяды »модернизирован, узлы Харпертауна перепрофилированы» . NAS. Август 2013.
- ^ а б «Суперкомпьютер НАСА Pleiades модернизирован, получил ускорение на один петафлопс» . NAS. Октябрь 2014 г.
- ^ «Производительность суперкомпьютера Pleiades выросла до 5,35 Петафлопс с последним расширением» . NAS. Январь 2015 г.
- ^ «Пиковая производительность суперкомпьютера Pleiades увеличена, емкость долгосрочной памяти увеличена втрое» . NAS. Июль 2016 г.
- ^ "Домашняя страница ресурсов суперкомпьютера Endeavour" . NAS.
- ^ «НАСА Эймс запускает модульный суперкомпьютерный комплекс Pathfinding» . NAS. Февраль 2017 г.
- ^ «Недавно расширенный первый модульный суперкомпьютер НАСА занимает 15-е место в США в списке TOP500» . NAS. Ноябрь 2017 г.
- ^ «Суперкомпьютер НАСА Electra поднялся на 12-е место в США в списке TOP500» . NAS. Ноябрь 2018.
- ^ «Подразделение передовых суперкомпьютеров НАСА: модульные суперкомпьютеры» (PDF) . NAS. 2019.
- ^ а б в "Домашняя страница ресурсов системы архивного хранения HECC" . NAS.
- ^ «Обновления бункера NAS, ленточного накопителя и хранилища - SC09» (PDF) . NAS. Ноябрь 2009 г.
- ^ «Установка новой системы архива данных NAS завершена» . NAS. 2009 г.
- ^ "Марс Флайер дебютирует на гиперволле" . NAS. Сентябрь 2003 г.
- ^ «НАСА разрабатывает систему визуализации с самым высоким разрешением в мире» . NAS. Июнь 2008 г.
- ^ «Обзор систем визуализации NAS» . NAS.
- ^ «Система визуализации гиперволла NAS, обновленная с помощью узлов Ivy Bridge» . NAS. Октябрь 2014 г.
- ^ Эллсуорт, Дэвид; Брайан Грин; Крис Хенце; Патрик Моран; Тимоти Сэндстром (сентябрь – октябрь 2006 г.). «Параллельная визуализация в производственной суперкомпьютерной среде» (PDF) . IEEE Transactions по визуализации и компьютерной графике . 12 (5).
Внешние ссылки
Ресурсы NASA Advanced Supercomputing
- Домашняя страница NASA Advanced Supercomputing (NAS) Division
- Домашняя страница вычислительной среды NAS
- Домашняя страница суперкомпьютера NAS Pleiades
- Домашняя страница суперкомпьютера NAS Aitken
- Домашняя страница суперкомпьютера NAS Electra
- Домашняя страница систем архивации и хранения NAS
- Домашняя страница NAS Hyperwall-2
Другие онлайн-ресурсы
- Официальный сайт НАСА
- Домашняя страница программы NASA High-End Computing Program
- Домашняя страница проекта NASA High-End Computing Capability Project
- Официальный сайт TOP500