Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Texas Advanced Computing Center ( TACC ) в Университете штата Техас в Остине , США , является передовым Научно - исследовательский вычислительный центр , который предоставляет полный комплекс современных вычислительных ресурсов и служб поддержки для исследователей в Техасеи по США. Миссия TACC - способствовать открытиям, которые продвигают науку и общество за счет применения передовых компьютерных технологий. Специализируясь на высокопроизводительных вычислениях, научной визуализации, системах анализа и хранения данных, программном обеспечении, исследованиях и разработках и интерфейсах порталов, TACC развертывает и управляет передовой вычислительной инфраструктурой, чтобы обеспечить вычислительные исследования для преподавателей, сотрудников и студентов UT Austin. TACC также предоставляет консультации, техническую документацию и обучение для поддержки исследователей, использующих эти ресурсы. Сотрудники TACC проводят исследования и разработки в области приложений и алгоритмов, проектирования / архитектуры вычислительных систем, а также инструментов и сред программирования.

Основанная в 2001 году, TACC является одним из центров передового опыта в области вычислений в Соединенных Штатах. В рамках проекта Национального научного фонда (NSF) Extreme Science and Engineering Discovery Environment (XSEDE) ресурсы и услуги TACC становятся доступными для национального академического исследовательского сообщества. TACC расположен на территории исследовательского кампуса JJ Pickle Research Campus UT .

В число сотрудников TACC входят исследователи из других департаментов и центров UT в Остине, университетов Техаса в Консорциуме высокопроизводительных вычислений через Техас , а также из других университетов США и государственных лабораторий.

Лаборатория визуализации

Проекты [ править ]

Исследования и разработки TACC поддерживаются несколькими федеральными программами, в том числе:

Программа NSF XSEDE (ранее Teragrid )

XSEDE, финансируемая Национальным научным фондом (NSF), представляет собой виртуальную систему, которую ученые могут использовать для интерактивного обмена вычислительными ресурсами, данными и опытом. XSEDE - это самый мощный и надежный набор интегрированных передовых цифровых ресурсов и услуг в мире. TACC - один из ведущих партнеров проекта XSEDE, ресурсы которого включают более одного петафлопа вычислительных мощностей и более 30 петабайт онлайнового и архивного хранилища данных. В рамках проекта TACC предоставляет доступ к Ranger, Lonestar, Longhorn, Spur и Ranch через квартальные отчисления XSEDE. Сотрудники TACC поддерживают исследователей XSEDE по всей стране и проводят исследования и разработки, чтобы сделать XSEDE более эффективным и действенным. Партнерство XSEDE также включает: Университет Иллинойса в Урбана-Шампейн,Университет Карнеги-Меллона / Университет Питтсбурга, Техасский университет в Остине, Университет Теннесси, Ноксвилл, Университет Вирджинии, Образовательный фонд Shodor, Исследовательская ассоциация юго-восточных университетов, Чикагский университет, Калифорнийский университет Сан-Диего, Университет Индианы, Суперкомпьютерный центр Юлиха, Purdue Университет, Корнельский университет, Университет штата Огайо, Калифорнийский университет в Беркли, Университет Райса и Национальный центр атмосферных исследований. Его возглавляет Национальный центр суперкомпьютерных приложений Университета Иллинойса.Суперкомпьютерный центр Юлиха, Университет Пердью, Корнельский университет, Университет штата Огайо, Калифорнийский университет в Беркли, Университет Райса и Национальный центр атмосферных исследований. Его возглавляет Национальный центр суперкомпьютерных приложений Университета Иллинойса.Суперкомпьютерный центр Юлиха, Университет Пердью, Корнельский университет, Университет штата Огайо, Калифорнийский университет в Беркли, Университет Райса и Национальный центр атмосферных исследований. Его возглавляет Национальный центр суперкомпьютерных приложений Университета Иллинойса.

Проект исследовательской киберинфраструктуры (UTRC) Техасского университета

Проект киберинфраструктуры UT System Research (UTRC) - это инициатива, которая позволяет исследователям во всех 15 учреждениях UT System получить доступ к современной вычислительной исследовательской инфраструктуре. В рамках UTRC исследователи систем UT имеют уникальный доступ к ресурсам TACC, включая TACC Lonestar, национальный ресурс XSEDE, и Corral, высокопроизводительную систему хранения для всех типов цифровых данных.

iPlant Collaborative

IPlant Collaborative - это 5-летний проект NSF стоимостью 50 миллионов долларов (награжден в 2008 году), в котором используются новые решения в области вычислительной науки и киберинфраструктуры для решения проблем в науках о растениях. iPlant интегрирует высокопроизводительное петасклейное хранилище, федеративное управление идентификацией, виртуализацию по запросу и распределенные вычисления на сайтах XSEDE за набором REST API. Они служат основой для представления расширяемых сообществом полноценных веб-клиентов, которые позволяют сообществу специалистов по растениям выполнять сложные биоинформатические анализы в различных концептуальных областях. В сентябре 2013 года было объявлено, что NSF продлил финансирование iPlant на второй пятилетний срок с расширением сферы охвата на все исследования, не связанные с человеческими науками о жизни. [ требуется разъяснение ]

Партнерская программа STAR

Партнерская программа исследований в области науки и технологий предлагает компаниям возможности повысить свою эффективность за счет использования вычислительных технологий TACC. Текущие партнеры STAR включают корпорации BP, Chevron, Dell, Green Revolution Cooling, Intel и Technip.

Портал Digital Rocks

Устойчивое, открытое и простое в использовании хранилище, которое систематизирует изображения и связанные с ними экспериментальные измерения различных пористых материалов, улучшает доступ к результатам анализа пористой среды для более широкого сообщества геолого-геофизических и инженерных исследователей, не обязательно обученных информатике или анализу данных. и повышает продуктивность, научные исследования и инженерные решения, основанные на данных.

Кластеры суперкомпьютеров [ править ]

Давка

Паническое бегство - одна из самых мощных машин в мире для открытых научных исследований. Stampede, финансируемый грантом Национального научного фонда ACI-1134872 и созданный в партнерстве с Intel, Dell и Mellanox, был запущен в производство 7 января 2013 года. Stampede состоит из 6400 узлов, 102400 ядер ЦП, общей памяти 205 ТБ, всего 14 ПБ и 1,6 Локальное хранилище PB. Основная часть кластера состоит из 160 стоек основных вычислительных узлов, каждая с двумя 8-ядерными процессорами Xeon E5-2680, сопроцессором Xeon Phi и оперативной памятью 32 ГБ. [1] Кластер также содержал 16 узлов с 32 ядрами и оперативной памятью 1 ТБ каждый, 128 «стандартных» вычислительных узлов с графическими процессорами Nvidia Kepler K20 и другие узлы для ввода-вывода (в файловую систему Lustre ), входа в систему и управления кластером.[2] Stampede может выполнять 9,6 квадриллиона операций с плавающей запятой в секунду.

Предварительная конфигурация Stampede [3] заняла 7-е место в списке самых быстрых суперкомпьютеров в списке Top500 за ноябрь 2012 г. с доставленной производительностью 2660 терафлопс. Поскольку система все еще собиралась, представленный тест был запущен с использованием 1875 узлов с сопроцессорами Xeon Phi и 3900 узлов без сопроцессоров Xeon Phi. [4] Для списка Top500 за июнь 2013 года тест был повторно запущен с использованием 6006 узлов (все с сопроцессорами Xeon Phi), что дало 5168 терафлопс и подняло систему на 6-е место. Тест не был повторно запущен для списка Top500 за ноябрь 2013 года, и Stampede вернулась на 7-ю позицию.

За первый год производства Stampede выполнила 2196 848 рабочих мест 3400 исследователями, выполнив более 75 000 лет научных вычислений.

Maverick

Maverick, последнее дополнение TACC к набору передовых вычислительных систем, сочетает в себе возможности для интерактивной расширенной визуализации и крупномасштабного анализа данных, а также традиционные высокопроизводительные вычисления. Недавний экспоненциальный рост размера и количества наборов цифровых данных требует новых систем, таких как Maverick, способных к быстрому перемещению данных и расширенному статистическому анализу. Maverick представляет национальному сообществу новый графический процессор NVIDIA K40 для удаленной визуализации и вычислений на графическом процессоре.

Визуализация:

  • 132 графических процессора NVIDIA Tesla K40
  • Программное обеспечение для удаленного доступа, разработанное TACC: ScoreVIS, DisplayCluster, GLuRay и др.
  • Стек программного обеспечения для визуализации: Paraview, VisIT, EnSight, Amira и др.

Данные:

  • 132 узла памяти 1/4 ТБ
  • подключен к файловой системе 20 ПБ
  • Межкомпонентное соединение Mellanox FDR InfiniBand
  • комплексное программное обеспечение включает: MATLAB, Parallel R и др.

Одинокая звезда

Lonestar, мощный, многоцелевой ресурс для высокопроизводительных вычислений и удаленной визуализации киберинфраструктуры, - это название серии кластерных систем высокопроизводительных вычислений в TACC.

Первая система Lonestar была построена Dell и интегрирована Cray с использованием серверов Dell PowerEdge 1750 и межсоединений Myrinet с максимальной производительностью 3672 гигафлоп . В результате модернизации в 2004 году количество процессоров увеличилось до 1024, а пиковая скорость составила 6338 гигафлопс. Вторая итерация (Lonestar 2) в 2006 году была развернута с серверами Dell PowerEdge 1855 и Infiniband . (1300 процессоров, 2000 гигабайт памяти, пиковая производительность 8320 гигафлопс.) Позже в том же году была построена третья итерация кластера из серверов Dell PowerEdge 1955; он состоял из 5200 процессоров и 10,4 ТБ памяти. Lonestar 3 вошел в Top500в ноябре 2006 г. занял 12-е место в списке самых быстрых суперкомпьютеров с пиковыми показателями 55,5 Тфлопс. [5]

В апреле 2011 года TACC объявила об очередном обновлении кластера Lonestar. Кластер Lonestar 4 стоимостью 12 миллионов долларов заменил своего предшественника на 1888 блейд-серверов Dell M610 PowerEdge, каждый из которых оснащен двумя шестиядерными процессорами Intel Xeon 5600 (всего 22 656 ядер). Системное хранилище включает в себя параллельную файловую систему Lustre 1000 ТБ (SCRATCH) и 276 ТБ дискового пространства локального вычислительного узла (146 ГБ / узел). Lonestar также предоставляет доступ к пяти узлам с большой памятью (1 ТБ) и восьми узлам, содержащим два графических процессора NVIDIA, предоставляя пользователям доступ к высокопроизводительным вычислениям и возможностям удаленной визуализации соответственно. Lonestar 4 [6] вошел в список Top500 в июне 2011 года как 28-й по скорости суперкомпьютер с пиковыми показателями 301,8 Тфлопс.

Рейтинги Top500 различных итераций кластера Lonestar перечислены в материалах, представленных TACC для Top500. [7]

Ранчо

Решение TACC для долгосрочного хранения данных - это модульная библиотечная система Oracle StorageTek , получившая название Ranch. Ranch использует файловую систему Oracle Sun Storage Archive Manager (SAM-FS) для переноса файлов в / из ленточной архивной системы с текущим объемом автономного хранилища 40 ПБ. Дисковый кеш Ranch построен на дисковых массивах Oracle Sun ST6540 и DataDirect Networks 9550, содержащих примерно 110 ТБ используемой вращающейся дисковой памяти. Эти дисковые массивы контролируются сервером метаданных Oracle Sun x4600 SAM-FS, который имеет 16 процессоров и 32 ГБ оперативной памяти.

Загон

Развернутая в апреле 2009 года Техасским центром передовых вычислений для поддержки науки о данных в Техасском университете, Corral состоит из 6 петабайт онлайн-диска и ряда серверов, обеспечивающих высокопроизводительное хранилище для всех типов цифровых данных. Он поддерживает базы данных MySQL и Postgres, высокопроизводительную параллельную файловую систему и доступ через Интернет, а также другие сетевые протоколы для хранения и извлечения данных из сложных инструментов, моделирования HPC и лабораторий визуализации.

Ресурсы по визуализации [ править ]

Для поддержки исследований, проводимых на наших высокопроизводительных вычислительных системах, TACC предоставляет расширенные ресурсы визуализации и консультационные услуги, доступные как лично, так и удаленно. Эти ресурсы охватывают как аппаратное, так и программное обеспечение, и включают в себя: Stallion, один из самых высоких в мире дисплеев с мозаичной плиткой; Longhorn, крупнейший кластер удаленной интерактивной визуализации с аппаратным ускорением; и портал визуализации Longhorn, интернет-шлюз к кластеру Longhorn и простой в использовании интерфейс для научной визуализации.

Лаборатория визуализации

Лаборатория визуализации TACC, расположенная в POB 2.404a, открыта для всех преподавателей UT, студентов и сотрудников, а также пользователей UT Systems. Vislab включает «Жеребец», один из плиточных дисплеев с самым высоким разрешением в мире (см. Ниже); «Лассо», 12,4-мегапиксельный мультисенсорный дисплей для совместной работы; Bronco, оверхед-проектор Sony 4D SRX-S105 с плоским экраном, который дает пользователям дисплей с разрешением 20 футов x 11 футов и разрешением 4096 x 2160 пикселей, который управляется высокопроизводительной рабочей станцией Dell и идеально подходит для сверхвысокой производительности. визуализации и презентации высокого разрешения; «Подковы», четыре высокопроизводительных системы Dell Precision, оснащенные многоядерными процессорами Intel и графической технологией NVIDIA для использования в производстве графики, визуализации и редактировании видео; 'Седло',конференц-зал и небольшой конференц-зал, оборудованный коммерческими аудио и видео возможностями для видеоконференцсвязи в формате Full HD; «Mustang» и «Silver» - это дисплеи для стереоскопической визуализации, оснащенные новейшими технологиями, использующими режимы стереовыхода Samsung 240 Гц в сочетании с 55-дюймовой светодиодной панелью, и могут использоваться для визуализации глубины в результате параллакса, создаваемого активными и пассивные стереоскопические технологии; сетевые технологии Mellanox FDR InfiniBand для соединения этих систем на более высоких скоростях. Vislab также служит исследовательским центром для взаимодействия человека с компьютером, разработки программного обеспечения для мозаичных дисплеев и консультирования по визуализации.представляют собой дисплеи для стереоскопической визуализации, оснащенные новейшими технологиями, использующими режимы вывода стереозвука Samsung 240 Гц в сочетании с 55-дюймовым светодиодным дисплеем, и могут использоваться для визуализации глубины в результате параллакса, создаваемого активными и пассивными стереоскопическими технологиями; Mellanox FDR InfiniBand сетевые технологии для соединения этих систем на более высоких скоростях Vislab также служит исследовательским центром для взаимодействия человека с компьютером, разработки программного обеспечения для мозаичных дисплеев и консультирования по визуализации.представляют собой дисплеи для стереоскопической визуализации, оснащенные новейшими технологиями, использующими режимы вывода стереозвука Samsung 240 Гц в сочетании с 55-дюймовым светодиодным дисплеем, и могут использоваться для визуализации глубины в результате параллакса, создаваемого активными и пассивными стереоскопическими технологиями; Mellanox FDR InfiniBand сетевые технологии для соединения этих систем на более высоких скоростях Vislab также служит исследовательским центром для взаимодействия человека с компьютером, разработки программного обеспечения для мозаичных дисплеев и консультирования по визуализации.Vislab также служит исследовательским центром для взаимодействия человека с компьютером, разработки программного обеспечения для мозаичных дисплеев и консультирования по визуализации.Vislab также служит исследовательским центром для взаимодействия человека с компьютером, разработки программного обеспечения для мозаичных дисплеев и консультирования по визуализации.

Жеребец

Stallion - это 328-мегапиксельная мозаичная дисплейная система с разрешением, более чем в 150 раз превышающим стандартный HD-дисплей, и является одним из дисплеев с самым большим количеством пикселей в мире. Кластер предоставляет пользователям возможность отображать визуализации с высоким разрешением на большом мозаичном дисплее 16x5 30-дюймовых мониторов Dell. Эта конфигурация позволяет исследовать визуализации с чрезвычайно высоким уровнем детализации и качества по сравнению с типичным проектором с умеренным количеством пикселей. Кластер позволяет пользователям получить доступ к более чем 82 ГБ графической памяти и 240 ядрам обработки. Эта конфигурация позволяет обрабатывать массивы данных большого размера и интерактивную визуализацию существенных геометрических фигур. Доступна общая файловая система объемом 36 ТБ, позволяющая хранить наборы данных тера-масштабного размера.

Ссылки [ править ]

  1. Ноябрь 2012, Патрик Кеннеди. 12. «Xeon Phi: карта Intel, производная от Larrabee, в суперкомпьютере TACC» . Оборудование Тома . Проверено 7 января 2021 .
  2. ^ "Система Frontera - Техасский центр передовых вычислений" . www.tacc.utexas.edu . Проверено 7 января 2021 .
  3. ^ "Stampede - PowerEdge C8220, Xeon E5-2680 8C 2,700 ГГц, Infiniband FDR, Intel Xeon Phi SE10P | TOP500" . top500.org . Проверено 7 января 2021 .
  4. ^ Подробная информация о конфигурации системы предоставляется на веб-сайте Top500, но только в загружаемых файлах Excel, например http://s.top500.org/static/lists/2012/11/TOP500_201211.xls .
  5. ^ "Lonestar - PowerEdge 1955, 2,66 ГГц, Infiniband | TOP500" . top500.org . Проверено 7 января 2021 .
  6. ^ «Lonestar 4 - Dell PowerEdge M610 Cluster, Xeon 5680 3.3Ghz, Infiniband QDR | TOP500» . top500.org . Проверено 7 января 2021 .
  7. ^ "Техасский центр передовых вычислений / Техасский университет | TOP500" . top500.org . Проверено 7 января 2021 .

Внешние ссылки [ править ]

  • Техасский вычислительный центр
  • Портал Digital Rocks

Координаты : 30.390205 ° N 97.725652 ° W30 ° 23′25 ″ с.ш., 97 ° 43′32 ″ з.д. /  / 30.390205; -97,725652