TeraGrid - это инфраструктура грид-вычислений e-Science, объединяющая ресурсы одиннадцати партнерских сайтов. Проект стартовал в 2001 году и работал с 2004 по 2011 год.
Тип сайта | Научное сопровождение |
---|---|
Доступно в | английский |
URL | www |
Коммерческий | Нет |
Запущен | 2004 г. |
TeraGrid объединяет высокопроизводительные компьютеры, информационные ресурсы и инструменты, а также экспериментальное оборудование. Ресурсы включают более петафлопс вычислительной мощности и более 30 петабайт онлайн-хранилища и архивных данных с быстрым доступом и поиском по высокопроизводительным компьютерным сетевым соединениям. Исследователи также могли получить доступ к более чем 100 базам данных по конкретным дисциплинам.
Работа TeraGrid координировалась Группой Grid Infrastructure Group (GIG) при Чикагском университете , работающей в партнерстве с сайтами поставщиков ресурсов в США.
История
США Национальный научный фонд (NSF) издал ходатайство с просьбой о «распределенном Terascale объекте» от директора программы Ричарда Л. Hilderbrandt. [1] Проект TeraGrid был запущен в августе 2001 года с финансированием в размере 53 миллионов долларов для четырех сайтов: Национального центра суперкомпьютерных приложений (NCSA) в Университете Иллинойса в Урбана-Шампейн , Суперкомпьютерного центра Сан-Диего (SDSC) в университете. Калифорнии, Сан-Диего , Аргоннской национальной лаборатории Чикагского университета и Центра перспективных компьютерных исследований (CACR) Калифорнийского технологического института в Пасадене, Калифорния .
С самого начала проект задумывался как расширяемая распределенная открытая система . [2] В октябре 2002 года Питтсбургский суперкомпьютерный центр (PSC) в Университете Карнеги-Меллона и Питтсбургский университет присоединились к TeraGrid в качестве новых основных партнеров, когда NSF объявил о дополнительном финансировании в размере 35 миллионов долларов. Сеть TeraGrid была преобразована через ETF проекта из 4-сайта с сеткой на двойной хаба магистральной сети с точками подключения в Лос - Анджелесе и на объектах Starlight в Чикаго .
В октябре 2003 года NSF выделил 10 миллионов долларов на добавление четырех сайтов к TeraGrid, а также на создание третьего сетевого концентратора в Атланте . Эти новые сайты были Oak Ridge National Laboratory (ORNL), Университет Пердью , Университет Индианы , и Texas Advanced Computing Center (КТПС) в Университете штата Техас в Остине .
Создание TeraGrid стало возможным благодаря корпоративному партнерству с Sun Microsystems , IBM , Intel Corporation , Qwest Communications , Juniper Networks , Myricom , Hewlett-Packard Company и Oracle Corporation .
Строительство TeraGrid было завершено в октябре 2004 года, когда предприятие TeraGrid начало полноценное производство.
Операция
В августе 2005 года недавно созданный офис киберинфраструктуры NSF продлил поддержку еще на пять лет, получив набор наград в размере 150 миллионов долларов. Он включал 48 миллионов долларов на координацию и поддержку пользователей группы сетевой инфраструктуры Чикагского университета, возглавляемой Чарли Кэтлеттом . [3] Используя высокопроизводительные сетевые соединения, TeraGrid включает высокопроизводительные компьютеры, ресурсы данных и инструменты, а также высокопроизводительные экспериментальные установки по всей территории США. Работу, поддерживаемую проектом, иногда называют электронной наукой . В 2006 году Школа информации Мичиганского университета начала исследование TeraGrid. [4]
В мае 2007 года интегрированные ресурсы TeraGrid включали вычислительные возможности более 250 терафлопс и более 30 петабайт (квадриллионов байтов) онлайнового и архивного хранилища данных с быстрым доступом и поиском по высокопроизводительным сетям. Исследователи могли получить доступ к более чем 100 базам данных по конкретным дисциплинам. В конце 2009 года ресурсы TeraGrid выросли до 2 петафлопс вычислительной мощности и более 60 петабайт хранилища. В середине 2009 года NSF продлила срок действия TeraGrid до 2011 года.
Переход на XSEDE
Последующий проект был одобрен в мае 2011 года. [5] В июле 2011 года партнерство из 17 учреждений объявило об Экстремальной науке и инженерии Discovery Environment (XSEDE). NSF объявил о финансировании проекта XSEDE на пять лет в размере 121 миллиона долларов. [6] XSEDE во главе с Джоном Towns в Университете штата Иллинойс «s Национального центра суперкомпьютерных приложений . [6]
Архитектура
Ресурсы TeraGrid интегрированы через сервис-ориентированную архитектуру, в которой каждый ресурс предоставляет «услугу», которая определяется с точки зрения интерфейса и работы. Вычислительные ресурсы запускают набор программных пакетов, называемых «Coordinated TeraGrid Software and Services» (CTSS). CTSS предоставляет знакомую пользовательскую среду для всех систем TeraGrid, позволяя ученым более легко переносить код из одной системы в другую. CTSS также предоставляет интегрирующие функции, такие как единый вход в систему, удаленная отправка заданий, поддержка рабочего процесса, инструменты перемещения данных и т. Д. CTSS включает в себя Globus Toolkit , Condor, программное обеспечение для распределенного учета и управления учетными записями, программное обеспечение для проверки и проверки и набор компиляторов, инструменты программирования и переменные среды .
TeraGrid использует выделенную оптоволоконную магистральную сеть со скоростью 10 Гбит / с с концентраторами в Чикаго, Денвере и Лос-Анджелесе. Все сайты поставщиков ресурсов подключаются к магистральному узлу со скоростью 10 гигабит в секунду. Пользователи получили доступ к объекту через национальные исследовательские сети, такие как магистраль Internet2 Abilene и National LambdaRail .
Применение
Пользователи TeraGrid в основном прибыли из университетов США. Около 4000 пользователей в более чем 200 университетах. Академические исследователи в Соединенных Штатах могут получить отчисления на исследовательскую работу или разработку (примерно, в «часах процессора») на основе аннотации, описывающей работу, которую необходимо выполнить. Более обширные ассигнования включают предложение, которое рассматривается в ходе ежеквартального процесса экспертной оценки. Все предложения по размещению обрабатываются через веб-сайт TeraGrid. Претенденты выбирают научную дисциплину, которая наиболее точно описывает их работу, и это позволяет отчитываться о распределении и использовании TeraGrid по научным дисциплинам. По состоянию на июль 2006 г. научный профиль распределения и использования TeraGrid был следующим:
Выделено (%) | Использовал (%) | Научная дисциплина |
---|---|---|
19 | 23 | Молекулярные биологические науки |
17 | 23 | Физика |
14 | 10 | Астрономические науки |
12 | 21 год | Химия |
10 | 4 | Исследования материалов |
8 | 6 | Химические, тепловые системы |
7 | 7 | Атмосферные науки |
3 | 2 | Передовые научные вычисления |
2 | 0,5 | Науки о Земле |
2 | 0,5 | Биологические и критические системы |
1 | 0,5 | Науки об океане |
1 | 0,5 | Междисциплинарная деятельность |
1 | 0,5 | Компьютерные и вычислительные исследования |
0,5 | 0,25 | Интегративная биология и нейробиология |
0,5 | 0,25 | Механические и структурные системы |
0,5 | 0,25 | Математические науки |
0,5 | 0,25 | Электрические и коммуникационные системы |
0,5 | 0,25 | Системы проектирования и производства |
0,5 | 0,25 | Экологическая биология |
Каждая из этих категорий дисциплин соответствует определенной программной области Национального научного фонда .
Начиная с 2006 года, TeraGrid предоставляла специализированные услуги для приложений партнерам по научному шлюзу , которые обслуживают (как правило, через веб-портал) научные и образовательные сообщества по конкретным дисциплинам. Посредством программы Science Gateways TeraGrid стремится расширить доступ как минимум на порядок с точки зрения числа ученых, студентов и преподавателей, которые могут использовать TeraGrid.
Поставщики ресурсов
- Аргоннская национальная лаборатория (ANL), управляемая Чикагским университетом и Министерством энергетики.
- Университет Индианы - Большой Красный - Кластер IBM BladeCenter JS21 [7]
- Инициатива Луизианской оптической сети (LONI) [8]
- Национальный центр атмосферных исследований (NCAR)
- Национальный центр суперкомпьютерных приложений (NCSA)
- Национальный институт вычислительных наук (NICS), управляемый Университетом Теннесси в Национальной лаборатории Ок-Ридж .
- Национальная лаборатория Ок-Ридж (ORNL)
- Питтсбургский суперкомпьютерный центр (PSC), управляемый Университетом Питтсбурга и Университетом Карнеги-Меллона .
- Университет Пердью
- Суперкомпьютерный центр Сан-Диего (SDSC)
- Техасский центр передовых вычислений (TACC)
Похожие проекты
- Распределенная европейская инфраструктура для суперкомпьютерных приложений (DEISA), объединяющая одиннадцать европейских суперкомпьютерных центров
- Включение гридов для E-sciencE (EGEE)
- Национальная исследовательская грид-инициатива (NAREGEGI) с участием нескольких суперкомпьютерных центров в Японии с 2003 г. [9]
- Open Science Grid - распределенная вычислительная инфраструктура для научных исследований
- Extreme Science and Engineering Discovery Environment (XSEDE) - преемник TeraGrid
Рекомендации
- ^ Распределенное средство терамасштабирования (DTF) . Программа запроса NSF 01-51 . Национальный научный фонд . Январь 2001 . Проверено 23 сентября 2011 года .
- ^ Чарли Кэтлетт (21 мая 2002 г.). Философия TeraGrid: создание открытого, расширяемого, распределенного объекта TeraScale . 2-й Международный симпозиум IEEE / ACM по кластерным вычислениям и сетям. п. 8. дои : 10,1109 / CCGRID.2002.1017101 . ISBN 0-7695-1582-7.
- ^ «Премия TeraGrid за 150 миллионов долларов знаменует новую эру научных вычислений» . Пресс-релиз . Национальный фонд науки. 17 августа 2005 . Проверено 23 сентября 2011 года .
- ^ Энн Циммерман; Томас А. Финхольт (август 2008 г.). Отчет об оценочном исследовании TeraGrid, часть 1: результаты проекта (PDF) . Национальный научный фонд . Проверено 23 сентября 2011 года .
- ^ Национальный научный совет (26 мая 2011 г.). «Сводный отчет встречи 10-11 мая 2011 г.» (PDF) . Проверено 23 сентября 2011 года .
- ^ а б «Проект XSEDE предоставляет передовую киберинфраструктуру, цифровые услуги и опыт национальным ученым и инженерам» . Пресс-релиз . Национальный фонд науки. 25 июля 2011 . Проверено 23 сентября 2011 года .
- ^ "Big Red в IU" . rt.uits.iu.edu . Проверено 9 фев 2015 .
- ^ «LONI получает финансирование для исследования TeraGrid» (PDF) . Пресс-релиз . Государственный университет Луизианы. 9 сентября 2009 года Архивировано из оригинального (PDF) 26 июля 2011 года . Проверено 23 сентября 2011 года .
- ^ S. Matsuokaet et al. (Март 2005 г.). «Японский исследовательский проект вычислительной сети: НАРЕГИ». Труды IEEE . 93 (3): 522–533. DOI : 10.1109 / JPROC.2004.842748 .CS1 maint: использует параметр авторов ( ссылка )
Внешние ссылки
- Сайт TeraGrid
- «Архитектура TeraGrid» . Форум TeraGrid . 20 декабря, 2007. Архивировано из оригинала на 24 января 2009 года . Проверено 23 сентября 2011 года .