Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Intel Персональный суперкомпьютер ( Intel IPSC ) была продуктовая линейка параллельных компьютеров в 1980 - х и 1990 - х годов. IPSC / 1 был заменен Intel iPSC / 2 , а затем Intel iPSC / 860.

Топология четырехмерного гиперкуба

iPSC / 1 [ редактировать ]

В 1984 году Джастин Раттнер стал менеджером группы Intel Scientific Computers в Бивертоне, штат Орегон . Он нанял команду, в которую входил математик Клив Молер . [1] В iPSC использовался гиперкуб соединений между процессорами, созданный на основе исследовательского проекта Caltech Cosmic Cube . По этой причине он был сконфигурирован с нумерацией узлов в степени двойки, которые соответствуют углам гиперкубов увеличивающейся размерности. [2]

Intel iPSC-1 (1985) в Музее истории компьютеров . (Смотрите также другое фото )

Intel анонсировала iPSC / 1 в 1985 году с 32–128 узлами, соединенными через Ethernet в гиперкуб. Системой управлял персональный компьютер эпохи PC / AT, работающий под управлением Xenix , «менеджера кубов». [3] Каждый узел имел ЦП 80286 с математическим сопроцессором 80287 , 512 КБ ОЗУ и восемь портов Ethernet (семь для межсоединения гиперкуба и один для взаимодействия с диспетчером куба). [1]

Интерфейс передачи сообщений под названием NX, который был разработан Полом Пирсом, развивался на протяжении всей жизни линейки iPSC. [4] Поскольку только менеджер куба имел связь с внешним миром, разработка и отладка приложений были трудными. [5]

Базовыми моделями были iPSC / d5 (пятимерный гиперкуб с 32 узлами), iPSC / d6 (шесть измерений с 64 узлами) и iPSC / d7 (семь измерений со 128 узлами). В каждом шкафу было 32 узла, а цена модели iPSC / d7 с четырьмя шкафами составляла около полумиллиона долларов. [1] Также были доступны модели с дополнительной памятью (iPSC-MX) и векторным процессором (iPSC-VX) трех размеров. Также был доступен четырехмерный гиперкуб (iPSC / d4) с 16 узлами. [6]

iPSC / 1 был назван первым параллельным компьютером, построенным из готовых коммерческих компонентов. [7] Это позволило ему выйти на рынок примерно в то же время, что и его конкурент из nCUBE , хотя проект nCUBE стартовал раньше. Каждый шкаф ИПСК был (в целом) 127 см x 41 см x 43 см. Общая производительность компьютера оценивается в 2 M FLOPS . Ширина памяти была 16 бит.

Серийный номер 1 iPSC / 1 с 32 узлами был доставлен в Национальную лабораторию Ок-Ридж в 1985 г. [8] [9]

iPSC / 2 [ править ]

16-узловой параллельный компьютер Intel iPSC / 2. 22 августа 1995 г.

Intel iPSC / 2 был анонсирован в 1987 году. Он был доступен в нескольких конфигурациях, базовая установка представляла собой один шкаф с 16 процессорами Intel 80386 с частотой 16 МГц, каждый с 4 МБ памяти и сопроцессором 80387 на одном модуле. [10] Операционная система и пользовательские программы были загружены с управляющего компьютера. Этим ПК обычно был Intel 301 со специальной интерфейсной картой. Вместо Ethernet для соединения гиперкубов использовался специальный модуль прямого подключения с восемью каналами со скоростью передачи данных около 2,8 Мбайт / с каждый. [10] Специальное оборудование для межкомпонентных соединений приводит к более высокой стоимости, но снижает задержки связи. [11]Программное обеспечение в процессоре управления называлось System Resource Manager вместо «cube manager». Система допускает расширение до 128 узлов, каждый с процессором и сопроцессором. [12]

Базовые модули можно обновить до версии SX (Scalar eXtension), добавив модуль с плавающей запятой Weitek 1167 . [13] Другая конфигурация позволяла соединять каждый процессорный модуль с модулем VX (Vector eXtension) с выделенными модулями умножения и сложения. Обратной стороной этого является уменьшение вдвое количества доступных слотов интерфейсных плат. Наличие нескольких шкафов как части одной системы iPSC / 2 необходимо для работы максимального количества узлов и возможности их подключения к модулям VX. [14]

На узлах iPSC / 2 работала собственная операционная система NX / 2, а на хост-машине - System V или Xenix . [15] Узлы могут быть настроены как iPSC / 1 без локального дискового хранилища или использовать одно из соединений модуля Direct-Connect с кластерной файловой системой (в то время называемой параллельной файловой системой). [14] [16] Использование как более быстрых узловых вычислительных элементов, так и системы межсоединений улучшило производительность приложений по сравнению с iPSC / 1. [17] [18] Было построено 140 систем iPSC / 2. [19]

iPSC / 860 [ править ]

Передняя панель 32-узлового параллельного компьютера Intel iPSC / 860 при запущенном механизме параллельной трассировки лучей Tachyon . 22 августа 1995 г.

Intel анонсировала iPSC / 860 в 1990 году. IPSC / 860 состоял из до 128 обрабатывающих элементов, соединенных в гиперкуб, каждый элемент состоял из Intel i860 на 40–50 МГц или микропроцессора Intel 80386 . [20] Объем памяти на узел был увеличен до 8 МБ и использовался аналогичный модуль прямого подключения, который ограничивал размер до 128 узлов. [21]

32-узловой параллельный компьютер Intel iPSC / 860 с открытой передней дверью, показывающий вычислительные узлы, узлы ввода-вывода и платы управления системой. 22 августа 1995 г.

Одним из заказчиков была Национальная лаборатория Окриджа . [20] Производительность iPSC / 860 анализировалась в нескольких исследовательских проектах. [22] [23] iPSC / 860 был также исходной платформой для разработки механизма параллельной трассировки лучей Tachyon [24] [25], который стал частью теста SPEC MPI 2007 и до сих пор широко используется. [26] Линия iPSC была заменена исследовательским проектом Touchstone Delta в Калифорнийском технологическом институте, который превратился в Intel Paragon .

Ссылки [ править ]

  1. ^ a b c Клив Молер (28 октября 2013 г.). «Intel Hypercube, часть 1» . Проверено 4 ноября 2013 года .
  2. ^ «Персональный суперкомпьютер» . Музей истории компьютеров . Проверено 4 ноября 2013 года .
  3. ^ Пол Р. Пирс. «Intel iPSC / 1» . Архивировано из оригинала на 3 июня 2013 года . Проверено 4 ноября 2013 года .
  4. Пол Пирс (апрель 1994). «Интерфейс передачи сообщений NX». Параллельные вычисления . 20 (4): 1285–1302. DOI : 10.1016 / 0167-8191 (94) 90023-X .
  5. ^ Мартин Дж. Шедлбауэр (1989). «Система управления вводом-выводом для гиперкуба iPSC / 1». Труды 17 - й конференции по ACM ежегодной компьютерной научной конференции : 400 DOI : 10,1145 / +75427,1030220 (неактивный 2021-01-11).CS1 maint: использует параметр авторов ( ссылка ) CS1 maint: DOI неактивен с января 2021 года ( ссылка )
  6. ^ http://delivery.acm.org/10.1145/70000/63074/p1207-orcutt.pdf [ мертвая ссылка ]
  7. ^ Пол Р. Пирс. «Другие артефакты в коллекции» . Архивировано из оригинала на 3 июня 2013 года . Проверено 4 ноября 2013 года .
  8. ^ Бетси А. Райли. «История ORNL HPCC (подробности графика)» .
  9. ^ «История суперкомпьютеров» .
  10. ^ a b "Intel iPSC / 2 (Rubik)" . Компьютерный музей . Katholieke Universiteit Leuven . Проверено 4 ноября 2013 года .
  11. ^ Филип Дж. Хэтчер и Майкл Джей Куинн (1991). Параллельное программирование данных на MIMD-компьютерах . MIT Press. п. 7. ISBN 9780262082051.CS1 maint: использует параметр авторов ( ссылка )
  12. ^ П. Пал Chauddhuri (2008). Компьютерная организация и дизайн . PHI Learning. п. 826. ISBN 9788120335110.
  13. ^ Si. Пи Равикумар (1996). Параллельные методы проектирования топологии СБИС . Издательская группа «Гринвуд». п. 183. ISBN. 9780893918286.
  14. ^ a b Джек Донгарра и Иэн С. Дафф (1991). «Компьютеры с передовой архитектурой» . В Ходжат Адели (ред.). Суперкомпьютерные вычисления в инженерном анализе . CRC Press. С. 51–54. ISBN 9780893918286.CS1 maint: использует параметр авторов ( ссылка )
  15. ^ Пол Пирс (1988). «Операционная система NX / 2». Материалы третьей конференции по параллельным компьютерам и приложениям Hypercube Архитектура, программное обеспечение, компьютерные системы и общие вопросы - . Труды Третьей конференции по параллельным компьютерам и приложениям Hypercube . C 3 P. 1 . ACM. С. 384–390. DOI : 10.1145 / 62297.62341 . ISBN 978-0-89791-278-5. S2CID  45688408 .
  16. ^ Джеймс К. Френч, Терренс В. Пратт и Мриганка Дас (май 1991 г.). «Измерение производительности системы параллельного ввода / вывода для Intel iPSC / 2 Hypercube». Материалы конференции ACM SIGMETRICS по измерению и моделированию компьютерных систем 1991 г. - SIGMETRICS '91 . Труды конференции ACM SIGMETRICS 1991 года по измерению и моделированию компьютерных систем . ACM. С. 178–187. DOI : 10.1145 / 107971.107990 . ISBN 978-0-89791-392-8. S2CID  13899933 .CS1 maint: использует параметр авторов ( ссылка )
  17. ^ С. Арши, Р. Асбери, Дж. Бранденбург и Д. Скотт (1988). «Повышение производительности приложений на компьютере iPSC / 2». Материалы третьей конференции по параллельным компьютерам и приложениям Hypercube Архитектура, программное обеспечение, компьютерные системы и общие вопросы - . Труды Третьей конференции по параллельным компьютерам и приложениям Hypercube . 1 . ACM. С. 149–154. DOI : 10.1145 / 62297.62316 . ISBN 978-0-89791-278-5. S2CID  46148117 .CS1 maint: использует параметр авторов ( ссылка )
  18. ^ Люк Bomans и Дирк Руз (сентябрь 1989). «Тестирование мультипроцессора гиперкуба iPSC / 2». Параллелизм: практика и опыт . 1 (1): 3–18. DOI : 10.1002 / cpe.4330010103 .CS1 maint: использует параметр авторов ( ссылка )
  19. Гилберт Калб; Роберт Моксли, ред. (1992). «Коммерчески доступные системы» . Массовые параллельные, оптические и нейронные вычисления в США . IOS Press. С. 17–18. ISBN 9781611971507.
  20. ^ а б Сиддхартхан Рамачандрамурти (1996). «Руководство по iPSC / 860» . Образовательный проект по вычислительным наукам в Ок-Риджской национальной лаборатории . Проверено 4 ноября 2013 года .
  21. ^ В. Venkatakrishnan (1991). «Параллельные неявные методы для аэродинамических приложений на неструктурированных сетках» . У Дэвида Э. Киза; Ю. Саад; Дональд Г. Трухлар (ред.). Параллелизм на основе предметной области и методы декомпозиции задач в вычислительной науке и технике . СИАМ. п. 66. ISBN 9781611971507.
  22. ^ Рудольф Berrendorf и Юкка Хэлинь (май 1992). «Оценка базовой производительности параллельного компьютера Intel iPSC / 860». Параллелизм: практика и опыт . 4 (3): 223–240. DOI : 10.1002 / cpe.4330040303 .CS1 maint: использует параметр авторов ( ссылка )
  23. ^ TH Dunigan (декабрь 1991). «Производительность гиперкубов Intel iPSC / 860 и Ncube 6400» . Параллельные вычисления . 17 (10–11): 1285–1302. DOI : 10.1016 / S0167-8191 (05) 80039-0 .
  24. ^ Stone, J .; Андервуд, М. (1996-07-01). Визуализация численного моделирования потоков с использованием MPI . Конференция разработчиков MPI, 1996. Труды, второе . С. 138–141. CiteSeerX 10.1.1.27.4822 . DOI : 10.1109 / MPIDC.1996.534105 . ISBN  978-0-8186-7533-1. S2CID  16846313 .
  25. ^ Стоун, Джон Э. (январь 1998 г.). «Эффективная библиотека для параллельной трассировки лучей и анимации» . Магистерские диссертации . Диссертация на степень магистра компьютерных наук, Университет Миссури-Ролла, апрель 1998 г.
  26. ^ Stone, JE; Isralewitz, B .; Шультен, К. (1 августа 2013 г.). Ранний опыт масштабирования задач молекулярной визуализации и анализа VMD в голубой воде . Семинар по экстремальному масштабированию (XSW), 2013 . С. 43–50. CiteSeerX 10.1.1.396.3545 . DOI : 10.1109 / XSW.2013.10 . ISBN  978-1-4799-3691-5. S2CID  16329833 .