Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

ISRA VISION PARSYTEC AG - это компания ISRA VISION AG, основанная в 1985 году как Parsytec (PARallel SYstem TEChnology) в Ахене , Германия.

Parsytec стала известна в конце 1980-х - начале 1990-х годов как производитель параллельных систем на базе транспьютеров . Продукты варьировались от одной сменной платы транспьютеров для IBM PC до больших массивно-параллельных систем с тысячами транспьютеров (или процессоров, соответственно), таких как Parsytec GC. В некоторых источниках последние называют масштабируемыми мультикомпьютерами размера ультракомпьютера (SMC) . [1] [2]

Как часть ISRA VISION AG, сегодня компания специализируется на решениях в области машинного зрения и промышленной обработки изображений. Продукция ISRA Parsytec используется для контроля качества и поверхности, особенно в металлургической и бумажной промышленности.

История [ править ]

Штаб-квартира Parsytec в Ахене, Германия.

В 1985 году компания Parsytec была основана Фальк-Дитрихом Кюблером, Герхардом Х. Пейзе и Берндом Вольфом в Аахене , Германия, на грант в 800000 немецких марок Федерального министерства исследований и технологий (BMFT) . [3]

В отличие от SUPRENUM , Parsytec непосредственно нацелила свои системы ( распознавание образов ) на промышленные приложения, такие как контроль поверхности. Таким образом, они не только занимали значительную долю рынка в европейских академических кругах, но и смогли привлечь многих промышленных клиентов. Среди них много клиентов за пределами Германии . В 1988 году экспорт составлял примерно треть оборота Parsytec. Цифры оборота были: ноль в 1985 году, 1,5 миллиона марок в 1986 году, 5,2 миллиона марок в 1988 году, 9 миллионов марок в 1989 году и 15 миллионов марок в 1990 году, 17 миллионов долларов США в 1991 году.

Чтобы сосредоточить внимание Parsytec на исследованиях и разработках, была основана компания ParaCom. ParaCom, таким образом, позаботился о продажах и маркетинге бизнеса. Штаб-квартира Parsytec / ParaCom находилась в Аахене (Германия), однако у них были дочерние офисы продаж в Хемнице (Германия), Саутгемптоне (Великобритания), Чикаго (США), Санкт-Петербурге (Россия) и Москве (Россия). [4] В Японии машины продавались компанией Matsushita . [3]

Между 1988 и 1994 годами Parsytec построила впечатляющую линейку компьютеров на базе транспьютеров , пиком которой стал «Parsytec GC» (GigaCluster), который был доступен в версиях с использованием от 64 до 16384 транспьютеров . [5]

Parsytec провела IPO в середине 1999 года на Немецкой фондовой бирже во Франкфурте .

30 апреля 2006 г. основатель Falk-D. Кюблер покинул компанию. [6]

В июле 2007 года [7] 52,6% [8] акций Parsytec AG были приобретены ISRA VISION AG. Удаление акций Parsytec с фондовой биржи началось в декабре того же года. А с 18 апреля 2008 года акции Parsytec больше не котируются на фондовой бирже. [9]

В то время как в начале 1990-х штат сотрудников Parsytec составлял около 130 человек, в 2012-2013 годах в ISRA VISION Group работало более 500 человек. [10]

Сегодня основной деятельностью ISRA Parsytec в составе ISRA VISION Group является разработка и распространение систем контроля поверхности для полосовой продукции в металлургической и бумажной промышленности.

Продукты / Компьютеры [ править ]

Ассортимент продукции Парсайтек включает:

  • Megaframe ( T414 / T800 ) - по одной на плату, до десяти плат в стойке или в качестве сменных плат
  • MultiCluster ( T800 ) --- до 64 процессоров в одной стойке
  • SuperCluster ( T800 ) --- от 16 до 1024 процессоров в одном кадре
  • GigaCluster (планируется: T9000 ; реализовано: T800 или MPC 601 ) --- от 64 до 16384 процессоров в «кубах»
  • x'plorer ( T800 или MPC 601 )
  • Когнитивный компьютер ( MPC 604 и Intel Pentium Pro )
  • Powermouse ( MPC 604 )

Всего было отгружено около 700 автономных систем (SC и GC).

В начале Parsytec участвовал в GPMIMD (General Purpose MIMD ) [11] проект под эгидой ESPRIT [12] проекта, как финансируется Европейской комиссии «с Дирекцией по науке . Однако после существенных разногласий с другими участниками, Meiko , Parsys, Inmos и Telmat, относительно выбора общей физической архитектуры, Parsytec покинула проект и анонсировала собственную машину на базе T9000 , то есть GC. Но из-за проблем Inmos с T9000 они были вынуждены перейти на ансамбль процессоров Motorola MPC 601 и Inmos.Т805 . Это привело к тому, что «гибридные» системы Parsytec (например, GC / PP) превратили транспьютеры в коммуникационные процессоры, в то время как вычислительная работа была перенесена на PowerPC .

Кластерные системы Parsytec управлялись внешней рабочей станцией, обычно рабочей станцией SUN (например, Sun-4 [13] ).

Существует значительная путаница в названиях продуктов Parsytec. С одной стороны, это связано с архитектурой, но с другой - с вышеупомянутой недоступностью Inmos T9000, которая вынудила Parsytec использовать вместо этого T805 и PowerPC . Системы, оснащенные процессорами PowerPC , имели приставку Power.

Что касается архитектуры систем GC, весь GigaCluster состоит из автономных GigaCubes. Основным архитектурным элементом системы Parsytec был кластер, состоящий, в частности, из четырех транспьютеров / процессоров (т.е. кластер - это узел в классическом смысле).

GigaCube (иногда упоминается как supernode / meganode [14] ) состоял из четырех кластеров (узлы) с 16 Inmos T805 транспьютеров (30 МГц), ОЗУ (до 4 МБ на T805 ), плюс еще избыточные T805 (дополнительный, таким образом, 17-й процессор), локальные соединения и четыре микросхемы маршрутизации Inmos C004. Отказоустойчивость оборудования обеспечивалась подключением каждого из T805 к другому C004. [15] Необычное написание x'plorer привело к появлению xPlorer, а Gigacluster иногда называют Gigacube или Grand Challenge.

Мегафрейм [ править ]

Megaframe [16] [17] - это название продукта семейства модулей параллельной обработки на базе транспьютеров. [18] Некоторые из них могут быть использованы для обновления IBM PC . [19] Как автономная система, система Megaframe может содержать до десяти процессорных модулей. Доступны разные версии модулей, например, с 32-разрядным транспьютером T414 , аппаратным обеспечением с плавающей запятой Motorola 68881 , 1 МБ (время доступа 80 наносекунд) ОЗУ и пропускной способностью 10 MIPS или с четырьмя 16 -разрядными операциями в секунду. бит транспьютеры T22xс 64 КБ ОЗУ. Также были предложены карты со специальными функциями, такими как графический процессор с разрешением 1280 x 1024 пикселей или «кластер» ввода-вывода с терминалом и интерфейсом SCSI . [20]

Мультикластер [ править ]

Серия MultiCluster-1 представляла собой статически конфигурируемые системы и могла быть адаптирована к конкретным требованиям пользователя, таким как количество процессоров, объем памяти и конфигурация ввода-вывода, а также топология системы. Требуемая топология процессора может быть настроена с помощью соединения UniLink; подается через специальную заднюю панель. Кроме того, были предусмотрены четыре внешних розетки.

Multicluster-2 использовал блоки конфигурации сети (NCU), которые обеспечивали гибкие, динамически конфигурируемые межсетевые соединения. Многопользовательская среда может поддерживать до восьми пользователей с помощью программного обеспечения с несколькими виртуальными архитектурами Parsytec. Конструкция NCU была основана на перекрестном переключателе Inmos C004, который обеспечивает полное подключение кросс-панели для 16 транспьютеров. Каждый NCU, состоящий из C004s, подключал до 96 UniLinks, которые связывают внутренние, а также внешние транспьютеры и другие подсистемы ввода / вывода. MultiCluster-2 предоставлял возможность конфигурировать различные фиксированные топологии межсоединений, такие как древовидные или ячеистые структуры.[14]

SuperCluster [ править ]

SuperCluster (рисунок) имел иерархическую структуру, основанную на кластерах. Базовым блоком был полностью подключенный кластер T800 с 16 транспьютерами ; в более крупных системах были дополнительные уровни NCU для создания необходимых соединений. Программное обеспечение Network Configuration Manager (NCM) управляло NCU и динамически устанавливало необходимые соединения. Каждый транспьютер может быть оснащен динамической оперативной памятью от 1 до 32 МБ с функцией исправления одиночных ошибок и обнаружения двойных ошибок. [14]

GigaCluster [ править ]

GigaCluster (ГХ) был параллельный компьютер , который был произведен в начале 1990 - х. Гигакластер состоял из гигакубов. [21]

Будучи разработан для Inmos T9000 - транспьютеров , он никогда не может быть запущен как таковой, так как Inmos T9000 транспьютеров сам никогда не делал его на рынок в хорошее время. Это привело к разработке GC / PP (PowerPlus), в котором два Motorola MPC 601 (80 МГц) использовались в качестве выделенных ЦП, поддерживаемых четырьмя транспютерами T805 (30 МГц) [22]

В то время как GC / PP была гибридной системой, GC el («начальный уровень») была основана только на T805 . [23] [24] GC el должен был быть модернизирован до транспьютеров T9000 (если они появятся достаточно рано), таким образом, он станет полноценным GC. Поскольку T9000 был эволюционным преемником Inmos для T800 , обновление планировалось сделать простым и понятным, потому что, во-первых, оба транспьютера использовали один и тот же набор инструкций, а, во-вторых, у них также было довольно похожее соотношение производительности вычислительной мощности к пропускной способности связи. Таким образом, теоретический коэффициент ускорения 10 ожидался [21], но в итоге он так и не был достигнут.

Сетевая структура GC представляла собой двумерную решетку со скоростью обмена данными между узлами (то есть кластерами на жаргоне Parsytec) 20 Мбит / с. В то время концепция GC была исключительно модульной и, следовательно, масштабируемой.

Так называемый GigaCube был модулем, который уже был системой на один гигафлоп; кроме того, это был строительный блок для более крупных систем. Модуль (т. Е. Куб на жаргоне Parsytec) содержал

  • четыре кластера

из которых каждый был оснащен

  • 16 транспьютеров (плюс еще один транспьютер для резервирования, что составляет 17 транспьютеров на кластер),
  • 4 микросхемы маршрутизации червоточин ( C104 для запланированного T9000 и C004 с реализованным T805 ),
  • выделенный источник питания и коммуникационные порты.

Комбинируя модули (или кубы соответственно), можно теоретически подключить до 16384 процессоров в очень мощную систему.

Типичные установки были:

Две самые большие установки ГХ, которые были фактически отгружены, имели 1024 процессора (16 модулей, по 64 транспьютера на модуль) и эксплуатировались в центрах обработки данных университетов Кельна и Падерборна. В октябре 2004 года последний был передан Форуму музеев Хайнца Никсдорфа [25], где сейчас не работает.

Энергопотребление системы с 1024 процессорами составляло примерно 27 кВт, вес - почти тонну. В 1992 году система стоила около 1,5 млн немецких марок . В то время как меньшие версии до GC-3 имели воздушное охлаждение, водяное охлаждение было обязательным для более крупных систем.

В 1992 году ГХ с 1024 процессорами попал в список TOP500 [26] самых быстрых суперкомпьютеров в мире. Только в Германии он был 22-м среди самых быстрых компьютеров.

В 1995 году девять компьютеров Parsytec входили в список Top500, из которых две установки GC / PP 192 занимали 117 и 188 места в списке TOP500. [27]

А в 1996 году они по-прежнему занимали 230 и 231 места в списке TOP500. [28] [29]

x'plorer [ править ]

Parsytec x'plorer с Sun Sparcstation в качестве интерфейса

Модель x'plorer выпускалась в двух версиях: в первоначальной версии было 16 транспьютеров , каждый из которых имел доступ к 4 МБ ОЗУ и назывался просто x'plorer. Позже, когда Parsytec вообще перешла на архитектуру PPC , она получила название POWERx'plorer и включала 8 процессоров MPC 601 . Обе модели поставлялись в одном и том же великолепном настольном корпусе (разработанный Via 4 Design [30] ).

В любой модели x'plorer был более или менее единым «кусочком» - Parsytec назвал их кластером (изображение) - GigaCube (PPC или Transputer), который использовал 4 из этих кластеров в своей самой маленькой версии (GC-1). . Таким образом, некоторые называют это «GC-0.25». [31]

POWERx'plorer был основан на 8 блоках обработки, расположенных в 2D-сетке. Каждый процессор имел

  1. один процессор MPC 601 с тактовой частотой 80 МГц ,
  2. 8 МБ локальной памяти и
  3. транспьютер для установления и поддержания коммуникационных каналов. [32]

Когнитивный компьютер [ править ]

Parsytec CC (Когнитивный компьютер) (изображение) система [33] [34] была автономная единицей на уровне карт стойки. Подсистема стойки для карт CC обеспечила систему инфраструктурой, включая источник питания и охлаждение. Система может быть сконфигурирована как стандартное устройство для монтажа в 19 стойку, в которое можно установить различные сменные модули 6U.

Система CC [35] представляла собой параллельный компьютер с распределенной памятью и передачей сообщений, который во всем мире классифицируется в категорию параллельных компьютеров MIMD . Доступны две разные версии

  • CCe: на базе процессора Motorola MPC 604 , работающего на частоте 133 МГц, с кэш-памятью L2 512 КБ. Модули были соединены вместе со скоростью 1 Гбит / с с помощью технологии высокоскоростного соединения (HS) в соответствии со стандартом IEEE 1355 , что позволяет передавать данные со скоростью до 75 МБ / с. Коммуникационный контроллер был интегрирован в процессорные узлы через шину PCI . На системной плате используется микросхема MPC 105 для управления памятью, обновления DRAM и декодирования памяти для банков DRAM и / или Flash. Частота шины [CPU] ограничена 66 МГц, тогда как скорость шины PCI составляет максимум 33 МГц.
  • CCi: на базе Intel Pentium Pro ее основные элементы были двойная Pentium Pro основанной платы (на 266 МГц) , которые соединены между собой с помощью несколько высокоскоростных сетей. Каждая сдвоенная материнская плата имела 128 Мбайт памяти. Каждый узел имел максимальную производительность 200 MFLOPS. Спектр продукции включает однопроцессорные или SMP-платы до 144 узлов, большое количество PCI-карт, а также различные коммуникационные решения (Gigabit HS-Link, Myrinet, SCI, ATM или Fast-Ethernet). Операционными системами были Windows NT 4.0 и ParsyFRame (среда UNIX была необязательной). [36]

Во всех CC-системах узлы были напрямую подключены к одному и тому же маршрутизатору, на котором реализован активный аппаратный коммутатор 8 на 8, обеспечивающий до 8 подключений с использованием высокоскоростного канала со скоростью 40 МБ / с.

Для того, что касается CCE, программное обеспечение было основано на IBM «s AIX 4.1 операционной системы UNIX вместе с параллельной среды программирования Embedded PARIX Parsytec в (EPX). [37] Таким образом, он объединил стандартную среду UNIX (компиляторы, инструменты, библиотеки) с продвинутой средой разработки программного обеспечения. Система была интегрирована в локальную сеть с использованием стандартного Ethernet. Таким образом, узел CC имел пиковую производительность 266 MFlops. Таким образом, пиковая производительность 8-узловой системы CC, установленной в университетской больнице Женевы, составила 2,1 Гфлопс. [38]

Powermouse [ править ]

Powermouse - еще одна масштабируемая система, состоящая из модулей и отдельных компонентов. Это было прямое расширение системы x'plorer. [36] Каждый модуль (размеры: 9 см x 21 см x 45 см) содержал четыре процессора MPC 604 (200/300 МГц) и 64 МБ ОЗУ, достигая максимальной производительности 2,4 Гфлоп / с. Отдельный коммуникационный процессор T425 ), оснащенный 4 МБ ОЗУ [39], управлял потоком данных в четырех направлениях к другим модулям в системе. Пропускная способность одного узла составила 9 МБ / с.

Приблизительно для 35000 DM базовая система, состоящая из 16 процессоров (т. Е. Четырех модулей), может обеспечить общую вычислительную мощность 9,6 Гфлоп / с. Как и для всех продуктов Parsytec, Powermouse требовала Sun Sparcstation в качестве интерфейса.

Все программное обеспечение ( PARIX с компиляторами и отладчиками C ++ и Fortran 77 (альтернативно предоставляющими MPI или PVM в качестве пользовательских интерфейсов) было включено. [40]

Операционная система [ править ]

Операционная система была использована PARIX (Parallel расширений UNIX) [41] (PARIX Т8 для T80x транспьютеров и PARIX Т9 для T9000 транспьютеров , соответственно). Основанный на UNIX , PARIX [42] поддерживал удаленные вызовы процедур , он был совместим со стандартом POSIX . PARIX предоставляет функциональные возможности UNIX во внешнем интерфейсе (например, Sun SPARCstationкоторый нужно было приобретать отдельно) с расширениями библиотеки для нужд параллельной системы в бэкэнде, который был в точности самим продуктом Parsytec (он был подключен к переднему краю, с помощью которого он работал). Программный пакет Parix включает компоненты для среды разработки программ (компиляторы, инструменты и т. Д.) И среды выполнения (библиотеки). PARIX предлагал разные типы синхронной и асинхронной связи.

Кроме того, Parsytec предоставила среду параллельного программирования под названием Embedded PARIX (EPX). [37]

Для разработки параллельных приложений с использованием EPX потоки данных и функциональные задачи были распределены по сети узлов. Для обработки данных между процессорами потребовалось всего несколько системных вызовов. Были доступны стандартные процедуры для синхронной связи, такие как отправка и получение, а также асинхронные системные вызовы. Полный набор вызовов EPX устанавливает интерфейс прикладного программирования EPX ( API ). Пункт назначения для любой передачи сообщений был определен через виртуальный канал, который завершался любым пользовательским процессом. Виртуальные каналы определялись пользователем и управлялись EPX. Фактическое программное обеспечение системы доставки сообщений использовало маршрутизатор. [38] Кроме того, можно также запустить COSY (Concurrent Operating SYstem) [43] и Helios.на машинах. Helios поддерживает специальный механизм сброса Parsytec из коробки.

См. Также [ править ]

  • ИНМОС
  • SUPRENUM
  • Meiko Scientific
  • Корпорация Thinking Machines

Ссылки [ править ]

  1. ^ Массивно параллельные компьютеры: почему не параллельные компьютеры для масс? Дж. Белл на microsoft.com
  2. ^ Методы релаксации линий с переменным направлением на мультикомпьютерах J. Hofhaus и др., SIAM J. ScI. ВЫЧИСЛИТЬ. Vol. 17, No. 2, pp. 454-478, март 1996 г.
  3. ^ a b Duell der Zahlenfresser на zeit.de (немецкий)
  4. ^ Parsytec GmbH на new-npac.org
  5. ^ Parsytec Статья в GeekDot.com
  6. ^ Годовой отчет по счетам за 2006 г. [ постоянная мертвая ссылка ] на parsytec.de
  7. ^ ISRA Vision übernimmt Parsytec 23 июля 2007 г., finanznachrichten.de (немецкий)
  8. ^ ISRA VISION AG - Erwerb der Mehrheit an der Parsytec AG 24 июля 2007 г., equinet-ag.de (немецкий)
  9. ^ Связи с инвесторами в ISRA на parsytec.de
  10. ^ Годовой отчет 2012/2013 5 мая 2014 г., isravision.com
  11. ^ Универсальные машины MIMD на cordis.europa.eu
  12. ^ Европейская программа (EEC) для исследований и разработок в области информационных технологий (ESPRIT), 1984-1988
  13. ^ Структура для характеристики параллельных систем для оценки производительности Efstathios Papaefstathiou (1995)
  14. ^ a b c Информационный бюллетень ЕСН 92-08 на dtic.mil
  15. ^ Решения Hypecube для сопряженных направлений, JE Hartman (1991) на dtic.mil
  16. ^ MEGAFRAME TPM-1 - Аппаратная документация, вер. 1.2 (1987) на classiccmp.org
  17. ^ MEGAFRAME MTM-2 - Аппаратная документация, вер. 1.3 (1987) на classiccmp.org
  18. ↑ MEGAFRAME Familie. Архивировано 10 февраля 2013 г. в Archive.today, май 1987 г., на сайте computerwoche.de (немецкий)
  19. ^ Ram Meenakshisundaram в Transputer Главная страница в classiccmp.org
  20. ^ Transputersystem ist frei konfigurierbar Архивировано 2 апреля 2008 г. на Wayback Machine, март 1987 г., на сайте computerwoche.de (немецкий)
  21. ^ Б Gigacube Статья в GeekDot.com
  22. ^ The Parsytec Power Plus на netlib.org
  23. ^ Programmierung und Anwendung der Parallelrechnersysteme Parsytec SC и Parsytec GC / PP [ постоянное мертвое звено ] Б. Хейминг, 1996, Технический университет Гамбург-Харбург (немецкий)
  24. ^ Синтез массивных систем параллельного моделирования для оценки коммутационной активности в конечных автоматах [ постоянное мертвое звено ] В. Бахманн и др., Дармштадтский технологический университет
  25. ^ Домашняя страница музейного форума Хайнца Никсдорфа
  26. ^ http://www.top500.org Список TOP500
  27. ^ Список Top500 1996
  28. ^ Лекционные заметки по прикладным параллельным вычислениям, заархивированные 16 августа 2010 г. на Wayback Machine на ocw.mit.edu
  29. ^ Viel hilft viel: Die neuen Supercomputer haben Billigprozessoren wie der PC nebenan - aber zu Tausenden at zeit.de (немецкий)
  30. ^ Интернет-выставка iF - Via 4 Design на ifdesign.de
  31. ^ X'plorer Статья в GeekDot.com
  32. ^ Экспериментальное исследование разделения времени и пространства на PowerXplorer С. Бани-Ахмад, Журнал повсеместных вычислений и коммуникаций, том. 3 № 1
  33. ^ Parsytec CC Series (Аппаратная документация), Ред. 1.2 (1996) Parsytec GmbH
  34. ^ Серия Parsytec CC на netlib.org
  35. ^ Target Machines Архивировано 12 августа 2004 г. в Wayback Machine на http://parallel.di.uoa.gr
  36. ^ a b Оборудование для параллельных вычислений. Архивировано 16 июня 2012 г. на Wayback Machine на ssd.sscc.ru.
  37. ^ a b Встроенный Parix Ver. 1.9.2, Программная документация (1996)
  38. ^ a b Реализация среды для моделирования методом Монте-Карло полностью трехмерной позитронной томографии на высокопроизводительной параллельной платформе H. Zaidi, Parallel Computing, Vol. 24 (1998), стр. 1523-1536
  39. ^ Parsytec питания мыши Система в CSA архивной 2013-04-16 в Archive.today 15 декабря 1998 в csa.ru
  40. ^ Parsytec Liefert Baukasten für Parallelrechner архивной 2013-02-10 в Archive.today сен 19, 1997 в comuterwoche.de (немецкий)
  41. ^ Документация к программному обеспечению PARIX версии 1.2, март 1993 г.
  42. ^ Parix на http://www.informatik.uni-osnabrueck.de
  43. ^ COSY - ein Betriebssystem für hochparallele Computer Р. Бутенут на uni-paderborn.de (немецкий)

Внешние ссылки [ править ]

  • Домашняя страница ISRA VISION PARSYTEC AG
  • Домашняя страница Transputer Рама Минакшисундарама на classiccmp.org
  • 16384 Prozessoren giveen 400 Gflops Transputer-Superrechner von Parsytec als neuer Weltmeister Статья на сайте computerwoche.de (немецкий)
  • Zur Strategie von Parsytec Kuebler: "In zehn Jahren rechnen die meisten Computer parallel" 1 октября 1993 г., на сайте computerwoche.de (немецкий)
  • Проект FTMPS: разработка и реализация методов отказоустойчивости для массивно-параллельных систем [ постоянная мертвая связь ] J. Vounckx et al.
  • Домашняя страница Via 4 Design