Тип бизнеса | Общественные |
---|---|
Доступно в | Немецкий |
Основан | 1985 г. |
Штаб-квартира | , |
Обслуживаемая площадь | Северная Америка , Южная Америка , Европа , Азиатско-Тихоокеанский регион |
Учредитель (и) | Фальк-Дитрих Кюблер, Герхард Пейзе, Бернд Вольф |
Услуги | Системы контроля поверхности |
URL | http://www.parsytec.de |
ISRA VISION PARSYTEC AG - это компания ISRA VISION AG, основанная в 1985 году как Parsytec (PARallel SYstem TEChnology) в Ахене , Германия.
Parsytec стала известна в конце 1980-х - начале 1990-х годов как производитель параллельных систем на базе транспьютеров . Продукты варьировались от одной сменной платы транспьютеров для IBM PC до больших массивно-параллельных систем с тысячами транспьютеров (или процессоров, соответственно), таких как Parsytec GC. В некоторых источниках последние называют масштабируемыми мультикомпьютерами размера ультракомпьютера (SMC) . [1] [2]
Как часть ISRA VISION AG, сегодня компания специализируется на решениях в области машинного зрения и промышленной обработки изображений. Продукция ISRA Parsytec используется для контроля качества и поверхности, особенно в металлургической и бумажной промышленности.
История [ править ]
В 1985 году компания Parsytec была основана Фальк-Дитрихом Кюблером, Герхардом Х. Пейзе и Берндом Вольфом в Аахене , Германия, на грант в 800000 немецких марок Федерального министерства исследований и технологий (BMFT) . [3]
В отличие от SUPRENUM , Parsytec непосредственно нацелила свои системы ( распознавание образов ) на промышленные приложения, такие как контроль поверхности. Таким образом, они не только занимали значительную долю рынка в европейских академических кругах, но и смогли привлечь многих промышленных клиентов. Среди них много клиентов за пределами Германии . В 1988 году экспорт составлял примерно треть оборота Parsytec. Цифры оборота были: ноль в 1985 году, 1,5 миллиона марок в 1986 году, 5,2 миллиона марок в 1988 году, 9 миллионов марок в 1989 году и 15 миллионов марок в 1990 году, 17 миллионов долларов США в 1991 году.
Чтобы сосредоточить внимание Parsytec на исследованиях и разработках, была основана компания ParaCom. ParaCom, таким образом, позаботился о продажах и маркетинге бизнеса. Штаб-квартира Parsytec / ParaCom находилась в Аахене (Германия), однако у них были дочерние офисы продаж в Хемнице (Германия), Саутгемптоне (Великобритания), Чикаго (США), Санкт-Петербурге (Россия) и Москве (Россия). [4] В Японии машины продавались компанией Matsushita . [3]
Между 1988 и 1994 годами Parsytec построила впечатляющую линейку компьютеров на базе транспьютеров , пиком которой стал «Parsytec GC» (GigaCluster), который был доступен в версиях с использованием от 64 до 16384 транспьютеров . [5]
Parsytec провела IPO в середине 1999 года на Немецкой фондовой бирже во Франкфурте .
30 апреля 2006 г. основатель Falk-D. Кюблер покинул компанию. [6]
В июле 2007 года [7] 52,6% [8] акций Parsytec AG были приобретены ISRA VISION AG. Удаление акций Parsytec с фондовой биржи началось в декабре того же года. А с 18 апреля 2008 года акции Parsytec больше не котируются на фондовой бирже. [9]
В то время как в начале 1990-х штат сотрудников Parsytec составлял около 130 человек, в 2012-2013 годах в ISRA VISION Group работало более 500 человек. [10]
Сегодня основной деятельностью ISRA Parsytec в составе ISRA VISION Group является разработка и распространение систем контроля поверхности для полосовой продукции в металлургической и бумажной промышленности.
Продукты / Компьютеры [ править ]
Ассортимент продукции Парсайтек включает:
- Megaframe ( T414 / T800 ) - по одной на плату, до десяти плат в стойке или в качестве сменных плат
- MultiCluster ( T800 ) --- до 64 процессоров в одной стойке
- SuperCluster ( T800 ) --- от 16 до 1024 процессоров в одном кадре
- GigaCluster (планируется: T9000 ; реализовано: T800 или MPC 601 ) --- от 64 до 16384 процессоров в «кубах»
- x'plorer ( T800 или MPC 601 )
- Когнитивный компьютер ( MPC 604 и Intel Pentium Pro )
- Powermouse ( MPC 604 )
Всего было отгружено около 700 автономных систем (SC и GC).
В начале Parsytec участвовал в GPMIMD (General Purpose MIMD ) [11] проект под эгидой ESPRIT [12] проекта, как финансируется Европейской комиссии «с Дирекцией по науке . Однако после существенных разногласий с другими участниками, Meiko , Parsys, Inmos и Telmat, относительно выбора общей физической архитектуры, Parsytec покинула проект и анонсировала собственную машину на базе T9000 , то есть GC. Но из-за проблем Inmos с T9000 они были вынуждены перейти на ансамбль процессоров Motorola MPC 601 и Inmos.Т805 . Это привело к тому, что «гибридные» системы Parsytec (например, GC / PP) превратили транспьютеры в коммуникационные процессоры, в то время как вычислительная работа была перенесена на PowerPC .
Кластерные системы Parsytec управлялись внешней рабочей станцией, обычно рабочей станцией SUN (например, Sun-4 [13] ).
Существует значительная путаница в названиях продуктов Parsytec. С одной стороны, это связано с архитектурой, но с другой - с вышеупомянутой недоступностью Inmos T9000, которая вынудила Parsytec использовать вместо этого T805 и PowerPC . Системы, оснащенные процессорами PowerPC , имели приставку Power.
Что касается архитектуры систем GC, весь GigaCluster состоит из автономных GigaCubes. Основным архитектурным элементом системы Parsytec был кластер, состоящий, в частности, из четырех транспьютеров / процессоров (т.е. кластер - это узел в классическом смысле).
GigaCube (иногда упоминается как supernode / meganode [14] ) состоял из четырех кластеров (узлы) с 16 Inmos T805 транспьютеров (30 МГц), ОЗУ (до 4 МБ на T805 ), плюс еще избыточные T805 (дополнительный, таким образом, 17-й процессор), локальные соединения и четыре микросхемы маршрутизации Inmos C004. Отказоустойчивость оборудования обеспечивалась подключением каждого из T805 к другому C004. [15] Необычное написание x'plorer привело к появлению xPlorer, а Gigacluster иногда называют Gigacube или Grand Challenge.
Мегафрейм [ править ]
Megaframe [16] [17] - это название продукта семейства модулей параллельной обработки на базе транспьютеров. [18] Некоторые из них могут быть использованы для обновления IBM PC . [19] Как автономная система, система Megaframe может содержать до десяти процессорных модулей. Доступны разные версии модулей, например, с 32-разрядным транспьютером T414 , аппаратным обеспечением с плавающей запятой Motorola 68881 , 1 МБ (время доступа 80 наносекунд) ОЗУ и пропускной способностью 10 MIPS или с четырьмя 16 -разрядными операциями в секунду. бит транспьютеры T22xс 64 КБ ОЗУ. Также были предложены карты со специальными функциями, такими как графический процессор с разрешением 1280 x 1024 пикселей или «кластер» ввода-вывода с терминалом и интерфейсом SCSI . [20]
Мультикластер [ править ]
Серия MultiCluster-1 представляла собой статически конфигурируемые системы и могла быть адаптирована к конкретным требованиям пользователя, таким как количество процессоров, объем памяти и конфигурация ввода-вывода, а также топология системы. Требуемая топология процессора может быть настроена с помощью соединения UniLink; подается через специальную заднюю панель. Кроме того, были предусмотрены четыре внешних розетки.
Multicluster-2 использовал блоки конфигурации сети (NCU), которые обеспечивали гибкие, динамически конфигурируемые межсетевые соединения. Многопользовательская среда может поддерживать до восьми пользователей с помощью программного обеспечения с несколькими виртуальными архитектурами Parsytec. Конструкция NCU была основана на перекрестном переключателе Inmos C004, который обеспечивает полное подключение кросс-панели для 16 транспьютеров. Каждый NCU, состоящий из C004s, подключал до 96 UniLinks, которые связывают внутренние, а также внешние транспьютеры и другие подсистемы ввода / вывода. MultiCluster-2 предоставлял возможность конфигурировать различные фиксированные топологии межсоединений, такие как древовидные или ячеистые структуры.[14]
SuperCluster [ править ]
SuperCluster (рисунок) имел иерархическую структуру, основанную на кластерах. Базовым блоком был полностью подключенный кластер T800 с 16 транспьютерами ; в более крупных системах были дополнительные уровни NCU для создания необходимых соединений. Программное обеспечение Network Configuration Manager (NCM) управляло NCU и динамически устанавливало необходимые соединения. Каждый транспьютер может быть оснащен динамической оперативной памятью от 1 до 32 МБ с функцией исправления одиночных ошибок и обнаружения двойных ошибок. [14]
GigaCluster [ править ]
GigaCluster (ГХ) был параллельный компьютер , который был произведен в начале 1990 - х. Гигакластер состоял из гигакубов. [21]
Будучи разработан для Inmos T9000 - транспьютеров , он никогда не может быть запущен как таковой, так как Inmos T9000 транспьютеров сам никогда не делал его на рынок в хорошее время. Это привело к разработке GC / PP (PowerPlus), в котором два Motorola MPC 601 (80 МГц) использовались в качестве выделенных ЦП, поддерживаемых четырьмя транспютерами T805 (30 МГц) [22]
В то время как GC / PP была гибридной системой, GC el («начальный уровень») была основана только на T805 . [23] [24] GC el должен был быть модернизирован до транспьютеров T9000 (если они появятся достаточно рано), таким образом, он станет полноценным GC. Поскольку T9000 был эволюционным преемником Inmos для T800 , обновление планировалось сделать простым и понятным, потому что, во-первых, оба транспьютера использовали один и тот же набор инструкций, а, во-вторых, у них также было довольно похожее соотношение производительности вычислительной мощности к пропускной способности связи. Таким образом, теоретический коэффициент ускорения 10 ожидался [21], но в итоге он так и не был достигнут.
Сетевая структура GC представляла собой двумерную решетку со скоростью обмена данными между узлами (то есть кластерами на жаргоне Parsytec) 20 Мбит / с. В то время концепция GC была исключительно модульной и, следовательно, масштабируемой.
Так называемый GigaCube был модулем, который уже был системой на один гигафлоп; кроме того, это был строительный блок для более крупных систем. Модуль (т. Е. Куб на жаргоне Parsytec) содержал
- четыре кластера
из которых каждый был оснащен
- 16 транспьютеров (плюс еще один транспьютер для резервирования, что составляет 17 транспьютеров на кластер),
- 4 микросхемы маршрутизации червоточин ( C104 для запланированного T9000 и C004 с реализованным T805 ),
- выделенный источник питания и коммуникационные порты.
Комбинируя модули (или кубы соответственно), можно теоретически подключить до 16384 процессоров в очень мощную систему.
Типичные установки были:
Система | Количество процессоров | Количество гигакубов |
---|---|---|
GC-1 | 64 | 1 |
GC-2 | 256 | 4 |
GC-3 | 1024 | 16 |
GC-4 | 4096 | 48 |
GC-5 | 16384 | 256 |
Две самые большие установки ГХ, которые были фактически отгружены, имели 1024 процессора (16 модулей, по 64 транспьютера на модуль) и эксплуатировались в центрах обработки данных университетов Кельна и Падерборна. В октябре 2004 года последний был передан Форуму музеев Хайнца Никсдорфа [25], где сейчас не работает.
Энергопотребление системы с 1024 процессорами составляло примерно 27 кВт, вес - почти тонну. В 1992 году система стоила около 1,5 млн немецких марок . В то время как меньшие версии до GC-3 имели воздушное охлаждение, водяное охлаждение было обязательным для более крупных систем.
В 1992 году ГХ с 1024 процессорами попал в список TOP500 [26] самых быстрых суперкомпьютеров в мире. Только в Германии он был 22-м среди самых быстрых компьютеров.
В 1995 году девять компьютеров Parsytec входили в список Top500, из которых две установки GC / PP 192 занимали 117 и 188 места в списке TOP500. [27]
А в 1996 году они по-прежнему занимали 230 и 231 места в списке TOP500. [28] [29]
x'plorer [ править ]
Модель x'plorer выпускалась в двух версиях: в первоначальной версии было 16 транспьютеров , каждый из которых имел доступ к 4 МБ ОЗУ и назывался просто x'plorer. Позже, когда Parsytec вообще перешла на архитектуру PPC , она получила название POWERx'plorer и включала 8 процессоров MPC 601 . Обе модели поставлялись в одном и том же великолепном настольном корпусе (разработанный Via 4 Design [30] ).
В любой модели x'plorer был более или менее единым «кусочком» - Parsytec назвал их кластером (изображение) - GigaCube (PPC или Transputer), который использовал 4 из этих кластеров в своей самой маленькой версии (GC-1). . Таким образом, некоторые называют это «GC-0.25». [31]
POWERx'plorer был основан на 8 блоках обработки, расположенных в 2D-сетке. Каждый процессор имел
- один процессор MPC 601 с тактовой частотой 80 МГц ,
- 8 МБ локальной памяти и
- транспьютер для установления и поддержания коммуникационных каналов. [32]
Когнитивный компьютер [ править ]
Parsytec CC (Когнитивный компьютер) (изображение) система [33] [34] была автономная единицей на уровне карт стойки. Подсистема стойки для карт CC обеспечила систему инфраструктурой, включая источник питания и охлаждение. Система может быть сконфигурирована как стандартное устройство для монтажа в 19 стойку, в которое можно установить различные сменные модули 6U.
Система CC [35] представляла собой параллельный компьютер с распределенной памятью и передачей сообщений, который во всем мире классифицируется в категорию параллельных компьютеров MIMD . Доступны две разные версии
- CCe: на базе процессора Motorola MPC 604 , работающего на частоте 133 МГц, с кэш-памятью L2 512 КБ. Модули были соединены вместе со скоростью 1 Гбит / с с помощью технологии высокоскоростного соединения (HS) в соответствии со стандартом IEEE 1355 , что позволяет передавать данные со скоростью до 75 МБ / с. Коммуникационный контроллер был интегрирован в процессорные узлы через шину PCI . На системной плате используется микросхема MPC 105 для управления памятью, обновления DRAM и декодирования памяти для банков DRAM и / или Flash. Частота шины [CPU] ограничена 66 МГц, тогда как скорость шины PCI составляет максимум 33 МГц.
- CCi: на базе Intel Pentium Pro ее основные элементы были двойная Pentium Pro основанной платы (на 266 МГц) , которые соединены между собой с помощью несколько высокоскоростных сетей. Каждая сдвоенная материнская плата имела 128 Мбайт памяти. Каждый узел имел максимальную производительность 200 MFLOPS. Спектр продукции включает однопроцессорные или SMP-платы до 144 узлов, большое количество PCI-карт, а также различные коммуникационные решения (Gigabit HS-Link, Myrinet, SCI, ATM или Fast-Ethernet). Операционными системами были Windows NT 4.0 и ParsyFRame (среда UNIX была необязательной). [36]
Во всех CC-системах узлы были напрямую подключены к одному и тому же маршрутизатору, на котором реализован активный аппаратный коммутатор 8 на 8, обеспечивающий до 8 подключений с использованием высокоскоростного канала со скоростью 40 МБ / с.
Для того, что касается CCE, программное обеспечение было основано на IBM «s AIX 4.1 операционной системы UNIX вместе с параллельной среды программирования Embedded PARIX Parsytec в (EPX). [37] Таким образом, он объединил стандартную среду UNIX (компиляторы, инструменты, библиотеки) с продвинутой средой разработки программного обеспечения. Система была интегрирована в локальную сеть с использованием стандартного Ethernet. Таким образом, узел CC имел пиковую производительность 266 MFlops. Таким образом, пиковая производительность 8-узловой системы CC, установленной в университетской больнице Женевы, составила 2,1 Гфлопс. [38]
Powermouse [ править ]
Powermouse - еще одна масштабируемая система, состоящая из модулей и отдельных компонентов. Это было прямое расширение системы x'plorer. [36] Каждый модуль (размеры: 9 см x 21 см x 45 см) содержал четыре процессора MPC 604 (200/300 МГц) и 64 МБ ОЗУ, достигая максимальной производительности 2,4 Гфлоп / с. Отдельный коммуникационный процессор T425 ), оснащенный 4 МБ ОЗУ [39], управлял потоком данных в четырех направлениях к другим модулям в системе. Пропускная способность одного узла составила 9 МБ / с.
Приблизительно для 35000 DM базовая система, состоящая из 16 процессоров (т. Е. Четырех модулей), может обеспечить общую вычислительную мощность 9,6 Гфлоп / с. Как и для всех продуктов Parsytec, Powermouse требовала Sun Sparcstation в качестве интерфейса.
Все программное обеспечение ( PARIX с компиляторами и отладчиками C ++ и Fortran 77 (альтернативно предоставляющими MPI или PVM в качестве пользовательских интерфейсов) было включено. [40]
Операционная система [ править ]
Операционная система была использована PARIX (Parallel расширений UNIX) [41] (PARIX Т8 для T80x транспьютеров и PARIX Т9 для T9000 транспьютеров , соответственно). Основанный на UNIX , PARIX [42] поддерживал удаленные вызовы процедур , он был совместим со стандартом POSIX . PARIX предоставляет функциональные возможности UNIX во внешнем интерфейсе (например, Sun SPARCstationкоторый нужно было приобретать отдельно) с расширениями библиотеки для нужд параллельной системы в бэкэнде, который был в точности самим продуктом Parsytec (он был подключен к переднему краю, с помощью которого он работал). Программный пакет Parix включает компоненты для среды разработки программ (компиляторы, инструменты и т. Д.) И среды выполнения (библиотеки). PARIX предлагал разные типы синхронной и асинхронной связи.
Кроме того, Parsytec предоставила среду параллельного программирования под названием Embedded PARIX (EPX). [37]
Для разработки параллельных приложений с использованием EPX потоки данных и функциональные задачи были распределены по сети узлов. Для обработки данных между процессорами потребовалось всего несколько системных вызовов. Были доступны стандартные процедуры для синхронной связи, такие как отправка и получение, а также асинхронные системные вызовы. Полный набор вызовов EPX устанавливает интерфейс прикладного программирования EPX ( API ). Пункт назначения для любой передачи сообщений был определен через виртуальный канал, который завершался любым пользовательским процессом. Виртуальные каналы определялись пользователем и управлялись EPX. Фактическое программное обеспечение системы доставки сообщений использовало маршрутизатор. [38] Кроме того, можно также запустить COSY (Concurrent Operating SYstem) [43] и Helios.на машинах. Helios поддерживает специальный механизм сброса Parsytec из коробки.
См. Также [ править ]
- ИНМОС
- SUPRENUM
- Meiko Scientific
- Корпорация Thinking Machines
Ссылки [ править ]
- ^ Массивно параллельные компьютеры: почему не параллельные компьютеры для масс? Дж. Белл на microsoft.com
- ^ Методы релаксации линий с переменным направлением на мультикомпьютерах J. Hofhaus и др., SIAM J. ScI. ВЫЧИСЛИТЬ. Vol. 17, No. 2, pp. 454-478, март 1996 г.
- ^ a b Duell der Zahlenfresser на zeit.de (немецкий)
- ^ Parsytec GmbH на new-npac.org
- ^ Parsytec Статья в GeekDot.com
- ^ Годовой отчет по счетам за 2006 г. [ постоянная мертвая ссылка ] на parsytec.de
- ^ ISRA Vision übernimmt Parsytec 23 июля 2007 г., finanznachrichten.de (немецкий)
- ^ ISRA VISION AG - Erwerb der Mehrheit an der Parsytec AG 24 июля 2007 г., equinet-ag.de (немецкий)
- ^ Связи с инвесторами в ISRA на parsytec.de
- ^ Годовой отчет 2012/2013 5 мая 2014 г., isravision.com
- ^ Универсальные машины MIMD на cordis.europa.eu
- ^ Европейская программа (EEC) для исследований и разработок в области информационных технологий (ESPRIT), 1984-1988
- ^ Структура для характеристики параллельных систем для оценки производительности Efstathios Papaefstathiou (1995)
- ^ a b c Информационный бюллетень ЕСН 92-08 на dtic.mil
- ^ Решения Hypecube для сопряженных направлений, JE Hartman (1991) на dtic.mil
- ^ MEGAFRAME TPM-1 - Аппаратная документация, вер. 1.2 (1987) на classiccmp.org
- ^ MEGAFRAME MTM-2 - Аппаратная документация, вер. 1.3 (1987) на classiccmp.org
- ↑ MEGAFRAME Familie. Архивировано 10 февраля 2013 г. в Archive.today, май 1987 г., на сайте computerwoche.de (немецкий)
- ^ Ram Meenakshisundaram в Transputer Главная страница в classiccmp.org
- ^ Transputersystem ist frei konfigurierbar Архивировано 2 апреля 2008 г. на Wayback Machine, март 1987 г., на сайте computerwoche.de (немецкий)
- ^ Б Gigacube Статья в GeekDot.com
- ^ The Parsytec Power Plus на netlib.org
- ^ Programmierung und Anwendung der Parallelrechnersysteme Parsytec SC и Parsytec GC / PP [ постоянное мертвое звено ] Б. Хейминг, 1996, Технический университет Гамбург-Харбург (немецкий)
- ^ Синтез массивных систем параллельного моделирования для оценки коммутационной активности в конечных автоматах [ постоянное мертвое звено ] В. Бахманн и др., Дармштадтский технологический университет
- ^ Домашняя страница музейного форума Хайнца Никсдорфа
- ^ http://www.top500.org Список TOP500
- ^ Список Top500 1996
- ^ Лекционные заметки по прикладным параллельным вычислениям, заархивированные 16 августа 2010 г. на Wayback Machine на ocw.mit.edu
- ^ Viel hilft viel: Die neuen Supercomputer haben Billigprozessoren wie der PC nebenan - aber zu Tausenden at zeit.de (немецкий)
- ^ Интернет-выставка iF - Via 4 Design на ifdesign.de
- ^ X'plorer Статья в GeekDot.com
- ^ Экспериментальное исследование разделения времени и пространства на PowerXplorer С. Бани-Ахмад, Журнал повсеместных вычислений и коммуникаций, том. 3 № 1
- ^ Parsytec CC Series (Аппаратная документация), Ред. 1.2 (1996) Parsytec GmbH
- ^ Серия Parsytec CC на netlib.org
- ^ Target Machines Архивировано 12 августа 2004 г. в Wayback Machine на http://parallel.di.uoa.gr
- ^ a b Оборудование для параллельных вычислений. Архивировано 16 июня 2012 г. на Wayback Machine на ssd.sscc.ru.
- ^ a b Встроенный Parix Ver. 1.9.2, Программная документация (1996)
- ^ a b Реализация среды для моделирования методом Монте-Карло полностью трехмерной позитронной томографии на высокопроизводительной параллельной платформе H. Zaidi, Parallel Computing, Vol. 24 (1998), стр. 1523-1536
- ^ Parsytec питания мыши Система в CSA архивной 2013-04-16 в Archive.today 15 декабря 1998 в csa.ru
- ^ Parsytec Liefert Baukasten für Parallelrechner архивной 2013-02-10 в Archive.today сен 19, 1997 в comuterwoche.de (немецкий)
- ^ Документация к программному обеспечению PARIX версии 1.2, март 1993 г.
- ^ Parix на http://www.informatik.uni-osnabrueck.de
- ^ COSY - ein Betriebssystem für hochparallele Computer Р. Бутенут на uni-paderborn.de (немецкий)
Внешние ссылки [ править ]
- Домашняя страница ISRA VISION PARSYTEC AG
- Домашняя страница Transputer Рама Минакшисундарама на classiccmp.org
- 16384 Prozessoren giveen 400 Gflops Transputer-Superrechner von Parsytec als neuer Weltmeister Статья на сайте computerwoche.de (немецкий)
- Zur Strategie von Parsytec Kuebler: "In zehn Jahren rechnen die meisten Computer parallel" 1 октября 1993 г., на сайте computerwoche.de (немецкий)
- Проект FTMPS: разработка и реализация методов отказоустойчивости для массивно-параллельных систем [ постоянная мертвая связь ] J. Vounckx et al.
- Домашняя страница Via 4 Design