Реконфигурируемые вычисления


Реконфигурируемые вычисления — это компьютерная архитектура , сочетающая некоторую гибкость программного обеспечения с высокой производительностью аппаратного обеспечения за счет обработки с помощью очень гибких высокоскоростных вычислительных структур, таких как программируемые вентильные матрицы (FPGA). Принципиальным отличием по сравнению с использованием обычных микропроцессоров является возможность внесения существенных изменений в сам путь данных в дополнение к потоку управления. С другой стороны, основное отличие от заказного оборудования, т . е. специализированных интегральных схем (ASIC), заключается в возможности адаптации оборудования во время выполнения путем «загрузки» новой схемы в реконфигурируемую матрицу.

Концепция реконфигурируемых вычислений существует с 1960-х годов, когда в статье Джеральда Эстрина была предложена концепция компьютера, состоящего из стандартного процессора и набора «реконфигурируемого» оборудования. [1] [2] Главный процессор будет управлять поведением реконфигурируемого оборудования. Затем последний будет адаптирован для выполнения конкретной задачи, такой как обработка изображений или сопоставление с образцом , так же быстро, как и выделенное оборудование. Как только задача была выполнена, оборудование можно было настроить для выполнения какой-либо другой задачи. Это привело к гибридной компьютерной структуре, сочетающей гибкость программного обеспечения со скоростью аппаратного обеспечения.

В 1980-х и 1990-х годах в этой области исследований произошел ренессанс, когда в промышленности и научных кругах было разработано множество реконфигурируемых архитектур [3] , таких как: Copacobana, Matrix, GARP, [4] Elixent, NGEN, [5] Polyp , [ 3]. 6] MereGen, [7] PACT XPP, Silicon Hive, Montium, Pleiades, Morphosys и PiCoGA. [8]Такие конструкции стали возможными благодаря постоянному развитию кремниевых технологий, которые позволяли реализовывать сложные конструкции на одном кристалле. Некоторые из этих массивно-параллельных реконфигурируемых компьютеров были созданы в первую очередь для специальных подобластей, таких как молекулярная эволюция, нейронная сеть или обработка изображений. Первый в мире коммерчески реконфигурируемый компьютер, Algotronix CHS2X4, был завершен в 1991 году. Он не имел коммерческого успеха, но был достаточно многообещающим, чтобы компания Xilinx (изобретатель программируемой пользователем вентильной матрицы , FPGA) купила технологию и наняла персонал Algotronix. . [9] Более поздние машины позволили впервые продемонстрировать научные принципы, такие как спонтанная пространственная самоорганизация генетического кодирования с помощью MereGen. [10]

Фундаментальная модель парадигмы реконфигурируемых вычислительных машин, антимашина на основе потока данных , хорошо иллюстрируется отличиями от других машинных парадигм, которые были введены ранее, как показано в следующей схеме классификации вычислительных парадигм Ника Треденника (см. «Таблицу 1: Схема классификации парадигм Ника Треденника»). [11]

Ученый-компьютерщик Райнер Хартенштейн описывает реконфигурируемые вычисления в терминах антимашины , которая, по его словам, представляет собой фундаментальный сдвиг парадигмы от более традиционной машины фон Неймана . [12] Хартенштейн называет это реконфигурируемым парадоксом вычислений: переход от программного обеспечения к конфигурационному (программное обеспечение к ПЛИС ) приводит к заявленным факторам ускорения более чем на четыре порядка, а также к снижению потребления электроэнергии на почти на четыре порядка — хотя технологические параметры ПЛИС отстают от кривой Гордона Мурапримерно на четыре порядка, а тактовая частота существенно ниже, чем у микропроцессоров. Этот парадокс частично объясняется синдромом фон Неймана .

Высокопроизводительные реконфигурируемые вычисления (HPRC) — это компьютерная архитектура , сочетающая реконфигурируемые вычислительные ускорители, такие как программируемая пользователем вентильная матрица, с ЦП или многоядерными процессорами .


Плата FPGA используется для воссоздания компьютера Vector-06C.