Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску
Технические специалисты, работающие над большим Linux- кластером в Технологическом университете Хемница , Германия

Вычислительный кластер представляет собой набор свободно или плотно соединенных компьютеров , которые работают вместе с тем , что во многих аспектах, их можно рассматривать как единую систему. В отличие от сетевых компьютеров , в компьютерных кластерах каждый узел настроен на выполнение одной и той же задачи, управляемой и планируемой программным обеспечением.

Компоненты кластера обычно соединяются друг с другом через быстрые локальные сети , при этом на каждом узле (компьютере, используемом в качестве сервера) работает собственный экземпляр операционной системы . В большинстве случаев все узлы используют одно и то же оборудование [1] [ необходим лучший исходный код ] и одну и ту же операционную систему, хотя в некоторых конфигурациях (например, с использованием ресурсов кластерного приложения с открытым исходным кодом (OSCAR)) могут использоваться разные операционные системы. каждый компьютер или другое оборудование. [2]

Кластеры обычно развертываются для повышения производительности и доступности по сравнению с одним компьютером, при этом обычно они намного более рентабельны, чем отдельные компьютеры с сопоставимой скоростью или доступностью. [3]

Компьютерные кластеры возникли в результате конвергенции ряда вычислительных тенденций, включая доступность недорогих микропроцессоров, высокоскоростных сетей и программного обеспечения для высокопроизводительных распределенных вычислений . [ необходима цитата ] Они имеют широкий спектр применения и развертывания, от кластеров малого бизнеса с несколькими узлами до одних из самых быстрых суперкомпьютеров в мире, таких как Sequoia от IBM . [4] До появления кластеров - однооблочные отказоустойчивые мэйнфреймы с модульной избыточностью.были трудоустроены; но более низкая начальная стоимость кластеров и повышенная скорость сетевой структуры способствовали внедрению кластеров. В отличие от высоконадежных мэйнфреймов кластеры дешевле масштабировать, но они также имеют повышенную сложность в обработке ошибок, поскольку в кластерах режимы ошибок не непрозрачны для запущенных программ. [5]

Основные понятия [ править ]

Простой домашний кластер Беовульф .

Стремление получить большую вычислительную мощность и надежность за счет объединения ряда недорогих коммерческих готовых компьютеров привело к появлению множества архитектур и конфигураций.

Подход компьютерной кластеризации обычно (но не всегда) соединяет ряд легко доступных вычислительных узлов (например, персональных компьютеров, используемых в качестве серверов) через быструю локальную сеть . [6] Действия вычислительных узлов координируются «промежуточным программным обеспечением кластеризации», программным уровнем, который располагается поверх узлов и позволяет пользователям рассматривать кластер как в целом один связанный вычислительный блок, например, с помощью концепции единого образа системы . [6]

Кластеризация компьютеров основана на централизованном подходе к управлению, который делает узлы доступными как согласованные общие серверы. Он отличается от других подходов, таких как одноранговые или грид-вычисления, которые также используют множество узлов, но имеют гораздо более распределенный характер . [6]

Компьютерный кластер может быть простой двухузловой системой, которая просто соединяет два персональных компьютера, или может быть очень быстрым суперкомпьютером . Базовый подход к созданию кластера - это кластер Беовульфа, который может быть построен с использованием нескольких персональных компьютеров, чтобы создать экономичную альтернативу традиционным высокопроизводительным вычислениям . Одним из первых проектов, продемонстрировавших жизнеспособность концепции, был 133-узловой компьютер Stone Soupercomputer . [7] Разработчики использовали Linux , инструментарий Parallel Virtual Machine и библиотеку интерфейса передачи сообщений для достижения высокой производительности при относительно низкой стоимости. [8]

Хотя кластер может состоять всего из нескольких персональных компьютеров, соединенных простой сетью, архитектура кластера также может использоваться для достижения очень высокого уровня производительности. В TOP500 полугодовая список организации из 500 самых быстрых суперкомпьютеров часто включает в себя множество кластеров, например , быстрый машина в мире в 2011 году на K компьютер , который имеет распределенную память , кластерная архитектура. [9]

История [ править ]

VAX 11/780, гр. 1977 г.

Грег Пфистер заявил, что кластеры были изобретены не каким-либо конкретным поставщиком, а клиентами, которые не могли разместить всю свою работу на одном компьютере или нуждались в резервной копии. [10] Пфистер считает, что это время примерно в 1960-х годах. Формальная инженерная основа кластерных вычислений как средства выполнения параллельной работы любого рода была изобретена Джином Амдалом из IBM , который в 1967 году опубликовал основополагающую статью о параллельной обработке: закон Амдала .

История ранних компьютерных кластеров более или менее напрямую связана с историей ранних сетей, поскольку одной из основных мотиваций развития сети было соединение вычислительных ресурсов, создавая де-факто компьютерный кластер.

Первой производственной системой, разработанной как кластер, была Burroughs B5700 в середине 1960-х годов. Это позволило подключить до четырех компьютеров, каждый с одним или двумя процессорами, к общей дисковой подсистеме хранения для распределения рабочей нагрузки. В отличие от стандартных многопроцессорных систем, каждый компьютер можно было перезапустить без нарушения общей работы.

Первым коммерческим продуктом для слабосвязанной кластеризации была система «Компьютер с подключенными ресурсами» (ARC) корпорации Datapoint , разработанная в 1977 году и использовавшая ARCnet в качестве интерфейса кластера. Кластеризация как таковая не развивалась до тех пор, пока Digital Equipment Corporation не выпустила в 1984 году свой продукт VAXcluster для операционной системы VAX / VMS (теперь называемой OpenVMS). Продукты ARC и VAXcluster поддерживают не только параллельные вычисления, но также совместно используемые файловые системы и периферийные устройства. Идея заключалась в том, чтобы предоставить преимущества параллельной обработки при сохранении надежности и уникальности данных. Двумя другими примечательными ранними коммерческими кластерами былиTandem Himalayan (продукт высокой доступности около 1994 г.) и IBM S / 390 Parallel Sysplex (также около 1994 г., в основном для использования в бизнесе).

В те же временные рамки, в то время как компьютерные кластеры использовали параллелизм вне компьютера в товарной сети, суперкомпьютеры начали использовать их на одном компьютере. После успеха CDC 6600 в 1964 году, Cray 1 был выпущен в 1976 году и представил внутренний параллелизм посредством векторной обработки . [11] В то время как ранние суперкомпьютеры исключали кластеры и полагались на разделяемую память , со временем некоторые из самых быстрых суперкомпьютеров (например, компьютер K ) полагались на кластерные архитектуры.

Атрибуты кластеров [ править ]

Кластер балансировки нагрузки с двумя серверами и N пользовательскими станциями (Галицкий).

Компьютерные кластеры могут быть настроены для различных целей, начиная от общих бизнес-потребностей, таких как поддержка веб-сервисов, до научных вычислений, требующих больших вычислительных ресурсов. В любом случае кластер может использовать подход высокой доступности . Обратите внимание, что описанные ниже атрибуты не являются исключительными, и «компьютерный кластер» также может использовать подход высокой доступности и т. Д.

« Нагрузка балансировки » кластеры конфигурации , в которых кластер-узлы делят вычислительную нагрузку , чтобы обеспечить лучшую общую производительность. Например, кластер веб-серверов может назначать разные запросы разным узлам, поэтому общее время ответа будет оптимизировано. [12] Однако подходы к балансировке нагрузки могут значительно различаться между приложениями, например, высокопроизводительный кластер, используемый для научных вычислений, будет балансировать нагрузку с помощью различных алгоритмов из кластера веб-сервера, который может просто использовать простой метод циклического перебора путем назначения каждый новый запрос к другому узлу. [12]

Компьютерные кластеры используются для ресурсоемких вычислений, а не для обработки операций, ориентированных на ввод-вывод, таких как веб-службы или базы данных. [13] Например, компьютерный кластер может поддерживать вычислительное моделирование автомобильных аварий или погодных условий. Компьютерные кластеры с очень сильной связью предназначены для работы, которая может приближаться к « суперкомпьютерам ».

« Кластеры высокой доступности » (также известные как отказоустойчивые кластеры или кластеры высокой доступности ) улучшают доступность кластерного подхода. Они работают, имея резервные узлы , которые затем используются для обслуживания при выходе из строя компонентов системы. Реализации кластера высокой доступности пытаются использовать избыточность компонентов кластера для устранения единых точек отказа . Существуют коммерческие реализации кластеров высокой доступности для многих операционных систем. Проект Linux-HA - это один из часто используемых пакетов HA для бесплатного программного обеспечения для операционной системы Linux .

Преимущества [ править ]

Кластеры в первую очередь разрабатываются с учетом производительности, но установка основана на многих других факторах. Отказоустойчивость ( способность системы продолжать работу с неисправным узлом ) обеспечивает масштабируемость , а в ситуациях высокой производительности - низкую частоту процедур обслуживания, консолидацию ресурсов (например, RAID ) и централизованное управление. Преимущества включают возможность восстановления данных в случае аварии и обеспечение параллельной обработки данных и высокую производительность обработки. [14] [15]

Что касается масштабируемости, кластеры обеспечивают это возможностью добавлять узлы по горизонтали. Это означает, что к кластеру можно добавить больше компьютеров, чтобы улучшить его производительность, избыточность и отказоустойчивость. Это может быть недорогое решение для более производительного кластера по сравнению с масштабированием одного узла в кластере. Это свойство компьютерных кластеров позволяет выполнять большие вычислительные нагрузки на большем количестве менее производительных компьютеров.

При добавлении нового узла в кластер надежность увеличивается, поскольку нет необходимости отключать весь кластер. Один узел может быть отключен для обслуживания, а остальная часть кластера берет на себя нагрузку этого отдельного узла.

Если у вас есть большое количество компьютеров, сгруппированных вместе, это позволяет использовать распределенные файловые системы и RAID , которые могут повысить надежность и скорость кластера.

Дизайн и конфигурация [ править ]

Типичная конфигурация Беовульфа.

Одна из проблем при проектировании кластера - насколько сильно могут быть связаны отдельные узлы. Например, одно компьютерное задание может потребовать частого обмена данными между узлами: это означает, что кластер использует выделенную сеть, плотно расположен и, вероятно, имеет однородные узлы. Другая крайность - это когда компьютерная работа использует один или несколько узлов и не требует или почти не требует межузловой связи, что приближается к грид-вычислениям .

В кластере Беовульфа прикладные программы никогда не видят вычислительные узлы (также называемые подчиненными компьютерами), а взаимодействуют только с «Мастером», который является конкретным компьютером, выполняющим планирование и управление подчиненными устройствами. [13] В типичной реализации Мастер имеет два сетевых интерфейса, один из которых обменивается данными с частной сетью Beowulf для ведомых устройств, а другой - с сетью общего назначения организации. [13] Подчиненные компьютеры обычно имеют собственную версию той же операционной системы, а также локальную память и дисковое пространство. Однако частная подчиненная сеть может также иметь большой и совместно используемый файловый сервер, который хранит глобальные постоянные данные, к которым подчиненные устройства могут обращаться по мере необходимости. [13]

144-узловой кластер DEGIMA специального назначения настроен на выполнение астрофизических симуляций N-тел с использованием параллельного древовидного кода Multiple-Walk, а не для научных вычислений общего назначения. [16]

Из-за увеличения вычислительной мощности каждого поколения игровых консолей появилось новое применение, когда они были перепрофилированы в кластеры высокопроизводительных вычислений (HPC). Некоторые примеры игровых консолей кластеров Sony PlayStation кластеры и Microsoft Xbox кластеры. Другой пример потребительского игрового продукта - персональный суперкомпьютер Nvidia Tesla.рабочая станция, использующая несколько процессорных микросхем графического ускорителя. Помимо игровых консолей, вместо них можно использовать и высококачественные видеокарты. Использование видеокарт (или, скорее, их графических процессоров) для вычислений в сетке намного более экономично, чем использование процессоров, несмотря на то, что они менее точны. Однако при использовании значений с двойной точностью они становятся такими же точными для работы, как и ЦП, и по-прежнему намного дешевле (стоимость покупки). [2]

Компьютерные кластеры исторически работали на отдельных физических компьютерах с одной и той же операционной системой . С появлением виртуализации узлы кластера могут работать на отдельных физических компьютерах с разными операционными системами, которые показаны выше с виртуальным слоем, чтобы выглядеть одинаково. [17] [ необходима ссылка ] [ требуется разъяснение ] Кластер также можно виртуализировать в различных конфигурациях по мере обслуживания; пример реализации - Xen в качестве диспетчера виртуализации с Linux-HA . [17]

Обмен данными и обмен данными [ править ]

Обмен данными [ править ]

NEC Nehalem кластер

Как компьютерные кластеры появились в 1980-х годах, так и суперкомпьютеры . Одним из элементов, которые отличали эти три класса в то время, было то, что первые суперкомпьютеры полагались на разделяемую память . На сегодняшний день кластеры обычно не используют физически разделяемую память, хотя многие архитектуры суперкомпьютеров также отказались от нее.

Однако использование кластерной файловой системы необходимо в современных компьютерных кластерах. [ необходима цитата ] Примеры включают IBM General Parallel File System , Microsoft Cluster Shared Volumes или Oracle Cluster File System .

Передача сообщений и общение [ править ]

Два широко используемых подхода для связи между узлами кластера - это MPI ( интерфейс передачи сообщений ) и PVM ( параллельная виртуальная машина ). [18]

PVM был разработан в Национальной лаборатории Ок-Ридж примерно в 1989 году, до того, как появился MPI. PVM должен быть установлен непосредственно на каждом узле кластера и предоставляет набор программных библиотек, которые изображают узел как «параллельную виртуальную машину». PVM предоставляет среду выполнения для передачи сообщений, управления задачами и ресурсами, а также уведомления об ошибках. PVM может использоваться в пользовательских программах, написанных на C, C ++, Fortran и т. Д. [18] [19]

MPI возник в начале 1990-х в результате дискуссий между 40 организациями. Первоначальные усилия были поддержаны ARPA и Национальным научным фондом . Вместо того, чтобы начинать заново, при разработке MPI использовались различные функции, доступные в коммерческих системах того времени. Затем спецификации MPI привели к конкретным реализациям. Реализации MPI обычно используют TCP / IP и сокетные соединения. [18] В настоящее время MPI представляет собой широко доступную модель коммуникации, которая позволяет писать параллельные программы на таких языках, как C , Fortran , Python и т. Д. [19]Таким образом, в отличие от PVM, который обеспечивает конкретную реализацию, MPI - это спецификация, реализованная в таких системах, как MPICH и Open MPI . [19] [20]

Управление кластером [ править ]

Недорогой крошечный кластер Cubieboard с низким энергопотреблением , использующий Apache Hadoop на Lubuntu

Одной из проблем при использовании компьютерного кластера является стоимость его администрирования, которая иногда может быть такой же высокой, как стоимость администрирования N независимых машин, если в кластере N узлов. [21] В некоторых случаях это дает преимущества архитектурам с общей памятью с меньшими затратами на администрирование. [21] Это также сделало виртуальные машины популярными благодаря простоте администрирования. [21]

Планирование задач [ править ]

Когда большому многопользовательскому кластеру требуется доступ к очень большим объемам данных, планирование задач становится проблемой. В гетерогенном кластере CPU-GPU со сложной прикладной средой производительность каждого задания зависит от характеристик базового кластера. Следовательно, сопоставление задач с ядрами ЦП и устройствами с графическим процессором создает серьезные проблемы. [22] Это область текущих исследований; были предложены и изучены алгоритмы, которые объединяют и расширяют MapReduce и Hadoop . [22]

Управление отказами узлов [ править ]

Когда узел в кластере выходит из строя, можно использовать такие стратегии, как « ограждение », чтобы остальная часть системы оставалась работоспособной. [23] [24] Изоляция - это процесс изоляции узла или защиты общих ресурсов, когда узел кажется неисправным. Есть два класса методов ограждения; один отключает сам узел, а другой запрещает доступ к таким ресурсам, как общие диски. [23]

Метод STONITH расшифровывается как «Shoot The Other Node In The Head», что означает, что подозреваемый узел отключен или выключен. Например, силовое ограждение использует контроллер мощности для отключения неработающего узла. [23]

Эти ресурсы фехтование подхода Запрещает доступ к ресурсам без отключения узла. Это может включать в себя постоянное ограждение резервирования через SCSI3 , ограждение оптоволоконного канала для отключения порта оптоволоконного канала или ограждение глобального сетевого блочного устройства (GNBD) для отключения доступа к серверу GNBD.

Разработка и администрирование программного обеспечения [ править ]

Параллельное программирование [ править ]

Кластеры с балансировкой нагрузки, такие как веб-серверы, используют кластерную архитектуру для поддержки большого количества пользователей, и обычно каждый пользовательский запрос направляется на конкретный узел, обеспечивая параллелизм задач без взаимодействия нескольких узлов, учитывая, что основная цель системы - обеспечение быстрого пользователя. доступ к общим данным. Однако «компьютерные кластеры», которые выполняют сложные вычисления для небольшого числа пользователей, должны использовать преимущества возможностей параллельной обработки кластера и разделять «те же вычисления» между несколькими узлами. [25]

Автоматическое распараллеливание программ остается технической проблемой, но модели параллельного программирования могут использоваться для достижения более высокой степени параллелизма путем одновременного выполнения отдельных частей программы на разных процессорах. [25] [26]

Отладка и мониторинг [ править ]

Для разработки и отладки параллельных программ в кластере требуются примитивы параллельного языка, а также подходящие инструменты, такие как те, которые обсуждались на форуме High Performance Debugging Forum (HPDF), результатом которого стали спецификации HPD. [19] [27] Затем были разработаны такие инструменты, как TotalView , для отладки параллельных реализаций на компьютерных кластерах, которые используют MPI или PVM для передачи сообщений.

Система Berkeley NOW (Network of Workstations) собирает данные о кластерах и сохраняет их в базе данных, а такая система, как PARMON, разработанная в Индии, позволяет визуально наблюдать и управлять большими кластерами. [19]

Контрольные точки приложения могут использоваться для восстановления заданного состояния системы, когда узел выходит из строя во время долгих многоузловых вычислений. [28] Это важно в больших кластерах, учитывая, что по мере увеличения количества узлов увеличивается вероятность отказа узла при больших вычислительных нагрузках. Контрольная точка может восстановить систему до стабильного состояния, чтобы обработка могла возобновиться без повторного вычисления результатов. [28]

Реализации [ править ]

Мир GNU / Linux поддерживает различное кластерное программное обеспечение; для кластеризации приложений есть distcc и MPICH . Linux Virtual Server , Linux-HA - кластеры на основе директоров, которые позволяют распределять входящие запросы на сервисы по нескольким узлам кластера. MOSIX , LinuxPMI , Kerrighed , OpenSSI являются полноценными кластерами , интегрированными в ядро , которые обеспечивают для автоматической миграции процесса среди однородных узлов. OpenSSI , openMosix и Kerrighed - это реализации образа одной системы .

Компьютерный кластер Microsoft Windows Server 2003, основанный на платформе Windows Server, предоставляет такие компоненты для высокопроизводительных вычислений, как планировщик заданий, библиотека MSMPI и инструменты управления.

gLite - это набор технологий промежуточного программного обеспечения, созданный проектом Enabling Grids for E-sciencE (EGEE).

slurm также используется для планирования и управления некоторыми из крупнейших кластеров суперкомпьютеров (см. список top500).

Другие подходы [ править ]

Хотя большинство компьютерных кластеров являются постоянными приспособлениями, были предприняты попытки флешмоб-вычислений для создания недолговечных кластеров для конкретных вычислений. Однако у крупномасштабных добровольных вычислительных систем, таких как системы на основе BOINC , было больше последователей.

См. Также [ править ]

Ссылки [ править ]

  1. ^ «Кластер против сетевых вычислений» . Переполнение стека .
  2. ^ a b Грэм-Смит, Дариен (29 июня 2012 г.). «Проект выходного дня: Постройте свой собственный суперкомпьютер» . Управление ПК и технологий . Дата обращения 2 июня 2017 .
  3. ^ Бадер, Дэвид ; Пеннингтон, Роберт (май 2001 г.). «Кластерные вычисления: приложения» . Компьютерный колледж Джорджии . Архивировано из оригинала на 2007-12-21 . Проверено 28 февраля 2017 .
  4. ^ «Суперкомпьютер с ядерным оружием устанавливает мировой рекорд скорости для США» . Телеграф. 18 июня 2012 . Проверено 18 июн 2012 .
  5. ^ Грей, Джим; Рутер, Андреас (1993). Обработка транзакций: концепции и методы . Издательство Морган Кауфманн. ISBN 978-1558601901.
  6. ^ a b c Сетевые информационные системы: Первая международная конференция, NBIS 2007 . п. 375. ISBN 3-540-74572-6.
  7. ^ Уильям У. Харгроув, Форрест М. Хоффман и Томас Стерлинг (16 августа 2001 г.). "Самостоятельный суперкомпьютер" . Scientific American . 265 (2). С. 72–79 . Проверено 18 октября 2011 года .
  8. ^ Харгроув, Уильям В .; Хоффман, Форрест М. (1999). «Кластерные вычисления: Linux, доведенный до крайности» . Журнал Linux . Архивировано из оригинального 18 октября 2011 года . Проверено 18 октября 2011 года .
  9. ^ Yokokawa, Мицуо; и другие. (1–3 августа 2011 г.). Компьютер K: японский проект по разработке суперкомпьютеров нового поколения . Международный симпозиум по маломощной электронике и дизайну (ISLPED). С. 371–372. DOI : 10.1109 / ISLPED.2011.5993668 .
  10. ^ Пфистер, Грегори (1998). В поисках кластеров (2-е изд.). Река Аппер Сэдл, Нью-Джерси: Prentice Hall PTR. п. 36 . ISBN 978-0-13-899709-0.
  11. ^ Хилл, Марк Дональд; Джуппи, Норман Пол ; Сохи, Гуриндар (1999). Чтения по компьютерной архитектуре . С. 41–48. ISBN 978-1-55860-539-8.
  12. ^ a b Слоун, Джозеф Д. (2004). Высокопроизводительные кластеры Linux . ISBN 978-0-596-00570-2.
  13. ^ a b c d Дайде, Мишель; Донгарра, Джек (2005). Высокопроизводительные вычисления для вычислительной науки - VECPAR 2004 . С. 120–121. ISBN 978-3-540-25424-9.
  14. ^ «IBM Cluster System: Преимущества» . IBM . Архивировано из оригинального 29 апреля 2016 года . Проверено 8 сентября 2014 года .
  15. ^ «Оценка преимуществ кластеризации» . Microsoft . 28 марта 2003 года Архивировано из оригинала 22 апреля 2016 года . Проверено 8 сентября 2014 года .
  16. ^ Хамада, Цуёси; и другие. (2009). «Новый параллельный алгоритм с несколькими обходами для древовидного кода Барнса – Хата на графических процессорах - в направлении экономичного и высокопроизводительного моделирования N-тела». Компьютерные науки - Исследования и разработки . 24 (1-2): 21-31. DOI : 10.1007 / s00450-009-0089-1 . S2CID 31071570 . 
  17. ^ a b Мауэр, Райан (12 января 2006 г.). «Виртуализация Xen и кластеризация Linux, часть 1» . Linux Journal . Дата обращения 2 июня 2017 .
  18. ^ a b c Миликкио, Франко; Герке, Вольфганг Александр (2007). Распределенные сервисы с OpenAFS: для предприятий и образования . С. 339–341. ISBN 9783540366348.
  19. ^ а б в г д Прабху, CSR (2008). Грид и кластерные вычисления . С. 109–112. ISBN 978-8120334281.
  20. ^ Gropp, Уильям; Ласк, Юинг; Скьеллум, Энтони (1996). «Высокопроизводительная портативная реализация интерфейса передачи сообщений MPI». Параллельные вычисления . 22 (6): 789–828. CiteSeerX 10.1.1.102.9485 . DOI : 10.1016 / 0167-8191 (96) 00024-5 . 
  21. ^ a b c Паттерсон, Дэвид А .; Хеннесси, Джон Л. (2011). Компьютерная организация и дизайн . С. 641–642. ISBN 978-0-12-374750-1.
  22. ^ а б К. Ширахата; и другие. (30 ноября - 3 декабря 2010 г.). Планирование задач гибридной карты для гетерогенных кластеров на базе GPU . Технология облачных вычислений и наука (CloudCom). С. 733–740. DOI : 10.1109 / CloudCom.2010.55 . ISBN 978-1-4244-9405-7.
  23. ^ a b c «Ограждение ресурсов Алана Робертсона с использованием STONITH» (PDF) . Исследовательский центр IBM Linux, 2010 . Архивировано из оригинального (PDF) 5 января 2021 года.
  24. ^ Варгас, Энрике; Бьянко, Джозеф; Дитс, Дэвид (2001). Среда Sun Cluster: Sun Cluster 2.2 . Prentice Hall Professional. п. 58. ISBN 9780130418708.
  25. ^ a b Ахо, Альфред В .; Блюм, Эдвард К. (2011). Компьютерные науки: оборудование, программное обеспечение и его суть . С. 156–166. ISBN 978-1-4614-1167-3.
  26. ^ Раубер, Томас; Рюнгер, Гудула (2010). Параллельное программирование: для многоядерных и кластерных систем . С. 94–95. ISBN 978-3-642-04817-3.
  27. ^ Francioni, Джоан М .; Блин, Черри М. (апрель 2000 г.). «Стандарт отладки для высокопроизводительных вычислений» . Научное программирование . Амстердам , Нидерланды : IOS Press. 8 (2): 95–108. DOI : 10.1155 / 2000/971291 . ISSN 1058-9244 . 
  28. ^ a b Sloot, Питер, изд. (2003). Вычислительная наука - ICCS 2003: Международная конференция . С. 291–292. ISBN 3-540-40195-4.

Дальнейшее чтение [ править ]

  • Бейкер, Марк; и другие. (11 января 2001 г.). "Белая книга кластерных вычислений". arXiv : cs / 0004014 .
  • Маркус, Эван; Стерн, Хэл (2000-02-14). Чертежи для высокой доступности: проектирование отказоустойчивых распределенных систем . Джон Вили и сыновья. ISBN 978-0-471-35601-1.
  • Пфистер, Грег (1998). В поисках кластеров . Прентис Холл. ISBN 978-0-13-899709-0.
  • Буйя, Раджкумар, изд. (1999). Высокопроизводительные кластерные вычисления: архитектуры и системы . 1 . Нью-Джерси, США: Прентис Холл. ISBN 978-0-13-013784-5.
  • Буйя, Раджкумар, изд. (1999). Высокопроизводительные кластерные вычисления: архитектуры и системы . 2 . Нью-Джерси, США: Прентис Холл. ISBN 978-0-13-013785-2.

Внешние ссылки [ править ]

  • Технический комитет IEEE по масштабируемым вычислениям (TCSC)
  • Технология надежных масштабируемых кластеров, IBM [ постоянная мертвая ссылка ]
  • Вики по Tivoli System Automation
  • Управление крупномасштабным кластером в Google с Borg , апрель 2015 г., Абхишек Верма, Луис Педроса, Мадукар Коруполу, Дэвид Оппенгеймер, Эрик Тьюн и Джон Уилкс