Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Самоорганизующаяся карта ( SOM ) или самоорганизующаяся функция карта ( SOFM ) представляет собой тип искусственной нейронной сети (ИНС) , которая обучается с использованием неконтролируемого обучения для получения низкоразмерного (обычно два-мерный), дискретизованное представления входное пространство обучающих выборок, называемое картой , и поэтому является методом уменьшения размерности . Самоорганизующиеся карты отличаются от других искусственных нейронных сетей, поскольку они применяют конкурентное обучение, а не обучение с исправлением ошибок (например, обратное распространение с градиентным спуском).), и в том смысле, что они используют функцию соседства для сохранения топологических свойств входного пространства.

Самоорганизующаяся карта, показывающая схемы голосования в Конгрессе США . Входные данные представляли собой таблицу со строкой для каждого члена Конгресса и столбцами для определенных голосов, содержащими голоса каждого члена «да» / «нет» / «воздержался». Алгоритм SOM ​​расположил эти элементы в двумерной сетке, расположив аналогичные элементы ближе друг к другу. Первый график показывает группировку, когда данные разделены на два кластера. Второй график показывает среднее расстояние до соседей: большие расстояния темнее. Третий график предсказывает членство в республиканской (красный) или демократической (синий) партии. Остальные сюжетыкаждый накладывает полученную карту с прогнозируемыми значениями во входном измерении: красный цвет означает прогнозируемое голосование «да» по этому законопроекту, синий означает голосование «нет». Сюжет создан в Synapse .

Это делает SOM полезными для визуализации за счет создания низкоразмерных представлений многомерных данных, сродни многомерному масштабированию . Искусственную нейронную сеть, введенную финским профессором Теуво Кохоненом в 1980-х годах, иногда называют картой или сетью Кохонена . [1] [2] Сеть Кохонена представляет собой удобную в вычислительном отношении абстракцию, основанную на биологических моделях нейронных систем 1970-х годов [3] и моделях морфогенеза, восходящих к Алану Тьюрингу в 1950-х годах. [4]

Хотя этот тип сетевой структуры обычно рассматривается как связанный с сетями прямого распространения, в которых узлы визуализируются как присоединенные, этот тип архитектуры принципиально отличается по расположению и мотивации.

Полезные расширения включают использование тороидальных сеток, в которых соединяются противоположные края, и использование большого количества узлов.

Также широко используется U-матрица . [5] Значение U-матрицы конкретного узла - это среднее расстояние между вектором весов узла и его ближайшими соседями. [6] В квадратной сетке, например, могут быть рассмотрены ближайшие 4 или 8 узлов ( окрестности фон Неймана и Мура , соответственно) или шесть узлов в шестиугольной сетке.

Большие SOM демонстрируют новые свойства . В картах, состоящих из тысяч узлов, можно выполнять кластерные операции на самой карте. [7]

Структура и операции [ править ]

Как и большинство искусственных нейронных сетей, SOM работают в двух режимах: обучение и отображение. «Обучение» строит карту, используя примеры входных данных ( конкурентный процесс , также называемый векторным квантованием ), в то время как «сопоставление» автоматически классифицирует новый входной вектор.

Видимая часть самоорганизующейся карты - это пространство карты, которое состоит из компонентов, называемых узлами или нейронами. Пространство карты определяется заранее, обычно как конечная двумерная область, в которой узлы расположены в правильной шестиугольной или прямоугольной сетке. [8] Каждый узел связан с вектором «веса», который является позицией во входном пространстве; то есть он имеет ту же размерность, что и каждый входной вектор. Пока узлы в пространстве карты остаются фиксированными, обучение заключается в перемещении векторов весов к входным данным (уменьшение метрики расстояния) без нарушения топологии, созданной из пространства карты. Таким образом, самоорганизующаяся карта описывает отображение из входного пространства более высокого измерения в пространство карты более низкого измерения. После обучения карта может классифицировать вектор из входного пространства, найдя узел с ближайшим (с наименьшей метрикой расстояния) весовым вектором к вектору входного пространства.

Алгоритм обучения [ править ]

Цель обучения самоорганизующейся карте - заставить разные части сети одинаково реагировать на определенные входные шаблоны. Это отчасти мотивировано тем , как визуальный, слуховой или иной сенсорной информации осуществляется в отдельных частях коры головного мозга в человеческом мозге . [9]

Иллюстрация тренировки самоорганизующейся карты. Голубая капля - это распределение обучающих данных, а маленький белый диск - текущие обучающие данные, взятые из этого распределения. Сначала (слева) узлы SOM произвольно располагаются в пространстве данных. Выбирается ближайший к обучающей базе узел (выделен желтым). Он перемещается к обучающей базе данных, поскольку (в меньшей степени) является его соседями по сетке. После многих итераций сетка приближается к распределению данных (справа).

Веса нейронов либо инициализируются небольшими случайными значениями, либо выбираются равномерно из подпространства, охватываемого двумя наибольшими собственными векторами главных компонент . С последним вариантом обучение происходит намного быстрее, потому что начальные веса уже дают хорошее приближение к весам SOM. [10]

В сеть необходимо подавать большое количество примеров векторов, которые максимально точно представляют типы векторов, ожидаемых во время отображения. Примеры обычно вводятся несколько раз в виде итераций.

Тренинг использует соревновательное обучение . Когда обучающий пример загружается в сеть, вычисляется его евклидово расстояние до всех весовых векторов. Нейрон, весовой вектор которого наиболее похож на входной, называется единицей наилучшего согласования (BMU). Веса BMU и близких к нему нейронов в сетке SOM корректируются по входному вектору. Величина изменения уменьшается со временем и по мере удаления от BMU сетки. Формула обновления для нейрона v с весовым вектором W v (s):

,

где s - индекс шага, t - индекс обучающей выборки, u - индекс BMU для входного вектора D (t), α (s) - монотонно убывающий коэффициент обучения; Θ (u, v, s) - функция соседства, которая дает расстояние между нейроном u и нейроном v на шаге s. [11] В зависимости от реализаций t может сканировать набор обучающих данных систематически (t равно 0, 1, 2 ... T-1, затем повторять, T - размер обучающей выборки), случайным образом извлекаться из набора данных ( bootstrap sampling ) или реализовать какой-либо другой метод выборки (например, складной нож ).

Функция соседства Θ (u, v, s) (также называемая функцией бокового взаимодействия ) зависит от сеточного расстояния между BMU (нейроном u ) и нейроном v . В простейшей форме это 1 для всех нейронов, достаточно близких к BMU, и 0 для других, но функции Гаусса и мексиканской шляпы [12] также являются обычным выбором. Независимо от функциональной формы, функция соседства сжимается со временем. [9]Вначале, когда окружение велико, самоорганизация происходит в глобальном масштабе. Когда соседство сократилось до пары нейронов, веса сходятся к локальным оценкам. В некоторых реализациях коэффициент обучения α и функция соседства Θ неуклонно уменьшаются с увеличением s, в других (в частности, в тех, где t сканирует набор обучающих данных) они уменьшаются пошагово, каждые T шагов.

Процесс обучения SOM на двумерном наборе данных

Этот процесс повторяется для каждого входного вектора в течение (обычно большого) количества циклов λ . В итоге сеть связывает выходные узлы с группами или шаблонами во входном наборе данных. Если эти шаблоны могут быть названы, имена могут быть присоединены к связанным узлам в обученной сети.

Во время отображения будет один единственный нейрон- победитель : нейрон, весовой вектор которого находится ближе всего к входному вектору. Это можно просто определить, вычислив евклидово расстояние между входным вектором и вектором весов.

Хотя в этой статье было подчеркнуто представление входных данных в виде векторов, любой тип объекта, который может быть представлен в цифровом виде, с которым связана соответствующая мера расстояния и в котором возможны необходимые операции для обучения, может быть использован для построения собственного -организация карты. Сюда входят матрицы, непрерывные функции или даже другие самоорганизующиеся карты.

Переменные [ править ]

Это необходимые переменные, векторы выделены жирным шрифтом,

  • это текущая итерация
  • это предел итераций
  • - индекс вектора целевых входных данных во входном наборе данных
  • целевой вектор входных данных
  • это индекс узла на карте
  • текущий весовой вектор узла
  • это индекс единицы наилучшего соответствия (BMU) на карте
  • является ограничением из-за расстояния от BMU, обычно называемого функцией соседства, и
  • - ограничение обучения из-за прогресса итерации.

Алгоритм [ править ]

  1. Рандомизируйте весовые векторы узлов на карте
  2. Случайно выбрать входной вектор
  3. Пройдите по каждому узлу на карте
    1. Используйте формулу евклидова расстояния, чтобы найти сходство между входным вектором и вектором веса узла карты.
    2. Отслеживайте узел, который производит наименьшее расстояние (этот узел является наиболее подходящей единицей, BMU)
  4. Обновите весовые векторы узлов в окрестности BMU (включая сам BMU), подтянув их ближе к входному вектору
  5. Увеличьте и повторите, начиная с шага 2, пока

Вариант алгоритма:

  1. Рандомизируйте весовые векторы узлов карты
  2. Просмотрите каждый входной вектор во входном наборе данных
    1. Пройдите по каждому узлу на карте
      1. Используйте формулу евклидова расстояния, чтобы найти сходство между входным вектором и вектором веса узла карты.
      2. Отслеживайте узел, который производит наименьшее расстояние (этот узел является наиболее подходящей единицей, BMU)
    2. Обновите узлы в окрестности BMU (включая сам BMU), подтянув их ближе к входному вектору
  3. Увеличьте и повторите, начиная с шага 2, пока

Инициализация SOM [ править ]

Выбор хорошего начального приближения - известная проблема для всех итерационных методов обучения нейронных сетей. Кохонен [13] использовал случайное инициирование весов SOM. В последнее время инициализация главных компонентов, при которой начальные веса карты выбираются из пространства первых главных компонент, стала популярной из-за точной воспроизводимости результатов. [14]

Тщательное сравнение подхода случайного инициирования к инициализации главного компонента для одномерного SOM (модели главных кривых) показало, что преимущества инициализации главного компонента SOM не универсальны. Лучший способ инициализации зависит от геометрии конкретного набора данных. Инициализация главного компонента предпочтительнее (в измерении один), если главная кривая, аппроксимирующая набор данных, может быть однолистно и линейно спроецирована на первый главный компонент (квазилинейные множества). Однако для нелинейных наборов данных случайное инициирование работает лучше. [15]

Примеры [ править ]

Данные о цветке ириса Фишера [ править ]

Рассмотрим массив узлов размером n × m , каждый из которых содержит вектор весов и знает свое местоположение в массиве. Каждый весовой вектор имеет ту же размерность, что и входной вектор узла. Первоначально веса могут быть установлены на случайные значения.

Теперь нам нужен ввод для подачи карты. Цвета могут быть представлены их красным, зеленым и синим компонентами. Следовательно, мы будем представлять цвета как векторы в единичном кубе в свободном векторном пространстве над ℝ порожденной основой :

R = <255, 0, 0>
G = <0, 255, 0>
B = <0, 0, 255>

Показанная диаграмма

Самоорганизующиеся карты (SOM) трех и восьми цветов с U-Matrix.

сравнивает результаты обучения на наборах данных [Примечание 1]

threeColors = [255, 0, 0], [0, 255, 0], [0, 0, 255]
восемьColors = [0, 0, 0], [255, 0, 0], [0, 255, 0], [0, 0, 255], [255, 255, 0], [0, 255, 255], [255, 0, 255], [255, 255, 255]

и исходные изображения. Обратите внимание на поразительное сходство между ними.

Точно так же после обучения сетки нейронов 40 × 40 для 250 итераций со скоростью обучения 0,1 на Ирисе Фишера карта уже может обнаружить основные различия между видами.

Самоорганизующаяся карта (SOM) набора данных Fisher's Iris Flower с U-матрицей. Вверху слева: цветное изображение, сформированное первыми тремя измерениями четырехмерных весовых векторов SOM. Вверху справа: псевдоцветное изображение величины весовых векторов SOM. Внизу слева: U-матрица (евклидово расстояние между весовыми векторами соседних ячеек) SOM. Внизу справа: наложение точек данных (красный: I. setosa , зеленый: I. versicolor и синий: I. virginica ) на U-матрице на основе минимального евклидова расстояния между векторами данных и весовыми векторами SOM.

Интерпретация [ править ]

Картографическое представление самоорганизующейся карты ( U-матрица ) на основе данных статей из Википедии (частота слов). Расстояние обратно пропорционально сходству. «Горы» - это грани между кластерами. Красные линии - это ссылки между статьями.
Одномерный SOM по сравнению с анализом главных компонентов (PCA) для аппроксимации данных. SOM - красная ломаная линия с квадратами, 20 узлов. Первый главный компонент представлен синей линией. Точки данных - это маленькие серые кружки. Для PCA доля необъяснимой дисперсии в этом примере составляет 23,23%, для SOM - 6,86%. [16]

Есть два способа интерпретировать SOM. Поскольку на этапе обучения веса всего окружения перемещаются в одном направлении, похожие предметы имеют тенденцию возбуждать соседние нейроны. Таким образом, SOM формирует семантическую карту, в которой похожие образцы отображаются близко друг к другу, а несходные - отдельно. Это можно визуализировать с помощью U-матрицы (евклидово расстояние между весовыми векторами соседних ячеек) SOM. [5] [6] [17]

Другой способ - рассматривать веса нейронов как указатели на входное пространство. Они образуют дискретную аппроксимацию распределения обучающих выборок. Больше нейронов указывает на области с высокой концентрацией обучающей выборки и меньше нейронов - на мало.

SOM можно рассматривать как нелинейное обобщение анализа главных компонентов (PCA). [18] С использованием как искусственных, так и реальных геофизических данных было показано, что SOM имеет много преимуществ [19] [20] по сравнению с традиционными методами извлечения признаков, такими как эмпирические ортогональные функции (EOF) или PCA.

Первоначально SOM не был сформулирован как решение проблемы оптимизации. Тем не менее, было несколько попыток изменить определение SOM и сформулировать проблему оптимизации, которая дает аналогичные результаты. [21] Например, эластичные карты используют механическую метафору эластичности для аппроксимации главных многообразий : [22] аналогия - эластичная мембрана и пластина.

Альтернативы [ править ]

  • Порождающая топографическая карта (GTM) является потенциальной альтернативой ЗВОЛА. В том смысле, что GTM явно требует гладкого и непрерывного отображения из пространства ввода в пространство карты, он сохраняет топологию. Однако в практическом смысле этой меры топологической сохранности нет. [23]
  • Сеть с адаптивной самоорганизующейся картой (TASOM) является расширением базовой SOM. TASOM использует адаптивную скорость обучения и функции соседства. Он также включает параметр масштабирования, чтобы сделать сеть инвариантной к масштабированию, перемещению и вращению входного пространства. TASOM и его варианты использовались в нескольких приложениях, включая адаптивную кластеризацию, многоуровневую пороговую обработку, аппроксимацию входного пространства и моделирование активного контура. [24] Кроме того, было предложено двоичное дерево TASOM или BTASOM, напоминающее двоичное естественное дерево, имеющее узлы, состоящие из сетей TASOM, где количество его уровней и количество узлов адаптируются к окружающей среде. [25]
  • Растет самоорганизующаяся карта (ВШМ) является растущим вариантом самоорганизующейся карты. ВШМ была разработана для решения проблемы определения подходящего размера карты в ЗВОЛ. Он начинается с минимального количества узлов (обычно четырех) и наращивает новые узлы на границе на основе эвристики. Используя значение, называемое коэффициентом распространения , аналитик данных имеет возможность контролировать рост GSOM.
  • В эластичных картах приближаются [26] заимствует из сплайна интерполяции идеи минимизации энергии упругой деформации . При обучении он сводит к минимуму сумму квадратичной энергии изгиба и растяжения с ошибкой аппроксимации методом наименьших квадратов .
  • Конформный подход [27] [28], который использует конформное отображение для интерполяции каждой обучающей выборки между узлами сетки на непрерывной поверхности. При таком подходе возможно однозначное сглаживание.
  • Ориентированная и масштабируемая карта (OS-Map) обобщающая функцию окрестностей и выбор победителя. [29] Однородная гауссовская функция окрестности заменяется матричной экспонентой. Таким образом, можно указать ориентацию либо в пространстве карты, либо в пространстве данных. SOM имеет фиксированный масштаб (= 1), так что карты «оптимально описывают область наблюдения». Но как насчет карты, покрывающей область дважды или n-кратно? Это влечет за собой концепцию масштабирования. OS-Map рассматривает масштаб как статистическое описание того, сколько узлов наилучшим образом соответствует входным данным на карте.

Приложения [ править ]

  • Приоритезация и отбор проектов [30]
  • Анализ сейсмофаций при разведке нефти и газа [31]
  • Анализ видов и последствий отказов [32]
  • Создание произведений искусства [33]

См. Также [ править ]

  • Нейронный газ
  • Изучение векторного квантования
  • Машина жидких состояний
  • Гибрид Кохонена СОМ
  • Разреженное кодирование
  • Редкая распределенная память
  • Глубокое обучение
  • Неокогнитрон
  • Топологический анализ данных

Примечания [ править ]

  1. ^ Эти наборы данных не нормализованы . Для обучения SOM потребуется нормализация.

Ссылки [ править ]

  1. ^ Кохонен, Теуво; Хонкела, Тимо (2007). «Сеть Кохонена» . Scholarpedia . 2 (1): 1568. Bibcode : 2007SchpJ ... 2,1568K . DOI : 10,4249 / scholarpedia.1568 .
  2. ^ Кохонена, Teuvo (1982). «Самоорганизованное формирование топологически корректных карт признаков». Биологическая кибернетика . 43 (1): 59–69. DOI : 10.1007 / bf00337288 . S2CID 206775459 . 
  3. ^ Фон дер Malsburg, С (1973). «Самоорганизация ориентировочно чувствительных клеток в полосатой коре головного мозга». Кибернетик . 14 (2): 85–100. DOI : 10.1007 / bf00288907 . PMID 4786750 . S2CID 3351573 .  
  4. ^ Тьюринг, Алан (1952). «Химические основы морфогенеза» . Фил. Пер. R. Soc . 237 (641): 37–72. Полномочный код : 1952RSPTB.237 ... 37T . DOI : 10,1098 / rstb.1952.0012 .
  5. ^ a b Ульч, Альфред; Симон, Х. Питер (1990). «Самоорганизующиеся карты функций Кохонена для исследовательского анализа данных» . В Видроу, Бернард; Angeniol, Bernard (ред.). Труды Международной конференции Neural Network (INNC-90), Париж, Франция, 9-13 июля 1990 года . 1 . Дордрехт, Нидерланды: Kluwer. С.  305–308 . ISBN 978-0-7923-0831-7.
  6. ^ a b Ultsch, Альфред (2003); U * -Matrix: инструмент для визуализации кластеров в данных большой размерности , Департамент компьютерных наук, Марбургский университет, Технический отчет Nr. 36: 1-12
  7. ^ Ultsch, Альфред (2007). «Появление в самоорганизующихся картах признаков». В Ritter, H .; Haschke, R. (ред.). Материалы 6-го Международного семинара по самоорганизующимся картам (WSOM '07) . Билефельд, Германия: Группа нейроинформатики. ISBN 978-3-00-022473-7.
  8. ^ Яаакко Hollmen (9 марта 1996). «Самоорганизующаяся карта (САМ)» . Университет Аалто .
  9. ^ a b Хайкин, Саймон (1999). «9. Самоорганизующиеся карты». Нейронные сети - Комплексная основа (2-е изд.). Прентис-Холл. ISBN 978-0-13-908385-3.
  10. ^ Кохонена, Teuvo (2005). «Введение в SOM» . SOM Toolbox . Проверено 18 июня 2006 .
  11. ^ Кохонен, Теуво; Хонкела, Тимо (2011). «Сеть Кохонена» . Scholarpedia . 2 (1): 1568. Bibcode : 2007SchpJ ... 2,1568K . DOI : 10,4249 / scholarpedia.1568 . Проверено 24 сентября 2012 .
  12. ^ Vrieze, OJ (1995). "Сеть Кохонена" (PDF) . Искусственные нейронные сети . Springer . Конспект лекций по информатике. 931 . Лимбургский университет, Маастрихт. С. 83–100. DOI : 10.1007 / BFb0027024 . ISBN  978-3-540-59488-8. Дата обращения 1 июля 2020 .
  13. ^ Т. Кохонен, Самоорганизация и ассоциативная память. Спрингер, Берлин, 1984.
  14. ^ A. Ciampi, Y. Lechevallier, Кластеризация больших многоуровневых наборов данных: подход, основанный на самоорганизующихся картах Кохонена, в DA Zighed, J. Komorowski, J. Zytkow (Eds.), PKDD 2000, Springer LNCS (LNAI) ), т. 1910, стр. 353-358, 2000.
  15. ^ Акиндуко, АА; Mirkes, EM; Горбань, АН (2016). «SOM: стохастическая инициализация по сравнению с основными компонентами» . Информационные науки . 364–365: 213–221. DOI : 10.1016 / j.ins.2015.10.013 .
  16. ^ Иллюстрация подготовлена ​​с использованием бесплатного программного обеспечения: Mirkes, Evgeny M .; Анализ основных компонентов и самоорганизующиеся карты: апплет , Университет Лестера, 2011 г.
  17. ^ Saadatdoost, Robab, Алекс Цзы Hiang Sim и Jafarkarimi, Хосейн. «Применение самоорганизующейся карты для открытия знаний на основе данных высшего образования». Исследования и инновации в информационных системах (ICRIIS), Международная конференция 2011 г. IEEE, 2011.
  18. ^ Инь, Худжунь; Изучение нелинейных главных многообразий с помощью самоорганизующихся карт , Горбань, Александр Н .; Кегл, Балаж; Wunsch, Donald C .; и Зиновьев, Андрей (ред.); Основные многообразия для визуализации данных и уменьшения размерности , Лекционные заметки по информатике и инженерии (LNCSE), т. 58, Берлин, Германия: Springer, 2008, ISBN 978-3-540-73749-0 
  19. ^ Лю, Юнган; Вайсберг, Роберт Х (2005). «Модели изменчивости океанских течений на шельфе Западной Флориды с использованием самоорганизующейся карты» . Журнал геофизических исследований . 110 (C6): C06003. Bibcode : 2005JGRC..110.6003L . DOI : 10.1029 / 2004JC002786 .
  20. ^ Лю, Юнган; Вайсберг, Роберт Х .; Муерс, Кристофер NK (2006). «Оценка производительности самоорганизующейся карты для извлечения признаков» . Журнал геофизических исследований . 111 (C5): C05018. Bibcode : 2006JGRC..111.5018L . DOI : 10.1029 / 2005jc003117 .
  21. ^ Хескес, Том; Энергетические функции для самоорганизующихся карт , Оя, Эркки; и Каски, Самуэль (ред.), Kohonen Maps , Elsevier, 1999
  22. ^ Горбань, Александр Н .; Кегл, Балаж; Wunsch, Donald C .; и Зиновьев, Андрей (ред.); Основные многообразия для визуализации данных и уменьшения размерности , Лекционные заметки по информатике и инженерии (LNCSE), т. 58, Берлин, Германия: Springer, 2008, ISBN 978-3-540-73749-0 
  23. ^ Kaski, Самуэль (1997). Исследование данных с помощью самоорганизующихся карт . Acta Polytechnica Scandinavica . Математика, вычисления и менеджмент в инженерии. Серия № 82. Эспоо, Финляндия: Финская технологическая академия. ISBN 978-952-5148-13-8.
  24. ^ Шах-Хоссейни, Хамед; Сафабахш, Реза (апрель 2003 г.). «ТАСОМ: Самоорганизующаяся карта, адаптивная к новому времени». IEEE Transactions по системам, человеку и кибернетике - Часть B: Кибернетика . 33 (2): 271–282. DOI : 10.1109 / tsmcb.2003.810442 . PMID 18238177 . 
  25. Шах-Хоссейни, Хамед (май 2011 г.). "Двоичное дерево Адаптивная самоорганизующаяся карта времени". Нейрокомпьютеры . 74 (11): 1823–1839. DOI : 10.1016 / j.neucom.2010.07.037 .
  26. ^ А. Н. Горбан, А. Зиновьев, Основные многообразия и графы на практике: от молекулярной биологии к динамическим системам , Международный журнал нейронных систем , Vol. 20, № 3 (2010) 219–232.
  27. ^ Liou, C.-Y .; Куо, Ю.-Т. (2005). «Конформная самоорганизующаяся карта для многообразия нулевого рода» . Визуальный компьютер . 21 (5): 340–353. DOI : 10.1007 / s00371-005-0290-6 . S2CID 8677589 . 
  28. ^ Liou, C.-Y .; Тай, В.-П. (2000). «Конформность в сети самоорганизации». Искусственный интеллект . 116 (1–2): 265–286. DOI : 10.1016 / S0004-3702 (99) 00093-4 .
  29. ^ Хуа, H (2016). «Обработка изображений и геометрии с помощью ориентированной и масштабируемой карты». Нейронные сети . 77 : 1–6. DOI : 10.1016 / j.neunet.2016.01.009 . PMID 26897100 . 
  30. ^ Чжэн, Г. и Вайшнави, В. (2011) «Подход с использованием многомерной карты восприятия для определения приоритетов и выбора проекта», Транзакции AIS по взаимодействию человека и компьютера (3) 2, стр. 82-103
  31. ^ Танер, MT; Стены, JD; Smith, M .; Taylor, G .; Карр, МБ; Дюма, Д. (2001). «Характеристика коллектора путем калибровки самоорганизованных кластеров карт» . Расширенные тезисы технической программы SEG 2001 . 2001 . С. 1552–1555. DOI : 10.1190 / 1.1816406 . S2CID 59155082 . 
  32. ^ Чанг, Вуи Ли; Панг, Ли Мэн; Тай, Кай Мэн (март 2017 г.). «Применение самоорганизующейся карты к методологии анализа режимов и последствий отказов» (PDF) . Нейрокомпьютеры . ПП : 314–320. DOI : 10.1016 / j.neucom.2016.04.073 .
  33. ^ ANNetGPGPU Библиотека CUDA с примерами [1] Создание изображений с ускорением на GPU