Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Хопфилда сеть (или Изинга модель нейронной сети или Изинга-Ленца-модели Литтла ) является одной из форм рецидивирующий искусственной нейронной сети и типа спинового стекла системы популяризировал Хопфилд в 1982 году [1] , как описано ранее Литтл в 1974 году [2] основан на работе Эрнста Изинга с Вильгельмом Ленцем над моделью Изинга . [3] Сети Хопфилда служат как системы памяти с адресацией по содержанию ("ассоциативные") с бинарными пороговыми узлами.. Сети Хопфилда также предоставляют модель для понимания человеческой памяти. [4] [5]

Истоки [ править ]

Модель Изинга нейронной сети в качестве модели памяти впервые была предложена Уильямом А. Литтлом в 1974 году [2], что было признано Хопфилдом в его статье 1982 года. [1]

Структура [ править ]

Сетка Хопфилда с четырьмя звеньями

Единицы в сетях Хопфилда представляют собой бинарные пороговые единицы, то есть единицы принимают только два разных значения для своих состояний, и значение определяется тем, превышает ли вход единиц их пороговое значение . Дискретные сети Хопфилда описывают отношения между бинарными (активными или неактивными) нейронами . [1] В определенный момент состояние нейронной сети описывается вектором , который записывает, какие нейроны срабатывают, в двоичном слове из N бит.

Взаимодействия между нейронами имеют единицы, которые обычно принимают значения 1 или -1, и это соглашение будет использоваться в этой статье. Однако в другой литературе могут использоваться единицы, принимающие значения 0 и 1. Эти взаимодействия «изучаются» с помощью закона ассоциации Хебба, так что для определенного состояния

но .

(Обратите внимание, что правило обучения Хебба принимает форму, когда единицы принимают значения в {0, 1}.)

Как только сеть обучена, больше не развиваться. Если в нейронную сеть вводится новое состояние нейронов , сеть воздействует на нейроны так, что

  • если
  • если

Таким образом, сети Хопфилда имеют возможность «запоминать» состояния, хранящиеся в матрице взаимодействия, потому что, если новое состояние подвергается воздействию матрицы взаимодействия, каждый нейрон будет изменяться, пока не будет соответствовать исходному состоянию (см. Раздел «Обновления» ниже).

Соединения в сети Хопфилда обычно имеют следующие ограничения:

  • (никакая единица не связана сама с собой)
  • (соединения симметричны)

Ограничение, что веса являются симметричными, гарантирует, что функция энергии монотонно убывает при соблюдении правил активации. [6] Сеть с асимметричными весами может демонстрировать периодическое или хаотическое поведение; однако Хопфилд обнаружил, что это поведение ограничено относительно небольшими частями фазового пространства и не ухудшает способность сети действовать как ассоциативная система памяти с адресацией по содержанию.

Хопфилд также смоделировал нейронные сети для непрерывных значений, в которых электрический выход каждого нейрона не двоичный, а некоторое значение от 0 до 1. [7] Он обнаружил, что этот тип сети также может сохранять и воспроизводить запомненные состояния.

Обратите внимание, что каждая пара модулей i и j в сети Хопфилда имеет соединение, которое описывается весом связности . В этом смысле сеть Хопфилда можно формально описать как полный неориентированный граф , где представляет собой набор нейронов Мак-Каллоха – Питтса и является функцией, которая связывает пары единиц с реальным значением, весом связности.

Обновление [ править ]

Обновление одного блока (узла на графике, имитирующем искусственный нейрон) в сети Хопфилда выполняется по следующему правилу:

куда:

  • - сила веса соединения от единицы j к единице i (вес соединения).
  • состояние i-го агрегата.
  • - порог единицы i.

Обновления в сети Hopfield могут выполняться двумя разными способами:

  • Асинхронный : одновременно обновляется только один модуль. Этот отряд можно выбрать случайным образом или задать заранее определенный порядок с самого начала.
  • Синхронно : все блоки обновляются одновременно. Для этого требуются центральные часы в системе, чтобы поддерживать синхронизацию. Некоторые считают этот метод менее реалистичным из-за отсутствия наблюдаемых глобальных часов, влияющих на аналогичные представляющие интерес биологические или физические системы.

Нейроны «притягивают или отталкивают друг друга» в пространстве состояний [ править ]

Вес между двумя единицами оказывает сильное влияние на значения нейронов. Рассмотрим вес связи между двумя нейронами i и j. Если , правило обновления подразумевает, что:

  • когда вклад j во взвешенную сумму положительный. Таким образом, j притягивается к своему значению
  • когда вклад j во взвешенную сумму отрицательный. Затем снова подталкивается j к его значению

Таким образом, значения нейронов i и j сойдутся, если вес между ними положительный. Точно так же они будут расходиться, если вес отрицательный.

Принципы работы дискретных и непрерывных сетей Хопфилда [ править ]

Брук пролил свет на поведение нейрона в дискретной сети Хопфилда, когда доказал его сходимость в своей статье 1990 года. [8]   В последующей работе [9] далее исследовалось поведение любого нейрона как в дискретном, так и в непрерывном времени Хопфилда. сетей, когда соответствующая функция энергии минимизируется в процессе оптимизации. Брук показывает [8], что нейрон j меняет свое состояние тогда и только тогда, когда он дополнительно уменьшает следующий смещенный псевдоразрез . Дискретная сеть Хопфилда минимизирует следующий смещенный псевдоразрез [9] для синаптической весовой матрицы сети Хопфилда.

где и представляет собой набор нейронов, которые в момент времени находятся на -1 и +1 соответственно . Для получения дополнительной информации см. Недавнюю статью. [9]

Дискретное время Хопфилд сеть всегда сводит к минимуму точно следующему псевдо- разреза   (, [8] [9] )

Непрерывное время Хопфилд сеть всегда минимизирует верхнюю границу к следующему взвешенному разрезу  [9]

где - сигмоидальная функция с нулевым центром.

С другой стороны, сложная сеть Хопфилда обычно стремится минимизировать так называемое « срезание тени» комплексной весовой матрицы сети. [10]

Энергия [ править ]

Энергетический ландшафт сети Хопфилда, подчеркивающий текущее состояние сети (в гору), состояние аттрактора, к которому она в конечном итоге сойдется, минимальный уровень энергии и область притяжения, заштрихованная зеленым. Обратите внимание на то, что обновление сети Hopfield Network всегда идет на спад в Energy.

Сети Хопфилда имеют скалярное значение, связанное с каждым состоянием сети, называемое «энергией» E сети, где:

Это количество называется «энергией», потому что оно либо уменьшается, либо остается неизменным при обновлении сетевых модулей. Кроме того, при повторном обновлении сеть в конечном итоге сходится к состоянию, которое является локальным минимумом в функции энергии (которая считается функцией Ляпунова ). [1] Таким образом, если состояние является локальным минимумом в функции энергии, это стабильное состояние для сети. Обратите внимание, что эта функция энергии принадлежит к общему классу моделей в физике под названием модели Изинга ; они, в свою очередь, являются частным случаем сетей Маркова , поскольку ассоциированная вероятностная мера , мера Гиббса , имеетМарковское свойство .

Сеть Хопфилда в оптимизации [ править ]

Хопфилд и Танк представили приложение сети Хопфилда для решения классической задачи коммивояжера в 1985 году [11].С тех пор сеть Хопфилда широко использовалась для оптимизации. Идея использования сети Хопфилда в задачах оптимизации проста: если функция затрат с ограничениями / без ограничений может быть записана в форме функции энергии Хопфилда E, то существует сеть Хопфилда, точки равновесия которой представляют решения для оптимизации с ограничениями / без ограничений. проблема. Минимизация функции энергии Хопфилда минимизирует целевую функцию и удовлетворяет ограничениям, так как ограничения «встроены» в синаптические веса сети. Хотя включение ограничений оптимизации в синаптические веса наилучшим образом является сложной задачей, действительно, многие различные сложные задачи оптимизации с ограничениями в различных дисциплинах были преобразованы в функцию энергии Хопфилда:Системы ассоциативной памяти, аналого-цифровое преобразование, задача планирования рабочего места, квадратичное назначение и другие связанные NP-полные задачи, проблема распределения каналов в беспроводных сетях, проблема маршрутизации мобильной сети ad-hoc, восстановление изображений, идентификация системы, комбинаторная оптимизация и т. д., и это лишь некоторые из них. Более подробную информацию можно найти, например, в статье.[9]  

Инициализация и запуск [ править ]

Инициализация сетей Хопфилда выполняется путем установки значений единиц на желаемый стартовый образец. Затем выполняются повторные обновления до тех пор, пока сеть не сойдется к шаблону аттрактора. Конвергенция , как правило , уверена, что и Хопфилд доказано , что аттракторы этой нелинейной системы динамической являются стабильными, а не периодическими или хаотическими , как и в некоторых других системах [ править ] . Следовательно, в контексте сетей Хопфилда шаблон аттрактора - это окончательное стабильное состояние, шаблон, который не может изменить какое-либо значение в нем при обновлении [ необходима цитата ] .

Обучение [ править ]

Тренировка сети Хопфилда включает в себя снижение энергии состояний, которые сеть должна «запоминать». Это позволяет сети служить системой памяти с адресацией по содержанию, то есть сеть будет сходиться к «запомненному» состоянию, если ей дана только часть состояния. Сеть может использоваться для восстановления после искаженного ввода до обученного состояния, которое наиболее похоже на этот ввод. Это называется ассоциативной памятью, потому что она восстанавливает воспоминания на основе сходства. Например, если мы тренируем сеть Хопфилда с пятью единицами так, чтобы состояние (1, -1, 1, -1, 1) было минимумом энергии, и мы даем сети состояние (1, -1, -1, -1, 1) он сходится к (1, -1, 1, -1, 1). Таким образом, сеть правильно обучается, когда энергия состояний, которую она должна запомнить, является локальным минимумом. Обратите внимание, что,в отличие от перцептрона при обучении пороги нейронов никогда не обновляются.

Правила обучения [ править ]

Существуют различные правила обучения, которые можно использовать для хранения информации в памяти сети Хопфилда. Желательно, чтобы правило обучения обладало обоими из следующих двух свойств:

  • Локальный : правило обучения является локальным, если каждый вес обновляется с использованием информации, доступной нейронам по обе стороны от соединения, которое связано с этим конкретным весом.
  • Пошаговый : новые шаблоны можно изучать без использования информации из старых шаблонов, которые также использовались для обучения. То есть, когда для обучения используется новый шаблон, новые значения весов зависят только от старых значений и от нового шаблона. [12]

Эти свойства желательны, поскольку удовлетворяющее им правило обучения более правдоподобно с биологической точки зрения. Например, поскольку человеческий мозг постоянно изучает новые концепции, можно предположить, что человеческое обучение идет постепенно. Система обучения, которая не была инкрементальной, обычно обучалась только один раз с огромным пакетом обучающих данных.

Правило обучения Hebbian для сетей Хопфилда [ править ]

Теория Хебба была введена Дональдом Хебба в 1949 году, для того , чтобы объяснить «ассоциативное обучение», в котором одновременно активацию нейронных клеток приводят к выраженному увеличению синаптической силы между этими клетками. [13] Это часто резюмируется как «Нейроны, которые срабатывают вместе, соединяются вместе. Нейроны, которые срабатывают не синхронно, не могут связываться».

Правило Hebbian является одновременно локальным и инкрементным. Для сетей Хопфилда при изучении бинарных паттернов это реализуется следующим образом :

где представляет бит i из шаблона .

Если биты, соответствующие нейронам i и j, равны по шаблону , то произведение будет положительным. Это, в свою очередь, положительно повлияет на вес, и значения i и j будут иметь тенденцию становиться равными. Обратное происходит, если биты, соответствующие нейронам i и j, различны.

Правило обучения аиста [ править ]

Это правило было введено Амосом Сторки в 1997 году и является одновременно локальным и постепенным. Сторки также показал, что сеть Хопфилда, обученная с использованием этого правила, имеет большую пропускную способность, чем соответствующая сеть, обученная с использованием правила Хеббиана. [14] Считается, что весовая матрица аттракторной нейронной сети [ требуется пояснение ] следует правилу обучения Сторки, если она подчиняется:

где - форма локального поля [12] на нейроне i.

Это правило обучения является локальным, поскольку синапсы учитывают только нейроны по бокам. Правило использует больше информации из шаблонов и весов, чем обобщенное правило Хебба, из-за эффекта локального поля.

Ложные узоры [ править ]

Паттерны, которые сеть использует для обучения (называемые состояниями поиска ), становятся аттракторами системы. Повторные обновления в конечном итоге приведут к сходимости к одному из состояний поиска. Однако иногда сеть сходится к ложным шаблонам (отличным от шаблонов обучения). [15] Энергия в этих паразитных диаграммах также является локальным минимумом. Для каждого сохраненного шаблона x отрицание -x также является ложным шаблоном.

Ложное состояние также может быть линейной комбинацией нечетного числа состояний поиска. Например, при использовании 3 паттернов можно получить следующее ложное состояние:

Ложные паттерны с четным числом состояний не могут существовать, поскольку их сумма может равняться нулю [15]

Емкость [ править ]

Емкость сети в сетевой модели Хопфилда определяется количеством нейронов и связями в данной сети. Следовательно, количество воспоминаний, которые могут быть сохранены, зависит от нейронов и связей. Кроме того, было показано, что точность отзыва между векторами и узлами составляла 0,138 (примерно 138 векторов можно вызвать из памяти на каждые 1000 узлов) (Hertz et al., 1991). Следовательно, очевидно, что при попытке сохранить большое количество векторов произойдет много ошибок. Когда модель Хопфилда не запоминает правильный паттерн, возможно, что произошло вторжение, поскольку семантически связанные элементы имеют тенденцию вводить в заблуждение человека, и происходит запоминание неправильного паттерна. Таким образом, сетевая модель Хопфилда при извлечении путает один сохраненный элемент с другим.Идеальные отзывы и высокая емкость,> 0,14, могут быть загружены в сеть с помощью метода обучения Storkey; ETAM,[16] [17] Эксперименты с ETAM также представлены в [18]. Внешние модели, вдохновленные сетью Хопфилда, были позже разработаны для увеличения предела памяти и уменьшения частоты ошибок при извлечении, при этом некоторые из них были способны к однократному обучению . [19]

Емкость хранилища может быть задана как где - количество нейронов в сети.

Человеческая память [ править ]

Модель Хопфилда учитывает ассоциативную памятьза счет включения векторов памяти. Векторы памяти можно использовать немного, и это вызовет поиск наиболее похожего вектора в сети. Однако мы выясним, что из-за этого процесса могут происходить вторжения. В ассоциативной памяти для сети Хопфилда есть два типа операций: автоассоциация и гетероассоциация. Первый - когда вектор связан сам с собой, а второй - когда два разных вектора связаны в хранилище. Кроме того, оба типа операций можно хранить в одной матрице памяти, но только если данная матрица представления не является одной или другой из операций, а скорее является их комбинацией (автоассоциативной и гетероассоциативной). Важно отметить, что сетевая модель Хопфилда использует то же правило обучения, что иПравило обучения Хебба (1949) , которое в основном пыталось показать, что обучение происходит в результате усиления весов во время активности.

Риццуто и Кахана (2001) смогли показать, что модель нейронной сети может учитывать повторение при точности отзыва за счет включения алгоритма вероятностного обучения. Во время процесса поиска обучения не происходит. В результате веса сети остаются фиксированными, показывая, что модель может переключаться с этапа обучения на этап отзыва. Добавив контекстный дрейф, они смогли показать быстрое забвение, которое происходит в модели Хопфилда во время задания на вызов. Вся сеть способствует изменению активации любого отдельного узла.

Динамическое правило Маккаллоха и Питтса (McCulloch and Pitts, 1943), которое описывает поведение нейронов, делает это таким образом, чтобы показать, как активации нескольких нейронов отображаются на активацию скорости возбуждения нового нейрона и как веса нейронов усиливают синаптические связи между новым активированным нейроном (и теми, которые его активировали). Хопфилд использовал динамическое правило Маккаллоха – Питтса, чтобы показать, как поиск возможен в сети Хопфилда. Однако важно отметить, что Хопфилд делал это постоянно. Хопфилд будет использовать нелинейную функцию активации вместо использования линейной функции. Таким образом, это создало бы динамическое правило Хопфилда, и с его помощью Хопфилд смог показать, что с помощью нелинейной функции активации,динамическое правило всегда будет изменять значения вектора состояния в направлении одного из сохраненных шаблонов.

См. Также [ править ]

  • Ассоциативная память (значения)
  • Автоассоциативная память
  • Машина Больцмана - похожа на сеть Хопфилда, но использует отожженную выборку Гиббса вместо градиентного спуска.
  • Модель динамических систем познания
  • Модель Изинга
  • Хеббийская теория

Ссылки [ править ]

  1. ^ а б в г Хопфилд, JJ (1982). «Нейронные сети и физические системы с возникающими коллективными вычислительными возможностями» . Труды Национальной академии наук . 79 (8): 2554–2558. Bibcode : 1982PNAS ... 79.2554H . DOI : 10.1073 / pnas.79.8.2554 . PMC  346238 . PMID  6953413 .
  2. ^ a b Литтл, Вашингтон (1974). «Существование устойчивых состояний в мозгу». Математические биологические науки . 19 (1–2): 101–120. DOI : 10.1016 / 0025-5564 (74) 90031-5 .
  3. ^ Кисть, Стивен Г. (1967). «История модели Ленца-Изинга». Обзоры современной физики . 39 (4): 883–893. Bibcode : 1967RvMP ... 39..883B . DOI : 10.1103 / RevModPhys.39.883 .
  4. ^ Амит, Дэниел Дж. Моделирование функции мозга: мир нейронных сетей аттрактора. Издательство Кембриджского университета, 1992 г.
  5. ^ Роллс, Эдмунд Т. Кора головного мозга: принципы работы. Издательство Оксфордского университета, 2016 г.
  6. ^ Маккей, Дэвид JC (2003). «42. Hopfield Networks». Теория информации, логические выводы и алгоритмы обучения . Издательство Кембриджского университета . п. 508 . ISBN 978-0521642989. Это доказательство сходимости существенно зависит от того факта, что связи сети Хопфилда симметричны . Это также зависит от того, какие обновления выполняются асинхронно.
  7. ^ Хопфилда, JJ (1984). «Нейроны с градуированной реакцией обладают коллективными вычислительными свойствами, как у нейронов с двумя состояниями» . Труды Национальной академии наук . 81 (10): 3088–3092. Bibcode : 1984PNAS ... 81.3088H . DOI : 10.1073 / pnas.81.10.3088 . PMID 6587342 . 
  8. ^ a b c Дж. Брук, “О свойствах сходимости модели Хопфилда”, Proc. IEEE, т. 78, стр. 1579–1585, октябрь 1990 г.
  9. ^ Б с д е е Z. Uykan. «О принципах работы нейронных сетей Хопфилда и их эквивалентности GADIA в оптимизации», IEEE Transactions on Neural Networks and Learning Systems, стр. 1-11, 2019 г. (DOI: 10.1109 / TNNLS.2019.2940920) (ссылка)
  10. ^ З. Uykan, "Тень-Cuts Минимизация / максимизация и сложные нейронные сети Хопфилда", IEEE Transactions нейронных сетей и системы обучения, pp.1-11, 2020 (DOI: 10.1109 / TNNLS.2020.2980237). (Открытый доступ)
  11. JJ Hopfield и DW Tank. «Нейронное вычисление решений в задачах оптимизации». Биологическая кибернетика 55, стр: 141-146, (1985).
  12. ^ a b Сторки, Амос Дж. и Ромен Валабрег. «Источники притяжения нового правила обучения Хопфилда». Нейронные сети 12.6 (1999): 869-876 .
  13. ^ Хебб, Дональд Олдинг. Организация поведения: нейропсихологическая теория. Лоуренс Эрлбаум, 2002.
  14. ^ Сторки, Амос. «Увеличение пропускной способности сети Hopfield без ущерба для функциональности». Искусственные нейронные сети - ICANN'97 (1997): 451-456 .
  15. ^ a b Герц, Джон А., Андерс С. Крог и Ричард Г. Палмер. Введение в теорию нейронных вычислений. Vol. 1. Вествью пресс, 1991.
  16. ^ Liou, C.-Y .; Линь, С.-Л. (2006). «Конечная загрузка памяти в волосатых нейронах» (PDF) . Естественные вычисления . 5 (1): 15–42. DOI : 10.1007 / s11047-004-5490-х . S2CID 35025761 .  
  17. ^ Liou, C.-Y .; Юань, С.-К. (1999). «Устойчивая к ошибкам ассоциативная память». Биологическая кибернетика . 81 (4): 331–342. DOI : 10.1007 / s004220050566 . PMID 10541936 . S2CID 6168346 .  
  18. ^ Юань, С.-К. (Июнь 1997 г.). Расширение бассейнов притяжения ассоциативной памяти (магистерская диссертация). Национальный Тайваньский университет. 991010725609704786.
  19. ^ АБУДИБ, Ала; ГРИПОН, Винсент; ЦЗЯН, Сяорань (2014). «Исследование алгоритмов поиска разреженных сообщений в сетях нейронных клик» . КОГНИТИВ 2014: 6-я Международная конференция по передовым когнитивным технологиям и приложениям : 140–146. arXiv : 1308.4506 . Bibcode : 2013arXiv1308.4506A .
  • Хебб Д.О. (1949). Организация поведения. Нью-Йорк: Уайли
  • Герц Дж., Крог А. и Палмер Р. Г. (1991). Введение в теорию нейронных вычислений. Редвуд-Сити, Калифорния: Эддисон-Уэсли.
  • Маккаллох, WS; Питтс, WH (1943). «Логический расчет идей, присущих нервной деятельности». Вестник математической биофизики . 5 (4): 115–133. DOI : 10.1007 / BF02478259 .
  • Polyn, SM; Кахана, MJ (2008). «Поиск в памяти и нейронное представление контекста» . Тенденции в когнитивных науках . 12 (1): 24–30. DOI : 10.1016 / j.tics.2007.10.010 . PMC  2839453 . PMID  18069046 .
  • Риццуто, DS; Кахана, MJ (2001). «Модель автоассоциативной нейронной сети парно-ассоциативного обучения». Нейронные вычисления . 13 (9): 2075–2092. CiteSeerX  10.1.1.45.7929 . DOI : 10.1162 / 089976601750399317 . PMID  11516358 . S2CID  7675117 .
  • Kruse, Borgelt, Klawonn, Moewes, Russ, Steinbrecher (2011). Вычислительный интеллект.

Внешние ссылки [ править ]

  • Глава 13 Хопфилда модель из нейронных сетей - Систематический Введение Рауль Рохас ( ISBN 978-3-540-60505-8 ) 
  • Javascript сети Хопфилда
  • Задача коммивояжера - JAVA-апплет нейронной сети Хопфилда
  • scholarpedia.org - Сеть Хопфилда - Статья Джона Хопфилда о сетях Хопфилда
  • Обучение сети Хопфилда с использованием детерминированных скрытых переменных - Учебное пособие Тристана Флетчера
  • Графический интерфейс нейронной лаборатории - графический интерфейс нейронной сети Хопфилда (Python & gtk)