Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Автоассоциатор представляет собой тип искусственной нейронной сети используется , чтобы узнать эффективные кодировки данных в неконтролируемой манере. [1] Задача автокодировщика - изучить представление (кодирование) набора данных, обычно для уменьшения размерности , путем обучения сети игнорированию сигнала «шум». Наряду со стороной сокращения изучается сторона восстановления, когда автоэнкодер пытается сгенерировать из сокращенной кодировки представление, максимально приближенное к исходному входу, отсюда и его название. Существуют варианты, направленные на то, чтобы выученные представления приобрели полезные свойства. [2] Примерами являются регуляризованные автокодеры (Sparse , Denoising и Contractive ), которые эффективны при обучении представлений для последующих задач классификации [3] и вариационных автоэнкодеров с приложениями в качестве генеративных моделей . [4] Автоэнкодеры применяются для решения многих задач, от распознавания лиц [5] до получения семантического значения слов. [6] [7]

Введение [ править ]

Автоассоциатор является нейронной сетью , которая учится копировать свой вклад в его выход. Он имеет внутренний ( скрытый ) слой, который описывает код, используемый для представления ввода, и состоит из двух основных частей: кодировщика, который отображает ввод в код, и декодера, который отображает код на реконструкцию ввода. .

Безупречное выполнение задачи копирования просто дублирует сигнал, и именно поэтому автокодеры обычно ограничены способами, которые заставляют их приблизительно реконструировать ввод, сохраняя только наиболее важные аспекты данных в копии.

Идея автоэнкодеров была популярна в области нейронных сетей на протяжении десятилетий. Первые заявки относятся к 1980-м годам. [2] [8] [9] Их наиболее традиционным применением было уменьшение размерности или изучение функций , но концепция автоэнкодера стала более широко использоваться для изучения генеративных моделей данных. [10] [11] Некоторые из самых мощных ИИ 2010-х годов включали в себя редкие автокодеры, встроенные в глубокие нейронные сети. [12]

Базовая архитектура [ править ]

Схема базового автоэнкодера

Самая простая форма автоэнкодера - это неповторяющаяся нейронная сеть с прямой связью , аналогичная однослойным перцептронам, которые участвуют в многослойных перцептронах (MLP), использующая входной и выходной уровни, соединенные одним или несколькими скрытыми слоями. Выходной слой имеет такое же количество узлов (нейронов), что и входной слой. Его цель состоит в том, чтобы реконструировать свои входные данные (минимизируя разницу между входом и выходом) вместо того, чтобы предсказывать целевое значение с учетом входных данных . Следовательно, автоэнкодеры - это модели обучения без учителя . (Для обучения им не требуются маркированные входы).

Автоэнкодер состоит из двух частей, кодировщика и декодера, которые можно определить как переходы и такие, что:

В простейшем случае, учитывая один скрытый слой, этап кодировщика автоэнкодера принимает входные данные и сопоставляет их :

Это изображение обычно называют кодом , скрытыми переменными или скрытым представлением . Здесь представлена ​​поэлементная функция активации, такая как сигмовидная функция или выпрямленный линейный блок . - матрица весов и вектор смещения. Веса и смещения обычно инициализируются случайным образом, а затем обновляются итеративно во время обучения посредством обратного распространения ошибки . После этого этап декодирования автоэнкодера преобразуется в реконструкцию такой же формы, как :

где для декодера может не быть отношения к соответствующему для кодера.

Автоэнкодеры обучены минимизировать ошибки восстановления (такие как ошибки в квадрате ), часто называемые « потерями »:

где обычно усредняется по некоторой входной обучающей выборке.

Как упоминалось ранее, обучение автокодировщика выполняется путем обратного распространения ошибки, как и в обычной нейронной сети с прямой связью .

Если пространство признаков имеет меньшую размерность, чем пространство ввода , вектор признаков можно рассматривать как сжатое представление ввода . Это случай undercomplete автоассоциатор. Если скрытые слои больше, чем ( избыточные автокодеры) , или равны входному слою, или скрытым единицам предоставлена ​​достаточная емкость, автокодировщик потенциально может изучить функцию идентификации и стать бесполезным. Однако экспериментальные результаты показали, что в этих случаях автокодеры все еще могут изучать полезные функции . [13]В идеале нужно иметь возможность адаптировать размер кода и емкость модели в зависимости от сложности моделируемого распределения данных. Один из способов сделать это - использовать варианты модели, известные как регулярные автоэнкодеры. [2]

Варианты [ править ]

Регулярные автокодеры [ править ]

Существуют различные методы, предотвращающие изучение автоэнкодерами функции идентификации и улучшающие их способность захватывать важную информацию и изучать более богатые представления.

Редкий автоэнкодер (SAE) [ править ]

Простая схема однослойного разреженного автоэнкодера. Скрытые узлы ярко-желтого цвета активированы, а светло-желтые неактивны. Активация зависит от входа.

Когда представления изучаются таким образом, чтобы поощрять разреженность, повышается производительность задач классификации. [14] Разреженный автоэнкодер может включать больше (а не меньше) скрытых единиц, чем входов, но только небольшое количество скрытых единиц может быть активным одновременно. [12] Это ограничение разреженности заставляет модель реагировать на уникальные статистические особенности обучающих данных.

В частности, разреженный автокодер - это автокодер, критерий обучения которого включает штраф за разреженность на уровне кода .

Напомним , что штраф побуждает модель активировать (т. Е. Выходное значение, близкое к 1) определенные области сети на основе входных данных, при этом инактивируя все другие нейроны (т. Е. Иметь выходное значение, близкое к 0). [15]

Этой разреженности можно добиться, сформулировав условия штрафов по-разному.

  • Один из способов - использовать расхождение Кульбака-Лейблера (KL) . [14] [15] [16] [17] Пусть

- средняя активация скрытого блока (усредненная по обучающим примерам). Обозначение идентифицирует входное значение, вызвавшее активацию. Чтобы побудить большинство нейронов быть неактивными, оно должно быть близко к 0. Следовательно, этот метод применяет ограничение, где - параметр разреженности, значение, близкое к нулю. Срок наказания принимает форму, предусматривающую наказание за значительное отклонение от расхождения KL:

где - суммирование по скрытым узлам в скрытом слое, а - KL-расхождение между случайной величиной Бернулли со средним значением и случайной величиной Бернулли со средним значением . [15]

  • Другой способ добиться разреженности - применить к активации условия регуляризации L1 или L2, масштабируемые определенным параметром . [18] Например, в случае L1 функция потерь принимает вид

  • Еще одна предлагаемая стратегия принудительной разреженности заключается в ручном обнулении всех активаций скрытых модулей, кроме самых сильных ( k-разреженный автоэнкодер ). [19] K-разреженный автокодер основан на линейном автокодировщике (т.е. с линейной функцией активации) и связанных весах. Идентификация самых сильных активаций может быть достигнута путем сортировки действий и сохранения только первых k значений или использования скрытых модулей ReLU с пороговыми значениями, которые адаптивно регулируются, пока не будут идентифицированы k самых больших активностей. Этот выбор действует аналогично ранее упомянутым условиям регуляризации в том, что он не позволяет модели реконструировать входные данные с использованием слишком большого количества нейронов. [19]

Автоэнкодер с шумоподавлением (DAE) [ править ]

Автоэнкодеры с шумоподавлением (DAE) пытаются добиться хорошего представления, изменяя критерий восстановления . [2]

Действительно, DAE принимают частично поврежденный ввод и обучаются восстанавливать исходный неискаженный ввод . На практике целью шумоподавления автокодеров является очистка искаженного ввода или уменьшение шума . Этому подходу присущи два допущения:

  • Представления более высокого уровня относительно стабильны и устойчивы к искажению входных данных;
  • Чтобы эффективно выполнять шумоподавление, модель должна извлекать функции, отражающие полезную структуру входного распределения. [3]

Другими словами, шумоподавление рекомендуется как критерий обучения для обучения извлечению полезных функций, которые будут лучше представлять входные данные на более высоком уровне. [3]

Тренировочный процесс DAE работает следующим образом:

  • Первоначальный ввод искажается через стохастическое отображение .
  • Поврежденный ввод затем преобразуется в скрытое представление с помощью того же процесса стандартного автокодировщика .
  • Модель реконструирует из скрытого представления . [3]

Параметры модели и обучаются так, чтобы минимизировать среднюю ошибку восстановления по обучающим данным, в частности, минимизировать разницу между исходным неповрежденным входом . [3] Обратите внимание, что каждый раз, когда случайный пример представляется модели, новая поврежденная версия генерируется стохастически на основе .

Вышеупомянутый учебный процесс можно применить к любому коррупционному процессу. Некоторыми примерами могут быть аддитивный изотропный гауссовский шум, маскирующий шум (часть входного сигнала, выбранная случайным образом для каждого примера, принудительно равна 0) или шум соли и перца (часть входного сигнала, выбранного случайным образом для каждого примера, устанавливается равным 0). его минимальное или максимальное значение с равномерной вероятностью). [3]

Искажение ввода выполняется только во время обучения. После того, как модель изучила оптимальные параметры, для извлечения представлений из исходных данных не будет добавлено никаких повреждений.

Сжимающий автоэнкодер (CAE) [ править ]

Сжимающий автокодировщик добавляет в свою целевую функцию явный регуляризатор, который заставляет модель изучать кодирование, устойчивое к небольшим изменениям входных значений. Это регуляризатор соответствует фробениусовой норме от матрицы Якоби из активаций датчика по отношению к входу. Поскольку штраф применяется только к обучающим примерам, этот термин заставляет модель узнавать полезную информацию о обучающем распределении. Конечная целевая функция имеет следующий вид:

Автокодировщик называют сжимающим, потому что CAE рекомендуется отображать окрестности входных точек в меньшую окрестность выходных точек. [2]

DAE подключается к CAE: в пределе небольшого гауссовского входного шума DAE заставляют функцию восстановления сопротивляться небольшим, но конечным входным возмущениям, в то время как CAE заставляют извлеченные функции сопротивляться бесконечно малым входным возмущениям.

Вариационный автоэнкодер (VAE) [ править ]

Вариационные автокодеры (VAE) - это генеративные модели , похожие на генеративные состязательные сети . [20] Их связь с этой группой моделей происходит в основном из-за архитектурного сходства с базовым автокодировщиком (конечная цель обучения включает кодировщик и декодер), но их математическая формулировка значительно отличается. [21] VAE представляют собой направленные вероятностные графические модели (DPGM), апостериорные значения которых аппроксимируются нейронной сетью , образуя архитектуру, подобную автоэнкодеру. [20] [22] В отличие от дискриминантного моделирования, которое направлено на изучение предиктора на основе наблюдения, генеративное моделированиепытается узнать, как генерируются данные, и отразить лежащие в основе причинно-следственные связи. Причинно-следственные связи обладают потенциалом обобщения. [4]

Модели вариационного автоэнкодера делают сильные предположения относительно распределения скрытых переменных . Они используют вариационный подход для обучения скрытому представлению, что приводит к дополнительному компоненту потерь и специальной оценке для алгоритма обучения, называемой стохастическим градиентно-вариационным байесовским оценщиком (SGVB). [10] Предполагается, что данные генерируются направленной графической моделью и что кодировщик изучает приближение к апостериорному распределению, где и обозначают параметры кодера (модель распознавания) и декодера (генеративная модель) соответственно. Распределение вероятностей скрытого вектора VAE обычно соответствует таковому для обучающих данных намного ближе, чем у стандартного автокодировщика. Задача VAE имеет следующий вид:

Здесь обозначает расхождение Кульбака – Лейблера . Приоритет перед скрытыми переменными обычно устанавливается как центрированный изотропный многомерный гауссовский ; однако были рассмотрены альтернативные конфигурации. [23]

Обычно форма вариационного распределения и распределения правдоподобия выбирается так, чтобы они были факторизованы гауссианами:

где и - выходы кодера, а и - выходы декодера. Этот выбор оправдан упрощениями [10], которые он производит при оценке как расхождения KL, так и члена правдоподобия в вариационной цели, определенной выше.

VAE подвергались критике за то, что они создают размытые изображения. [24] Однако исследователи, использующие эту модель, показали только среднее значение распределений , а не образец изученного гауссовского распределения.

.

Было показано, что эти образцы слишком зашумлены из-за выбора факторизованного распределения Гаусса. [24] [25] Используя распределение Гаусса с полной ковариационной матрицей,

может решить эту проблему, но является трудноразрешимым с вычислительной точки зрения и численно нестабильным, так как требует оценки ковариационной матрицы на основе единственной выборки данных [ необходима цитата ] . Однако более поздние исследования [24] [25] показали, что ограниченный подход, когда обратная матрица разрежена, может генерировать изображения с высокочастотными деталями.

Крупномасштабные модели VAE были разработаны в разных областях для представления данных в компактном вероятностном скрытом пространстве. Например, VQ-VAE [26] для генерации изображений и Optimus [27] для языкового моделирования.

Преимущества глубины [ править ]

Схематическая структура автоэнкодера с 3 полностью связанными скрытыми слоями. Код (z или h для ссылки в тексте) является самым внутренним слоем.

Автоэнкодеры часто обучаются с помощью однослойного кодировщика и однослойного декодера, но использование глубоких (многоуровневых) кодеров и декодеров дает много преимуществ. [2]

  • Глубина может экспоненциально снизить вычислительные затраты на представление некоторых функций. [2]
  • Глубина может экспоненциально уменьшить количество обучающих данных, необходимых для изучения некоторых функций. [2]
  • Экспериментально глубокие автоэнкодеры дают лучшее сжатие по сравнению с мелкими или линейными автоэнкодерами. [28]

Обучение [ править ]

Джеффри Хинтон разработал методику обучения многослойных глубоких автоэнкодеров. Его метод включает в себя обработку каждого соседнего набора из двух слоев как ограниченной машины Больцмана, чтобы предварительное обучение приближало хорошее решение, а затем использование обратного распространения ошибки для точной настройки результатов. [28] Эта модель получила название сети глубоких убеждений .

Исследователи обсуждают, будет ли совместное обучение (т.е. обучение всей архитектуры вместе с единственной целью глобальной реконструкции для оптимизации) лучше для глубинных автокодировщиков. [29] Исследование 2015 года показало, что при совместном обучении изучаются более качественные модели данных, а также более репрезентативные функции для классификации по сравнению с послойным методом. [29] Однако их эксперименты показали, что успех совместного обучения сильно зависит от принятых стратегий регуляризации. [29] [30]

Приложения [ править ]

Двумя основными приложениями автоэнкодеров являются уменьшение размерности и поиск информации [2], но современные варианты оказались успешными при применении к различным задачам.

Снижение размерности [ править ]

График первых двух основных компонентов (слева) и двумерного скрытого слоя линейного автоэнкодера (справа), примененного к набору данных Fashion MNIST . [31] Две линейные модели учатся охватывать одно и то же подпространство. Проекция точек данных действительно идентична, за исключением вращения подпространства, для которого PCA инвариантен.

Снижение размерности было одним из первых приложений глубокого обучения и одним из первых мотивов изучения автоэнкодеров. [2] Задача состоит в том, чтобы найти подходящий метод проецирования, который отображает данные из пространства высоких характеристик в пространство низких элементов. [2]

Одной из важных статей по этому вопросу была статья Хинтона 2006 г .: [28] в этом исследовании он предварительно обучил многослойный автоэнкодер со стеком RBM, а затем использовал их веса для инициализации глубокого автоэнкодера с постепенно уменьшающимися скрытыми слоями, пока не натолкнулся на узкое место 30 нейронов. Полученные 30 измерений кода дали меньшую ошибку реконструкции по сравнению с первыми 30 компонентами анализа главных компонентов (PCA) и получили представление, которое было качественно легче интерпретировать, четко разделяя кластеры данных. [2] [28]

Представление данных в пространстве меньшей размерности может улучшить производительность таких задач, как классификация. [2] Действительно, многие формы уменьшения размерности помещают семантически связанные примеры рядом друг с другом [32], что способствует обобщению.

Анализ главных компонентов [ править ]

Реконструкция изображений 28x28 пикселей с помощью автоэнкодера с размером кода два (двухуровневый скрытый слой) и реконструкция из первых двух основных компонентов PCA. Изображения взяты из набора данных Fashion MNIST . [31]

Если используются линейные активации или только один скрытый сигмовидный слой, то оптимальное решение для автокодировщика сильно связано с анализом главных компонентов (PCA). [33] [34] Веса автоэнкодера с одним скрытым слоем размера (где меньше размера входных данных) охватывают то же векторное подпространство, что и подпространство первых главных компонентов, а выходные данные автоэнкодера является ортогональной проекцией на это подпространство. Веса автокодера не равны основным компонентам и, как правило, не ортогональны, однако главные компоненты могут быть восстановлены из них с использованием разложения по сингулярным значениям . [35]

Однако потенциал автоэнкодеров заключается в их нелинейности, позволяя модели изучать более мощные обобщения по сравнению с PCA и восстанавливать входные данные со значительно меньшей потерей информации. [28]

Поиск информации [ править ]

Информационный поиск выигрывает, в частности, от уменьшения размерности, поскольку поиск может стать более эффективным в определенных типах низкоразмерных пространств. Автоэнкодеры действительно применялись для семантического хеширования, предложенного Салахутдиновым и Хинтоном в 2007 году. [32] Обучая алгоритм для создания низкоразмерного двоичного кода, все записи базы данных могут быть сохранены в хэш-таблице, отображающей двоичные кодовые векторы на записи. Затем эта таблица будет поддерживать поиск информации, возвращая все записи с тем же двоичным кодом, что и запрос, или немного менее похожие записи, перевернув некоторые биты из кодировки запроса.

Обнаружение аномалий [ править ]

Еще одно приложение для автоэнкодеров - обнаружение аномалий . [36] [37] [38] [39] Благодаря обучению воспроизведению наиболее характерных особенностей обучающих данных при некоторых из описанных ранее ограничений, модель поощряется к тому, чтобы научиться точно воспроизводить наиболее часто наблюдаемые характеристики. При столкновении с аномалиями модель должна ухудшить свои характеристики восстановления. В большинстве случаев для обучения автоэнкодера используются только данные с нормальными экземплярами; в других случаях частота аномалий мала по сравнению с набором наблюдений, поэтому их вклад в изученное представление можно игнорировать. После обучения автоэнкодер будет точно реконструировать «нормальные» данные, но не сможет сделать это с незнакомыми аномальными данными.[37] Ошибка реконструкции (ошибка между исходными данными и их реконструкцией малой размерности) используется в качестве оценки аномалии для обнаружения аномалий. [37]

Однако недавняя литература показала, что некоторые модели автокодирования могут, как ни странно, очень хорошо восстанавливать аномальные примеры и, следовательно, не могут надежно выполнять обнаружение аномалий. [40] [41]

Обработка изображений [ править ]

Характеристики автоэнкодеров полезны при обработке изображений.

Один из примеров можно найти в сжатии изображений с потерями , когда автокодеры превзошли другие подходы и оказались конкурентоспособными с JPEG 2000 . [42] [43]

Еще одно полезное применение автоэнкодеров при предварительной обработке изображений - это шумоподавление . [44] [45] [46]

Автоэнкодеры нашли применение в более сложных контекстах, таких как медицинская визуализация, где они использовались для шумоподавления изображений [47], а также для сверхвысокого разрешения [48] [49] В диагностике с использованием изображений в экспериментах автоэнкодеры применялись для обнаружения рака груди [50] ] и для моделирования связи между когнитивным снижением болезни Альцгеймера и скрытыми функциями автоэнкодера, обученного с помощью МРТ . [51]

Открытие лекарств [ править ]

В 2019 году молекулы, созданные с помощью вариационных автокодировщиков, были проверены экспериментально на мышах. [52] [53]

Прогноз популярности [ править ]

Недавно составная структура автоэнкодера дала многообещающие результаты в прогнозировании популярности сообщений в социальных сетях [54], что полезно для стратегий онлайн-рекламы.

Машинный перевод [ править ]

Автоэнкодер был применен для машинного перевода , который обычно называют нейронным машинным переводом (NMT). [55] [56] В NMT тексты обрабатываются как последовательности, которые должны быть закодированы в процедуру обучения, в то время как на стороне декодера генерируются целевые языки. Специфичные для языка автоэнкодеры включают лингвистические функции в процедуру обучения, такие как функции разложения китайского языка. [57]

См. Также [ править ]

  • Репрезентативное обучение
  • Скудное изучение словаря
  • Глубокое обучение

Ссылки [ править ]

  1. ^ Крамер, Марк А. (1991). «Нелинейный анализ главных компонент с использованием автоассоциативных нейронных сетей» (PDF) . Журнал Айше . 37 (2): 233–243. DOI : 10.1002 / aic.690370209 .
  2. ^ Б с д е е г ч я J к л м Гудфеллоу, Ян; Бенхио, Йошуа; Курвиль, Аарон (2016). Глубокое обучение . MIT Press. ISBN 978-0262035613.
  3. ^ Б с д е е Винсент, Паскаль; Ларошель, Хьюго (2010). «Составные автоэнкодеры с шумоподавлением: изучение полезных представлений в глубокой сети с локальным критерием шумоподавления». Журнал исследований в области машинного обучения . 11 : 3371–3408.
  4. ^ a b Веллинг, Макс; Кингма, Дидерик П. (2019). «Введение в вариационные автоэнкодеры». Основы и тенденции в машинном обучении . 12 (4): 307–392. arXiv : 1906.02691 . Bibcode : 2019arXiv190602691K . DOI : 10.1561 / 2200000056 . S2CID 174802445 . 
  5. ^ Хинтон Г.Э., Крижевский А., Ван С.Д. Преобразование автокодировщиков. В Международной конференции по искусственным нейронным сетям 2011, 14 июня (стр. 44-51). Шпрингер, Берлин, Гейдельберг.
  6. ^ Лиу, Чэн-Юань; Хуанг, Джау-Чи; Ян, Вэнь-Чи (2008). «Моделирование восприятия слов с помощью сети Эльмана». Нейрокомпьютеры . 71 (16-18): 3150. DOI : 10.1016 / j.neucom.2008.04.030 .
  7. ^ Лиу, Чэн-Юань; Ченг, Вэй-Чен; Лиу, Цзюн-Вэй; Лиу, Доу-Ран (2014). «Автоэнкодер слов». Нейрокомпьютеры . 139 : 84–96. DOI : 10.1016 / j.neucom.2013.09.055 .
  8. ^ Schmidhuber, Jürgen (январь 2015). «Глубокое обучение в нейронных сетях: обзор». Нейронные сети . 61 : 85–117. arXiv : 1404,7828 . DOI : 10.1016 / j.neunet.2014.09.003 . PMID 25462637 . S2CID 11715509 .  
  9. Перейти ↑ Hinton, GE, & Zemel, RS (1994). Автоэнкодеры, минимальная длина описания и свободная энергия Гельмгольца. В достижениях в области нейронных систем обработки информации 6 (стр. 3-10).
  10. ^ a b c Дидерик П. Кингма; Веллинг, Макс (2013). «Автоматическое кодирование вариационного Байеса». arXiv : 1312.6114 [ stat.ML ].
  11. ^ Создание Лица с факелом, Boesen А., Larsen L. и Sonderby SK, 2015 факел .ch / блог / 2015 /11 /13 / GaN .html
  12. ^ a b Домингос, Педро (2015). «4». Главный алгоритм: как поиски совершенной обучающей машины переделают наш мир . Основные книги. Подраздел «Глубже в мозг». ISBN 978-046506192-1.
  13. ^ Bengio, Y. (2009). «Изучение глубинных архитектур для ИИ» (PDF) . Основы и тенденции в машинном обучении . 2 (8): 1795–7. CiteSeerX 10.1.1.701.9550 . DOI : 10.1561 / 2200000006 . PMID 23946944 .   
  14. ^ а б Фрей, Брендан; Махзани, Алиреза (19 декабря 2013 г.). "k-разреженные автоэнкодеры". arXiv : 1312,5663 . Bibcode : 2013arXiv1312.5663M . Cite journal requires |journal= (help)
  15. ^ a b c Ng, A. (2011). Редкий автоэнкодер. CS294A Конспект лекций , 72 (2011), 1-19.
  16. ^ Наир, Винод; Хинтон, Джеффри Э. (2009). «Распознавание трехмерных объектов с помощью сетей глубокого убеждения» . Материалы 22-й Международной конференции по системам обработки нейронной информации . НИПС'09. США: Curran Associates Inc.: 1339–1347. ISBN 9781615679119.
  17. ^ Цзэн, Няньинь; Чжан, Хун; Песня, Баойе; Лю, Weibo; Ли, Южонг; Добайе, Абдулла М. (17.01.2018). «Распознавание мимики через изучение глубоких разреженных автоэнкодеров». Нейрокомпьютеры . 273 : 643–649. DOI : 10.1016 / j.neucom.2017.08.043 . ISSN 0925-2312 . 
  18. ^ Арпит, Деванш; Чжоу, Инбо; Нго, Хунг; Говиндараджу, Вену (2015). «Почему регуляризованные автокодеры изучают разреженное представление?». arXiv : 1505.05561 [ stat.ML ].
  19. ^ а б Махзани, Алиреза; Фрей, Брендан (2013). "K-Sparse Autoencoders". arXiv : 1312.5663 [ cs.LG ].
  20. ^ а б Ан, Дж., и Чо, С. (2015). Обнаружение аномалий на основе вариационного автокодера с использованием вероятности восстановления. Специальная лекция по IE , 2 (1).
  21. ^ Doersch, Карл (2016). "Учебник по вариационным автоэнкодерам". arXiv : 1606.05908 [ stat.ML ].
  22. ^ Khobahi, S .; Солтаналиан, М. (2019). "Глубокие архитектуры с учетом модели для однобитового компрессионного вариационного автоматического кодирования". arXiv : 1911.12410 [ eess.SP ].
  23. ^ Партауридес, Харрис; Хатзис, Сотириос П. (июнь 2017 г.). «Асимметричные глубинные генеративные модели» . Нейрокомпьютеры . 241 : 90–96. DOI : 10.1016 / j.neucom.2017.02.028 .
  24. ^ a b c Дорта, Гаро; Висенте, Сара; Агапито, Лурдес ; Кэмпбелл, Нил Д.Ф.; Симпсон, Айвор (2018). «Обучение VAE под структурированными остатками». arXiv : 1804.01050 [ stat.ML ].
  25. ^ a b Дорта, Гаро; Висенте, Сара; Агапито, Лурдес ; Кэмпбелл, Нил Д.Ф.; Симпсон, Айвор (2018). «Структурированные сети прогнозирования неопределенности». arXiv : 1802.07079 [ stat.ML ].
  26. ^ Создание разнообразных изображений высокой точности с помощью VQ-VAE-2 https://arxiv.org/abs/1906.00446
  27. ^ Оптимус: Организация предложений с помощью предварительно обученного моделирования скрытого пространства https://arxiv.org/abs/2004.04092
  28. ^ а б в г д Хинтон, GE; Салахутдинов, Р.Р. (28.07.2006). «Снижение размерности данных с помощью нейронных сетей». Наука . 313 (5786): 504–507. Bibcode : 2006Sci ... 313..504H . DOI : 10.1126 / science.1127647 . PMID 16873662 . S2CID 1658773 .  
  29. ^ a b c Чжоу, Инбо; Арпит, Деванш; Нвогу, Ифеома; Говиндараджу, Вену (2014). «Совместное обучение лучше для глубинных автокодировщиков?». arXiv : 1405.1380 [ stat.ML ].
  30. ^ Р. Салахутдинов и Г.Е. Хинтон, «Глубокие машины Больцмана», в AISTATS, 2009, стр. 448–455.
  31. ^ a b "Fashion MNIST" . 2019-07-12.
  32. ^ a b Салахутдинов Руслан; Хинтон, Джеффри (2009-07-01). «Семантическое хеширование» . Международный журнал приблизительного мышления . Специальный раздел по графическим моделям и информационному поиску. 50 (7): 969–978. DOI : 10.1016 / j.ijar.2008.11.006 . ISSN 0888-613X . 
  33. ^ Bourlard, H .; Камп, Ю. (1988). «Автоассоциация многослойными перцептронами и разложение по сингулярным числам» . Биологическая кибернетика . 59 (4–5): 291–294. DOI : 10.1007 / BF00332918 . PMID 3196773 . S2CID 206775335 .  
  34. ^ Chicco, Davide; Садовски, Питер; Бальди, Пьер (2014). «Глубокие нейронные сети автоэнкодера для предсказаний аннотаций генных онтологий». Труды 5-й конференции ACM по биоинформатике, вычислительной биологии и информатике здравоохранения - BCB '14 . п. 533. DOI : 10,1145 / 2649387,2649442 . ЛВП : 11311/964622 . ISBN 9781450328944. S2CID  207217210 .
  35. ^ Плот, E (2018). «От основных подпространств к основным компонентам с помощью линейных автоэнкодеров». arXiv : 1804.10253 [ stat.ML ].
  36. ^ Сакурада, М., & Yairi, Т. (2014, декабрь). Обнаружение аномалий с помощью автоэнкодеров с нелинейным уменьшением размерности. В материалах 2-го семинара MLSDA 2014 г. по машинному обучению для анализа сенсорных данных (стр. 4). ACM.
  37. ^ а б в Ан, Дж., и Чо, С. (2015). Обнаружение аномалий на основе вариационного автокодера с использованием вероятности восстановления. Специальная лекция по IE , 2 , 1-18.
  38. Перейти ↑ Zhou, C., & Paffenroth, RC (2017, август). Обнаружение аномалий с помощью надежных глубинных автоэнкодеров. В материалах 23-й Международной конференции ACM SIGKDD по открытию знаний и интеллектуальному анализу данных (стр. 665-674). ACM.
  39. ^ Рибейро, Манассес; Лаццаретти, Андре Эуджениу; Лопес, Эитор Сильверио (2018). «Исследование глубоких сверточных автокодировщиков для обнаружения аномалий в видео». Письма с распознаванием образов . 105 : 13–22. DOI : 10.1016 / j.patrec.2017.07.016 .
  40. ^ Nalisnick, Эрик; Мацукава, Акихиро; Тех, Йи Уай; Горур, Дилан; Лакшминараянан, Баладжи (24.02.2019). «Знают ли глубокие генеративные модели то, чего они не знают?». arXiv : 1810.09136 [ stat.ML ].
  41. ^ Сяо, Чжишэн; Ян, Цин; Амит, Яли (2020). «Правдоподобие сожаления: показатель обнаружения вне распределения для вариационного автокодировщика» . Достижения в системах обработки нейронной информации . 33 . arXiv : 2003.02977 .
  42. ^ Тайс, Лукас; Ши, Вэньчжэ; Каннингем, Эндрю; Хусар, Ференц (2017). «Сжатие изображений с потерями с помощью компрессионных автоэнкодеров». arXiv : 1703.00395 [ stat.ML ].
  43. ^ Балле, Дж; Лапарра, V; Simoncelli, EP (апрель 2017 г.). «Сквозное оптимизированное сжатие изображений». Международная конференция по обучающим представительствам . arXiv : 1611.01704 .
  44. Перейти ↑ Cho, K. (2013, февраль). Простое разрежение улучшает шумоподавляющие автокодеры с разреженными шумоподавителями при удалении сильно поврежденных изображений. В Международной конференции по машинному обучению (стр. 432-440).
  45. ^ Чо, Kyunghyun (2013). "Машины Больцмана и шумоподавляющие автоэнкодеры для шумоподавления изображения". arXiv : 1301.3468 [ stat.ML ].
  46. ^ Buades, A .; Coll, B .; Морель, Дж. М. (2005). «Обзор алгоритмов шумоподавления изображения с новым» . Многомасштабное моделирование и имитация . 4 (2): 490–530. DOI : 10.1137 / 040616024 .
  47. ^ Gondara, Lovedeep (декабрь 2016). "Снижение шума медицинских изображений с помощью сверточных автоэнкодеров с шумоподавлением". 2016 IEEE 16 -я Международная конференция по интеллектуальному анализу данных семинаров (ICDMW) . Барселона, Испания: IEEE: 241–246. arXiv : 1608.04667 . Bibcode : 2016arXiv160804667G . DOI : 10.1109 / ICDMW.2016.0041 . ISBN 9781509059102. S2CID  14354973 .
  48. ^ Цзэн, Кун; Ю, Джун; Ван, Руксинь; Ли, Цуйхуа; Тао, Дачэн (январь 2017 г.). «Спаренный глубокий автоэнкодер для сверхвысокого разрешения одиночного изображения». IEEE Transactions по кибернетике . 47 (1): 27–37. DOI : 10.1109 / TCYB.2015.2501373 . ISSN 2168-2267 . PMID 26625442 . S2CID 20787612 .   
  49. Цзы-Си, Песня; Санчес, Виктор; Хешам, Эйдали; Насир М., Раджпут (2017). «Гибридный глубокий автоэнкодер с гауссовой кривизной для обнаружения различных типов клеток на изображениях трепанобиопсии костного мозга». 14-й Международный симпозиум по биомедицинской визуализации IEEE 2017 г. (ISBI 2017) : 1040–1043. DOI : 10.1109 / ISBI.2017.7950694 . ISBN 978-1-5090-1172-8. S2CID  7433130 .
  50. ^ Сюй, июнь; Сян, Лэй; Лю, Циншань; Гилмор, Ханна; Ву, Цзяньчжун; Тан, Цзинхай; Мадабхуши, Анант (январь 2016 г.). "Stacked Sparse Autoencoder (SSAE) для обнаружения ядер на изображениях гистопатологии рака груди" . IEEE Transactions по медицинской визуализации . 35 (1): 119–130. DOI : 10,1109 / TMI.2015.2458702 . PMC 4729702 . PMID 26208307 .  
  51. ^ Мартинес-Мурсия, Франсиско Дж .; Ортис, Андрес; Горриз, Хуан М .; Рамирес, Хавьер; Кастильо-Барнс, Диего (2020). «Изучение структуры многообразия болезни Альцгеймера: подход глубокого обучения с использованием сверточных автоэнкодеров» . Журнал IEEE по биомедицинской и медицинской информатике . 24 (1): 17–26. DOI : 10,1109 / JBHI.2019.2914970 . PMID 31217131 . S2CID 195187846 .  
  52. ^ Жаворонков, Алекс (2019). «Глубокое обучение позволяет быстро идентифицировать сильные ингибиторы киназы DDR1». Природа Биотехнологии . 37 (9): 1038–1040. DOI : 10.1038 / s41587-019-0224-х . PMID 31477924 . S2CID 201716327 .  
  53. ^ Грегори, Парикмахер. «Молекула, созданная искусственным интеллектом, демонстрирует« лекарственные качества »» . Проводной .
  54. ^ Де, Шаунак; Мэйти, Абхишек; Гоэль, Вритти; Шитоле, Санджай; Бхаттачарья, Авик (2017). «Прогнозирование популярности постов в instagram для журнала о стиле жизни с помощью глубокого обучения». 2017 2-я Международная конференция IEEE по системам связи, вычислениям и ИТ-приложениям (CSCITA) . С. 174–177. DOI : 10,1109 / CSCITA.2017.8066548 . ISBN 978-1-5090-4381-1. S2CID  35350962 .
  55. ^ Чо, Кёнхён; Барт ван Мерриенбоер; Богданов, Дмитрий; Бенжио, Йошуа (2014). «О свойствах нейронного машинного перевода: подходы кодировщик-декодер». arXiv : 1409.1259 [ cs.CL ].
  56. ^ Суцкевер, Илья; Виньялс, Ориол; Ле, Куок В. (2014). «Последовательность для последовательного обучения с помощью нейронных сетей». arXiv : 1409.3215 [ cs.CL ].
  57. ^ Хан, Лифэн; Куанг, Шаохуэй (2018). «Включение китайских радикалов в нейронный машинный перевод: глубже, чем уровень символов». arXiv : 1805.01565 [ cs.CL ].