Часть серии по |
Машинное обучение и интеллектуальный анализ данных |
---|
Автоассоциатор представляет собой тип искусственной нейронной сети используется , чтобы узнать эффективные кодировки данных в неконтролируемой манере. [1] Задача автокодировщика - изучить представление (кодирование) набора данных, обычно для уменьшения размерности , путем обучения сети игнорированию сигнала «шум». Наряду со стороной сокращения изучается сторона восстановления, когда автоэнкодер пытается сгенерировать из сокращенной кодировки представление, максимально приближенное к исходному входу, отсюда и его название. Существуют варианты, направленные на то, чтобы выученные представления приобрели полезные свойства. [2] Примерами являются регуляризованные автокодеры (Sparse , Denoising и Contractive ), которые эффективны при обучении представлений для последующих задач классификации [3] и вариационных автоэнкодеров с приложениями в качестве генеративных моделей . [4] Автоэнкодеры применяются для решения многих задач, от распознавания лиц [5] до получения семантического значения слов. [6] [7]
Введение [ править ]
Автоассоциатор является нейронной сетью , которая учится копировать свой вклад в его выход. Он имеет внутренний ( скрытый ) слой, который описывает код, используемый для представления ввода, и состоит из двух основных частей: кодировщика, который отображает ввод в код, и декодера, который отображает код на реконструкцию ввода. .
Безупречное выполнение задачи копирования просто дублирует сигнал, и именно поэтому автокодеры обычно ограничены способами, которые заставляют их приблизительно реконструировать ввод, сохраняя только наиболее важные аспекты данных в копии.
Идея автоэнкодеров была популярна в области нейронных сетей на протяжении десятилетий. Первые заявки относятся к 1980-м годам. [2] [8] [9] Их наиболее традиционным применением было уменьшение размерности или изучение функций , но концепция автоэнкодера стала более широко использоваться для изучения генеративных моделей данных. [10] [11] Некоторые из самых мощных ИИ 2010-х годов включали в себя редкие автокодеры, встроенные в глубокие нейронные сети. [12]
Базовая архитектура [ править ]
Самая простая форма автоэнкодера - это неповторяющаяся нейронная сеть с прямой связью , аналогичная однослойным перцептронам, которые участвуют в многослойных перцептронах (MLP), использующая входной и выходной уровни, соединенные одним или несколькими скрытыми слоями. Выходной слой имеет такое же количество узлов (нейронов), что и входной слой. Его цель состоит в том, чтобы реконструировать свои входные данные (минимизируя разницу между входом и выходом) вместо того, чтобы предсказывать целевое значение с учетом входных данных . Следовательно, автоэнкодеры - это модели обучения без учителя . (Для обучения им не требуются маркированные входы).
Автоэнкодер состоит из двух частей, кодировщика и декодера, которые можно определить как переходы и такие, что:
В простейшем случае, учитывая один скрытый слой, этап кодировщика автоэнкодера принимает входные данные и сопоставляет их :
Это изображение обычно называют кодом , скрытыми переменными или скрытым представлением . Здесь представлена поэлементная функция активации, такая как сигмовидная функция или выпрямленный линейный блок . - матрица весов и вектор смещения. Веса и смещения обычно инициализируются случайным образом, а затем обновляются итеративно во время обучения посредством обратного распространения ошибки . После этого этап декодирования автоэнкодера преобразуется в реконструкцию такой же формы, как :
где для декодера может не быть отношения к соответствующему для кодера.
Автоэнкодеры обучены минимизировать ошибки восстановления (такие как ошибки в квадрате ), часто называемые « потерями »:
где обычно усредняется по некоторой входной обучающей выборке.
Как упоминалось ранее, обучение автокодировщика выполняется путем обратного распространения ошибки, как и в обычной нейронной сети с прямой связью .
Если пространство признаков имеет меньшую размерность, чем пространство ввода , вектор признаков можно рассматривать как сжатое представление ввода . Это случай undercomplete автоассоциатор. Если скрытые слои больше, чем ( избыточные автокодеры) , или равны входному слою, или скрытым единицам предоставлена достаточная емкость, автокодировщик потенциально может изучить функцию идентификации и стать бесполезным. Однако экспериментальные результаты показали, что в этих случаях автокодеры все еще могут изучать полезные функции . [13]В идеале нужно иметь возможность адаптировать размер кода и емкость модели в зависимости от сложности моделируемого распределения данных. Один из способов сделать это - использовать варианты модели, известные как регулярные автоэнкодеры. [2]
Варианты [ править ]
Регулярные автокодеры [ править ]
Существуют различные методы, предотвращающие изучение автоэнкодерами функции идентификации и улучшающие их способность захватывать важную информацию и изучать более богатые представления.
Редкий автоэнкодер (SAE) [ править ]
Когда представления изучаются таким образом, чтобы поощрять разреженность, повышается производительность задач классификации. [14] Разреженный автоэнкодер может включать больше (а не меньше) скрытых единиц, чем входов, но только небольшое количество скрытых единиц может быть активным одновременно. [12] Это ограничение разреженности заставляет модель реагировать на уникальные статистические особенности обучающих данных.
В частности, разреженный автокодер - это автокодер, критерий обучения которого включает штраф за разреженность на уровне кода .
Напомним , что штраф побуждает модель активировать (т. Е. Выходное значение, близкое к 1) определенные области сети на основе входных данных, при этом инактивируя все другие нейроны (т. Е. Иметь выходное значение, близкое к 0). [15]
Этой разреженности можно добиться, сформулировав условия штрафов по-разному.
- Один из способов - использовать расхождение Кульбака-Лейблера (KL) . [14] [15] [16] [17] Пусть
- средняя активация скрытого блока (усредненная по обучающим примерам). Обозначение идентифицирует входное значение, вызвавшее активацию. Чтобы побудить большинство нейронов быть неактивными, оно должно быть близко к 0. Следовательно, этот метод применяет ограничение, где - параметр разреженности, значение, близкое к нулю. Срок наказания принимает форму, предусматривающую наказание за значительное отклонение от расхождения KL:
где - суммирование по скрытым узлам в скрытом слое, а - KL-расхождение между случайной величиной Бернулли со средним значением и случайной величиной Бернулли со средним значением . [15]
- Другой способ добиться разреженности - применить к активации условия регуляризации L1 или L2, масштабируемые определенным параметром . [18] Например, в случае L1 функция потерь принимает вид
- Еще одна предлагаемая стратегия принудительной разреженности заключается в ручном обнулении всех активаций скрытых модулей, кроме самых сильных ( k-разреженный автоэнкодер ). [19] K-разреженный автокодер основан на линейном автокодировщике (т.е. с линейной функцией активации) и связанных весах. Идентификация самых сильных активаций может быть достигнута путем сортировки действий и сохранения только первых k значений или использования скрытых модулей ReLU с пороговыми значениями, которые адаптивно регулируются, пока не будут идентифицированы k самых больших активностей. Этот выбор действует аналогично ранее упомянутым условиям регуляризации в том, что он не позволяет модели реконструировать входные данные с использованием слишком большого количества нейронов. [19]
Автоэнкодер с шумоподавлением (DAE) [ править ]
Автоэнкодеры с шумоподавлением (DAE) пытаются добиться хорошего представления, изменяя критерий восстановления . [2]
Действительно, DAE принимают частично поврежденный ввод и обучаются восстанавливать исходный неискаженный ввод . На практике целью шумоподавления автокодеров является очистка искаженного ввода или уменьшение шума . Этому подходу присущи два допущения:
- Представления более высокого уровня относительно стабильны и устойчивы к искажению входных данных;
- Чтобы эффективно выполнять шумоподавление, модель должна извлекать функции, отражающие полезную структуру входного распределения. [3]
Другими словами, шумоподавление рекомендуется как критерий обучения для обучения извлечению полезных функций, которые будут лучше представлять входные данные на более высоком уровне. [3]
Тренировочный процесс DAE работает следующим образом:
- Первоначальный ввод искажается через стохастическое отображение .
- Поврежденный ввод затем преобразуется в скрытое представление с помощью того же процесса стандартного автокодировщика .
- Модель реконструирует из скрытого представления . [3]
Параметры модели и обучаются так, чтобы минимизировать среднюю ошибку восстановления по обучающим данным, в частности, минимизировать разницу между исходным неповрежденным входом . [3] Обратите внимание, что каждый раз, когда случайный пример представляется модели, новая поврежденная версия генерируется стохастически на основе .
Вышеупомянутый учебный процесс можно применить к любому коррупционному процессу. Некоторыми примерами могут быть аддитивный изотропный гауссовский шум, маскирующий шум (часть входного сигнала, выбранная случайным образом для каждого примера, принудительно равна 0) или шум соли и перца (часть входного сигнала, выбранного случайным образом для каждого примера, устанавливается равным 0). его минимальное или максимальное значение с равномерной вероятностью). [3]
Искажение ввода выполняется только во время обучения. После того, как модель изучила оптимальные параметры, для извлечения представлений из исходных данных не будет добавлено никаких повреждений.
Сжимающий автоэнкодер (CAE) [ править ]
Сжимающий автокодировщик добавляет в свою целевую функцию явный регуляризатор, который заставляет модель изучать кодирование, устойчивое к небольшим изменениям входных значений. Это регуляризатор соответствует фробениусовой норме от матрицы Якоби из активаций датчика по отношению к входу. Поскольку штраф применяется только к обучающим примерам, этот термин заставляет модель узнавать полезную информацию о обучающем распределении. Конечная целевая функция имеет следующий вид:
Автокодировщик называют сжимающим, потому что CAE рекомендуется отображать окрестности входных точек в меньшую окрестность выходных точек. [2]
DAE подключается к CAE: в пределе небольшого гауссовского входного шума DAE заставляют функцию восстановления сопротивляться небольшим, но конечным входным возмущениям, в то время как CAE заставляют извлеченные функции сопротивляться бесконечно малым входным возмущениям.
Вариационный автоэнкодер (VAE) [ править ]
Было предложено разделить этот раздел на другую статью под названием « Вариационный автоэнкодер» . ( Обсудить ) (май 2020 г.) |
Вариационные автокодеры (VAE) - это генеративные модели , похожие на генеративные состязательные сети . [20] Их связь с этой группой моделей происходит в основном из-за архитектурного сходства с базовым автокодировщиком (конечная цель обучения включает кодировщик и декодер), но их математическая формулировка значительно отличается. [21] VAE представляют собой направленные вероятностные графические модели (DPGM), апостериорные значения которых аппроксимируются нейронной сетью , образуя архитектуру, подобную автоэнкодеру. [20] [22] В отличие от дискриминантного моделирования, которое направлено на изучение предиктора на основе наблюдения, генеративное моделированиепытается узнать, как генерируются данные, и отразить лежащие в основе причинно-следственные связи. Причинно-следственные связи обладают потенциалом обобщения. [4]
Модели вариационного автоэнкодера делают сильные предположения относительно распределения скрытых переменных . Они используют вариационный подход для обучения скрытому представлению, что приводит к дополнительному компоненту потерь и специальной оценке для алгоритма обучения, называемой стохастическим градиентно-вариационным байесовским оценщиком (SGVB). [10] Предполагается, что данные генерируются направленной графической моделью и что кодировщик изучает приближение к апостериорному распределению, где и обозначают параметры кодера (модель распознавания) и декодера (генеративная модель) соответственно. Распределение вероятностей скрытого вектора VAE обычно соответствует таковому для обучающих данных намного ближе, чем у стандартного автокодировщика. Задача VAE имеет следующий вид:
Здесь обозначает расхождение Кульбака – Лейблера . Приоритет перед скрытыми переменными обычно устанавливается как центрированный изотропный многомерный гауссовский ; однако были рассмотрены альтернативные конфигурации. [23]
Обычно форма вариационного распределения и распределения правдоподобия выбирается так, чтобы они были факторизованы гауссианами:
где и - выходы кодера, а и - выходы декодера. Этот выбор оправдан упрощениями [10], которые он производит при оценке как расхождения KL, так и члена правдоподобия в вариационной цели, определенной выше.
VAE подвергались критике за то, что они создают размытые изображения. [24] Однако исследователи, использующие эту модель, показали только среднее значение распределений , а не образец изученного гауссовского распределения.
- .
Было показано, что эти образцы слишком зашумлены из-за выбора факторизованного распределения Гаусса. [24] [25] Используя распределение Гаусса с полной ковариационной матрицей,
может решить эту проблему, но является трудноразрешимым с вычислительной точки зрения и численно нестабильным, так как требует оценки ковариационной матрицы на основе единственной выборки данных [ необходима цитата ] . Однако более поздние исследования [24] [25] показали, что ограниченный подход, когда обратная матрица разрежена, может генерировать изображения с высокочастотными деталями.
Крупномасштабные модели VAE были разработаны в разных областях для представления данных в компактном вероятностном скрытом пространстве. Например, VQ-VAE [26] для генерации изображений и Optimus [27] для языкового моделирования.
Преимущества глубины [ править ]
Автоэнкодеры часто обучаются с помощью однослойного кодировщика и однослойного декодера, но использование глубоких (многоуровневых) кодеров и декодеров дает много преимуществ. [2]
- Глубина может экспоненциально снизить вычислительные затраты на представление некоторых функций. [2]
- Глубина может экспоненциально уменьшить количество обучающих данных, необходимых для изучения некоторых функций. [2]
- Экспериментально глубокие автоэнкодеры дают лучшее сжатие по сравнению с мелкими или линейными автоэнкодерами. [28]
Обучение [ править ]
Джеффри Хинтон разработал методику обучения многослойных глубоких автоэнкодеров. Его метод включает в себя обработку каждого соседнего набора из двух слоев как ограниченной машины Больцмана, чтобы предварительное обучение приближало хорошее решение, а затем использование обратного распространения ошибки для точной настройки результатов. [28] Эта модель получила название сети глубоких убеждений .
Исследователи обсуждают, будет ли совместное обучение (т.е. обучение всей архитектуры вместе с единственной целью глобальной реконструкции для оптимизации) лучше для глубинных автокодировщиков. [29] Исследование 2015 года показало, что при совместном обучении изучаются более качественные модели данных, а также более репрезентативные функции для классификации по сравнению с послойным методом. [29] Однако их эксперименты показали, что успех совместного обучения сильно зависит от принятых стратегий регуляризации. [29] [30]
Приложения [ править ]
Двумя основными приложениями автоэнкодеров являются уменьшение размерности и поиск информации [2], но современные варианты оказались успешными при применении к различным задачам.
Снижение размерности [ править ]
Снижение размерности было одним из первых приложений глубокого обучения и одним из первых мотивов изучения автоэнкодеров. [2] Задача состоит в том, чтобы найти подходящий метод проецирования, который отображает данные из пространства высоких характеристик в пространство низких элементов. [2]
Одной из важных статей по этому вопросу была статья Хинтона 2006 г .: [28] в этом исследовании он предварительно обучил многослойный автоэнкодер со стеком RBM, а затем использовал их веса для инициализации глубокого автоэнкодера с постепенно уменьшающимися скрытыми слоями, пока не натолкнулся на узкое место 30 нейронов. Полученные 30 измерений кода дали меньшую ошибку реконструкции по сравнению с первыми 30 компонентами анализа главных компонентов (PCA) и получили представление, которое было качественно легче интерпретировать, четко разделяя кластеры данных. [2] [28]
Представление данных в пространстве меньшей размерности может улучшить производительность таких задач, как классификация. [2] Действительно, многие формы уменьшения размерности помещают семантически связанные примеры рядом друг с другом [32], что способствует обобщению.
Анализ главных компонентов [ править ]
Если используются линейные активации или только один скрытый сигмовидный слой, то оптимальное решение для автокодировщика сильно связано с анализом главных компонентов (PCA). [33] [34] Веса автоэнкодера с одним скрытым слоем размера (где меньше размера входных данных) охватывают то же векторное подпространство, что и подпространство первых главных компонентов, а выходные данные автоэнкодера является ортогональной проекцией на это подпространство. Веса автокодера не равны основным компонентам и, как правило, не ортогональны, однако главные компоненты могут быть восстановлены из них с использованием разложения по сингулярным значениям . [35]
Однако потенциал автоэнкодеров заключается в их нелинейности, позволяя модели изучать более мощные обобщения по сравнению с PCA и восстанавливать входные данные со значительно меньшей потерей информации. [28]
Поиск информации [ править ]
Информационный поиск выигрывает, в частности, от уменьшения размерности, поскольку поиск может стать более эффективным в определенных типах низкоразмерных пространств. Автоэнкодеры действительно применялись для семантического хеширования, предложенного Салахутдиновым и Хинтоном в 2007 году. [32] Обучая алгоритм для создания низкоразмерного двоичного кода, все записи базы данных могут быть сохранены в хэш-таблице, отображающей двоичные кодовые векторы на записи. Затем эта таблица будет поддерживать поиск информации, возвращая все записи с тем же двоичным кодом, что и запрос, или немного менее похожие записи, перевернув некоторые биты из кодировки запроса.
Обнаружение аномалий [ править ]
Еще одно приложение для автоэнкодеров - обнаружение аномалий . [36] [37] [38] [39] Благодаря обучению воспроизведению наиболее характерных особенностей обучающих данных при некоторых из описанных ранее ограничений, модель поощряется к тому, чтобы научиться точно воспроизводить наиболее часто наблюдаемые характеристики. При столкновении с аномалиями модель должна ухудшить свои характеристики восстановления. В большинстве случаев для обучения автоэнкодера используются только данные с нормальными экземплярами; в других случаях частота аномалий мала по сравнению с набором наблюдений, поэтому их вклад в изученное представление можно игнорировать. После обучения автоэнкодер будет точно реконструировать «нормальные» данные, но не сможет сделать это с незнакомыми аномальными данными.[37] Ошибка реконструкции (ошибка между исходными данными и их реконструкцией малой размерности) используется в качестве оценки аномалии для обнаружения аномалий. [37]
Однако недавняя литература показала, что некоторые модели автокодирования могут, как ни странно, очень хорошо восстанавливать аномальные примеры и, следовательно, не могут надежно выполнять обнаружение аномалий. [40] [41]
Обработка изображений [ править ]
Характеристики автоэнкодеров полезны при обработке изображений.
Один из примеров можно найти в сжатии изображений с потерями , когда автокодеры превзошли другие подходы и оказались конкурентоспособными с JPEG 2000 . [42] [43]
Еще одно полезное применение автоэнкодеров при предварительной обработке изображений - это шумоподавление . [44] [45] [46]
Автоэнкодеры нашли применение в более сложных контекстах, таких как медицинская визуализация, где они использовались для шумоподавления изображений [47], а также для сверхвысокого разрешения [48] [49] В диагностике с использованием изображений в экспериментах автоэнкодеры применялись для обнаружения рака груди [50] ] и для моделирования связи между когнитивным снижением болезни Альцгеймера и скрытыми функциями автоэнкодера, обученного с помощью МРТ . [51]
Открытие лекарств [ править ]
В 2019 году молекулы, созданные с помощью вариационных автокодировщиков, были проверены экспериментально на мышах. [52] [53]
Прогноз популярности [ править ]
Недавно составная структура автоэнкодера дала многообещающие результаты в прогнозировании популярности сообщений в социальных сетях [54], что полезно для стратегий онлайн-рекламы.
Машинный перевод [ править ]
Автоэнкодер был применен для машинного перевода , который обычно называют нейронным машинным переводом (NMT). [55] [56] В NMT тексты обрабатываются как последовательности, которые должны быть закодированы в процедуру обучения, в то время как на стороне декодера генерируются целевые языки. Специфичные для языка автоэнкодеры включают лингвистические функции в процедуру обучения, такие как функции разложения китайского языка. [57]
См. Также [ править ]
- Репрезентативное обучение
- Скудное изучение словаря
- Глубокое обучение
Ссылки [ править ]
- ^ Крамер, Марк А. (1991). «Нелинейный анализ главных компонент с использованием автоассоциативных нейронных сетей» (PDF) . Журнал Айше . 37 (2): 233–243. DOI : 10.1002 / aic.690370209 .
- ^ Б с д е е г ч я J к л м Гудфеллоу, Ян; Бенхио, Йошуа; Курвиль, Аарон (2016). Глубокое обучение . MIT Press. ISBN 978-0262035613.
- ^ Б с д е е Винсент, Паскаль; Ларошель, Хьюго (2010). «Составные автоэнкодеры с шумоподавлением: изучение полезных представлений в глубокой сети с локальным критерием шумоподавления». Журнал исследований в области машинного обучения . 11 : 3371–3408.
- ^ a b Веллинг, Макс; Кингма, Дидерик П. (2019). «Введение в вариационные автоэнкодеры». Основы и тенденции в машинном обучении . 12 (4): 307–392. arXiv : 1906.02691 . Bibcode : 2019arXiv190602691K . DOI : 10.1561 / 2200000056 . S2CID 174802445 .
- ^ Хинтон Г.Э., Крижевский А., Ван С.Д. Преобразование автокодировщиков. В Международной конференции по искусственным нейронным сетям 2011, 14 июня (стр. 44-51). Шпрингер, Берлин, Гейдельберг.
- ^ Лиу, Чэн-Юань; Хуанг, Джау-Чи; Ян, Вэнь-Чи (2008). «Моделирование восприятия слов с помощью сети Эльмана». Нейрокомпьютеры . 71 (16-18): 3150. DOI : 10.1016 / j.neucom.2008.04.030 .
- ^ Лиу, Чэн-Юань; Ченг, Вэй-Чен; Лиу, Цзюн-Вэй; Лиу, Доу-Ран (2014). «Автоэнкодер слов». Нейрокомпьютеры . 139 : 84–96. DOI : 10.1016 / j.neucom.2013.09.055 .
- ^ Schmidhuber, Jürgen (январь 2015). «Глубокое обучение в нейронных сетях: обзор». Нейронные сети . 61 : 85–117. arXiv : 1404,7828 . DOI : 10.1016 / j.neunet.2014.09.003 . PMID 25462637 . S2CID 11715509 .
- Перейти ↑ Hinton, GE, & Zemel, RS (1994). Автоэнкодеры, минимальная длина описания и свободная энергия Гельмгольца. В достижениях в области нейронных систем обработки информации 6 (стр. 3-10).
- ^ a b c Дидерик П. Кингма; Веллинг, Макс (2013). «Автоматическое кодирование вариационного Байеса». arXiv : 1312.6114 [ stat.ML ].
- ^ Создание Лица с факелом, Boesen А., Larsen L. и Sonderby SK, 2015 факел .ch / блог / 2015 /11 /13 / GaN .html
- ^ a b Домингос, Педро (2015). «4». Главный алгоритм: как поиски совершенной обучающей машины переделают наш мир . Основные книги. Подраздел «Глубже в мозг». ISBN 978-046506192-1.
- ^ Bengio, Y. (2009). «Изучение глубинных архитектур для ИИ» (PDF) . Основы и тенденции в машинном обучении . 2 (8): 1795–7. CiteSeerX 10.1.1.701.9550 . DOI : 10.1561 / 2200000006 . PMID 23946944 .
- ^ а б Фрей, Брендан; Махзани, Алиреза (19 декабря 2013 г.). "k-разреженные автоэнкодеры". arXiv : 1312,5663 . Bibcode : 2013arXiv1312.5663M . Cite journal requires
|journal=
(help) - ^ a b c Ng, A. (2011). Редкий автоэнкодер. CS294A Конспект лекций , 72 (2011), 1-19.
- ^ Наир, Винод; Хинтон, Джеффри Э. (2009). «Распознавание трехмерных объектов с помощью сетей глубокого убеждения» . Материалы 22-й Международной конференции по системам обработки нейронной информации . НИПС'09. США: Curran Associates Inc.: 1339–1347. ISBN 9781615679119.
- ^ Цзэн, Няньинь; Чжан, Хун; Песня, Баойе; Лю, Weibo; Ли, Южонг; Добайе, Абдулла М. (17.01.2018). «Распознавание мимики через изучение глубоких разреженных автоэнкодеров». Нейрокомпьютеры . 273 : 643–649. DOI : 10.1016 / j.neucom.2017.08.043 . ISSN 0925-2312 .
- ^ Арпит, Деванш; Чжоу, Инбо; Нго, Хунг; Говиндараджу, Вену (2015). «Почему регуляризованные автокодеры изучают разреженное представление?». arXiv : 1505.05561 [ stat.ML ].
- ^ а б Махзани, Алиреза; Фрей, Брендан (2013). "K-Sparse Autoencoders". arXiv : 1312.5663 [ cs.LG ].
- ^ а б Ан, Дж., и Чо, С. (2015). Обнаружение аномалий на основе вариационного автокодера с использованием вероятности восстановления. Специальная лекция по IE , 2 (1).
- ^ Doersch, Карл (2016). "Учебник по вариационным автоэнкодерам". arXiv : 1606.05908 [ stat.ML ].
- ^ Khobahi, S .; Солтаналиан, М. (2019). "Глубокие архитектуры с учетом модели для однобитового компрессионного вариационного автоматического кодирования". arXiv : 1911.12410 [ eess.SP ].
- ^ Партауридес, Харрис; Хатзис, Сотириос П. (июнь 2017 г.). «Асимметричные глубинные генеративные модели» . Нейрокомпьютеры . 241 : 90–96. DOI : 10.1016 / j.neucom.2017.02.028 .
- ^ a b c Дорта, Гаро; Висенте, Сара; Агапито, Лурдес ; Кэмпбелл, Нил Д.Ф.; Симпсон, Айвор (2018). «Обучение VAE под структурированными остатками». arXiv : 1804.01050 [ stat.ML ].
- ^ a b Дорта, Гаро; Висенте, Сара; Агапито, Лурдес ; Кэмпбелл, Нил Д.Ф.; Симпсон, Айвор (2018). «Структурированные сети прогнозирования неопределенности». arXiv : 1802.07079 [ stat.ML ].
- ^ Создание разнообразных изображений высокой точности с помощью VQ-VAE-2 https://arxiv.org/abs/1906.00446
- ^ Оптимус: Организация предложений с помощью предварительно обученного моделирования скрытого пространства https://arxiv.org/abs/2004.04092
- ^ а б в г д Хинтон, GE; Салахутдинов, Р.Р. (28.07.2006). «Снижение размерности данных с помощью нейронных сетей». Наука . 313 (5786): 504–507. Bibcode : 2006Sci ... 313..504H . DOI : 10.1126 / science.1127647 . PMID 16873662 . S2CID 1658773 .
- ^ a b c Чжоу, Инбо; Арпит, Деванш; Нвогу, Ифеома; Говиндараджу, Вену (2014). «Совместное обучение лучше для глубинных автокодировщиков?». arXiv : 1405.1380 [ stat.ML ].
- ^ Р. Салахутдинов и Г.Е. Хинтон, «Глубокие машины Больцмана», в AISTATS, 2009, стр. 448–455.
- ^ a b "Fashion MNIST" . 2019-07-12.
- ^ a b Салахутдинов Руслан; Хинтон, Джеффри (2009-07-01). «Семантическое хеширование» . Международный журнал приблизительного мышления . Специальный раздел по графическим моделям и информационному поиску. 50 (7): 969–978. DOI : 10.1016 / j.ijar.2008.11.006 . ISSN 0888-613X .
- ^ Bourlard, H .; Камп, Ю. (1988). «Автоассоциация многослойными перцептронами и разложение по сингулярным числам» . Биологическая кибернетика . 59 (4–5): 291–294. DOI : 10.1007 / BF00332918 . PMID 3196773 . S2CID 206775335 .
- ^ Chicco, Davide; Садовски, Питер; Бальди, Пьер (2014). «Глубокие нейронные сети автоэнкодера для предсказаний аннотаций генных онтологий». Труды 5-й конференции ACM по биоинформатике, вычислительной биологии и информатике здравоохранения - BCB '14 . п. 533. DOI : 10,1145 / 2649387,2649442 . ЛВП : 11311/964622 . ISBN 9781450328944. S2CID 207217210 .
- ^ Плот, E (2018). «От основных подпространств к основным компонентам с помощью линейных автоэнкодеров». arXiv : 1804.10253 [ stat.ML ].
- ^ Сакурада, М., & Yairi, Т. (2014, декабрь). Обнаружение аномалий с помощью автоэнкодеров с нелинейным уменьшением размерности. В материалах 2-го семинара MLSDA 2014 г. по машинному обучению для анализа сенсорных данных (стр. 4). ACM.
- ^ а б в Ан, Дж., и Чо, С. (2015). Обнаружение аномалий на основе вариационного автокодера с использованием вероятности восстановления. Специальная лекция по IE , 2 , 1-18.
- Перейти ↑ Zhou, C., & Paffenroth, RC (2017, август). Обнаружение аномалий с помощью надежных глубинных автоэнкодеров. В материалах 23-й Международной конференции ACM SIGKDD по открытию знаний и интеллектуальному анализу данных (стр. 665-674). ACM.
- ^ Рибейро, Манассес; Лаццаретти, Андре Эуджениу; Лопес, Эитор Сильверио (2018). «Исследование глубоких сверточных автокодировщиков для обнаружения аномалий в видео». Письма с распознаванием образов . 105 : 13–22. DOI : 10.1016 / j.patrec.2017.07.016 .
- ^ Nalisnick, Эрик; Мацукава, Акихиро; Тех, Йи Уай; Горур, Дилан; Лакшминараянан, Баладжи (24.02.2019). «Знают ли глубокие генеративные модели то, чего они не знают?». arXiv : 1810.09136 [ stat.ML ].
- ^ Сяо, Чжишэн; Ян, Цин; Амит, Яли (2020). «Правдоподобие сожаления: показатель обнаружения вне распределения для вариационного автокодировщика» . Достижения в системах обработки нейронной информации . 33 . arXiv : 2003.02977 .
- ^ Тайс, Лукас; Ши, Вэньчжэ; Каннингем, Эндрю; Хусар, Ференц (2017). «Сжатие изображений с потерями с помощью компрессионных автоэнкодеров». arXiv : 1703.00395 [ stat.ML ].
- ^ Балле, Дж; Лапарра, V; Simoncelli, EP (апрель 2017 г.). «Сквозное оптимизированное сжатие изображений». Международная конференция по обучающим представительствам . arXiv : 1611.01704 .
- Перейти ↑ Cho, K. (2013, февраль). Простое разрежение улучшает шумоподавляющие автокодеры с разреженными шумоподавителями при удалении сильно поврежденных изображений. В Международной конференции по машинному обучению (стр. 432-440).
- ^ Чо, Kyunghyun (2013). "Машины Больцмана и шумоподавляющие автоэнкодеры для шумоподавления изображения". arXiv : 1301.3468 [ stat.ML ].
- ^ Buades, A .; Coll, B .; Морель, Дж. М. (2005). «Обзор алгоритмов шумоподавления изображения с новым» . Многомасштабное моделирование и имитация . 4 (2): 490–530. DOI : 10.1137 / 040616024 .
- ^ Gondara, Lovedeep (декабрь 2016). "Снижение шума медицинских изображений с помощью сверточных автоэнкодеров с шумоподавлением". 2016 IEEE 16 -я Международная конференция по интеллектуальному анализу данных семинаров (ICDMW) . Барселона, Испания: IEEE: 241–246. arXiv : 1608.04667 . Bibcode : 2016arXiv160804667G . DOI : 10.1109 / ICDMW.2016.0041 . ISBN 9781509059102. S2CID 14354973 .
- ^ Цзэн, Кун; Ю, Джун; Ван, Руксинь; Ли, Цуйхуа; Тао, Дачэн (январь 2017 г.). «Спаренный глубокий автоэнкодер для сверхвысокого разрешения одиночного изображения». IEEE Transactions по кибернетике . 47 (1): 27–37. DOI : 10.1109 / TCYB.2015.2501373 . ISSN 2168-2267 . PMID 26625442 . S2CID 20787612 .
- ↑ Цзы-Си, Песня; Санчес, Виктор; Хешам, Эйдали; Насир М., Раджпут (2017). «Гибридный глубокий автоэнкодер с гауссовой кривизной для обнаружения различных типов клеток на изображениях трепанобиопсии костного мозга». 14-й Международный симпозиум по биомедицинской визуализации IEEE 2017 г. (ISBI 2017) : 1040–1043. DOI : 10.1109 / ISBI.2017.7950694 . ISBN 978-1-5090-1172-8. S2CID 7433130 .
- ^ Сюй, июнь; Сян, Лэй; Лю, Циншань; Гилмор, Ханна; Ву, Цзяньчжун; Тан, Цзинхай; Мадабхуши, Анант (январь 2016 г.). "Stacked Sparse Autoencoder (SSAE) для обнаружения ядер на изображениях гистопатологии рака груди" . IEEE Transactions по медицинской визуализации . 35 (1): 119–130. DOI : 10,1109 / TMI.2015.2458702 . PMC 4729702 . PMID 26208307 .
- ^ Мартинес-Мурсия, Франсиско Дж .; Ортис, Андрес; Горриз, Хуан М .; Рамирес, Хавьер; Кастильо-Барнс, Диего (2020). «Изучение структуры многообразия болезни Альцгеймера: подход глубокого обучения с использованием сверточных автоэнкодеров» . Журнал IEEE по биомедицинской и медицинской информатике . 24 (1): 17–26. DOI : 10,1109 / JBHI.2019.2914970 . PMID 31217131 . S2CID 195187846 .
- ^ Жаворонков, Алекс (2019). «Глубокое обучение позволяет быстро идентифицировать сильные ингибиторы киназы DDR1». Природа Биотехнологии . 37 (9): 1038–1040. DOI : 10.1038 / s41587-019-0224-х . PMID 31477924 . S2CID 201716327 .
- ^ Грегори, Парикмахер. «Молекула, созданная искусственным интеллектом, демонстрирует« лекарственные качества »» . Проводной .
- ^ Де, Шаунак; Мэйти, Абхишек; Гоэль, Вритти; Шитоле, Санджай; Бхаттачарья, Авик (2017). «Прогнозирование популярности постов в instagram для журнала о стиле жизни с помощью глубокого обучения». 2017 2-я Международная конференция IEEE по системам связи, вычислениям и ИТ-приложениям (CSCITA) . С. 174–177. DOI : 10,1109 / CSCITA.2017.8066548 . ISBN 978-1-5090-4381-1. S2CID 35350962 .
- ^ Чо, Кёнхён; Барт ван Мерриенбоер; Богданов, Дмитрий; Бенжио, Йошуа (2014). «О свойствах нейронного машинного перевода: подходы кодировщик-декодер». arXiv : 1409.1259 [ cs.CL ].
- ^ Суцкевер, Илья; Виньялс, Ориол; Ле, Куок В. (2014). «Последовательность для последовательного обучения с помощью нейронных сетей». arXiv : 1409.3215 [ cs.CL ].
- ^ Хан, Лифэн; Куанг, Шаохуэй (2018). «Включение китайских радикалов в нейронный машинный перевод: глубже, чем уровень символов». arXiv : 1805.01565 [ cs.CL ].