Трансферное обучение (TL) - это исследовательская проблема в машинном обучении (ML), которая фокусируется на хранении знаний, полученных при решении одной проблемы, и применении их к другой, но связанной проблеме. [1] Например, знания, полученные при обучении распознаванию автомобилей, могут применяться при попытке распознать грузовики. Эта область исследований имеет некоторое отношение к долгой истории психологической литературы по передаче обучения , хотя формальные связи между этими двумя областями ограничены. С практической точки зрения повторное использование или перенос информации из ранее изученных задач для обучения новым задачам может значительно повысить эффективность выборки агента обучения с подкреплением .[2]
История [ править ]
Этот раздел может придать чрезмерный вес определенным идеям, инцидентам или противоречиям . Пожалуйста, помогите создать более сбалансированную презентацию . Обсудите и устраните эту проблему, прежде чем удалять это сообщение. (Июнь 2019 г.) |
В 1976 году Стево Бозиновски и Анте Фулгози опубликовали статью, в которой явно рассматривались вопросы трансферного обучения при обучении нейронных сетей. [3] [4] В статье представлена математическая и геометрическая модель трансфертного обучения. В 1981 году был представлен отчет о применении трансферного обучения для обучения нейронной сети на наборе данных изображений, представляющих буквы компьютерных терминалов. Экспериментально продемонстрировано как положительное, так и отрицательное трансферное обучение. [5]
В 1993 году Лориен Пратт опубликовал статью о переносе в машинном обучении , в которой сформулировал алгоритм передачи, основанный на различимости (DBT). [6]
В 1997 год журнал Machine Learning опубликовал специальный выпуск , посвященный обучению передачи, [7] и к 1998 году, поле было передовым включать обучение многозадачного , [8] наряду с более формальным анализом его теоретических основ. [9] Обучение Узнайте , [10] под редакцией Pratt и Себастьян Thrun , является 1998 обзор предмета.
Трансферное обучение также применялось в когнитивной науке: в 1996 г. журнал Connection Science опубликовал специальный выпуск о повторном использовании нейронных сетей посредством переноса [11].
Эндрю Нг сказал в своем учебном пособии NIPS 2016 [12] [13] [14], что TL станет следующим драйвером коммерческого успеха ML после контролируемого обучения, чтобы подчеркнуть важность TL.
Определение [ править ]
Определение трансферного обучения дается с точки зрения предметных областей и задач. Домен состоит из: пространства признаков и предельного распределения вероятностей , где . Для конкретной области, задача состоит из двух компонентов: пространства меток и целевой функции прогнозирования . Функция используется для прогнозирования соответствующей метки нового экземпляра . Эта задача, обозначенная как , изучается из обучающих данных, состоящих из пар , где и . [15]
Учитывая исходную область и задачу обучения , целевую область и задачу обучения , где или , переносное обучение направлено на то, чтобы помочь улучшить обучение целевой прогностической функции при использовании знаний в и . [15]
Приложения [ править ]
Доступны алгоритмы трансферного обучения в логических сетях Маркова [16] и байесовских сетях . [17] Трансферное обучение также применялось для обнаружения подтипа рака, [18] использования зданий , [19] [20] общих игр , [21] классификации текста , [22] [23] распознавания цифр, [24] медицинской визуализации и фильтрация спама . [25]
В 2020 году было обнаружено, что из-за их схожей физической природы передача обучения возможна между электромиографическими (ЭМГ) сигналами от мышц при классификации поведения электроэнцефалографических (ЭЭГ) мозговых волн из области распознавания жестов в область распознавания психического состояния. Также было отмечено, что эта взаимосвязь работает наоборот, показывая, что ЭЭГ также может быть использована для классификации ЭМГ дополнительно. [26] Эксперименты отметили, что точность нейронных сетей и сверточных нейронных сетей была улучшена [27]через переносное обучение как в первую эпоху (перед любым обучением, т. е. по сравнению со стандартным случайным распределением весов), так и в асимптоте (конец процесса обучения). То есть алгоритмы улучшаются за счет воздействия на другой домен. Более того, конечный пользователь предварительно обученной модели может изменить структуру полносвязных слоев для достижения превосходной производительности. [28]
См. Также [ править ]
- Кроссовер (генетический алгоритм)
- Адаптация домена
- Общая игра
- Многозадачное обучение
- Оптимизация многозадачности
Ссылки [ править ]
- ^ Запад, Джереми; Вентура, Дэн; Варник, Шон (2007). «Презентация весенних исследований: теоретические основы индуктивного переноса» . Университет Бригама Янга, Колледж физико-математических наук. Архивировано из оригинала на 2007-08-01 . Проверено 5 августа 2007 .
- ^ Джордж Каримпанал, Томмен; Буффане, Роланд (2019). «Самоорганизующиеся карты для хранения и передачи знаний при обучении с подкреплением». Адаптивное поведение . 27 (2): 111–126. arXiv : 1811.08318 . DOI : 10.1177 / 1059712318818568 . ISSN 1059-7123 . S2CID 53774629 .
- ^ Стево. Божиновски и Анте Фульгози (1976). «Влияние подобия паттернов и передачи обучения на тренировку базового перцептрона B2». (оригинал на хорватском языке) Proceedings of Symposium Informatica 3-121-5, Bled.
- ^ Стево Бозиновски (2020) «Напоминание о первой статье о трансферном обучении в нейронных сетях, 1976». Informatica 44: 291–302.
- ^ С. Bozinovski (1981). «Учебное пространство: концепция представления для адаптивной классификации шаблонов». Технический отчет COINS, Массачусетский университет в Амхерсте, № 81-28 [доступно на сайте: UM-CS-1981-028.pdf]
- ^ Pratt, LY (1993). «Передача между нейронными сетями на основе различимости» (PDF) . Конференция NIPS: Достижения в системах обработки нейронной информации 5 . Издательство Морган Кауфманн. С. 204–211.
- ^ Пратт, LY; Трун, Себастьян (июль 1997 г.). «Машинное обучение - специальный выпуск по индуктивному переносу» . link.springer.com . Springer . Проверено 10 августа 2017 .
- ^ Каруана, Р., "Многозадачное обучение", стр. 95-134 в Pratt & Thrun 1998
- ^ Бакстер, Дж., "Теоретические модели обучения, чтобы учиться", стр. 71-95, Pratt & Thrun 1998
- ^ Thrun & Pratt 2012 .
- ^ Пратт, Л. (1996). «Специальный выпуск: повторное использование нейронных сетей посредством передачи» . Связь науки . 8 (2) . Проверено 10 августа 2017 .
- ^ Учебное пособие NIPS 2016: «Гайки и болты создания приложений ИИ с использованием глубокого обучения», Эндрю Нг , получено 28 декабря 2019 г.
- ^ «Расписание NIPS 2016» . nips.cc . Проверено 28 декабря 2019 .
- ^ Гайки и болты создания приложений ИИ с использованием глубокого обучения, слайды
- ^ а б Линь, Юань-Пин; Юнг, Цзы-Пинг (27 июня 2017 г.). «Улучшение классификации эмоций на основе ЭЭГ с использованием условного переноса обучения» . Границы нейробиологии человека . 11 : 334. DOI : 10,3389 / fnhum.2017.00334 . PMC 5486154 . PMID 28701938 . Материал был скопирован из этого источника, который доступен по международной лицензии Creative Commons Attribution 4.0 .
- ^ Михалкова, Лиляна; Huynh, Tuyen; Муни, Раймонд Дж. (Июль 2007 г.), «Отображение и пересмотр логических сетей Маркова для передачи» (PDF) , Труды обучения 22-й конференции AAAI по искусственному интеллекту (AAAI-2007) , Ванкувер, Британская Колумбия, стр. 608–614 , получено 2007-08-05
- ^ Никулеску-Мизил, Александру; Каруана, Рич (21-24 марта 2007), «Индуктивный Transfer для байесовской сети Структура обучения» (PDF) , Труды одиннадцатой Международной конференции по искусственному интеллекту и статистики (AISTATS 2007) , получены 2007-08-05
- ^ Hajiramezanali, E. & Dadaneh, SZ & Karbalayghareh, A. & Zhou, Z. & Qian, X. Байесовское многодоменное обучение для обнаружения подтипов рака на основе данных подсчета секвенирования следующего поколения. 32-я конференция по системам обработки нейронной информации (NeurIPS 2018), Монреаль, Канада. arXiv : 1810.09433
- ^ Ариф-Анг, IB; Салим, ФО; Гамильтон, М. (8 ноября 2017 г.). DA-HOC: адаптация полууправляемой области для прогнозирования занятости помещения с использованием данных датчика CO2 . 4-я Международная конференция ACM по системам для энергоэффективных построенных сред (BuildSys). Делфт, Нидерланды. С. 1–10. DOI : 10.1145 / 3137133.3137146 . ISBN 978-1-4503-5544-5.
- ^ Ариф-Анг, IB; Гамильтон, М .; Салим, ФО (2018-12-01). «Масштабируемое прогнозирование занятости комнаты с переносимым разложением временного ряда данных датчика CO2». ACM-транзакции в сенсорных сетях . 14 (3–4): 21: 1–21: 28. DOI : 10.1145 / 3217214 . S2CID 54066723 .
- ^ Банерджи, Bikramjit, и Питер Стоун. « Общее игровое обучение с использованием передачи знаний ». IJCAI. 2007 г.
- ^ До, Чыонг Б .; Нг, Эндрю Ю. (2005). «Трансферное обучение для классификации текстов». Фонд систем обработки нейронной информации, NIPS * 2005 (PDF) . Проверено 5 августа 2007 .
- ^ Раджат, Райна; Ng, Andrew Y .; Коллер, Дафна (2006). «Построение информационных априорных точек с использованием трансферного обучения». Двадцать третья международная конференция по машинному обучению (PDF) . Проверено 5 августа 2007 .
- ^ Майтра, DS; Bhattacharya, U .; Паруи, СК (август 2015). «Общий подход на основе CNN к распознаванию рукописных символов в нескольких сценариях». 2015 13-я Международная конференция по анализу и распознаванию документов (ICDAR) : 1021–1025. DOI : 10.1109 / ICDAR.2015.7333916 . ISBN 978-1-4799-1805-8. S2CID 25739012 .
- ^ Бикель, Штеффен (2006). «Обзор проблемы обнаружения ECML-PKDD 2006». ECML-PKDD Discovery Challenge Workshop (PDF) . Проверено 5 августа 2007 .
- ^ Берд, Джордан Дж .; Кобыларз, Джонатан; Faria, Diego R .; Экарт, Анико; Рибейро, Эдуардо П. (2020). «Междоменное обучение передаче MLP и CNN для обработки биологических сигналов: ЭЭГ и ЭМГ» . Доступ IEEE . Институт инженеров по электротехнике и радиоэлектронике (IEEE). 8 : 54789–54801. DOI : 10,1109 / access.2020.2979074 . ISSN 2169-3536 .
- ^ Майтра, Дурджой Сен; Бхаттачарья, Удджвал; Паруи, Свапан К. (август 2015 г.). «Общий подход на основе CNN к распознаванию рукописных символов в нескольких сценариях» . 2015 13-я Международная конференция по анализу и распознаванию документов (ICDAR) : 1021–1025. DOI : 10.1109 / ICDAR.2015.7333916 .
- Перейти ↑ Kabir, HM, Abdar, M., Jalali, SMJ, Khosravi, A., Atiya, AF, Nahavandi, S., & Srinivasan, D. (2020). Spinalnet: глубокая нейронная сеть с постепенным вводом. Препринт arXiv arXiv: 2007.03347.
Источники [ править ]
- Трун, Себастьян; Пратт, Лориен (6 декабря 2012 г.). Учимся учиться . Springer Science & Business Media. ISBN 978-1-4615-5529-2.