Контекстное обучение (обработка естественного языка)


В обработке естественного языка , обучении в контексте , обучении с несколькими выстрелами или подсказках с несколькими выстрелами — это метод подсказок , который позволяет модели обрабатывать примеры перед попыткой выполнения задачи. [1] [2] Метод был популяризирован после появления GPT-3 [3] и считается эмерджентным свойством больших языковых моделей [4] , когда его поведение масштабирования содержит больше, чем ноль разрывов . [5]

Подсказка с несколькими выстрелами обычно включает в себя n примеров пар (проблема, решение), известных как «выстрелы», при этом общее использование такой подсказки называется подсказкой из n -вызовов. [6] [7] Например, ниже приведена однократная подсказка для классификации тональности обзора: Review: This movie sucks. Sentiment: negative. Review: I love this movie. Sentiment:Если модель выводит «положительно», значит, она правильно решила задачу. [4]

Термин «нулевая подсказка» часто используется для обозначения отсутствия примеров. [8] [9] [10] Примером нулевой подсказки для задания на ответ на вопрос может быть «Кто написал книгу «Происхождение видов?».

Первоначально контекстное обучение было предложено в качестве альтернативы тонкой настройке предварительно обученной языковой модели на наборе данных для конкретной задачи. [3] Поскольку в модели не изменяются никакие параметры, сама модель ничему не учится. Но подсказка подготавливает модель к последующему выводу в рамках конкретного разговора или контекста. Основными преимуществами контекстного обучения по сравнению с тонкой настройкой являются сокращение объема необходимых данных для конкретной задачи и снижение вероятности переобучения за счет изучения слишком узкого распределения из большого, но узкого набора данных для точной настройки. [3] Низкая производительность больших языковых моделейбыло показано, что он достигает конкурентоспособных результатов в задачах НЛП, иногда превосходя предыдущие современные подходы к тонкой настройке. [3] [11] Примерами таких задач НЛП являются перевод , ответы на вопросы , задачи на закрытие , расшифровка слов и использование нового слова в предложении. Создание и оптимизация таких подсказок с несколькими выстрелами является частью активной области изучения разработки подсказок . [12] [13]

Несмотря на то, что подсказки с несколькими выстрелами конкурентоспособны по сравнению с точно настроенными моделями, у них есть свои недостатки. Например, было показано, что порядок, в котором перечислены выстрелы, может иметь значение между производительностью современных и случайных угадываний. Набор нескольких примеров, которые хорошо работают в определенном порядке с одной моделью, могут вообще не работать при использовании с другой моделью. [14] Несмотря на эти недостатки, обычно используемая модель Transformer может кодировать принципиальные алгоритмы обучения, основанные на градиентном спуске внутри их весов, и обеспечивать меза -оптимизацию [15], т. предсказания.[16] [17] [18] [19]

Распространенным примером обучения в контексте является подсказка по цепочке мыслей , когда приводятся несколько примеров, чтобы научить модель выводить цепочку рассуждений, прежде чем пытаться ответить на вопрос. [20] Было показано, что этот метод улучшает производительность моделей в задачах, требующих логического мышления и рассуждений . [21]