Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

В статистике , порядковая регрессия (также называемая «порядковая классификацией») представляет собой тип регрессионного анализа используется для прогнозирования в порядковом переменном , т.е. переменного, значение которой существует в произвольном масштабе , где только относительное упорядочение между различными значениями является существенным. Это можно считать промежуточной проблемой между регрессией и классификацией . [1] [2] Примерами порядковой регрессии являются упорядоченный логит и упорядоченный пробит . Порядковая регрессия часто встречается в социальных науках, например, при моделировании уровней предпочтений человека (по шкале, скажем, от 1–5 для «очень плохо» до «отлично»), а также при поиске информации . В машинном обучении порядковая регрессия также может называться ранговым обучением . [3] [а]

Линейные модели для порядковой регрессии [ править ]

Порядковая регрессия может быть выполнена с использованием обобщенной линейной модели (GLM), которая соответствует как вектору коэффициентов, так и набору пороговых значений для набора данных. Предположу , что один имеет набор наблюдений, представленный длина- р векторы х 1 через й п , с соответствующими ответами у 1 через у п , где каждый у я является порядковым переменным по шкале 1, ..., K . Для простоты и без ограничения общности мы предполагаем, что y - неубывающий вектор, то есть y i у я + 1 . К этим данным подходят вектор w коэффициентов длины p и набор порогов θ 1 , ..., θ K −1 со свойством θ 1 < θ 2 <... < θ K −1 . Этот набор пороговых значений делит линию вещественных чисел на K непересекающихся сегментов, соответствующих K уровням отклика.

Модель теперь можно сформулировать как

или совокупная вероятность того, что ответ y не превосходит i , задается функцией σ ( функция обратной связи ), примененной к линейной функции от x . Существует несколько вариантов для σ ; логистическая функция

дает упорядоченную логит- модель, а использование пробит- функции дает упорядоченную пробит- модель. Третий вариант - использовать экспоненциальную функцию

что дает модель пропорциональных опасностей . [4]

Модель со скрытыми переменными [ править ]

Пробит-версия вышеупомянутой модели может быть оправдана, если предположить существование действительной скрытой переменной (ненаблюдаемой величины) y * , определяемой [5]

где ε является нормально распределены с нулевым средним и единичной дисперсией, кондиционером на х . Переменная отклика y является результатом «неполного измерения» y * , где определяется только интервал, в который попадает y * :

Определяя θ 0 = -∞ и θ K = ∞ , вышесказанное можно резюмировать как y = k тогда и только тогда, когда θ k −1 < y * ≤ θ k .

Исходя из этих предположений, можно получить условное распределение y как [5]

где Φ - кумулятивная функция распределения стандартного нормального распределения и играет роль функции обратной связи σ . Логарифмическая функция правдоподобия модели для одного примера тренировочного х I , у я теперь может быть сформулирована [5]

(с использованием скобки Айверсона [ y i = k ] .) Логарифмическая вероятность упорядоченной логит-модели аналогична, с использованием логистической функции вместо Φ . [6]

Альтернативные модели [ править ]

В машинном обучении были предложены альтернативы моделям порядковой регрессии со скрытыми переменными. Первым результатом был PRank, вариант алгоритма перцептрона , который обнаружил несколько параллельных гиперплоскостей, разделяющих различные ранги; его выходом являются весовой вектор w и отсортированный вектор из K −1 порогов θ , как в упорядоченных моделях логит / пробит. Правило прогнозирования для этой модели состоит в том, чтобы вывести наименьший ранг k такой, что wx < θ k . [7]

Другие методы основаны на принципе обучения с большим запасом, который также лежит в основе векторных машин поддержки . [8] [9]

Другой подход предложен Ренни и Сребро, которые, понимая, что «даже простая оценка вероятности предиктора не является прямой» в моделях упорядоченного логита и упорядоченного пробита, предлагают подходящие модели порядковой регрессии путем адаптации общих функций потерь из классификации ( такие как потеря петли и потеря лога ) к порядковому случае. [10]

Программное обеспечение [ править ]

ORCA (Алгоритмы порядковой регрессии и классификации) - это структура Octave / MATLAB, включающая широкий набор методов порядковой регрессии. [11]

Пакеты R, которые предоставляют методы порядковой регрессии, включают MASS [12] и Ordinal. [13]

См. Также [ править ]

  • Логистическая регрессия

Заметки [ править ]

  1. ^ Не путать с обучением ранжированию .

Ссылки [ править ]

  1. ^ Winship, Кристофер; Маре, Роберт Д. (1984). «Регрессионные модели с порядковыми переменными» (PDF) . Американский социологический обзор . 49 (4): 512–525. DOI : 10.2307 / 2095465 . JSTOR  2095465 .
  2. ^ Гутьеррес, Пенсильвания; Pérez-Ortiz, M .; Sánchez-Monedero, J .; Fernández-Navarro, F .; Эрвас-Мартинес, К. (январь 2016 г.). «Методы порядковой регрессии: обзор и экспериментальное исследование». IEEE Transactions по разработке знаний и данных . 28 (1): 127–146. DOI : 10.1109 / TKDE.2015.2457911 . hdl : 10396/14494 . ISSN 1041-4347 . 
  3. ^ Шашуа, Амнон; Левин, Анат (2002). Принцип ранжирования с большим отрывом: два подхода . НИПС .
  4. ^ McCullagh, Питер (1980). «Регрессионные модели для порядковых данных». Журнал Королевского статистического общества . Серия Б (Методическая). 42 (2): 109–142.
  5. ^ a b c Вулдридж, Джеффри М. (2010). Эконометрический анализ поперечных и панельных данных . MIT Press. С. 655–657. ISBN 9780262232586.
  6. ^ Агрести, Алан (23 октября 2010). «Моделирование порядковых категориальных данных» (PDF) . Проверено 23 июля 2015 года . CS1 maint: discouraged parameter (link)
  7. ^ Краммер, Коби; Певец, Йорам (2001). Шутки с рейтингом . НИПС.
  8. ^ Чу, Вэй; Кирти, С. Сатья (2007). «Опорный вектор порядковой регрессии». Нейронные вычисления . 19 (3): 792–815. CiteSeerX 10.1.1.297.3637 . DOI : 10.1162 / neco.2007.19.3.792 . PMID 17298234 .  
  9. ^ Хербрих, Ральф; Грэпель, Тор; Обермайер, Клаус (2000). «Границы большого ранга маржи для порядковой регрессии» . Достижения в классификаторах большой маржи . MIT Press. С. 115–132.
  10. ^ Ренни, Джейсон DM; Сребро, Натан (2005). Функции потерь для уровней предпочтений: регрессия с дискретно упорядоченными метками (PDF) . Proc. Междисциплинарный семинар IJCAI по достижениям в обработке преференций.
  11. ^ orca: Порядковая регрессия и алгоритмы классификации , AYRNA, 2017-11-21 , получено 2017-11-21 CS1 maint: discouraged parameter (link)
  12. ^ "Современная прикладная статистика с S, 4-е изд" . www.stats.ox.ac.uk . Проверено 15 июля 2020 .
  13. ^ Кристенсен, руна Haubo Б. (2020-06-05), runehaubo / порядковое , извлекаются 2020-07-15

Дальнейшее чтение [ править ]

  • Агрести, Алан (2010). Анализ порядковых категориальных данных . Хобокен, Нью-Джерси: Уайли. ISBN 978-0470082898. CS1 maint: discouraged parameter (link)
  • Грин, Уильям Х. (2012). Эконометрический анализ (седьмое изд.). Бостон: образование Пирсона. С. 824–842. ISBN 978-0-273-75356-8. CS1 maint: discouraged parameter (link)
  • Хардин, Джеймс; Хильбе, Джозеф (2007). Обобщенные линейные модели и расширения (2-е изд.). Колледж-Стейшн: Stata Press. ISBN 978-1-59718-014-6. CS1 maint: discouraged parameter (link)