Часть серии по |
Регрессионный анализ |
---|
Модели |
Оценка |
Задний план |
|
|
В статистике , порядковая регрессия (также называемая «порядковая классификацией») представляет собой тип регрессионного анализа используется для прогнозирования в порядковом переменном , т.е. переменного, значение которой существует в произвольном масштабе , где только относительное упорядочение между различными значениями является существенным. Это можно считать промежуточной проблемой между регрессией и классификацией . [1] [2] Примерами порядковой регрессии являются упорядоченный логит и упорядоченный пробит . Порядковая регрессия часто встречается в социальных науках, например, при моделировании уровней предпочтений человека (по шкале, скажем, от 1–5 для «очень плохо» до «отлично»), а также при поиске информации . В машинном обучении порядковая регрессия также может называться ранговым обучением . [3] [а]
Линейные модели для порядковой регрессии [ править ]
Порядковая регрессия может быть выполнена с использованием обобщенной линейной модели (GLM), которая соответствует как вектору коэффициентов, так и набору пороговых значений для набора данных. Предположу , что один имеет набор наблюдений, представленный длина- р векторы х 1 через й п , с соответствующими ответами у 1 через у п , где каждый у я является порядковым переменным по шкале 1, ..., K . Для простоты и без ограничения общности мы предполагаем, что y - неубывающий вектор, то есть y i у я + 1 . К этим данным подходят вектор w коэффициентов длины p и набор порогов θ 1 , ..., θ K −1 со свойством θ 1 < θ 2 <... < θ K −1 . Этот набор пороговых значений делит линию вещественных чисел на K непересекающихся сегментов, соответствующих K уровням отклика.
Модель теперь можно сформулировать как
или совокупная вероятность того, что ответ y не превосходит i , задается функцией σ ( функция обратной связи ), примененной к линейной функции от x . Существует несколько вариантов для σ ; логистическая функция
дает упорядоченную логит- модель, а использование пробит- функции дает упорядоченную пробит- модель. Третий вариант - использовать экспоненциальную функцию
что дает модель пропорциональных опасностей . [4]
Модель со скрытыми переменными [ править ]
Пробит-версия вышеупомянутой модели может быть оправдана, если предположить существование действительной скрытой переменной (ненаблюдаемой величины) y * , определяемой [5]
где ε является нормально распределены с нулевым средним и единичной дисперсией, кондиционером на х . Переменная отклика y является результатом «неполного измерения» y * , где определяется только интервал, в который попадает y * :
Определяя θ 0 = -∞ и θ K = ∞ , вышесказанное можно резюмировать как y = k тогда и только тогда, когда θ k −1 < y * ≤ θ k .
Исходя из этих предположений, можно получить условное распределение y как [5]
где Φ - кумулятивная функция распределения стандартного нормального распределения и играет роль функции обратной связи σ . Логарифмическая функция правдоподобия модели для одного примера тренировочного х I , у я теперь может быть сформулирована [5]
(с использованием скобки Айверсона [ y i = k ] .) Логарифмическая вероятность упорядоченной логит-модели аналогична, с использованием логистической функции вместо Φ . [6]
Альтернативные модели [ править ]
В машинном обучении были предложены альтернативы моделям порядковой регрессии со скрытыми переменными. Первым результатом был PRank, вариант алгоритма перцептрона , который обнаружил несколько параллельных гиперплоскостей, разделяющих различные ранги; его выходом являются весовой вектор w и отсортированный вектор из K −1 порогов θ , как в упорядоченных моделях логит / пробит. Правило прогнозирования для этой модели состоит в том, чтобы вывести наименьший ранг k такой, что wx < θ k . [7]
Другие методы основаны на принципе обучения с большим запасом, который также лежит в основе векторных машин поддержки . [8] [9]
Другой подход предложен Ренни и Сребро, которые, понимая, что «даже простая оценка вероятности предиктора не является прямой» в моделях упорядоченного логита и упорядоченного пробита, предлагают подходящие модели порядковой регрессии путем адаптации общих функций потерь из классификации ( такие как потеря петли и потеря лога ) к порядковому случае. [10]
Программное обеспечение [ править ]
ORCA (Алгоритмы порядковой регрессии и классификации) - это структура Octave / MATLAB, включающая широкий набор методов порядковой регрессии. [11]
Пакеты R, которые предоставляют методы порядковой регрессии, включают MASS [12] и Ordinal. [13]
См. Также [ править ]
- Логистическая регрессия
Заметки [ править ]
- ^ Не путать с обучением ранжированию .
Ссылки [ править ]
- ^ Winship, Кристофер; Маре, Роберт Д. (1984). «Регрессионные модели с порядковыми переменными» (PDF) . Американский социологический обзор . 49 (4): 512–525. DOI : 10.2307 / 2095465 . JSTOR 2095465 .
- ^ Гутьеррес, Пенсильвания; Pérez-Ortiz, M .; Sánchez-Monedero, J .; Fernández-Navarro, F .; Эрвас-Мартинес, К. (январь 2016 г.). «Методы порядковой регрессии: обзор и экспериментальное исследование». IEEE Transactions по разработке знаний и данных . 28 (1): 127–146. DOI : 10.1109 / TKDE.2015.2457911 . hdl : 10396/14494 . ISSN 1041-4347 .
- ^ Шашуа, Амнон; Левин, Анат (2002). Принцип ранжирования с большим отрывом: два подхода . НИПС .
- ^ McCullagh, Питер (1980). «Регрессионные модели для порядковых данных». Журнал Королевского статистического общества . Серия Б (Методическая). 42 (2): 109–142.
- ^ a b c Вулдридж, Джеффри М. (2010). Эконометрический анализ поперечных и панельных данных . MIT Press. С. 655–657. ISBN 9780262232586.
- ^ Агрести, Алан (23 октября 2010). «Моделирование порядковых категориальных данных» (PDF) . Проверено 23 июля 2015 года . CS1 maint: discouraged parameter (link)
- ^ Краммер, Коби; Певец, Йорам (2001). Шутки с рейтингом . НИПС.
- ^ Чу, Вэй; Кирти, С. Сатья (2007). «Опорный вектор порядковой регрессии». Нейронные вычисления . 19 (3): 792–815. CiteSeerX 10.1.1.297.3637 . DOI : 10.1162 / neco.2007.19.3.792 . PMID 17298234 .
- ^ Хербрих, Ральф; Грэпель, Тор; Обермайер, Клаус (2000). «Границы большого ранга маржи для порядковой регрессии» . Достижения в классификаторах большой маржи . MIT Press. С. 115–132.
- ^ Ренни, Джейсон DM; Сребро, Натан (2005). Функции потерь для уровней предпочтений: регрессия с дискретно упорядоченными метками (PDF) . Proc. Междисциплинарный семинар IJCAI по достижениям в обработке преференций.
- ^ orca: Порядковая регрессия и алгоритмы классификации , AYRNA, 2017-11-21 , получено 2017-11-21 CS1 maint: discouraged parameter (link)
- ^ "Современная прикладная статистика с S, 4-е изд" . www.stats.ox.ac.uk . Проверено 15 июля 2020 .
- ^ Кристенсен, руна Haubo Б. (2020-06-05), runehaubo / порядковое , извлекаются 2020-07-15
Дальнейшее чтение [ править ]
- Агрести, Алан (2010). Анализ порядковых категориальных данных . Хобокен, Нью-Джерси: Уайли. ISBN 978-0470082898. CS1 maint: discouraged parameter (link)
- Грин, Уильям Х. (2012). Эконометрический анализ (седьмое изд.). Бостон: образование Пирсона. С. 824–842. ISBN 978-0-273-75356-8. CS1 maint: discouraged parameter (link)
- Хардин, Джеймс; Хильбе, Джозеф (2007). Обобщенные линейные модели и расширения (2-е изд.). Колледж-Стейшн: Stata Press. ISBN 978-1-59718-014-6. CS1 maint: discouraged parameter (link)