Часть серии по |
Регрессивный анализ |
---|
Модели |
Оценка |
|
Фон |
|
|
Непараметрическая регрессия - это категория регрессионного анализа, в которой предиктор не принимает заранее заданную форму, а строится в соответствии с информацией, полученной из данных. То есть не предполагается параметрической формы для отношения между предикторами и зависимой переменной. Непараметрическая регрессия требует больших размеров выборки, чем регрессия, основанная на параметрических моделях, потому что данные должны предоставлять структуру модели, а также оценки модели.
Определение [ править ]
В непараметрической регрессии, мы имеем случайные величины и и предположим следующее соотношение:
где - некоторая детерминированная функция. Линейная регрессия - это ограниченный случай непараметрической регрессии, где предполагается, что она аффинна. Некоторые авторы используют немного более сильное предположение об аддитивном шуме:
где случайная величина - это "шумовой член" со средним значением 0. Без предположения, что принадлежит определенному параметрическому семейству функций, невозможно получить несмещенную оценку для , однако большинство оценок являются согласованными при подходящих условиях.
Список универсальных алгоритмов непараметрической регрессии [ править ]
Это неполный список алгоритмов, подходящих для задач непараметрической регрессии.
- ближайшие соседи, см ближайшего соседа интерполяция и к-ближайшие соседи алгоритм
- деревья регрессии
- регрессия ядра
- локальная регрессия
- многомерные сплайны адаптивной регрессии
- нейронные сети
- опорная векторная регрессия
- сглаживающие шлицы
Примеры [ править ]
Регрессия гауссовского процесса или кригинг [ править ]
В регрессии гауссовского процесса, также известной как кригинг, для кривой регрессии предполагается гауссовский априор. Предполагается, что ошибки имеют многомерное нормальное распределение, а кривая регрессии оценивается по ее апостериорной моде . Гауссовский априор может зависеть от неизвестных гиперпараметров, которые обычно оцениваются эмпирическим методом Байеса . Гиперпараметры обычно определяют предварительное ядро ковариации. В случае, если ядро также должно быть выведено непараметрическим образом из данных, можно использовать критический фильтр .
Сглаживающие сплайны интерпретируются как апостериорная мода регрессии гауссовского процесса.
Регрессия ядра [ править ]
В этом разделе не процитировать любые источники . Август 2020 г. ) ( Узнайте, как и когда удалить этот шаблон сообщения ) ( |
Регрессия ядра оценивает непрерывную зависимую переменную по ограниченному набору точек данных путем свертки местоположений точек данных с помощью функции ядра - грубо говоря, функция ядра указывает, как «размыть» влияние точек данных, чтобы их значения могли быть используется для прогнозирования стоимости для ближайших местоположений.
Деревья регрессии [ править ]
Алгоритмы обучения дерева решений могут применяться, чтобы научиться предсказывать зависимую переменную на основе данных. [1] Хотя исходная формулировка дерева классификации и регрессии (CART) применялась только для прогнозирования одномерных данных, эту структуру можно использовать для прогнозирования многомерных данных, включая временные ряды. [2]
См. Также [ править ]
- Лассо (статистика)
- Локальная регрессия
- Непараметрическая статистика
- Полупараметрическая регрессия
- Изотоническая регрессия
- Многомерные сплайны адаптивной регрессии
Ссылки [ править ]
- ^ Брейман, Лео; Фридман, JH; Ольшен, РА; Стоун, CJ (1984). Деревья классификации и регрессии . Монтерей, Калифорния: Уодсворт и Брукс / Продвинутые книги и программное обеспечение Коула. ISBN 978-0-412-04841-8.
- Перейти ↑ Segal, MR (1992). «Древовидные методы для продольных данных». Журнал Американской статистической ассоциации . Американская статистическая ассоциация, Тейлор и Фрэнсис. 87 (418): 407–418. DOI : 10.2307 / 2290271 . JSTOR 2290271 .
Дальнейшее чтение [ править ]
- Bowman, AW; Аззалини, А. (1997). Прикладные методы сглаживания для анализа данных . Оксфорд: Clarendon Press. ISBN 0-19-852396-3.
- Fan, J .; Гиджбельс, И. (1996). Локальное полиномиальное моделирование и его приложения . Бока-Ратон: Чепмен и Холл. ISBN 0-412-98321-4.
- Хендерсон, диджей; Парметр, CF (2015). Прикладная непараметрическая эконометрика . Нью-Йорк: Издательство Кембриджского университета. ISBN 978-1-107-01025-3.
- Li, Q .; Расин, Дж. (2007). Непараметрическая эконометрика: теория и практика . Принстон: Издательство Принстонского университета. ISBN 978-0-691-12161-1.
- Пэган, А .; Уллах, А. (1999). Непараметрическая эконометрика . Нью-Йорк: Издательство Кембриджского университета. ISBN 0-521-35564-8.
Внешние ссылки [ править ]
Викискладе есть медиафайлы по теме непараметрической регрессии . |
- HyperNiche, программа для непараметрической мультипликативной регрессии .
- Масштабно-адаптивная непараметрическая регрессия (с программным обеспечением Matlab).