Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Бутстрапирование - это любой тест или показатель, использующий случайную выборку с заменой и подпадающий под более широкий класс методов повторной выборки . Начальная загрузка назначает меры точности (смещение, дисперсия, доверительные интервалы , ошибка прогноза и т. Д.) Для выборочных оценок. [1] [2] Этот метод позволяет оценить распределение выборки практически любой статистики с использованием методов случайной выборки. [3] [4]

При загрузке оцениваются свойства оценщика (например, его дисперсия ) путем измерения этих свойств при выборке из аппроксимирующего распределения. Одним из стандартных вариантов аппроксимирующего распределения является эмпирическая функция распределения наблюдаемых данных. В случае, когда можно предположить, что набор наблюдений поступает от независимой и одинаково распределенной совокупности, это может быть реализовано путем построения ряда повторных выборок с заменой наблюдаемого набора данных (и равного размера наблюдаемому набору данных) .

Его также можно использовать для построения тестов гипотез . Он часто используется в качестве альтернативы статистическому выводу, основанному на предположении о параметрической модели, когда это предположение вызывает сомнения, или когда параметрический вывод невозможен или требует сложных формул для вычисления стандартных ошибок .

История [ править ]

Бутстрап был опубликован Брэдли Эфроном в статье «Методы начальной загрузки: новый взгляд на складной нож» (1979), [5] [6] [7], вдохновленный более ранней работой с складным ножом . [8] [9] [10] Улучшенные оценки дисперсии были разработаны позже. [11] [12] Байесовское расширение было разработано в 1981 г. [13] Бутстрап с коррекцией смещения и ускорением (BCa) был разработан Эфроном в 1987 г. [14], а процедура ABC - в 1992 г. [15]

Подход [ править ]

Основная идея начальной загрузки заключается в том, что вывод о генеральной совокупности на основе данных выборки (выборка → совокупность) может быть смоделирован путем повторной выборки данных выборки и выполнения вывода о выборке из данных повторной выборки (повторная выборка → выборка). Поскольку генеральная совокупность неизвестна, истинная ошибка в статистике выборки относительно ее значения совокупности неизвестна. В бутстрап-повторной выборке «совокупность» фактически является выборкой, и это известно; следовательно, качество вывода «истинной» выборки из данных повторной выборки (повторная выборка → выборка) поддается измерению.

Более формально, начальной загрузки работ обработки умозаключение истинного распределения вероятностей J , учитывая исходные данные, как аналог логического вывода эмпирического распределения Ĵ , учитывая данные передискретизируется. Точность выводов относительно Ĵ с использованием данных передискретизируется можно оценить , потому что мы знаем Ĵ . Если Ĵ является разумным приближением к J , то, в свою очередь, можно сделать вывод о качестве вывода о J.

В качестве примера предположим, что нас интересует средний (или средний ) рост людей во всем мире. Мы не можем измерить всех людей в глобальной популяции, поэтому вместо этого мы отбираем лишь крошечную ее часть и измеряем ее. Предположим, что размер образца равен N ; то есть мы измеряем рост N человек. Из этой единственной выборки можно получить только одну оценку среднего. Чтобы рассуждать о совокупности, нам нужно некоторое представление об изменчивости среднего, которое мы вычислили. Простейший метод начальной загрузки включает взятие исходного набора данных о высотах и, с помощью компьютера, выборку из него для формирования новой выборки (называемой `` повторной выборкой '' или выборкой начальной загрузки), которая также имеет размер  N.. Образец начальной загрузки берется из оригинала с помощью выборки с заменой (например, мы могли бы «передискретизировать» 5 раз из [1,2,3,4,5] и получить [2,5,4,4,1]), поэтому , полагая Nдостаточно велик, для всех практических целей вероятность того, что он будет идентичным исходному «реальному» образцу, практически равна нулю. Этот процесс повторяется большое количество раз (обычно 1000 или 10 000 раз), и для каждой из этих выборок начальной загрузки мы вычисляем ее среднее значение (каждая из них называется оценками начальной загрузки). Теперь мы можем создать гистограмму средств начальной загрузки. Эта гистограмма дает оценку формы распределения выборочного среднего, исходя из которой мы можем ответить на вопросы о том, насколько среднее значение варьируется в разных выборках. (Метод, описанный здесь для среднего, может быть применен практически к любой другой статистике или оценке .)

Обсуждение [ править ]

Преимущества [ править ]

Большим преимуществом бутстрапа является его простота. Это простой способ получить оценки стандартных ошибок и доверительных интервалов для сложных оценщиков распределения, таких как точки процентиля, пропорции, отношение шансов и коэффициенты корреляции. Bootstrap также является подходящим способом контроля и проверки стабильности результатов. Хотя для большинства задач невозможно узнать истинный доверительный интервал, бутстрап асимптотически более точен, чем стандартные интервалы, полученные с использованием выборочной дисперсии и предположений о нормальности. [16] Самостоятельная загрузка также является удобным методом, позволяющим избежать затрат на повторение эксперимента для получения других групп образцов данных.

Недостатки [ править ]

Хотя бутстрэппинг (при некоторых условиях) асимптотически согласован , он не обеспечивает общих гарантий конечной выборки. Результат может зависеть от репрезентативной выборки. Кажущаяся простота может скрывать тот факт, что при проведении бутстрап-анализа делаются важные предположения (например, независимость выборок), тогда как они были бы более формально сформулированы в других подходах. Кроме того, начальная загрузка может занять много времени.

Рекомендации [ править ]

Количество рекомендуемых в литературе образцов начальной загрузки увеличилось по мере увеличения доступной вычислительной мощности. Если результаты могут иметь существенные последствия в реальном мире, то следует использовать столько образцов, сколько разумно, с учетом доступной вычислительной мощности и времени. Увеличение количества выборок не может увеличить количество информации в исходных данных; он может только уменьшить влияние случайных ошибок выборки, которые могут возникнуть в результате самой процедуры начальной загрузки. Более того, есть свидетельства того, что количество выборок, превышающее 100, приводит к незначительным улучшениям в оценке стандартных ошибок. [17] Фактически, согласно первоначальному разработчику метода начальной загрузки, даже установка количества выборок на 50, вероятно, приведет к довольно хорошим оценкам стандартной ошибки. [18]

Adèr et al. рекомендуют процедуру начальной загрузки для следующих ситуаций: [19]

  • Когда теоретическое распределение интересующей статистики сложно или неизвестно. Поскольку процедура начальной загрузки не зависит от распределения, она предоставляет косвенный метод для оценки свойств распределения, лежащего в основе выборки, и интересующих параметров, полученных из этого распределения.
  • Когда размер выборки недостаточен для прямого статистического вывода. Если основное распределение хорошо известно, бутстрэппинг позволяет учесть искажения, вызванные конкретной выборкой, которая может не быть полностью репрезентативной для генеральной совокупности.
  • Когда необходимо выполнить расчеты мощности и имеется небольшая пилотная выборка. Большинство вычислений мощности и размера выборки сильно зависят от стандартного отклонения интересующей статистики. Если использованная оценка неверна, требуемый размер выборки также будет неверным. Один из способов получить представление об изменении статистики - это использовать небольшую пилотную выборку и выполнить для нее бутстрэппинг, чтобы получить представление об изменении.

Однако Athreya показал [20], что если выполнить наивный бутстрап для выборочного среднего, когда базовая совокупность не имеет конечной дисперсии (например, распределения по степенному закону ), то бутстраповское распределение не будет сходиться к тому же пределу, что и выборочное среднее. В результате доверительные интервалы на основе моделирования бутстрапа методом Монте-Карло могут вводить в заблуждение. Атрея заявляет, что «если кто-то не уверен в том, что основной дистрибутив не имеет тяжелых хвостов , следует отказаться от использования наивного бутстрапа».

Типы схем начальной загрузки [ править ]

В одномерных задачах обычно допустимо повторная выборка отдельных наблюдений с заменой («повторная выборка случая» ниже) в отличие от субвыборки , в которой повторная выборка выполняется без замены и действительна в гораздо более слабых условиях по сравнению с бутстрапом. В небольших выборках может быть предпочтительнее параметрический подход начальной загрузки. Для других проблем, вероятно, будет предпочтительнее плавная загрузка .

Для задач регрессии доступны различные другие альтернативы. [21]

Повторная выборка случая [ править ]

Bootstrap обычно полезен для оценки распределения статистики (например, среднего, дисперсии) без использования нормальной теории (например, z-статистики, t-статистики). Bootstrap пригодится, когда нет аналитической формы или нормальной теории, чтобы помочь оценить распределение интересующей статистики, поскольку методы начальной загрузки могут применяться к большинству случайных величин, например к соотношению дисперсии и среднего. Есть как минимум два способа выполнить повторную выборку регистра.

  1. Алгоритм Монте-Карло для повторной выборки случая довольно прост. Сначала мы передискретизируем данные с заменой, и размер повторной выборки должен быть равен размеру исходного набора данных. Затем интересующая статистика вычисляется на основе повторной выборки с первого шага. Мы повторяем эту процедуру много раз, чтобы получить более точную оценку распределения статистики Bootstrap.
  2. «Точная» версия для повторной выборки случая аналогична, но мы исчерпывающе перечисляем все возможные повторные выборки набора данных. Это может быть дорогостоящим с точки зрения вычислений, поскольку существует множество различных повторных выборок, где n - размер набора данных. Таким образом, для n  = 5, 10, 20, 30 имеется 126, 92378, 6,89 × 10 10 и 5,91 × 10 16 различных повторных выборок соответственно. [22]

Оценка распределения выборочного среднего [ править ]

Рассмотрим эксперимент с подбрасыванием монеты. Мы подбрасываем монету и фиксируем выпадение орла или решки. Пусть X = x 1 , x 2 ,…, x 10 будут 10 наблюдениями из эксперимента. x i = 1, если i-й бросок выпадает орлом, и 0 в противном случае. Из нормальной теории мы можем использовать t-статистику для оценки распределения выборочного среднего,

Вместо этого мы используем бутстрап, в частности повторную выборку регистра, чтобы получить распределение . Сначала мы передискретизируем данные, чтобы получить повторную выборку начальной загрузки . Пример первого пересэмплирования может выглядеть так: X 1 * = x 2 , x 1 , x 10 , x 10 , x 3 , x 4 , x 6 , x 7 , x 1 , x 9.. Есть некоторые дубликаты, поскольку повторная выборка начальной загрузки происходит из выборки с заменой из данных. Кроме того, количество точек данных в повторной выборке начальной загрузки равно количеству точек данных в наших исходных наблюдениях. Затем мы вычисляем среднее значение этой повторной выборки и получаем первое среднее значение начальной загрузки : μ 1 *. Мы повторяем этот процесс, чтобы получить вторую повторную выборку X 2 * и вычислить среднее значение второй начальной загрузки μ 2 *. Если мы повторим это 100 раз, то мы получим μ 1 *, μ 2 *, ..., μ 100 *. Это представляет собой эмпирическое распределение начальной загрузкивыборочного среднего. Из этого эмпирического распределения можно получить доверительный интервал начальной загрузки для проверки гипотез.

Регресс [ править ]

В задачах регрессии повторная выборка наблюдений относится к простой схеме повторной выборки отдельных наблюдений - часто строк набора данных . Для задач регрессии, если набор данных достаточно велик, эта простая схема часто приемлема. Тем не менее, этот метод открыт для критики [ ссылка ] .

В задачах регрессии объясняющие переменные часто фиксированы или, по крайней мере, наблюдаются с большим контролем, чем переменная ответа. Кроме того, диапазон объясняющих переменных определяет доступную из них информацию. Следовательно, повторная выборка случаев означает, что каждая выборка начальной загрузки будет терять некоторую информацию. Таким образом, следует рассмотреть альтернативные процедуры начальной загрузки.

Байесовский бутстрап [ править ]

Начальную загрузку можно интерпретировать в байесовской структуре с использованием схемы, которая создает новые наборы данных путем повторного взвешивания исходных данных. Для данного набора точек данных весовой коэффициент, присвоенный точке данных в новом наборе данных, равен , где - это упорядоченный по убыванию список равномерно распределенных случайных чисел на , которому предшествует 0 и после него идет 1. Распределения параметра выведенные из рассмотрения многих таких наборов данных , затем интерпретируются как апостериорные распределения по этому параметру. [23]

Гладкий бутстрап [ править ]

По этой схеме небольшое количество (обычно нормально распределенного) случайного шума с нулевым центром добавляется к каждому повторному наблюдению. Это эквивалентно выборке из оценки плотности данных ядра . Предположим, что K - симметричная функция плотности ядра с единичной дисперсией. Стандартная оценка ядра из IS

 [24]

где - параметр сглаживания. И соответствующая оценка функции распределения есть

 [24]

Параметрический бутстрап [ править ]

Исходя из предположения, что исходный набор данных является реализацией случайной выборки из распределения определенного параметрического типа, в этом случае параметрическая модель аппроксимируется параметром θ, часто по максимальному правдоподобию , и выборки случайных чисел берутся из этого подобранного модель. Обычно размер выборки такой же, как и у исходных данных. Тогда оценку исходной функции F можно записать как . Этот процесс выборки повторяется много раз, как и для других методов начальной загрузки. В этом случае с учетом среднего значения центрированной выборки исходная функция распределения случайной выборки заменяется бутстраповской случайной выборкой с функцией , а распределение вероятностей аппроксимируется распределением вероятностей, где - математическое ожидание, соответствующее . [25] Использование параметрической модели на этапе выборки методологии бутстрапа приводит к процедурам, которые отличаются от процедур, полученных путем применения базовой статистической теории для вывода для той же модели.

Остатки передискретизации [ править ]

Другой подход к начальной загрузке в задачах регрессии - повторная выборка остатков . Метод работает следующим образом.

  1. Подгоните модель и сохраните подогнанные значения и остатки .
  2. Для каждой пары ( x i , y i ), в которой x i является (возможно, многомерной) объясняющей переменной, добавьте случайно выбранный остаток , к подобранному значению . Другими словами, создайте синтетические переменные ответа, где j выбирается случайным образом из списка (1, ..., n ) для каждого i .
  3. Обновите модель, используя фиктивные переменные отклика , и сохраните интересующие величины (часто параметры , оцененные из синтетических ).
  4. Повторите шаги 2 и 3 большое количество раз.

Эта схема имеет то преимущество, что она сохраняет информацию в независимых переменных. Однако возникает вопрос, какие остатки следует передискретизировать. Необработанные остатки - один из вариантов; другой - студентизированные остатки (в линейной регрессии). Хотя есть аргументы в пользу использования стьюдентизированных остатков; на практике это часто не имеет большого значения, и результаты обеих схем легко сравнить.

Бутстрап регрессии гауссовского процесса [ править ]

Когда данные коррелированы по времени, прямая самонастройка разрушает внутренние корреляции. В этом методе используется регрессия гауссовского процесса (GPR), чтобы соответствовать вероятностной модели, из которой затем могут быть получены реплики. GPR - это метод байесовской нелинейной регрессии. Гауссовский процесс (GP) - это набор случайных величин, любое конечное число которых имеет совместное гауссовское (нормальное) распределение. GP определяется функцией среднего и функцией ковариации, которые задают векторы средних значений и матрицы ковариации для каждого конечного набора случайных величин. [26]

Модель регрессии:

это шумовой термин.

Гауссовский процесс до:

Для любого конечного набора переменных, x 1 , ...,  x n , выходные данные функции совместно распределяются в соответствии с многомерной гауссовой системой со средним значением и ковариационной матрицей.

Пусть Тогда ,

где , и - стандартная дельта-функция Кронекера. [26]

Задний гауссовский процесс:

Согласно приору GP, мы можем получить

,

где и

Пусть x 1 * , ..., x s * - еще один конечный набор переменных, очевидно, что

,

где , ,

Согласно вышеприведенным уравнениям, выходы y также совместно распределяются согласно многомерному гауссову. Таким образом,

где , , , и это единичная матрица. [26]

Дикий бутстрап [ править ]

Дикий бутстрап, первоначально предложенный Wu (1986), [27] , подходит, когда модель демонстрирует гетероскедастичность . Идея, как и в случае остаточного бутстрапа, заключается в том, чтобы оставить регрессоры на уровне их выборочного значения, но повторно выполнить выборку переменной ответа на основе значений остаточных погрешностей. То есть для каждой реплики вычисляется новая на основе

поэтому остатки случайным образом умножаются на случайную величину со средним 0 и дисперсией 1. Для большинства распределений (но не Маммена) этот метод предполагает, что «истинное» распределение остатков является симметричным и может предложить преимущества по сравнению с простой выборкой остатков для меньшей выборки. размеры. Для случайной величины используются разные формы , например

  • Стандартное нормальное распределение
  • Распределение, предложенное Мамменом (1993). [28]
Примерно распределение Маммен таково:
  • Или более простой дистрибутив, связанный с распределением Радемахера :

Блокировка начальной загрузки [ править ]

Блочный бутстрап используется, когда данные или ошибки в модели коррелированы. В этом случае простой случай или остаточная передискретизация не удастся, так как невозможно воспроизвести корреляцию в данных. Блочный бутстрап пытается воспроизвести корреляцию путем повторной выборки внутри блоков данных. Блочный бутстрап использовался в основном с данными, коррелированными во времени (т.е. временными рядами), но также может использоваться с данными, коррелированными в пространстве или между группами (так называемые кластерные данные).

Временной ряд: простой блочный бутстрап [ править ]

В (простом) блочном бутстрапе интересующая переменная разбивается на неперекрывающиеся блоки.

Временной ряд: бутстрап движущегося блока [ править ]

В бутстрапе с движущимся блоком, введенном Кюншем (1989), [29] данные разделяются на n  -  b  + 1 перекрывающихся блоков длиной b : наблюдения с 1 по b будут блоком 1, наблюдения с 2 по b  + 1 будут блоком 2. и т. д. Тогда из этих n  -  b  + 1 блоков будет произвольно извлечено n / b блоков с заменой. Затем выравнивание этих n / b блоков в том порядке, в котором они были выбраны, даст наблюдения начальной загрузки.

Этот бутстрап работает с зависимыми данными, однако самонастраиваемые наблюдения больше не будут стационарными по конструкции. Но было показано, что случайное изменение длины блока может избежать этой проблемы. [30] Этот метод известен как стационарный бутстрап. Другими родственными модификациями бутстрапа подвижного блока являются марковский бутстрап и метод стационарного бутстрапа, который сопоставляет последующие блоки на основе сопоставления стандартного отклонения.

Временной ряд: максимальная энтропия начальной загрузки [ править ]

Винод (2006), [31] представляет метод, который самонастраивает данные временных рядов, используя принципы максимальной энтропии, удовлетворяющие эргодической теореме с ограничениями, сохраняющими среднее и сохраняющими массу. Существует пакет R, meboot , [32], который использует этот метод, имеющий приложения в эконометрике и информатике.

Данные кластера: блочная загрузка [ править ]

Кластерные данные описывают данные, в которых наблюдается много наблюдений на единицу. Это может быть наблюдение за многими фирмами во многих штатах или наблюдение за студентами во многих классах. В таких случаях структура корреляции упрощается, и обычно делается предположение, что данные коррелированы внутри группы / кластера, но независимы между группами / кластерами. Структуру блочного бутстрапа легко получить (где блок просто соответствует группе), и обычно передискретизируются только группы, в то время как наблюдения внутри групп остаются неизменными. Cameron et al. (2008) обсуждает это для кластерных ошибок в линейной регрессии. [33]

Методы повышения вычислительной эффективности [ править ]

Самозагрузка - это мощный метод, хотя может потребовать значительных вычислительных ресурсов как во времени, так и в памяти. Некоторые методы были разработаны, чтобы уменьшить это бремя. Как правило, их можно комбинировать со многими различными типами схем Bootstrap и различными вариантами статистики.

Пуассоновский бутстрап [ править ]

График, показывающий сходимость биномиального распределения к Пуассону, когда биномиальные параметры равны n * p = 1 и n возрастает

Обычный бутстрап требует случайного выбора n элементов из списка, что эквивалентно извлечению из полиномиального распределения. Это может потребовать большого количества проходов по данным и затруднить параллельное выполнение этих вычислений. Для больших значений n бутстрап Пуассона является эффективным методом создания наборов данных начальной загрузки. [34] При генерации одной выборки начальной загрузки вместо случайного извлечения из выборки данных с заменой каждой точке данных назначается случайный вес, распределенный в соответствии с распределением Пуассона с . Для данных большой выборки это будет приблизительная случайная выборка с заменой. Это связано со следующим приближением:

Этот метод также хорошо подходит для потоковой передачи данных и растущих наборов данных, поскольку общее количество выборок не нужно знать заранее, прежде чем начинать брать образцы начальной загрузки.

Сумка с маленькими ботинками [ править ]

Для массивных наборов данных часто бывает сложно с вычислительной точки зрения хранить все данные выборки в памяти и выполнять повторную выборку из данных выборки. Пакет Little Bootstraps (BLB) [35] предоставляет метод предварительной агрегации данных перед начальной загрузкой для уменьшения вычислительных ограничений. Это работает путем разделения набора данных на сегменты равного размера и агрегирования данных в каждом сегменте. Этот предварительно агрегированный набор данных становится новой выборкой данных, на основе которой будут взяты выборки с заменой. Этот метод похож на Block Bootstrap, но мотивация и определения блоков очень разные. При определенных допущениях выборочное распределение должно приближаться к сценарию полной начальной загрузки. Одним из ограничений является количество корзин, в которыхи авторы рекомендуют использовать как общее решение.

Выбор статистики [ править ]

Распределение начальной загрузки точечной оценки параметра совокупности использовалось для получения настраиваемого доверительного интервала для истинного значения параметра, если параметр можно записать как функцию распределения совокупности .

Параметры популяции оцениваются с помощью многих точечных оценок . Популярные семейства точечных оценок включают средние-несмещенные минимальную дисперсию оценки , срединные-несмещенные оценки , байесовские оценки (например, в заднем дистрибутиве «сек режима , средний , средний ) и максимальное правдоподобие .

Согласно асимптотической теории, байесовская точечная оценка и оценка максимального правдоподобия имеют хорошую производительность, когда размер выборки бесконечен . Для практических задач с конечными выборками могут быть предпочтительны другие оценки. Асимптотическая теория предлагает методы, которые часто улучшают производительность бутстрэп-оценок; самонастройку оценки максимального правдоподобия часто можно улучшить с помощью преобразований, связанных с ключевыми величинами . [36]

Получение доверительных интервалов из начального распределения [ править ]

Распределение начальной загрузки оценщика параметра использовалось для вычисления доверительных интервалов для его параметра совокупности. [ необходима цитата ]

Смещение, асимметрия и доверительные интервалы [ править ]

  • Смещение : распределение начальной загрузки и выборка могут систематически не совпадать, и в этом случае может возникнуть смещение .
    Если бутстраповское распределение оценщика является симметричным, часто используется процентильный доверительный интервал; такие интервалы особенно подходят для несмещенных по медиане оценок минимального риска (относительно функции абсолютных потерь ). Смещение в распределении начальной загрузки приведет к смещению доверительного интервала.
    В противном случае, если распределение начальной загрузки несимметрично, процентильные доверительные интервалы часто неуместны.

Методы для доверительных интервалов начальной загрузки [ править ]

Существует несколько методов построения доверительных интервалов из начального распределения реального параметра:

  • Базовая самозагрузки , [36] , также известный как интервал обратного Percentile . [37] Базовый бутстрап - это простая схема построения доверительного интервала: просто берутся эмпирические квантили из бутстраповского распределения параметра (см. Davison and Hinkley 1997, Equ. 5.6, p. 194):
где обозначает процентиль коэффициентов начальной загрузки .
  • Процентильный бутстрап . Процентильный бутстрап работает аналогично базовому бутстрапу, используя процентили распределения бутстрапа, но с другой формулой (обратите внимание на инверсию левого и правого квантилей!):
где обозначает процентиль коэффициентов начальной загрузки .
См. Дэвисон и Хинкли (1997, экв. 5.18, стр. 203) и Эфрон и Тибширани (1993, экв. 13,5, стр. 171).
Этот метод можно применить к любой статистике. Он будет хорошо работать в тех случаях, когда распределение бутстрапа симметрично и сосредоточено на наблюдаемой статистике [38], и где статистика выборки несмещена по медиане и имеет максимальную концентрацию (или минимальный риск по отношению к функции потерь абсолютного значения). При работе с небольшими размерами выборки (например, менее 50) базовый / обратный процентиль и доверительные интервалы процентиля (например) для статистики дисперсии будут слишком узкими. Таким образом, при выборке из 20 точек 90% доверительный интервал будет включать истинную дисперсию только в 78% случаев. [39] Доверительные интервалы базового / обратного процентиля легче обосновать математически [40] [37]но в целом они менее точны, чем процентильные доверительные интервалы, и некоторые авторы не рекомендуют их использовать. [37]
  • Студентный бутстрап . Студентизированный бутстрап, также называемый бутстрап-t , вычисляется аналогично стандартному доверительному интервалу, но заменяет квантили из нормального приближения или приближения Стьюдента квантилями из бутстраповского распределения t-критерия Стьюдента (см. Davison and Hinkley 1997, equ 5.7 с. 194 и Эфрон и Тибширани, 1993, равно 12.22, с. 160):
где обозначает процентиль загруженного t-критерия Стьюдента , а - оцененная стандартная ошибка коэффициента в исходной модели.
Студентизированный тест обладает оптимальными свойствами, поскольку статистика, которая загружается при начальной загрузке, является ключевой (т. Е. Она не зависит от мешающих параметров, поскольку t-критерий асимптотически следует распределению N (0,1)), в отличие от процентильной начальной загрузки.
  • Бутстрап с коррекцией смещения - корректирует смещение в дистрибутиве начальной загрузки.
  • Ускоренный бутстрап - бутстрап с коррекцией смещения и ускорением (BCa), разработанный Эфроном (1987), [14], корректирует как смещение, так и асимметрию в распределении бутстрапа. Этот подход точен в самых разных условиях, требует разумных вычислений и дает достаточно узкие интервалы. [ необходима цитата ]

Проверка гипотез начальной загрузки [ править ]

Эфрон и Тибширани [1] предлагают следующий алгоритм для сравнения средних значений двух независимых выборок: Пусть будет случайная выборка из распределения F с выборочным средним и выборочной дисперсией . Пусть будет еще одна независимая случайная выборка из распределения G со средним значением и дисперсией

  1. Рассчитать статистику теста
  2. Создайте два новых набора данных, значения которых равны, а где - среднее значение объединенной выборки.
  3. Нарисуйте случайную выборку ( ) размера с заменой из и другую случайную выборку ( ) размера с заменой из .
  4. Рассчитать статистику теста
  5. Повторите 3 и 4 раза (например ), чтобы собрать значения тестовой статистики.
  6. Оцените p-значение, как где, когда условие истинно, и 0 в противном случае.

Примеры приложений [ править ]

Сглаженный бутстрап [ править ]

В 1878 году Саймон Ньюкомб провел наблюдения за скоростью света . [41] Набор данных содержит два выброса , которые сильно влияют на выборочное среднее . (Среднее значение выборки не обязательно должно быть последовательной оценкой для любого среднего значения генеральной совокупности , потому что для распределения с тяжелыми хвостами нет необходимости в среднем значении .) Четко определенной и надежной статистикой для центральной тенденции является медиана выборки, которая является последовательной и несмещенной по медиане. для медианы населения.

Распределение начальной загрузки для данных Ньюкомба показано ниже. Метод свертки регуляризации уменьшает дискретность распределения начальной загрузки, добавляя небольшое количество случайного шума N (0, σ 2 ) к каждой выборке начальной загрузки. Стандартный выбор - размер выборки n . [ необходима цитата ]

Гистограммы распределения начальной загрузки и распределения гладкой начальной загрузки показаны ниже. Распределение начальной загрузки медианы выборки имеет лишь небольшое количество значений. Распределение сглаженного бутстрапа имеет более широкую поддержку .

В этом примере 95% -ный (процентиль) доверительный интервал начальной загрузки для медианы совокупности равен (26, 28,5), что близко к интервалу для (25,98, 28,46) для сглаженной начальной загрузки.

Отношение к другим подходам к выводу [ править ]

Связь с другими методами повторной выборки [ править ]

Бутстрап отличается от:

  • складной нож процедура, используется для оценки уклонов выборочных статистических данных и оценка дисперсии и
  • перекрестная проверка , при которой параметры (например, веса регрессии, факторные нагрузки), которые оцениваются в одной подвыборке, применяются к другой подвыборке.

Подробнее см. Передискретизация начальной загрузки .

Агрегирование начальной загрузки (упаковка) - это мета-алгоритм, основанный на усреднении результатов нескольких образцов начальной загрузки.

U-статистика [ править ]

В ситуациях, когда очевидная статистика может быть разработана для измерения требуемой характеристики с использованием только небольшого числа r элементов данных, может быть сформулирована соответствующая статистика, основанная на всей выборке. Учитывая статистику r -выборки, можно создать статистику n -выборки чем-то похожим на бутстрэппинг (взяв среднее значение статистики по всем подвыборкам размера r ). Известно, что эта процедура обладает некоторыми хорошими свойствами, и результатом является U-статистика . Выборочная средняя и выборочная дисперсия в этой форме, г  = 1 и г  = 2.

См. Также [ править ]

  • Тщательность и точность
  • Агрегирование бутстрапа
  • Начальная загрузка
  • Эмпирическая вероятность
  • Вменение (статистика)
  • Надежность (статистика)
  • Воспроизводимость
  • Повторная выборка

Ссылки [ править ]

  1. ^ а б Ефрон, Б .; Тибширани Р. (1993). Введение в Bootstrap . Бока-Ратон, Флорида: Chapman & Hall / CRC. ISBN 0-412-04231-2. программное обеспечение. Архивировано 12 июля 2012 г. в Archive.today.
  2. ^ Second Мысли о бутстрапе - Брэдли Эфрон, 2003
  3. ^ Вариан, Х. (2005). «Учебник по начальной загрузке». Mathematica Journal , 9, 768–775.
  4. Перейти ↑ Weisstein, Eric W. Bootstrap Methods. Материал из MathWorld - веб-ресурса Wolfram. http://mathworld.wolfram.com/BootstrapMethods.html
  5. Примечания к наиболее раннему известному использованию некоторых математических слов: Bootstrap (Джон Олдрич)
  6. ^ Самые ранние известные применения некоторых слов математики (B) (Джефф Миллер)
  7. Перейти ↑ Efron, B. (1979). «Методы начальной загрузки: еще один взгляд на складной нож» . Летопись статистики . 7 (1): 1-26. DOI : 10.1214 / aos / 1176344552 .
  8. ^ Quenouille M (1949) Приблизительные тесты корреляции во временных рядах. J Roy Statist Soc Ser B 11 68–84
  9. ^ Tukey J (1958) Предвзятость и уверенность в не очень больших выборках (аннотация). Энн Мат Статист 29 614
  10. ^ Jaeckel L (1972) Инфинитезимальный складной нож. Меморандум MM72-1215-11, Bell Lab
  11. ^ Бикель П., Фримен Д. (1981) Некоторая асимптотическая теория бутстрапа. Энн Статист 9 1196–1217
  12. ^ Сингх К. (1981) Об асимптотической точности бутстрапа Эфрона . Энн Статист 9, 1187–1195
  13. Перейти ↑ Rubin D (1981). Байесовский бутстрап. Энн Статист 9 130–134
  14. ^ а б Эфрон, Б. (1987). «Лучшие доверительные интервалы Bootstrap». Журнал Американской статистической ассоциации . Журнал Американской статистической ассоциации, Vol. 82, № 397. 82 (397): 171–185. DOI : 10.2307 / 2289144 . JSTOR 2289144 . 
  15. ^ Diciccio T, Efron B (1992) Более точные доверительные интервалы в экспоненциальных семьях . Биометрика 79 231–245
  16. ^ DiCiccio TJ, Efron B (1996) Доверительные интервалы Bootstrap (с обсуждением). Статистическая наука 11: 189–228
  17. ^ Гудхью, DL, Льюис У., & Thompson, R. (2012). Есть ли у PLS преимущества для небольшого размера выборки или нестандартных данных? MIS Quarterly, 36 (3), 981–1001.
  18. ^ Эфрон, В., Рогоза, Д., & Tibshirani, Р. (2004). Методы ресэмплинга оценки. В NJ Smelser, & PB Baltes (Eds.). Международная энциклопедия социальных и поведенческих наук (стр. 13216–13220). Нью-Йорк, штат Нью-Йорк: Эльзевир.
  19. ^ Адер, HJ , Mellenbergh ГДж , ирук, DJ (2008). Консультации по методам исследования: спутник консультанта . Huizen, Нидерланды: Johannes van Kessel Publishing. ISBN 978-90-79418-01-5 . 
  20. ^ Bootstrap среднего в случае бесконечной дисперсии Athreya, KB Ann Stats vol 15 (2) 1987 724-731
  21. ^ Эфрон Б., RJ Tibshirani, введение в загрузчике, Chapman & Hall / CRC 1998
  22. ^ Сколько существует различных образцов начальной загрузки? Statweb.stanford.edu
  23. Перейти ↑ Rubin, DB (1981). «Байесовский бутстрап». Анналы статистики , 9, 130.
  24. ^ а б ВАН, СУОДЖИН (1995). «Оптимизация сглаженного бутстрапа». Анна. Inst. Статист. Математика . 47 : 65–80. DOI : 10.1007 / BF00773412 . S2CID 122041565 . 
  25. ^ Современное введение в вероятность и статистику: понимание, почему и как . Деккинг, Мишель, 1946-. Лондон: Спрингер. 2005. ISBN 978-1-85233-896-1. OCLC  262680588 .CS1 maint: others (link)
  26. ^ a b c Кирк, Пол (2009). «Бутстрапирование регрессии гауссовского процесса: изучение эффектов неопределенности в данных о динамике времени» . Биоинформатика . 25 (10): 1300–1306. DOI : 10.1093 / биоинформатики / btp139 . PMC 2677737 . PMID 19289448 .  
  27. ^ У, CFJ (1986). «Складной нож, бутстрап и другие методы повторной выборки в регрессионном анализе (с обсуждениями)» (PDF) . Анналы статистики . 14 : 1261–1350. DOI : 10.1214 / AOS / 1176350142 .
  28. ^ Маммен, Е. (март 1993). «Бутстрап и дикий бутстрап для многомерных линейных моделей» . Анналы статистики . 21 (1): 255–285. DOI : 10.1214 / AOS / 1176349025 .
  29. ^ Künsch, HR (1989). «Складной нож и начинка для общих стационарных наблюдений» . Анналы статистики . 17 (3): 1217–1241. DOI : 10.1214 / AOS / 1176347265 .
  30. ^ Политис, DN; Романо, JP (1994). «Стационарный бутстрап». Журнал Американской статистической ассоциации . 89 (428): 1303–1313. DOI : 10.1080 / 01621459.1994.10476870 .
  31. Перейти ↑ Vinod, HD (2006). «Ансамбли максимальной энтропии для вывода временных рядов в экономике». Журнал азиатской экономики . 17 (6): 955–978. DOI : 10.1016 / j.asieco.2006.09.001 .
  32. ^ Винод, Хришикеш; Лопес-де-Лакаль, Хавьер (2009). «Максимальная энтропия начальной загрузки для временных рядов: пакет meboot R» . Журнал статистического программного обеспечения . 29 (5): 1–19. DOI : 10,18637 / jss.v029.i05 .
  33. ^ Кэмерон, AC; Гельбах, JB; Миллер, Д.Л. (2008). «Улучшения на основе начальной загрузки для вывода с кластерными ошибками» (PDF) . Обзор экономики и статистики . 90 (3): 414–427. DOI : 10.1162 / rest.90.3.414 .
  34. ^ Chamandy, N; Муралидхаран, О; Наджми, А; Найду, S (2012). «Оценка неопределенности для больших потоков данных» .
  35. ^ Кляйнер, А; Талвалкар, А; Саркар, П; Иордания, Мичиган (2014). «Масштабируемая начальная загрузка для больших объемов данных». Журнал Королевского статистического общества: серия B (статистическая методология) . 76 (4): 795–816. arXiv : 1112.5016 . DOI : 10.1111 / rssb.12050 . ISSN 1369-7412 . S2CID 3064206 .  
  36. ^ а б Дэвисон, AC ; Хинкли, Д.В. (1997). Методы бутстрапа и их применение . Кембриджская серия по статистической и вероятностной математике. Издательство Кембриджского университета. ISBN 0-521-57391-2. программное обеспечение .
  37. ^ a b c Хестерберг, Тим С (2014). «Что учителя должны знать о бутстрапе: повторная выборка в учебной программе по статистике для студентов». arXiv : 1411.5279 [ stat.OT ].
  38. Перейти ↑ Efron, B. (1982). Складной нож, бутстрап и другие планы передискретизации . 38 . Общество промышленной и прикладной математики CBMS-NSF Монографии. ISBN 0-89871-179-7.
  39. ^ Шайнер, С. (1998). Планирование и анализ экологических экспериментов . CRC Press. ISBN 0412035618.
  40. ^ Райс, Джон. Математическая статистика и анализ данных (2-е изд.). п. 272. «Хотя это прямое уравнение квантилей распределения бутстраповой выборки с доверительными границами поначалу может показаться привлекательным, его обоснование несколько неясно».
  41. ^ Данные из примеров в байесовском анализе данных

Дальнейшее чтение [ править ]

  • Diaconis, P .; Ефрон, Б. (май 1983 г.). «Компьютерные методы в статистике» (PDF) . Scientific American . 248 (5): 116–130. DOI : 10.1038 / Scientificamerican0583-116 . научно-популярный
  • Ефрон, Б. (1981). «Непараметрические оценки стандартной ошибки: складной нож, бутстрап и другие методы». Биометрика . 68 (3): 589–599. DOI : 10.1093 / Biomet / 68.3.589 .
  • Hesterberg, TC; Д. С. Мур ; С. Монаган; А. Клипсон и Р. Эпштейн (2005). «Методы начальной загрузки и тесты перестановок» (PDF) . В Дэвид С. Мур и Джордж МакКейб (ред.). Введение в статистическую практику . программное обеспечение . Архивировано из оригинального (PDF) 15 февраля 2006 года . Проверено 23 марта 2007 .

Внешние ссылки [ править ]

  • Учебник по сэмплированию начальной загрузки с использованием MS Excel
  • Пример начальной загрузки для моделирования курсов акций с помощью MS Excel
  • руководство по начальной загрузке
  • пакетная анимация
  • Что такое бутстрап?

Программное обеспечение [ править ]

  • Статистика101: Передискретизация, Bootstrap, программа моделирования Монте-Карло. Бесплатная программа, написанная на Java, для работы в любой операционной системе.