Interested Article - Дилемма смещения–дисперсии

Функция и данные с шумом.
разброс = 5
разброс = 1
разброс = 0.1
Функция (красный цвет) аппроксимирована с помощью радиально-базисных функций (РБФ) (синий цвет). На каждом графике показано несколько испытаний. Для каждого испытания в качестве тренировочного набора использовались некоторые точки из выборки с шумом (верхний график). При широком разбросе (график 2) смещение высоко, РБФ не могут полностью аппроксимировать функцию (особенно центральную яму), но дисперсия между испытаниями мала. По мере увеличения разброса (графики 3 и 4) смещение возрастает, синяя кривая ближе аппроксимирует красную кривую. Однако дисперсия между испытаниями растёт. На нижнем графике приближённое значение в точке x=0 сильно зависят от расположения точек выборки.

Компромисс отклонение-дисперсия в статистике и в машинном обучении — это свойство набора моделей предсказания, когда модели с меньшим отклонением от имеющихся данных имеют более высокую дисперсию на новых данных (то есть подвержены переобучению ), и наоборот. Компромисс отклонение-дисперсия — конфликт при попытке одновременно минимизировать эти два источника , которые мешают алгоритмам обучения с учителем делать обобщение за пределами тренировочного набора .

  • Смещение — это погрешность оценки, возникающая в результате ошибочного предположения в алгоритме обучения. В результате большого смещения алгоритм может пропустить связь между признаками и выводом (недообучение).
  • Дисперсия — это ошибка чувствительности к малым отклонениям в тренировочном наборе. При высокой дисперсии алгоритм может как-то трактовать случайный в тренировочном наборе, а не желаемый результат ( переобучение ).

Разложение смещения-дисперсии — это способ анализа ожидаемой алгоритма обучения для частной задачи сведением к сумме трёх членов — смещения, дисперсии и величины, называемой неустранимой погрешностью , которая является результатом шума в самой задаче.

Дилемма возникает во всех формах обучения с учителем — в классификации , регрессии ( аппроксимация функции) и в структурном прогнозировании . Дилемма также используется для объяснения эффективности эвристики при обучении людей .

Побудительные причины

Дилемма смещения-дисперсии является центральной проблемой в обучении с учителем. Выбираемая модель должна, с одной стороны, точно уловить все закономерности в обучающих данных, а с другой стороны — обобщить закономерности на неизвестные данные. К сожалению, обычно это невозможно сделать одновременно. Методы обучения с высокой дисперсией могут хорошо представлять тренировочный набор, но имеют риск быть переобученными для данных с шумом или непрезентативных данных. В отличие от них, алгоритмы с низкой дисперсией обычно дают более простые модели, не склонно к переобучению , но может оказаться недообученным , что приводит к пропуску важных свойств.

Модели с малым смещением обычно более сложны (например, в них регрессионные многочлены имеют более высокий порядок), что позволяет им представлять тренировочное множество более точно. Однако они могут иметь большую компоненту тренировочного набора, что делает предсказание менее точным вопреки добавленной сложности. Для контраста, модели с высоким смещением относительно более просты (имеют многочлены меньшего порядка или даже линейные), но могут давать низкую дисперсию предсказаний, если применяются вне тренировочного набора.

Разложение смещения-дисперсии квадратичной ошибки

Предположим, что у нас есть тренировочное множество, состоящее из набора точек и вещественных значений , связанных с каждой из этих точек . Мы предполагаем, что есть функция с шумом , где шум имеет нулевое среднее и дисперсию .

Мы хотим найти функцию , которая аппроксимирует истинную функцию настолько хорошо, насколько возможно, в смысле некоторого алгоритма обучения. Мы делаем понятие «настолько хорошо, насколько возможно» точным путём измерения между и — мы хотим, чтобы значение было минимальным как для точек , так и за пределами нашей выборки . Естественно, мы не можем сделать это идеально, поскольку содержит шум . Это означает, что мы должны быть готовы принять неустранимую ошибку в любой функции, с которой будем работать.

Поиск функции , которая обобщается для точек вне тренировочного набора, может быть осуществлён любым из несчётного числа алгоритмов, используемых для обучения с учителем. Оказывается, что какую бы функцию мы ни выбрали, мы можем разложить её ожидаемую ошибку на непросмотренном экземпляре данных следующим образом: .

,

где

и

Математические ожидания пробегают разные варианты выбора тренировочного набора из одного и того же совместного распределения . Три члена представляют

  • квадрат смещения метода обучения, который можно рассматривать как ошибку, вызванную упрощением предположений, принятых в методе. Например, когда применяется аппроксимация нелинейной функции при использовании метода обучения для , будет появляться ошибка в оценке как результат такого допущения;
  • дисперсия метода обучения, или, интуитивно, как далеко метод обучения уведёт от среднего значения;
  • неустранимая ошибка . Поскольку все три величины неотрицательны, они формируют нижнюю границу ожидаемой ошибки на непросмотренных данных .

Чем более сложна модель , тем больше точек данных она захватывает и тем меньше будет смещение. Однако сложность приводит модель к захвату большего числа точек, а потому её дисперсия будет больше.

Вывод

Вывод разложения смещения-дисперсии для среднеквадратичной ошибки приведён ниже . Для удобства введём обозначения и . Во-первых, вспомним, что по определению для любой случайной переменной мы имеем

Переставив члены получим:

Поскольку детерминирована ,

.

Тогда из и вытекает, что .

Но поскольку , получаем

Так как и независимы, мы можем записать

Применение для регрессии

Разложение смещения-дисперсии образует концептуальный базис для методов регуляризации регрессии, таких как и гребневая регрессия . Методы регуляризации вносят смещение в решение регрессии, которое может значительно уменьшить дисперсию по сравнению с (ОМНК, англ. Ordinary Least Squares , OLS). Хотя решение ОМНК даёт несмещённую оценку регрессии, решения с меньшей дисперсией, полученные путём регуляризации, обеспечивают превосходную среднеквадратичную ошибку.

Применение для классификации

Разложение смещение-дисперсия первоначально было сформулировано для линейной регрессии методом наименьших квадратов . Для случая классификации с 0-1 функцией потерь (доля неправильно классифицированных), можно найти похожее разложение . Альтернативно, если задача классификации может быть сформулирована как , ожидание квадрата ошибки предсказанных вероятностей по отношению к истинным вероятностям может быть разложено как и ранее .

Подходы

Снижение размерности и отбор признаков могут уменьшить дисперсию путём упрощения моделей. Аналогично, больше тренировочное множество приводит к уменьшению дисперсии. Добавление признаков (предсказателей) ведёт к уменьшению смещения за счёт увеличения дисперсии. Алгоритмы обучения обычно имеют некоторые настраиваемые параметры, которые контролируют смещение и дисперсию. Например,

Один из способов разрешения дилеммы — использование и . Например, комбинирует несколько «слабых» (с высоким смещением) моделей в сборку, которая имеет более низкое смещение, чем каждая из индивидуальных моделей, в то время как бэггинг комбинирует «строгое» обучение так, что уменьшается дисперсия.

k -ближайших соседей

В случае регрессии k -ближайших соседей существует , связывающее разложение смещение-дисперсия с параметром k :

где являются k ближайшими соседями x в тренировочном наборе. Смещение (первый член) является монотонно возрастающей функцией от k , в то время как дисперсия (второй член) убывает по мере роста k . Фактически, при «разумных предположениях» оценщика смещения ближайшего соседа (1-NN) полностью обращается в нуль, когда размер тренировочного множества стремится к бесконечности .

Применение для обучения людей

В то время как дилемма смещения-дисперсии широко обсуждается в контексте машинного обучения, она была проверена в контексте когнитивных способностей человека , прежде всего Гердом Гигеренцером с соавторами. Они утверждают, что (см. ссылки ниже) человеческий мозг решает дилемму в случае разреженных плохо описанных тренировочных наборов, полученных в результате личного опыта, путём использования эвристики высокого смещения/низкой дисперсия. Это отражает факт, что подход с нулевым смещением имеет плохую обобщаемость к новым ситуациям, а также беспричинно предполагает точное знание состояния мира. Получающаяся эвристика относительно проста, но даёт лучшее соответствие широкому разнообразию ситуаций .

Гиман и др. возражают, что из дилеммы смещения-дисперсии следует, что такие возможности, как распознавание общих объектов, не может быть получено с нуля, а требует определённого «жёсткого монтажа», который затем превращается в опыт. Именно поэтому подходы к заключениям без модели требуют неоправданно больших наборов тренировочных наборов, если нужно избежать высокой дисперсии.

См. также

Примечания

  1. , с. 1–58.
  2. , с. 100—101.
  3. , с. 107–143.
  4. , с. 34.
  5. , с. 223.
  6. .
  7. .
  8. .
  9. , с. 725–775.
  10. , с. 308–314.
  11. .
  12. , с. 123–139.
  13. , с. 307.
  14. , с. 615.
  15. .

Литература

  • Stuart Geman, Bienenstock E., Doursat R. // Neural Computation. — 1992. — Т. 4 . — doi : .
  • Bias–variance decomposition // Encyclopedia of Machine Learning. — 2011.
  • Gerd Gigerenzer, Henry Brighton. Homo Heuristicus: Why Biased Minds Make Better Inferences. — 2009. — Т. 1 . — doi : . — .
  • Gareth James, Daniela Witten, Trevor Hastie, Robert Tibshirani. . — Springer, 2013.
  • Trevor Hastie, Robert Tibshirani, Jerome Friedman. . — 2009. от 26 января 2015 на Wayback Machine
  • Sethu Vijayakumar. . — University Edinburgh, 2007.
  • Greg Shakhnarovich. . — 2011. 21 августа 2014 года.
  • David Belsley. . — New York: Wiley, 1991. — ISBN 978-0471528890 .
  • Pedro Domingos. A unified bias-variance decomposition // . — 2000.
  • Giorgio Valentini, Thomas G. Dietterich. Bias–variance analysis of support vector machines for the development of SVM-based ensemble methods // JMLR . — 2004. — Т. 5 .
  • Christopher D. Manning, Prabhakar Raghavan, Hinrich Schütze. . — Cambridge University Press, 2008.
  • Gagliardi F. Instance-based classifiers applied to medical databases: diagnosis and knowledge extraction // Artificial Intelligence in Medicine. — 2011. — Т. 52 , вып. 3 . — doi : .
  • Jo-Anne Ting, Sethu Vijaykumar, Stefan Schaal. Locally Weighted Regression for Control. In Encyclopedia of Machine Learning / Claude Sammut, Geoffrey I. Webb.. — Springer, 2011. — С. 615.
  • Scott Fortmann-Roe. . — 2012.
Источник —

Same as Дилемма смещения–дисперсии