Interested Article - Обучение на примерах

Обучение на примерах ( англ. Learning from Examples ) — вид обучения, при котором интеллектуальной системе предъявляется набор положительных и отрицательных примеров, связанных с какой-либо заранее неизвестной закономерностью. В интеллектуальных системах вырабатываются решающие правила, с помощью которых происходит разделение множества примеров на положительные и отрицательные. Качество разделения, как правило, проверяется экзаменационной выборкой примеров.

Математическая формализация

Пусть — множество описаний объектов, — множество допустимых ответов. Существует неизвестная целевая зависимость — отображение , значения которой известны только на объектах конечной обучающей выборки . Требуется построить алгоритм , который приближал бы неизвестную целевую зависимость как на элементах выборки, так и на всём множестве .

Говорят также, что алгоритм должен обладать эмпирических фактов, или выводить общее знание ( закономерность , Зависимость ) из частных фактов (наблюдений, прецедентов).

Функции потерь и функционалы качества

Вводится функция потерь , характеризующая величину отклонения ответа от правильного ответа на произвольном объекте .

Типичный выбор функции потерь:

  • В задачах классификации ;
  • В задачах регрессии .

Вводится функционал качества, характеризующий среднюю ошибку ( эмпирический риск ) алгоритма на произвольной выборке

Метод минимизации эмпирического риска — один из наиболее распространённых подходов к обучению алгоритмов по прецедентам. Он заключается в том, чтобы в заданной модели алгоритмов найти алгоритм, минимизирующий среднюю ошибку на обучающей выборке:

Тем самым задача обучения сводится к оптимизации и может быть решена численными методами оптимизации .

Обобщающая способность и проблема переобучения

Малое значение функционала качества на обучающей выборке не гарантирует, что построенный алгоритм будет хорошо восстанавливать целевую зависимость на всём пространстве . Существует опасность переподгонки или переобучения , когда делается попытка описать конкретные данные точнее, чем в принципе позволяет уровень шума в данных и погрешность самой модели.

Легко указать пример алгоритма, который минимизирует эмпирический риск до нуля, но при этом не обладает способностью к обобщению. Получив обучающую выборку , он запоминает её, и потом сравнивает предъявляемый объект с обучающими объектами из . В случае совпадения алгоритм выдаёт правильный ответ . Иначе выдаётся произвольный ответ. Эмпирический риск принимает наименьшее возможное значение, равное нулю. Однако этот алгоритм не способен восстановить зависимость вне объектов обучения. Этот пример убедительно показывает, что для успешного обучения необходимо не только запоминать, но и обобщать.

Практически в каждом методе предпринимаются специальные усилия, чтобы избежать переобучения. метода минимизации эмпирического риска и проблему переобучения изучает статистическая теория обучения .

Признаковое пространство

Признаком называется отображение , где — множество допустимых значений признака. Если заданы признаки , то вектор называется признаковым описанием объекта . Признаковые описания допустимо отождествлять с самими объектами. При этом множество называют признаковым пространством .

В зависимости от множества признаки делятся на следующие типы:

  • бинарный признак: ;
  • номинальный признак: конечное множество ;
  • порядковый признак: — конечное упорядоченное множество;
  • количественный признак: — множество действительных чисел .

Часто встречаются прикладные задачи с разнотипными признаками, для их решения подходят далеко не все методы.

Решаемые задачи

Задача восполнения пропущенных данных

Исходная информация представляется в виде признаковых описаний. Значения некоторых признаков для некоторых объектов могут отсутствовать. Такие случаи часто возникают на практике. Например, экспериментатор может не записать результат наблюдения; респондент может отказаться отвечать на вопрос анкеты; пациент может не пройти данный вид обследования; и т.д. Однако многие методы анализа данных требуют, чтобы входная матрица признаковых описаний была заполнена полностью. Для заполнения отсутствующих значений часто применяют следующий подход. Считая данный признак целевым, строят алгоритм, прогнозирующий его значение в зависимости от других признаков. Пропущенные значения заполняют прогнозами. Эта операция проделывается со всеми признаками, имеющими пропущенные значения.

Если признак количественный, применяются методы восстановления регрессии , если признак качественный (номинальный), применяются методы классификации .

Алгоритмы

Примечания

  1. А. Н. Аверкин, М. Г. Гаазе-Рапопорт , Д. А. Поспелов «Толковый словарь по искусственному интеллекту» от 5 мая 2010 на Wayback Machine

Литература

  1. Айвазян С. А., Енюков И. С., Мешалкин Л. Д. Прикладная статистика : основы моделирования и первичная обработка данных. — М.: Финансы и статистика, 1983.
  2. Айвазян С. А., Енюков И. С., Мешалкин Л. Д. Прикладная статистика: исследование зависимостей. — М.: Финансы и статистика, 1985.
  3. Айвазян С. А., Бухштабер В. М., Енюков И. С., Мешалкин Л. Д. Прикладная статистика: классификация и снижение размерности . — М.: Финансы и статистика, 1989.
  4. Вапник В. Н. Восстановление зависимостей по эмпирическим данным. — М.: Наука, 1979.
  5. Журавлев Ю. И., Рязанов В. В., Сенько О. В. «Распознавание». Математические методы. Программная система. Практические применения. — М.: Фазис, 2006. ISBN 5-7036-0108-8 .
  6. Загоруйко Н. Г. Прикладные методы анализа данных и знаний. — Новосибирск : ИМ СО РАН, 1999. ISBN 5-86134-060-9 .
  7. Шлезингер М., Главач В. Десять лекций по статистическому и структурному распознаванию. — Киев : Наукова думка , 2004. ISBN 966-00-0341-2 .
  8. Hastie, T., Tibshirani R., Friedman J. . — 2nd ed. — Springer-Verlag, 2009. — 746 p. — ISBN 978-0-387-84857-0 . .
  9. Mitchell T. Machine Learning. — McGraw-Hill Science/Engineering/Math, 1997. ISBN 0-07-042807-7 .

Ссылки

  • — профессиональный вики-ресурс, посвященный машинному обучению и интеллектуальному анализу данных
Источник —

Same as Обучение на примерах