Дедуктивное обучение
предполагает формализацию знаний экспертов и их перенос в компьютер в виде
базы знаний
.
Дедуктивное обучение принято относить к области
экспертных систем
, поэтому термины
машинное обучение
и
обучение по прецедентам
можно считать синонимами.
Имеется множество
объектов
(ситуаций) и множество возможных
ответов
(откликов, реакций). Существует некоторая зависимость между ответами и объектами, но она неизвестна. Известна только конечная совокупность
прецедентов
— пар «объект, ответ», называемая
обучающей выборкой
. На основе этих данных требуется восстановить неявную зависимость, то есть построить алгоритм, способный для любого возможного входного объекта выдать достаточно точный классифицирующий ответ. Эта зависимость не обязательно выражается аналитически, и здесь нейросети реализуют принцип эмпирически формируемого решения. Важной особенностью при этом является способность обучаемой системы к обобщению, то есть к адекватному отклику на данные, выходящие за пределы имеющейся обучающей выборки. Для измерения точности ответов вводится оценочный
функционал качества
.
Данная постановка является обобщением классических задач
аппроксимации
функций. В классических задачах аппроксимации объектами являются действительные числа или векторы. В реальных прикладных задачах входные данные об объектах могут быть неполными, неточными, нечисловыми, разнородными. Эти особенности приводят к большому разнообразию методов машинного обучения.
Способы машинного обучения
Раздел машинного обучения, с одной стороны, образовался в результате разделения науки о
нейросетях
на методы обучения сетей и виды топологий их архитектуры, с другой стороны — вобрал в себя методы математической статистики
. Указанные ниже способы машинного обучения основаны на применении нейросетей, хотя существуют и другие методы, основанные на обучающей выборке — например, дискриминантный анализ, оперирующий обобщённой дисперсией и ковариацией наблюдаемой статистики, или байесовские классификаторы. Базовые виды нейросетей, такие как
перцептрон
и
многослойный перцептрон
(а также их модификации), могут обучаться как с учителем, так и без учителя, с подкреплением и самоорганизацией. Но некоторые нейросети и большинство статистических методов можно отнести только к одному из способов обучения. Поэтому, если нужно классифицировать методы машинного обучения в зависимости от способа обучения, то будет некорректным относить нейросети к определенному виду, правильнее было бы типизировать алгоритмы обучения нейронных сетей.
Обучение с учителем
— для каждого прецедента задаётся пара «ситуация, требуемое решение»:
Обучение без учителя
— для каждого прецедента задаётся только «ситуация», требуется сгруппировать объекты в
кластеры
, используя данные о попарном сходстве объектов, и/или понизить размерность данных:
Активное обучение — отличается тем, что обучаемый алгоритм имеет возможность самостоятельно назначать следующую исследуемую ситуацию, на которой станет известен верный ответ:
Трансдуктивное обучение
— обучение с частичным привлечением учителя, когда прогноз предполагается делать только для прецедентов из тестовой выборки
Многозадачное обучение
(
англ.
multi-task learning
) — одновременное обучение группе взаимосвязанных задач, для каждой из которых задаются свои пары «ситуация, требуемое решение»
Многовариантное обучение
(
англ.
multiple-instance learning
) — обучение, когда прецеденты могут быть объединены в группы, в каждой из которых для всех прецедентов имеется «ситуация», но только для одного из них (причем, неизвестно какого) имеется пара «ситуация, требуемое решение»
Бустинг
(
англ.
boosting
— улучшение) — это процедура последовательного построения композиции алгоритмов машинного обучения, когда каждый следующий алгоритм стремится компенсировать недостатки композиции всех предыдущих алгоритмов.
Признаковое описание
объектов или матрица объекты-признаки — наиболее распространённый случай. Каждый объект описывается набором признаков.
Матрица расстояний
между объектами. Каждый объект описывается расстояниями до всех остальных объектов обучающей выборки, чаще всего отношениями попарного сходства.
Временной ряд
или
сигнал
. Последовательность измерений во времени, которое может представляться числом, вектором, а в общем случае — признаковым описанием в данный момент времени.
При
обучении с учителем
— функционал качества может определяться как средняя ошибка ответов. Предполагается, что искомый алгоритм должен его минимизировать. Для предотвращения
переобучения
в минимизируемый функционал качества часто в явном или неявном виде добавляют регуляризатор.
При
обучении без учителя
— функционалы качества могут определяться по-разному, например, как отношение средних межкластерных и внутрикластерных расстояний.
При
обучении с подкреплением
— функционалы качества определяются физической средой, показывающей качество приспособления агента.
Практические сферы применения
Целью машинного обучения является частичная или полная автоматизация решения сложных профессиональных задач в самых разных областях человеческой деятельности.
Сфера применений машинного обучения постоянно расширяется. Повсеместная информатизация приводит к накоплению огромных объёмов данных в науке, производстве, бизнесе, транспорте, здравоохранении. Возникающие при этом задачи прогнозирования, управления и принятия решений часто сводятся к обучению по прецедентам. Раньше, когда таких данных не было, эти задачи либо вообще не ставились, либо решались совершенно другими методами.
По мнению известного специалиста по машинному обучению
Ян Лекуна
, машинное обучение есть воспроизведение
мышления
на основе искусственных
нейронных сетей
Сноски
, с. 78.
Литература
Айвазян С. А.
, Енюков И. С., Мешалкин Л. Д.
Прикладная статистика: основы моделирования и первичная обработка данных. — М.: Финансы и статистика, 1983.
Айвазян С. А., Енюков И. С., Мешалкин Л. Д.
Прикладная статистика: исследование зависимостей. — М.: Финансы и статистика, 1985.
Айвазян С. А.,
Бухштабер В. М.
, Енюков И. С., Мешалкин Л. Д.
Прикладная статистика: классификация и снижение размерности. — М.: Финансы и статистика, 1989.
Вапник В. Н.
Восстановление зависимостей по эмпирическим данным. — М.:
Наука
, 1979.
Журавлёв Ю. И
., Рязанов В. В., Сенько О. В.
«Распознавание». Математические методы. Программная система. Практические применения. — М.: Фазис, 2006.
ISBN 5-7036-0108-8
.
Загоруйко Н. Г.
Прикладные методы анализа данных и знаний. — Новосибирск: ИМ СО РАН, 1999.
ISBN 5-86134-060-9
.
Hastie, T., Tibshirani R., Friedman J.
. — 2nd ed. — Springer-Verlag, 2009. — 746 p. —
ISBN 978-0-387-84857-0
.
.
Mitchell T.
Machine Learning. — McGraw-Hill Science/Engineering/Math, 1997.
ISBN 0-07-042807-7
.
Ryszard S. Michalski, Jaime G. Carbonell, Tom M. Mitchell (1983),
Machine Learning: An Artificial Intelligence Approach
, Tioga Publishing Company,
ISBN 0-935382-05-4
(
в «
Книгах Google
»).
Vapnik V. N.
Statistical learning theory. — N.Y.: John Wiley & Sons, Inc., 1998.
Bernhard Schölkopf
,
Alexander J. Smola
Learning with Kernels. Support Vector Machines, Regularization, Optimization, and Beyond. —
MIT Press
, Cambridge, MA, 2002
ISBN 978-0-262-19475-4
I. H. Witten
,
E. Frank
Data Mining: Practical Machine Learning Tools and Techniques (Second Edition). — Morgan Kaufmann, 2005
ISBN 0-12-088407-0
Liang Wang, Li Cheng, Guoying Zhao.
Machine Learning for Human Motion Analysis. — IGI Global, 2009. — 318 p. —
ISBN 978-1-60566-900-7
.
Ян Лекун
.
Как учится машина. Революция в области нейронных сетей и глубокого обучения. (Библиотека Сбера: Искусственный интеллект). —
М.
: Альпина нон-фикшн, 2021. —
ISBN 978-5-907394-29-2
.
Ссылки
— профессиональный вики-ресурс, посвященный машинному обучению и интеллектуальному анализу данных
Константин Воронцов
. Курс лекций
,
МФТИ
, 2004—2008
Константин Воронцов
.
школы анализа данных компании
Яндекс
.