Interested Article - Оккамово обучение

Оккамово обучение в теории вычислительного обучения является моделью , где целью обучения является получение сжатого представления имеющихся тренировочных данных. Метод тесно связан с почти корректным обучением (ВПК-обучение, англ. Probably Approximately Correct learning , PAC learning), где учитель оценивает прогнозирующую способность тестового набора.

Оккамова обучаемость влечёт ПК обучение и для широкого класса понятий обратное тоже верно — ПК обучаемость влечёт оккамову обучаемость.

Введение

Оккамово обучение названо по термину « бритва Оккама », который является принципом, утверждающим, что при предположении отсутствия дополнительных сущностей короткому объяснению наблюдений следует давать предпочтение по сравнению с более длинным объяснением (кратко: «Не следует множить сущее без необходимости»). Теория оккамова обучения является формальным и математическим уточнением этого принципа. Блюмер с соавторами первыми показали , что оккамово обучение влечёт ПК обучение, которое является стандартной моделью обучения в теории вычислительного обучения. Другими словами, бережливость (выходной гипотезы) влечёт прогнозирующую способность .

Определение оккамова обучения

Лаконичность понятия в классе понятий можно выразить как длину самой короткой строки бит, которая может представить понятие в классе . Оккамово обучение соединяет лаконичность выхода алгоритма обучения с его прогнозирующей способностью.

Пусть и являются классами понятий, содержащих целевые понятия и гипотезы соответственно. Тогда, для констант и алгоритм обучения является -оккамовым алгоритмом для по гипотезам тогда и только тогда, когда, если дано множество , содержащее экземпляров, помеченных согласно понятию , выходом алгоритма является гипотеза , такая, что

  • согласуется с на (то есть )

где является максимальной длиной любого экземпляра . Алгоритм Оккама называется эффективным , если работает за полиномиальное от , и время. Мы говорим, что класс понятий оккамово обучаем по отношению к классу гипотез , если существует эффективный алгоритм Оккама для по гипотезам

Связь между оккамовым обучением и ПК обучением

Оккамова обучаемость влечёт ПК обучаемость, как показывает теорема Блюмера с соавторами :

Теорема ( Оккамово обучение влечёт ПК обучение )

Пусть является эффективным -оккамовым алгоритмом для по гипотезам . Тогда существует константа , такая что для любых для любого распределения , если дано экземпляров, извлечённых из и помеченных согласно понятию каждый битами, алгоритм даст гипотезу , такую что с вероятностью по меньшей мере

. Здесь учитывает понятие и распределение . Отсюда следует, что алгоритм является ПК учителем класса понятий при классе гипотез . Слегка более общая формулировка:

Теорема ( Оккамово обучение влечёт ПК обучение, версия с длиной )

Пусть . Пусть будет алгоритмом, таким что при заданном наборе из экземпляров, извлечённых из фиксированного, но неизвестного распределения и помеченных согласно понятия строкой бит длиной каждый, выходом будет гипотеза , согласующаяся с помеченными экзмеплярами. Тогда существует константа , такая что в случае гарантированно даёт гипотезу , такую что с вероятностью по меньшей мере .

Хотя приведённые теоремы показввают, что оккамово обучение достаточно для ПК обучения, они ничего не говорят о необходимости . Боард и Питт показали, что для широкого класс понятий оккамово обучение является необходимым для ПК обучения . Они показали, что для любого класса понятий, который полиномиально замкнут по спискам исключений , ПК обучаемость влечёт существование оккамова алгоритма для этого класса понятий. Классы понятий, полиномиально замкнутые по спискам исключений, включают булевские формулы, суммирующие цепи, детерминированные конечные автоматы , списки решений, деревья решений и другие классы понятий на геометрической основе.

Класс понятий полиномиально замкнут по спискам исключений, если существует алгоритм полиномиального времени выполнения , такой, что, если задано представление понятия и конечный список исключений , выходом алгоритма будет представление понятия , такое, что понятия и согласуются за исключение элементов множества .

Доказательство, что оккамово обучение влечёт ПК обучение

Мы сначала докажем версию с длиной. Назовём гипотезу плохой , если , где снова учитывает истинное понятие и распределение . Вероятность, что множество согласуется с , не превосходит , согласно независимости выборок. Для полного множества вероятность, что существует плохая гипотеза в , не превосходит , что меньше, чем , если . Это завершает доказательство второй теоремы.

Используя вторую теорему, мы докажем первую. Поскольку мы имеем -оккамов алгоритм, это означает, любая выходная гипотеза алгоритма может быть представлена не более чем битами, а тогда . Это меньше, чем , если мы положим для некоторой константы . Тогда, по версии теоремы с длиной, даст согласованную гипотезу с вероятностью не менее . Это завершает доказательство первой теоремы.

Улучшение сложности выборки для общих задач

Хотя оккамова обучаемость и ПК обучаемость эквивалентны, алгоритм Оккама может быть использован для получения более тесных границ сложности выборки для классических задач, включая логические умозаключения , умозаключения с несколькими переменными и списки решений .

Расширения

Оккамовы алгоримы, как было показано, успешно работают для ПК обучения в присутствии ошибок , обучения вероятностных понятий , обучения функций и марковских примерах с отсутствием независимости .

См. также

Примечания

  1. , с. 377—380.
  2. .
  3. , с. 54—63.
  4. , с. 177—221.
  5. , с. 229—246.
  6. , с. 343—370.
  7. , с. 807—837.
  8. , с. 382—391.
  9. , с. 370—376.
  10. , с. 392—396.

Литература

  • Kearns M. J., Vazirani U. V. chapter 2 // An introduction to computational learning theory. — MIT press, 1994. — ISBN 9780262111935 .
  • Blumer A., Ehrenfeucht A., Haussler D., Warmuth M. K. . — 1987. — Т. 24 , вып. 6 . — doi : .
  • Board R., Pitt L. On the necessity of Occam algorithms // Proceedings of the twenty-second annual ACM symposium on Theory of computing. — ACM, 1990.
  • Haussler D. // Artificial intelligence. — 1988. — Т. 36 , вып. 2 . 12 апреля 2013 года.
  • Rivest R. L. // Machine learning. — 1987. — Т. 2 , вып. 3 .
  • Angluin D., Laird P. Learning from noisy examples // Machine Learning. — 1988. — Т. 2 , вып. 4 .
  • Kearns M., Li M. Learning in the presence of malicious errors // SIAM Journal on Computing,. — 1993. — Т. 22 , вып. 4 .
  • Kearns M. J., Schapire R. E. Efficient distribution-free learning of probabilistic concepts // . — Los Alamitos, CA,: IEEE Computer Society Press, 1990.
    • Kearns M. J., Schapire R. E. Foundations of Computer Science, 1990. Proceedings., 31st Annual Symposium // JOURNAL OF COMPUTER AND SYSTEM SCIENCES. — 1994. — Вып. 48 . — С. 464—497 .
  • Natarajan B. K. Occam's razor for functions // Proceedings of the sixth annual conference on Computational learning theory. — ACM, 1993.
  • Aldous D., Vazirani U. A Markovian extension of Valiant's learning model // Foundations of Computer Science, 1990. Proceedings., 31st Annual Symposium. — IEEE, 1990.
Источник —

Same as Оккамово обучение