Interested Article - Языковая модель

Языковáя модель — это распределение вероятностей по последовательностям слов . Для любой последовательности слов длины m языковая модель присваивает вероятность всей последовательности. Языковые модели генерируют вероятности путём обучения на корпусе текстов на одном или нескольких языках. Учитывая, что языки могут использоваться для выражения огромного множества верных предложений (так называемая цифровая бесконечность ), языковое моделирование сталкивается с проблемой задания ненулевых вероятностей лингвистически верным последовательностям, которые могут никогда не встретиться в обучающих данных. Для преодоления этой проблемы было разработано несколько подходов к моделированию, таких как применение марковских цепей или использование нейронных архитектур, таких как рекуррентные нейронные сети или трансформеры .

Языковые модели полезны для решения множества задач вычислительной лингвистики ; от первоначальных применений в распознавании речи для того, чтобы избежать генерации бессмысленных (то есть маловероятные) последовательностей слов, до более широкого использования в машинном переводе (например, оценка переводов-кандидатов), генерации естественного языка (генерация текста, более похожего на человеческий), разметки частей речи , синтаксического анализа , оптического распознавания символов , распознавания рукописного ввода , грамматических выводов , поиска информации и других приложений.

Языковые модели используются при поиске информации в , где каждому документу в коллекции привязана отдельная языковая модель. Документы ранжируются на основе вероятности запроса Q в языковой модели документа : . Обычно для этой цели используется языковая модель униграмм .

Типы моделей

Униграмма

Модель униграммы можно рассматривать как комбинацию нескольких конечных автоматов с одним состоянием . Предполагается, что вероятности маркеров в последовательности независимы, например:

В этой модели вероятность каждого слова зависит только от собственной вероятности нахождения этого слова в документе, поэтому в качестве единиц имеются только конечные автоматы с одним состоянием. Сам автомат имеет распределение вероятностей на всём словаре модели. Ниже приведена иллюстрация униграммной модели документа.

Условия Вероятность в документе
а 0,1
мир 0,2
нравится 0,05
мы 0,05
делиться 0,3
. . . . . .

Вероятность, сгенерированная для конкретного запроса, рассчитывается как

В разных документах есть модели униграмм с разной вероятностью слов в ней. Распределения вероятностей из разных документов используются для генерации вероятностей попаданий для каждого запроса. Документы можно ранжировать для запроса в соответствии с вероятностями. Пример моделей униграмм двух документов:

Условия Вероятность в Doc1 Вероятность в Doc2
а 0,1 0,3
мир 0,2 0,1
нравится 0,05 0,03
мы 0,05 0,02
делиться 0,3 0,2
. . . . . . . . .

В контексте информационного поиска языковые модели униграмм часто сглаживаются, чтобы избежать случаев, когда P (term) = 0. Обычный подход заключается в создании модели максимального правдоподобия для всей коллекции и линейной интерполяции модели коллекции с моделью максимального правдоподобия для каждого документа для сглаживания .

n-грамм

В n -граммной модели вероятность наблюдения за предложением аппроксимируется как

Предполагается, что вероятность встретить i-е слово w i в контестной истории предшествующего i − 1 слов можно аппроксимировать вероятностью найти его в укороченной контекстной истории предыдущего n − 1 слова ( марковское свойство n-го порядка). Чтобы уточнить, для n = 3 и i = 2 получится .

Условная вероятность рассчитывается на основе частот n -граммовой модели:

Термины биграммные и триграммные языковые модели обозначают n -граммовые модели с n = 2 и n = 3 соответственно .

Как правило, вероятности n -граммной модели не выводятся непосредственно из подсчёта частот, потому что модели, полученные таким образом, имеют серьёзные проблемы при столкновении с любыми n -граммами, которые ранее явно не наблюдались. Вместо этого необходима некоторая форма сглаживания, приписывающая часть общей вероятностной массы невидимым словам или n -граммам. Используются различные методы, от простого сглаживания «добавь один» (присваивание числа 1 невидимым n -граммам в качестве неинформативного априорного ) до более сложных моделей, таких как модели или .

Двунаправленная

Двунаправленные представления зависят как от пре-, так и от постконтекста (например, слов) на всех уровнях .

Пример

В биграммной языковый модели, вероятность предложения I saw the red house аппроксимируется как

тогда как в триграммной языковой модели, аппроксимация

Контекст первого n — 1 n -грамм заполняется маркерами начала предложения, обычно обозначаемыми символом <s>.

Кроме того, без маркера конца предложения вероятность неграмматической последовательности *I saw the всегда будет выше, чем вероятность более длинного предложения I saw the red house.

Экспоненциальная

Языковые модели с максимальной энтропией кодируют отношения между словом и историей n -грамм, используя функции признаков. Уравнение

где , — вектор параметров, а — функцией признаков. В простейшем случае функция признаков — это просто индикатор наличия некой n -граммы. Полезно использовать априорную или некоторую форму регуляризации.

Логбилинейная модель — ещё один пример экспоненциальной языковой модели.

Нейросетевая

Нейронные языковые модели (или языковые модели с непрерывным пространством ) используют непрерывные представления или вложения слов для своих прогнозов . Эти модели используют нейронные сети .

Встраивание в непрерывное пространство помогает уменьшить проклятие размерности в языковом моделировании: по мере того, как языковые модели обучаются на всё больших и больших текстах, количество уникальных слов (словарный запас) увеличивается . Количество возможных последовательностей слов экспоненциально увеличивается с размером словаря, вызывая проблему разреженности данных из-за экспоненциально большого количества последовательностей. Таким образом, статистика необходима для правильной оценки вероятностей. Нейронные сети избегают этой проблемы, представляя слова распределённым образом, как нелинейные комбинации весов в нейронной сети . Альтернативное описание состоит в том, что нейронная сеть аппроксимирует языковую функцию. Архитектура нейронной сети может быть прямой или рекуррентной , и хотя первая проще, вторая встречается чаще.

Как правило, нейронносетевые языковые модели строятся и обучаются как вероятностные классификаторы , которые учатся предсказывать распределение вероятностей.

То есть сеть обучена прогнозировать распределение вероятностей по словарю с учётом некоторого лингвистического контекста. Это делается с помощью стандартных алгоритмов обучения нейронных сетей, таких как стохастический градиентный спуск с обратным распространением ошибки . Контекст может быть окном фиксированного размера предыдущих слов, чтобы сеть предсказывала следующее

из вектора признаков , представляющего предыдущие k слов . Другим вариантом является использование «будущих» слов, а также «прошедших» слов в качестве признаков, так что предполагаемая вероятность

Это называется моделью мешка слов . Когда векторы признаков для слов в контексте объединяются непрерывной операцией, эта модель называется непрерывной архитектурой набора слов ( англ. continuous bag-of-words architecture , CBOW) .

Третий вариант, который обучается медленнее, чем CBOW, но работает немного лучше, заключается в том, чтобы инвертировать предыдущую задачу и заставить нейронную сеть изучать контекст по заданному слову . Более формально, учитывая последовательность обучающих слов , максимизируется средняя логарифмическая вероятность

где k — размер обучающего контекста, который может быть функцией центрального слова . Это называется скип-граммовой моделью языка . Модели «мешок слов» и «скип-грамм» лежат в основе программы word2vec .

Вместо использования языковых моделей нейронных сетей для получения фактических вероятностей обычно вместо этого используется распределённое представление, закодированное в «скрытых» слоях сети, как представления слов; затем каждое слово отображается в n -мерный вещественный вектор, называемый встраиванием слов , где n — размер слоя непосредственно перед выходным слоем. Представления в скип-граммных моделях имеют отличительную характеристику, заключающуюся в том, что они моделируют семантические отношения между словами как линейные комбинации , фиксируя форму . Например, в некоторых таких моделях, если v — это функция, которая отображает слово w в его n -d векторное представление, то

где ≈ уточнено условием, что его правая часть должна быть ближайшим соседом значения левой части

Другие

Позиционная языковая модель оценивает вероятность того, что данные слова встречаются в тексте близко друг к другу, не обязательно непосредственно рядом. Точно так же модели мешка понятий используют семантику, связанную с многословными выражениями, такими как buy_christmas_present , даже когда они используются в информативных предложениях, таких как «сегодня я купил много очень хороших рождественских подарков».

Несмотря на ограниченные успехи в использовании нейронных сетей , авторы признают необходимость других методов при моделировании жестовых языков.

Языковые модели

Примеры языковых моделей:

  • Модель Pathways Language Model (PaLM) Модель с 540 миллиардами параметров от Google Research
  • Универсальная языковая модель (GLaM) Модель с 1 триллионом параметров, от Google Research
  • Language Models for Dialog Applications (LaMDA) Модель со 137 миллиардами параметров от Google Research
  • Модель Megatron-Turing NLG с 530 миллиардами параметров от Microsoft/Nvidia
  • (англ.)
  • (англ.) (см. кэш )
  • Генерация 3D-изображений DreamFusion/Imagen от Google Research
  • GET3D от Nvidia
  • MineClip от Nvidia
  • BLOOM : BigScience — большая открытая многоязычная языковая модель открытого доступа со 176 миллиардами параметров.
  • Генеративный предварительно обученный трансформер (GPT)
  • : генеративный предварительно обученный трансформер 2 с 1,5 миллиардами параметров.
  • GPT-3 : генеративный предварительно обученный трансформер 3 с беспрецедентным размером контекста длиной 2048 токенов и 175 миллиардов параметров (требуется 800 ГБ памяти).
  • GPT-3.5/ ChatGPT /InstructGPT от OpenAI
  • GPT-NeoX-20B: модель авторегрессионного языка с открытым исходным кодом с 20 миллиардами параметров.
  • : представления двунаправленного кодировщика от трансформаторов (BERT)
  • OPT-175B от Meta AI: ещё одна языковая модель со 175 миллиардами параметров. Она доступна более широкому сообществу исследователей ИИ.
  • Point-E от OpenAI: генератор 3D-моделей .
  • RT-1 от Google: модель для работающих роботов .
  • ERNIE-Code от Baidu : модель многоязычного кодирования с 560 млн параметрами .
  • Синтез текста в речь VALL-E на основе 3-секундного образца речи . Она была предварительно обучена на 60 000 часов английской речи от 7 000 уникальных носителей (набор данных: LibriLight) .

Hugging Face размещает общедоступные языковые модели, с помощью которых разработчики могут создавать приложения с использованием машинного обучения .

Оценка и ориентиры

Оценка качества языковых моделей в основном проводится путём сравнения с эталонными тестами, созданными людьми на основе типичных языковых задач. Другие, менее известные, тесты качества исследуют внутренний характер языковой модели или сравнивают две такие модели. Поскольку языковые модели обычно предназначены для того, чтобы быть динамичными и учиться на основе данных, которые они видит, некоторые предлагаемые модели исследуют скорость обучения, например, путём проверки кривых обучения .

Для оценки систем языковой обработки были разработаны различные наборы данных . К ним относятся:

  • Корпус лингвистической приемлемости ;
  • Тест GLUE ;
  • Microsoft Research Paraphrase Corpus ;
  • Многожанровый вывод на естественном языке;
  • Вопрос через интерфейс естественного языка;
  • Пары вопросов-ответов Quora ;
  • Распознавание логического следствия из текста ;
  • Эталон семантического текстового сходства;
  • Тест вопрос-ответ SQuAD ;
  • Стэнфордское дерево отношений ;
  • Winograd NLI.

Критика

Хотя можно показать, что современные языковые модели, такие как GPT-3, соответствуют способностям человека в некоторых задачах, неясно, являются ли они правдоподобными когнитивными моделями . Например, было показано, что рекуррентные нейронные сети изучают шаблоны, которые люди не изучают, и не могут изучать шаблоны, которые люди изучают .

См. также

Примечания

Комментарии

Источники

  1. Jurafsky, Dan. N-gram Language Models // / Dan Jurafsky, James H. Martin. — 3rd. — 2021. от 22 мая 2022 на Wayback Machine
  2. Kuhn, Roland, and Renato De Mori. « .» IEEE transactions on pattern analysis and machine intelligence 12.6 (1990): 570—583.
  3. Andreas, Jacob, Andreas Vlachos, and Stephen Clark. « от 15 августа 2020 на Wayback Machine .» Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers). 2013.
  4. Pham, Vu, et al. « .» 2014 14th International Conference on Frontiers in Handwriting Recognition. IEEE, 2014.
  5. Htut, Phu Mon, Kyunghyun Cho, and Samuel R. Bowman. « от 14 августа 2022 на Wayback Machine .» arXiv preprint arXiv:1808.10000 (2018).
  6. Ponte, Jay M.; Croft, W. Bruce (1998). A language modeling approach to information retrieval . Proceedings of the 21st ACM SIGIR Conference. Melbourne, Australia: ACM. pp. 275—281. doi : .
  7. Hiemstra, Djoerd (1998). A linguistically motivated probabilistically model of information retrieval . Proceedings of the 2nd European conference on Research and Advanced Technology for Digital Libraries. LNCS, Springer. pp. 569—584. doi : .
  8. Christopher D. Manning, Prabhakar Raghavan, Hinrich Schütze: An Introduction to Information Retrieval, pages 237—240. Cambridge University Press, 2009
  9. Buttcher, Clarke, and Cormack. Information Retrieval: Implementing and Evaluating Search Engines. pg. 289—291. MIT Press.
  10. Craig Trim, от 5 декабря 2020 на Wayback Machine , April 26th, 2013.
  11. Devlin, Jacob; Chang, Ming-Wei; Lee, Kenton; Toutanova, Kristina (2018-10-10). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding". arXiv : [ ].
  12. Andrej Karpathy. (21 мая 2015). Дата обращения: 10 февраля 2023. 1 ноября 2020 года.
  13. Bengio, Y. (2008). . Scholarpedia . 3 (1): 3881. doi : . ISSN . из оригинала 26 октября 2020 . Дата обращения: 10 февраля 2023 .
  14. Mikolov, T., Chen, K., Corrado, G., Dean, J. (2013). . Computation and Language . doi : . из оригинала 16 февраля 2023 . Дата обращения: 10 февраля 2023 .
  15. Mikolov, T., Sutskever, I., Chen, K., Corrado, G., Dean, J. (2013). . Computation and Language . doi : . из оригинала 10 февраля 2023 . Дата обращения: 10 февраля 2023 .
  16. Harris. . Gigaom (16 августа 2013). Дата обращения: 10 февраля 2023. Архивировано из 11 ноября 2020 года.
  17. Yuanhua Lv, ChengXiang Zhai. (PDF) . Архивировано из (PDF) 24 ноября 2020 . Дата обращения: 10 февраля 2023 .
  18. Cambria, Erik. : [ англ. ] / Erik Cambria, Amir Hussain. — Springer Netherlands, 2012-07-28. — ISBN 978-94-007-5069-2 . от 15 марта 2023 на Wayback Machine
  19. Mocialov, Boris (August 2018). . Proceedings of the Fifth Workshop on NLP for Similar Languages, Varieties and Dialects (VarDial 2018) : 101—110. arXiv : . из оригинала 5 декабря 2020 . Дата обращения: 14 марта 2020 .
  20. Narang; Chowdhery, Aakanksha (англ.) . ai.googleblog.com (4 апреля 2022). Дата обращения: 5 декабря 2022. 4 апреля 2022 года.
  21. Dai; Du, Nan (англ.) . ai.googleblog.com (9 декабря 2021). Дата обращения: 5 декабря 2022. 12 марта 2023 года.
  22. Cheng; Thoppilan, Romal (англ.) . ai.googleblog.com (21 января 2022). Дата обращения: 5 декабря 2022. 25 марта 2022 года.
  23. Smith, Shaden (2022-02-04). . Computation and Language . arXiv : . из оригинала 2 февраля 2023 . Дата обращения: 10 февраля 2023 .
  24. Poole; Jain, Ajay; Barron, Jonathan T.; Mildenhall, Ben (2022). Дата обращения: 5 декабря 2022. 5 декабря 2022 года.
  25. Gao; Shen, Tianchang; Zian, Wang; Chen, Wenzheng; Yin, Kangxue . NVIDIA Toronto AI Lab . GitHub (2022). Дата обращения: 5 декабря 2022. 28 ноября 2022 года.
  26. Fan, Linxi (2022-06-17). . Machine Learning (англ.) . arXiv : . из оригинала 5 декабря 2022 . Дата обращения: 10 февраля 2023 .
  27. (англ.) . OpenAI (30 ноября 2022). Дата обращения: 5 декабря 2022. 30 ноября 2022 года.
  28. Wiggers. (амер. англ.) . TechCrunch (20 декабря 2022). Дата обращения: 25 декабря 2022. 25 декабря 2022 года.
  29. . us13.campaign-archive.com . Дата обращения: 4 января 2023. 4 января 2023 года.
  30. . valle-demo.github.io . Дата обращения: 6 января 2023. 6 января 2023 года.
  31. Clark. . us13.campaign-archive.com (январь 2022). Дата обращения: 15 января 2023. 15 января 2023 года.
  32. Karlgren, Jussi; Schutze, Hinrich, International Conference of the Cross-Language Evaluation Forum , Springer International Publishing, pp. 254—260, doi : , ISBN 9783319642055
  33. . nyu-mll.github.io . Дата обращения: 25 февраля 2019. 7 декабря 2020 года.
  34. (англ.) . gluebenchmark.com . Дата обращения: 25 февраля 2019. 4 ноября 2020 года.
  35. (амер. англ.) . Microsoft Download Center . Дата обращения: 25 февраля 2019. 25 октября 2020 года.
  36. Aghaebrahimian, Ahmad (2017), "Quora Question Answer Dataset", Text, Speech, and Dialogue , ISBN 9783319642055
  37. Sammons, V.G.Vinod Vydiswaran, Dan Roth; Vydiswaran, V.G.; Roth, Dan . Дата обращения: 24 февраля 2019. Архивировано из 9 августа 2017 года.
  38. . rajpurkar.github.io . Дата обращения: 25 февраля 2019. 30 октября 2020 года.
  39. . nlp.stanford.edu . Дата обращения: 25 февраля 2019. 27 октября 2020 года.
  40. Hornstein, Norbert. : [ англ. ] / Norbert Hornstein, Howard Lasnik, Pritty Patel-Grosz … [ et al. ] . — Walter de Gruyter GmbH & Co KG, 2018-01-09. — ISBN 978-1-5015-0692-5 . от 16 апреля 2023 на Wayback Machine

Литература

  • Ponte JM, Croft WB (1998). "A Language Modeling Approach to Information Retrieval". Research and Development in Information Retrieval . pp. 275—281. CiteSeerX .
  • Song F, Croft WB (1999). "A General Language Model for Information Retrieval". Research and Development in Information Retrieval . pp. 279—280. CiteSeerX .
  • Chen, Stanley; Joshua Goodman (1998). An Empirical Study of Smoothing Techniques for Language Modeling (Technical report). Harvard University. CiteSeerX .
Источник —

Same as Языковая модель