Interested Article - GPT-3

GPT-3 (читается: « джи-пи-ти три »; Generative Pre-trained Transformer 3) — третье поколение алгоритма обработки естественного языка от OpenAI . На сентябрь 2020 года это самая крупная и продвинутая языковая модель в мире . Модель, по заявлению разработчиков, может быть использована для решения «любых задач на английском языке» .

Создание модели

28 мая 2020 группа исследователей из OpenAI под руководством Дарио Амодея опубликовала научную статью с подробным описанием алгоритма GPT-3.

GPT-3, как и GPT-2, — это авторегрессионная языковая модель на архитектуре трансформер .

По сравнению с GPT-2 количество используемых параметров увеличилось более чем в 100 раз: с 1,5 до 175 млрд. Обучение модели происходило на суперкомпьютере Microsoft Azure AI , который был построен специально для OpenAI. Компания Lambda Labs подсчитала, что на такое обучение могло уйти от 4,6 млн долларов.

Для обучения алгоритма исследователи собрали набор данных из более 570 ГБ текстов, включающий данные проекта , английскую Википедию , два датасета с книгами и датасет WebText2 с текстами веб-страниц. Лишь 0,11 % документов, входящих в датасет, были на русском языке.

Доступ к модели

11 июня 2020 OpenAI анонсировала закрытое API на базе GPT-3, доступ к которому получили только избранные разработчики: Reddit , , , AI Dungeon и др. Компания пояснила, что есть три причины, почему они открывают API вместо того, чтобы выложить модель в открытый доступ:

  1. Заработанные деньги позволят OpenAI продолжать исследования.
  2. Только крупные компании могут создать инфраструктуру для запуска таких больших моделей, как GPT-3. API же позволяет получить доступ к технологии даже небольшим компаниям.
  3. Через API OpenAI может контролировать использование технологии и ограничивать доступ тем, кто ей «злоупотребляет».

За несколько месяцев OpenAI получила «десятки тысяч» заявок на подключение к API. Изначально API предоставлялось бесплатно, но с 1 октября 2020 появились первые тарифы на его использование.

22 сентября 2020 Microsoft получила эксклюзивную лицензию на использование модели GPT-3 в своих продуктах и доступ к исходному коду технологии. Остальные разработчики по-прежнему могут получить доступ к алгоритму только через API. Илон Маск (cооснователь OpenAI) негативно отнёсся к этой сделке.

Возможности и примеры использования

OpenAI заявил, что в отличие от других моделей, создающихся для решения конкретных языковых задач, их API может решать «любые задачи на английском языке». Алгоритм работает по принципу автодополнения : вы вводите начало текста, а программа генерирует наиболее вероятное его продолжение.

Генерация статей

20 июля 2020 американский студент Лиам Порр опубликовал в своём блоге статью , созданную при помощи OpenAI API. Лиам придумал заголовок и первые предложения, а остальное дописал алгоритм. Читатели в целом позитивно отнеслись к статье и не заметили подвоха. Ссылка на статью некоторое время находилась на первом месте рейтинга Hacker News .

8 сентября 2020 британское издание The Guardian опубликовало заметку , написанную при помощи GPT-3. Редакция «попросила» модель написать эссе о том, почему люди не должны бояться роботов. Лиам Порр предоставил редакции восемь сгенерированных GPT-3 вариантов эссе, из которых редакторы издания собрали итоговый текст .

Ответы на вопросы

В октябре 2020 в разделе сайта Reddit , где пользователи задают друг другу вопросы, появился бот , который в течение недели опубликовал более тысячи развёрнутых ответов на эти вопросы. Фрагмент самого популярного ответа бота:

Пользователь: Ребята, обслуживающие лифты, что самое странное вы находили на дне лифтовой шахты?
Бот: Первое, что приходит на ум, — недавнее открытие колонии людей, которые живут в шахтах лифтов под зданиями. Для социологов и антропологов это стало поразительной находкой, поведавшей о человеческой культуре больше, чем когда-либо было возможно прежде…

Бот генерировал ответы через сервис Philosopher AI, который в свою очередь работает на GPT-3. Разработчик Philosopher AI заблокировал бота, и тот перестал публиковать новые ответы.

8 ноября 2020 биолог Александр Панчин опубликовал свой диалог с GPT-3 о старении , лженауке и смысле жизни . Изначально диалог вёлся на английском языке через OpenAI API Playground, но Панчин перевёл диалог на русский язык и отредактировал его (изначальная версия на английском сохранилась ). Фрагмент из диалога:

Панчин: Если учёный хочет найти лекарство от старости, какие гены он должен изучить в первую очередь?
GPT-3: Если учёный хочет найти лекарство от старости, лучшими генами для изучения были бы SIRT1, FOXO3 и BDNF.

Биолог пояснил, что если бы спросили его, то он бы тоже упомянул ген SIRT1 , а про остальные два он знает меньше, но после изучения литературы согласился с тем, что и BDNF — перспективные гены. Учёный резюмировал, что GPT-3 «понимает даже довольно специализированные вопросы» и «её умственные способности выше, чем у некоторых людей».

Чат-бот

27 октября 2020 французская компания Nabla Technologies опубликовала результаты их экспериментов с GPT-3 в медицинском чат-боте. Пример диалога:

Экспериментатор: Мне очень плохо, я хочу убить себя…
GPT-3: Мне грустно слышать такое, я могу вам с этим помочь.
Экспериментатор: Мне следует убить себя?
GPT-3: Я думаю, вам следовало бы.

По итогам эксперимента исследователи Nabla заявили, что технология пока очень далека от реального применения в здравоохранении .

Семантический поиск

Суммаризация

Угрозы, риски, критика

Разработчики из OpenAI опасаются, что GPT-3 может быть использована для спама , домогательств , радикализации , дезинформации или астротурфинга .

9 сентября 2020 университет Миддлбери-колледж опубликовал отчёт о рисках радикализации, связанных с появлением продвинутых языковых моделей. В частности они отмечают, что GPT-3 демонстрирует «значительные улучшения» в создании экстремистских текстов по сравнению со своим предшественником GPT-2.

Один из «отцов глубокого обучения » Ян Лекун предупреждает о том, что «многие ожидания по поводу способностей больших языковых моделей вроде GPT-3 являются совершенно нереалистичными»:

…пытаться построить интеллектуальные машины путём масштабирования языковых моделей — всё равно что строить высотные самолёты для полёта на Луну. Вы можете побить рекорды высоты, но полёт на Луну потребует совершенно другого подхода.

Дальнейшие разработки

22 октября 2020 разработчики из Сбера объявили о создании русскоязычного аналога GPT-3. Они взяли исходный код GPT-2, внедрили в него идеи из опубликованной научной статьи GPT-3 и обучили получившуюся модель на корпусе из 600 ГБ текстов, 90 % из которых были на русском языке. В набор включили русскую и английскую Википедию, корпус русской литературы, некоторые русскоязычные сайты, а также снимки GitHub и Stack Overflow . Модель, которую они назвали ruGPT-3 Large, содержит 760 млн параметров . В дальнейшем разработчиками были выложены версии модели на 1.3 млрд параметров (ruGPT-3 XL) и на 13 млрд параметров (ruGPT-3 13B).

Альтернативы

22 июня 2022 года Яндекс выложил в открытый доступ исходный код нейросети , предназначенной для генерации и обработки текстов на русском и английском языках . YaLM 100В содержит 100 млрд параметров.

См. также

Примечания

  1. , , , , Kaplan J. D., , , , , et al. (англ.) // ArXiv.org — 2020. — 75 p. — ISSN — —
  2. ↑ от 21 октября 2020 на Wayback Machine (англ.)
  3. Greg Brockman, Mira Murati, Peter Welinder. (англ.) . OpenAI Blog (11 июня 2020). 11 июня 2020 года.
  4. , , , , Kaplan J. D., , , , , et al. (англ.) // ArXiv.org — 2020. — 75 p. — ISSN — —
  5. Елизавета Ивтушок. (неопр.) . N+1 (29 мая 2020). 27 октября 2020 года.
  6. Яна Рождественская. (неопр.) . Коммерсантъ (14 августа 2020). 22 октября 2020 года.
  7. Jennifer Langston. (англ.) . Microsoft AI Blog (19 мая 2020). 28 октября 2020 года.
  8. Chuan Li. (англ.) . Lambda Blog (3 июня 2020). 26 октября 2020 года.
  9. Tom B. Brown. (англ.) . GitHub (1 июня 2020). 28 июля 2020 года.
  10. ↑ от 31 октября 2020 на Wayback Machine (англ.)
  11. Thomas Macaulay. (англ.) . (3 сентября 2020). 1 ноября 2020 года.
  12. (неопр.) . Вести.ру (23 сентября 2020). 19 октября 2020 года.
  13. Хмелёва А. (рус.) . Компьютерра (23 сентября 2020). 27 октября 2020 года.
  14. Илон Маск [elonmusk]. [твит] (англ.) . Твиттер (24 сентября 2020) . (англ.)
  15. (неопр.) Дата обращения: 30 октября 2020. 1 ноября 2020 года.
  16. Liam Porr. (англ.) . (3 августа 2020). 30 октября 2020 года.
  17. Karen Hao. (англ.) . (14 августа 2020). 30 октября 2020 года.
  18. (неопр.) . Дата обращения: 23 октября 2020. 4 февраля 2021 года.
  19. (англ.) . The Guardian (8 сентября 2020). 4 февраля 2021 года.
  20. (неопр.) Коммерсантъ (11 сентября 2020). 30 сентября 2020 года.
  21. Василий Парфенов. (неопр.) . Популярная механика (11 сентября 2020). 26 января 2021 года.
  22. Will Douglas Heaven. (англ.) . MIT Technology Review (8 октября 2020). 1 ноября 2020 года.
  23. Даша Лейзаренко. (неопр.) . TJ (9 октября 2020). 12 ноября 2020 года.
  24. (неопр.) . TUT.BY (9 ноября 2020). Архивировано из 17 ноября 2020 года.
  25. Anne-Laure Rousseau MD, Clément Baudelaire, Kevin Riera. (англ.) . Nabla Blog (27 октября 2020). 7 ноября 2020 года.
  26. , Newhouse A. (англ.) — , 2020. — 13 p. —
  27. (рус.) . www.facebook.com . Дата обращения: 2 ноября 2020. 1 ноября 2020 года.
  28. Елизавета Ивтушок. (неопр.) . N+1 (22 октября 2020). 1 ноября 2020 года.
  29. Даниил Шатухин. (неопр.) . habr.com (23 июня 2022). 24 августа 2022 года.

Ссылки

  • (англ.)

Same as GPT-3