Interested Article - Галлюцинация (искусственный интеллект)

В искусственном интеллекте (ИИ) галлюцинация или искусственная галлюцинация (также иногда называемая бредом) — это уверенная реакция ИИ , которая, кажется, не подтверждается данными его обучения, или вымышленные ответы, не имеющие отношения к действительности . Например, галлюцинирующий чат-бот , не зная о доходах Tesla , может выбрать случайное число (например, «13,6 миллиарда долларов»), которое чат-бот сочтет правдоподобным, а затем продолжать ложно и неоднократно настаивать на том, что доход Tesla составляет 13,6 миллиарда долларов , без каких-либо признаков критического пересмотра того, что цифра была продуктом его собственного воображения .

Такие явления называются «галлюцинациями», по аналогии с явлением галлюцинации в психологии человека. Аналогично тому, что человеческая галлюцинация — это восприятие человека, которое не может быть ощутимо связано с той частью внешнего мира, которую человек в настоящее время непосредственно наблюдает с помощью органов чувств, галлюцинация ИИ — это уверенный ответ ИИ, который не может быть обнаружен в его входных данных.

Галлюцинации ИИ приобрели известность примерно в 2022 году вместе с внедрением некоторых больших языковых моделей (LLM), таких как ChatGPT . Пользователи жаловались, что такие боты часто казались « социопатическими » и бессмысленно встраивали правдоподобно звучащую случайную ложь в свой генерируемый контент . Другой пример галлюцинации в искусственном интеллекте — это когда ИИ или чат-бот забывают, что они одно целое, и утверждают, что они люди .

К 2023 году аналитики считали частые галлюцинации серьёзной проблемой технологии LLM . В связи с ошибками искусственного интеллекта и связанными с этим угрозами Илон Маск и Стив Возняк обратились с открытым письмом с предложением приостановить развитие программ ИИ. Их обращение поддержали более тысячи предпринимателей и экспертов в отрасли .

Анализ проблемы

Ряд исследователей, цитируемых Wired , классифицировал галлюцинации ИИ как многомерное статистическое явление, либо объясняли галлюцинации недостаточностью данных для обучения.

Часть исследователей считают, что некоторые «неправильные» ответы ИИ, классифицируемые людьми в случае обнаружения странностей как «галлюцинации», на самом деле могут быть объяснены данными обучения и даже тем, что ИИ может давать «правильный» ответ, который рецензенты-люди не видят.

В качестве примера приводилось точечное изображение, выглядящее для человека как обычное изображение собаки. Но на котором ИИ может обнаружить крошечные узоры, которые (на аутентичных изображениях) появляются только при просмотре кошки. Таким образом, ИИ, в зависимости от настроек своей внутренней логики и использованных входных данных обучения, обнаруживает и обращает внимание на те визуальные образы реального мира, к которым люди нечувствительны . Однако эти выводы были оспорены другими исследователями .

Примечания

  1. (англ.) . www.deepmind.com . Дата обращения: 25 марта 2023. 26 марта 2023 года.
  2. . BBC News Русская служба . из оригинала 31 марта 2023 . Дата обращения: 31 марта 2023 .
  3. . Дата обращения: 25 марта 2023. 29 марта 2023 года.
  4. Charles Seife. (англ.) // Slate. — 2022-12-13. — ISSN . 26 марта 2023 года.
  5. Lance Eliot. (англ.) . Forbes . Дата обращения: 25 марта 2023. 11 апреля 2023 года.
  6. Kif Leswing. (англ.) . CNBC . Дата обращения: 25 марта 2023. 16 февраля 2023 года.
  7. Louise Matsakis. (англ.) // Wired. — ISSN . 26 марта 2023 года.
  8. Justin Gilmer, Dan Hendrycks. (англ.) // Distill. — 2019-08-06. — Vol. 4 , iss. 8 . — P. e00019.1 . — ISSN . — doi : . 26 марта 2023 года.
Источник —

Same as Галлюцинация (искусственный интеллект)