Interested Article - Зима искусственного интеллекта
- 2020-02-21
- 1
Зима искусственного интеллекта — период в истории исследований искусственного интеллекта , связанный с сокращением финансирования и общим снижением интереса к проблематике . Термин был введён по аналогии с термином « ядерная зима » . Направление искусственного интеллекта прошло несколько циклов, сопровождавшихся повышенным ажиотажем, сменяющихся «зимами» — разочарованием, критикой и последующим сокращением финансирования, а затем возобновлением интереса несколько лет или десятилетий спустя .
Термин впервые упомянут в 1984 году на ежегодной встрече (Американской ассоциации искусственного интеллекта): на одном из обсуждений и Марвин Мински — два ведущих исследователя в области искусственного интеллекта — предупредили бизнес-сообщество, что энтузиазм в отношении направления вышел из-под контроля, и что за ним последует разочарование, иллюстрацией послужила «первая зима» направления, пережитая в 1970-х годах. После этого обсуждения последовала цепная реакция, сопровождающаяся пессимизмом в среде исследователей, распространившаяся также в СМИ, и в конечном итоге приведшая к снижению финансирования и остановке крупных работ ; три года спустя миллиардная индустрия искусственного интеллекта была фактически обрушена .
Как для всякого ажиотажа, сопутствующего перспективным технологиям, и характеризующимся последующими спадами ( железнодорожная мания , пузырь доткомов ), «зи́мы искусственного интеллекта» в первую очередь означали крах в восприятии лиц, принимающих решения о финансировании — правительственных чиновников, инвесторов, венчурных капиталистов, руководителей организаций. При этом, несмотря на взлёт и падение репутации искусственного интеллекта, исследования в этой области велись непрерывно, и после спадов интерес инвесторов возобновлялся по мере очередных результатов. Так, в 2005 году Рэй Курцвейл отмечал, что «зима искусственного интеллекта» не прервала работ в этой области, и уже к середине 2000-х годов «многие тысячи приложений искусственного интеллекта глубоко встроены в инфраструктуру каждой отрасли» .
Периодизация
Две длительные «зимы» относят к периодам 1974—1980 годов и 1987—1993 годов . Кроме того, было несколько менее значительных эпизодов, повлиявших на снижение интереса к направлению, среди таковых провал проектов по машинному переводу в 1966 году и неудача концепции коннекционизма в 1970 году. Другие периоды спада интереса:
- 1971—1975: разочарование DARPA исследовательской программой по распознаванию речи в Университете Карнеги — Меллона ;
- 1973: значительное сокращение исследований по искусственному интеллекту в Великобритании в ответ на отчёт Лайтхилла ;
- 1973—1974: сокращение расходов DARPA на академические исследования по искусственному интеллекту в целом;
- 1987: крах рынка лисп-машин ;
- 1988: отмена новых расходов на искусственный интеллект в рамках стратегической инициативы в области компьютерной техники;
- 1993: экспертные системы медленно достигают экономического дна;
- 1990-е годы: проект создания компьютеров пятого поколения не достиг своих целей.
Ранние эпизоды
Машинный перевод и отчет ALPAC 1966 года
Во время холодной войны правительство США было особенно заинтересовано в автоматическом, мгновенном переводе русских документов и научных докладов. Начиная с 1954 года, правительство США приложило много усилий для разработки машинного перевода. Вначале исследователи были оптимистичны: новая работа Ноама Хомского по грамматике упрощала процесс перевода, и было «много предсказаний приближающегося прорыва» .
Однако исследователи недооценили сложность разрешения лексической многозначности . Для того чтобы перевести предложение без ошибок, машина должна была иметь представление, о чём идет речь в предложении. Согласно мифу , фраза «the spirit is willing but the flesh is weak» (крепок дух, но немощна плоть) при переводе на русский и потом обратно на английский превратилась в «the vodka is good but the meat is rotten» (водка хорошая, но мясо протухло) , а «out of sight, out of mind» (с глаз долой, из сердца вон) — в «blind idiot» (слепой идиот). Позже исследователи назовут это .
В 1964 году Национальный исследовательский совет (NRC) США забил тревогу из-за отсутствия прогресса и создал (ALPAC) для изучения этой проблемы. В своем отчете 1966 года комитет пришел к выводу, что машинный перевод оказался более дорогим, менее точным и более медленным, чем человеческий перевод. Потратив около 20 миллионов долларов, NRC свернул все разработки. Карьеры были уничтожены, а исследования прекращены .
В XXI веке машинный перевод так и остается открытой проблемой, хотя и решённой с некоторым успехом ( Google Translate , Yahoo Babel Fish ).
Отказ от коннективизма в 1969 году
В ряде первых работ по ИИ для имитации разумного поведения применялись сети или схемы из соединенных между собой блоков. Примерами такого подхода, названного , являются первое описание искусственной нейронной сети Уолтера Питтса и Уоррена Мак-Каллока , а также работа Марвина Минского по системе . В конце 1950-х годов большинство этих подходов были отброшены, когда исследователи начали исследовать символьные рассуждения (symbolic reasnoning) в качестве основы интеллекта после успеха таких программ, как и General Problem Solver .
Однако работа в одном из направлений коннекционизма продолжалась — изучение перцептрона , предложенного Фрэнком Розенблаттом , которому удавалось поддерживать исследования в этой области благодаря своим способностям «продавца» и силы своей личности . Он оптимистично прогнозировал, что перцептрон «со временем сможет учиться, принимать решения и переводить языки» . Основные исследования перцептронов резко прекратились в 1969 году после публикации Марвином Минским и Сеймуром Пейпертом книги « Перцептроны », которая обозначила пределы возможностей перцептронов.
Коннективизм был забыт на несколько последующих десятилетий. Хотя важная работа в этом направлении частично продолжалась, например, был предложен метод обратного распространения ошибки , однако найти достаточное финансирование для проектов коннекционистов в 1970-х и начале 1980-х годов было трудно . «Зима» исследований коннекционистов прекратилась в середине 1980-х годов, когда работы Джона Хопфилда , Дэвида Румельхарта и других возродили масштабный интерес к нейронным сетям . Розенблатт не дождался этого, он погиб в результате несчастного случая вскоре после публикации книги «Перцептроны» .
Неудачи 1974 года
Отчет Лайтхилла
В 1973 году британский парламент поручил профессору сэру Джеймсу Лайтхиллу оценить состояние исследований искусственного интеллекта в Великобритании. Его отчет, известный как отчет Лайтхилла , раскритиковал полную неспособность ИИ достичь своих «грандиозных целей». Он пришел к выводу, что все то, что может делать ИИ, может быть сделано также другими науками. Он особенно выделил проблемы « комбинаторного взрыва » и « трудноразрешимости », которые показывали, что большинство самых успешных алгоритмов ИИ годятся лишь для решения «игрушечных» задач, а на реальных практических задачах они не работают .
Отчет был оспорен в дебатах, которые транслировались на канале BBC в программе «Controversy» в 1973 году. В дебатах «Универсальный робот — это мираж» Лайтхилл, представлявший Королевский Институт, дискутировал против команды из , Джона Маккарти и . Позже Маккарти писал, что «проблема комбинаторного взрыва была признана в ИИ с самого начала» .
Отчет Лайтхилла привел к прекращению большинства исследований в сфере ИИ в Великобритании . Исследования продолжалось лишь в нескольких университетах второго эшелона ( Эдинбург , Эссекс и Сассекс ). пишет: «Это создало эффект волны, который привел к сокращению финансирования разработок ИИ по всей Европе» . Крупномасштабные исследования возобновились только в 1983 году, когда британский , созданный в ответ на японский проект компьютеров пятого поколения , начал финансировать в ИИ из военного бюджета в размере 350 миллионов фунтов стерлингов. Элви имел ряд требований, которые касались только Великобритании, что не подходило международным партнерам, особенно американским, и стало причиной прекращения финансирования второго этапа.
Сокращение финансирования DARPA в начале 1970-х
В течение 1960-х годов Агентство передовых оборонных исследовательских проектов (тогда известное как «ARPA», теперь «DARPA») выделило миллионы долларов на исследования искусственного интеллекта практически без каких-либо условий. Директор DARPA в те годы, Джозеф Ликлайдер верил в «финансирование людей, а не проектов» и позволял лидерам отрасли ИИ (таким как Марвин Минский , Джон Маккарти, Герберт А. Саймон и Аллен Ньюэлл ) тратить их почти на любые цели.
Ситуация переменилась после принятия поправки Мэнсфилда в 1969 году, которая требовала от DARPA финансирования «целевых исследований, а не общих ненаправленных исследований» Ненаправленные общие исследования характерные 1960-м перестали финансироваться DARPA, теперь исследователи должны были показать, что их работа вскоре принесет пользу в виде новых военных технологий. Отныне предложения исследователей искусственного интеллекта рассматривались по очень строгим стандартам. Ситуация ещё больше осложнилась после выхода отчета Лайтхилла и собственного исследования DARPA (American Study Group), которые показали, что большинство исследований искусственного интеллекта вряд ли принесут хоть какую-либо пользу в обозримом будущем. В итоге деньги DARPA были направлены на проекты с более четкими целями, такие как автономные танки и системы управления боем. К 1974 году было трудно найти финансирование для проектов искусственного интеллекта .
Исследователь ИИ Ханс Моравек обвинил в кризисе нереалистичные прогнозы своих коллег: «Многие исследователи оказались в паутине все большего преувеличения. Первые обещания, данные им DARPA, были слишком оптимистичными. Конечно, то, что они разрабатывали в результате, значительно отличалось от обещаний. Но они считали, что в следующий раз не могут пообещать меньше, чем в первый, поэтому обещали ещё больше» . В результате сотрудники DARPA потеряли терпение к исследованиям ИИ, как утверждает Моравек. Моравек сообщил , что «в DARPA буквально сказали: некоторых из этих людей следует проучить, сократив их контракты на два миллиона долларов в год почти до нуля!» .
Хотя проект автономного танка провалился, система управления боем (Dynamic Analysis and Replanning Tool, DART) оказалась чрезвычайно успешной и сэкономила миллиарды долларов во время первой войны в Персидском заливе , таким образом компенсируя все инвестиции DARPA в ИИ и тем самым оправдав прагматичную политику DARPA .
Провал SUR
DARPA оказалась глубоко разочарованной исследователями из университета Карнеги-Меллона, работавшими над программой распознавания речи. В DARPA рассчитывали получить, и считали, что им обещали предоставить, систему голосового управления для пилотов. Команда SUR разработала систему, которая могла распознать разговорный английский язык, но только если слова были произнесены в определённом порядке. В DARPA посчитали, что их обманули, и в 1974 году они отменили грант в размере 3 миллиона долларов в год .
Много лет спустя успешные коммерческие системы распознавания речи будут использовать технологии, разработанные командой Карнеги-Меллона (такие как скрытые марковские модели ), и в 2001 году рынок систем распознавания речи достигнет 4 млрд долларов .
Неудачи конца 1980-х и начале 1990-х годов
Крах рынка лисп-машин в 1987 году
В 1980-х корпорации по всему миру взяли на вооружение экспертные системы (форма искусственного интеллекта). Первой коммерческой экспертной системой была , разработанная в университете Карнеги-Меллона для корпорации Digital Equipment . Имевшая огромный успех, она помогла Digital Equipment сэкономить, по оценкам, 40 миллионов долларов за шесть лет работы. Корпорации по всему миру начали разрабатывать и внедрять экспертные системы, к 1985 году они тратили на ИИ свыше миллиарда долларов, большая часть которых направлялась на внутренние отделы искусственного интеллекта. Для того чтобы удовлетворить эти потребности выросла целая индустрия, в которую входили разработчики программ, такие как Teknowledge и , и производители оборудования, такие как и . Они создали специализированные компьютеры для ИИ, лисп-машины , оптимизированные для обработки языка программирования Lisp , в то время наиболее предпочтительного в области разработки ИИ .
В 1987 году, через три года после прогноза Минского и Шанка, рынок лисп-машин рухнул. Рабочие станции таких компаний, как Sun Microsystems , предлагали мощную альтернативу лисп-машинам, а такие компании, как , предложили среду LISP для этого нового класса рабочих станций. Производительность рабочих станций общего назначения становилась всё более трудным вызовом для лисп-машин. Такие компании, как Lucid Inc. и Franz Inc , предлагали всё более мощные версии LISP. Результаты бенчмарков показали, что рабочие станции превосходят в производительности лисп-машины . Позже настольные компьютеры Apple и IBM также предложат более простую и популярную архитектуру для запуска LISP-приложений. К 1987 году они стали мощнее, чем более дорогие лисп-машины. На настольных компьютерах были доступны движки на основе правил, такие как CLIPS . Эти альтернативы не оставили потребителям причин покупать дорогие лисп-машины. Вся отрасль лисп-машин стоимостью полмиллиарда долларов исчезла за один год .
С коммерческой точки зрения многие Lisp-компании обанкротились, как например Symbolics, Lisp Machines Inc., Lucid Inc. и др. Другие компании, такие как Texas Instruments , и Xerox , ушли из отрасли. Ряд компаний-клиентов, тем не менее, продолжали использовать и поддерживать системы, написанные на Lisp и разработанные на лисп-машинах.
Падение популярности экспертных систем
В начале 1990-х годов первые успешные экспертные системы, такие как XCON, оказались слишком дорогими в обслуживании. Их было сложно обновлять, они не могли обучаться, они были «хрупкими» (делали нелепые ошибки при получении необычных входных данных). Также они стали жертвой проблем (таких как ), обнаруженных при исследовании немонотонной логики. Экспертные системы доказали свою эффективность лишь в нескольких особых контекстах . Другая проблема касалась вычислительной сложности задачи относительно общих знаний. KEE использовал подход на основе предположений (см. NASA, TEXSYS ), поддерживающий сценарии множественных миров , который был труден для понимания и применения.
Небольшое количество компаний, оставшихся в области экспертных систем, в конце концов были вынуждены сократить штаты и искать новые рынки и программные парадигмы, такие как рассуждения на основе прецедентов или универсальный доступ к базе данных . Развитие Common Lisp спасло много систем, таких как ICAD , которые нашли применение в инженерии на основе знаний. Другие системы, такие как KEE Intellicorp, перешли с Lisp на C++ на ПК и помогли в становлении объектно-ориентированных технологий (в том числе внесли большой вклад в разработку UML ).
Фиаско компьютеров пятого поколения
В 1981 году японское выделило 850 миллионов долларов на проект компьютеров пятого поколения . Его задачей было создание программ и машин способных поддерживать разговор, переводить языки, понимать изображения и размышлять как люди. К 1991 году впечатляющий список целей, составленный в 1981 году, не был выполнен, а некоторые из них не были выполнены ни в 2001, ни в 2011 годах. Как и в других проектах ИИ, ожидания были гораздо больше, чем возможности их реализовать .
Сокращение Инициативы стратегических вычислений
В 1983 году DARPA в ответ на проект пятого поколения возобновили финансирование исследований искусственного интеллекта, запустив Инициативу стратегических вычислений (Strategic Computing Initiative). Проект предполагалось начать с практических, достижимых целей, одной из которых был искусственный интеллект в долгосрочной перспективе. Программа находилась под руководством (IPTO), а также была направлена на суперкомпьютеры и микроэлектронику . К 1985 году на программу было потрачено 100 миллионов долларов, в 60 учреждениях было запущено 92 проекта, из них половина в промышленности, другая половина в университетах и правительственных лабораториях. Исследования искусственного интеллекта щедро финансировались SCI .
В 1987 году руководителем IPTO стал Джек Шварц, который отверг экспертные системы как «умелое программирование» и «глубоко и жестко» сократил финансирование ИИ, «лишая содержания» SCI. Шварц не считал ИИ «новой волной» и хотел, сосредоточить финансирование DARPA только на самых перспективных технологиях, по его словам, DARPA должна «кататься на серфе», а не «плавать по-собачьи». Кроме того, сотрудники программы сообщали о проблемах в коммуникации, организации и интеграции. Только несколько проектов пережили сокращение финансирования: помощник пилота, беспилотное наземное транспортное средство (так и не было создано) и система управления боем DART (как отмечалось выше, стала успешной) .
События после зимы ИИ
Репутация
Обзор отчетов середины 2000-х годов свидетельствует о том, что репутация ИИ все ещё была небезупречной:
- Алекс Кастро в The Economist , 2007: «Термин „распознавание голоса“ отталкивает инвесторов, подобно „искусственному интеллекту“ он ассоциируется с ложными обещаниями»
- Патти Таскарелла в , 2006: «Некоторые считают, что слово „робототехника“ отмечено клеймом, снижающим шансы компании на финансирование»
- в Нью-Йорк Таймс , 2005: «В худшие для ИИ времена, ряд компьютерных специалистов и программистов избегал термина „искусственный интеллект“ из страха прослыть безумцами» .
Многие исследователи в середине 2000-х годов намеренно избегали термина ИИ и использовали для своей деятельности другие названия, такие как информатика , машинное обучение , аналитика, , система управления бизнес-правилами , когнитивные системы , интеллектуальные системы , интеллектуальные агенты , вычислительный интеллект , чтобы подчеркнуть применение конкретных инструментов или показать направленность на конкретную задачу более низкого уровня. Хотя ученые и могли считать свою область деятельности принципиально отличной от ИИ, новые названия помогали получить финансирование, поскольку были лишены того клейма невыполненных обещаний, с которым ассоциировался «искусственный интеллект» .
Распространение
Рэй Курцвейл писал в 2005 году: «Многие эксперты все ещё считают, что зима ИИ стала концом отрасли и с тех пор ИИ не дал практических результатов, однако уже сегодня существуют тысячи приложений ИИ во всех отраслях и они глубоко вплетены в их инфраструктуру» . В конце 1990-х и начале XXI века технологии ИИ широко использовались в составе различных систем , правда, их успех почти никогда не приписывался ИИ. В 2006 году Ник Бостром пояснил, что «в повсеместное употребление вошло много передовых технологий ИИ часто без какого-либо упоминания ИИ вообще, поскольку когда что-либо становится достаточно полезным или распространенным, оно перестает называться ИИ». Родни Брукс примерно в то же время сказал: «существует этот глупый миф, что ИИ не оправдал надежд, но ИИ каждую секунду повсюду вокруг вас» .
Технологии ИИ достигли коммерческого успеха в таких областях, как машинный перевод, добыча данных , промышленная робототехника , логистика , распознавание речи, банковское программное обеспечение, медицинская диагностика и поисковая система Google .
Были разработаны контроллеры нечеткой логики для автоматических коробок передач в автомобилях. В 2006 году Audi TT, VW Touareg и VW Caravell оснащены коробкой передач DSP, которая использует нечеткую логику. Ряд моделей Skoda ( Skoda Fabia ) используют контроллеры с нечеткой логикой. Нечеткая логика широко используется в датчиках камер для фокусировки.
Эвристический поиск и анализ данных развились из входящих в сферу искусственного интеллекта эволюционного моделирования и машинного обучения. И снова эти технологии достигли значительного коммерческого успеха на широком круге реальных задач. Например, эвристический поиск использовался для составления графика работы магазинов и планирования рабочего графика для 20 000 инженеров. Анализ данных вместе с алгоритмами автоматизированного формирования классификаторов, разработанных в 1990-х годах исследователями в области машинного обучения с учителем (например, TDIDT, Support Vector Machines, Neural Nets, IBL), сейчас широко применяется для таргетинга маркетинговых опросов, выявления трендов и признаков (фич) в наборах данных.
Финансирование
Исследователи и экономисты оценивают положение дел в ИИ, в основном, по тому, какие проекты ИИ финансируются, кем и в каких объёмах. Тренды в финансировании часто задают крупные финансовые учреждения в развитых странах мира. В настоящее время значительную часть финансирования для исследований ИИ в США и Европейском Союзе обеспечивают DARPA и гражданская программа финансирования EU-FP7 .
На 2007 год DARPA рассматривала предложения исследователей ИИ в рамках ряда программ, в числе которых , (CT2WS), «Human Assisted Neural Devices (SN07-43)», «Autonomous Real-Time Ground Ubiquitous Surveillance-Imaging System (ARGUS-IS)» и «Urban Reasoning and Geospatial Technology Exploitation (URGENT)».
Вероятно, самой известной является программа DARPA «The Grand Challenge Program» , по которой были разработаны полностью автоматизированные дорожные транспортные средства способные в автономном режиме успешно перемещаться по реальной местности .
DARPA также поддерживает программы по семантической паутине , уделяя большое внимание интеллектуальному управлению контентом и автоматизированному пониманию. Однако , менеджер программы DARPA, выразил разочарование способностью правительства совершать быстрые изменения и перешел к сотрудничеству с консорциумом Всемирной паутины , чтобы передать технологии в частный сектор.
Программа финансирования ЕС-FP7 оказывает поддержку исследователям Европейского Союза. В 2007—2008 годах она финансировала исследования ИИ по программам: «Когнитивные системы: взаимодействие и робототехника» (193 млн евро), «Цифровые библиотеки и цифровой контент» (203 млн евро), FET (185 млн евро) .
Опасения новой зимы
Иногда высказывают опасения, что новую зиму ИИ могут вызвать чрезмерно амбициозные или нереалистичные обещания известных ученых в области ИИ или чрезмерными обещаниями коммерческих поставщиков. Например, в начале 1990 года исследователи опасались, что к зиме ИИ приведет широкая огласка планов создать интеллект уровня двухлетнего ребёнка.
Джеймс Хендлер в 2008 году отметил, что финансирование ИИ, как в ЕС, так и в США, перенаправлялось больше на прикладные области и кросс-научные исследования с традиционными науками, такими как биоинформатика . Этот отход от фундаментальных исследований происходит, поскольку существует тенденция к переходу в практические приложения, например, такие как семантическая паутина . Ссылаясь аргумент конвейера (см. Причины), Хендлер увидел параллель с зимой 1980-х годов и предупредил о наступлении зимы ИИ в 2010-ом.
Наступление весны
В прошлом появлялись постоянные сообщения о том, что ещё одна весна ИИ неизбежна или уже наступила:
- Радж Редди в президентском обращении к AAAI, 1988: «Отрасль впечатляет как никогда. Наши последние достижения значительны и существенны. Мифическая зима ИИ, возможно, превратилась в весну ИИ. Я вижу, как расцветают цветы»
- Памела МакКордак в «Machines Who Think»: «В 1990-х годах зеленые ростки пробились через зимнюю почву»
- Джим Хендлер и Девика Субраманьян в «AAAI Newsletter», 1999: «Весна здесь! В отличие прошлого десятилетия с зимой ИИ, сейчас — лучшее время работать в сфере ИИ»
- Рэй Курцвейл в своей книге «Сингулярность близко», 2005: «Зима ИИ уже давно закончилась»
- Хизер Хальвенштейн в «Computerworld», 2005: «Сейчас исследователи просыпаются из того, что называлось „зима ИИ“»
- Джон Маркофф в «Нью-Йорк Таймс», 2005: «Сегодня исследователи говорят о весне ИИ»
- Джеймс Хендлер, в редакции выпуска «IEEE Intelligent Systems» за май-июнь (( )): «Где все эти интеллектуальные агенты сейчас?»
В настоящее время заметное увеличение финансирования ИИ, его разработки, внедрения и коммерческого использования привело к тому, что зима ИИ давно закончилась .
Причина возникновения
Было предложено несколько объяснений зим ИИ. Чаще всего причиной зим называют ажиотаж, но также действовали и другие факторы, которые приведены ниже. Однако с переходом финансирования ИИ от правительств к коммерческим организациям в действие вступила новая динамика.
Ажиотаж
Зиму ИИ можно рассматривать как крах вследствие слишком раздутых ожиданий, сравнимый с экономическими пузырями на фондовом рынке, например железнодорожная мания или пузырь доткомов . В общей модели развития новых технологий (известной как цикл ажиотажа ) любое событие, такое как технологический прорыв, на первых порах создает широкий общественный интерес, который подпитывает сам себя и создает «пик чрезмерных ожиданий». За ним идет «избавление от иллюзий», иными словами крах, поскольку усилия ученых и инженеров не поспевают за перегретыми ожиданиями инвесторов и других заинтересованных сторон. Технологии ИИ подтвердили эту модель развития.
Организационные причины
Ещё одним фактором послужило место ИИ в организации университетов. Исследования по ИИ часто принимают форму , в проектах могут быть задействованы специалисты из областей от философии и до машиностроения . Ввиду этого ИИ подвержен типичным болезням междисциплинарных исследований. Так, при сокращении финансирования факультеты будут урезать неосновные направления, к которым относятся междисциплинарные и необычные исследовательские проекты, то есть ИИ.
Экономические причины
Во время экономических спадов правительства сокращают университетские бюджеты, организационная причина усиливается ещё больше. Инвесторы в кризисное время выбирают для вложений менее рискованные проекты, чем ИИ. Все вместе это превращает экономический кризис в зиму ИИ. Доклад Лайтхилла вышел в период экономического кризиса в Великобритании , когда университетам приходилось выбирать, какие проекты пустить под нож.
Недостаток вычислительных мощностей
Потенциал нейронных сетей хорошо осознавался, но так и не был реализован из-за начального этапа развития вычислительной техники. Даже по современным стандартам достаточно простые сети требуют немалые вычислительные мощности.
Пустой конвейер
Связь между фундаментальными исследованиями и технологиями часто представляют как конвейер. Достижения в фундаментальных исследованиях порождают успехи в прикладных исследованиях, а они, в свою очередь, приводят к новым коммерческим применениям. Поэтому недостаток фундаментальных исследований приводит через несколько лет в будущем к сокращению рынка технологий. Такую точку зрения выдвинул Джеймс Хендлер в 2008 году , он высказал мнение, что провал экспертных систем в конце 1980-х был вызван не присущей им ненадежностью, а сокращением финансирования фундаментальных исследований в 1970-х. Экспертные системы появились в 1980-х годах благодаря прикладным исследованиям, но к концу десятилетия конвейер пустовал, поэтому недостатки экспертных систем не удалось устранить, тем самым оказалось невозможно обеспечить и дальнейшее финансирование.
Неспособность адаптироваться
Крах рынка LISP-машин и провал компьютеров пятого поколения — примеры, когда дорогие передовые продукты проиграли более простым и более дешёвым конкурентам. Эта ситуация попадает под определение дешевых подрывных инноваций , поскольку производители LISP-машин были отодвинуты на второй план. Экспертные системы пережили смену машин, их перенесли на новые настольные компьютеры, например, с помощью CLIPS , откуда становится ясно, что крах рынка LISP-машин и крах экспертных систем — это два разных события. Неспособность адаптироваться к такому изменению на рынке вычислительных машин считается одной из причин зимы 1980-х .
Дебаты о прошлом и будущем ИИ
Философы, когнитивисты , компьютерные специалисты размышляют о том, где ИИ потерпел неудачу и что с ним будет в будущем. Хьюберт Дрейфус подчеркивал в прошлом и ещё в 1966 году правильно предсказал, что первая волна исследований ИИ не сможет выполнить те самые публичные обещания, которые она дает. Другие критики, такие как Ноам Хомский, утверждали, что ИИ двигается в неправильном направлении, в частности из-за сильной зависимости от статистических методов . Замечания Хомского вписываются в большую дискуссию с Питером Норвигом о роли статистических методов в ИИ. Спор между учеными начался с комментариев Хомского на симпозиуме в Массачусетском технологическом институте , на которые Норвиг написал ответ .
Примечания
- ↑ 9 ноября 2013 года.
- ↑ Crevier, Daniel. AI: The Tumultuous Search for Artificial Intelligence. — 1993. — С. 203. — ISBN 0-465-02997-3 .
- . Дата обращения: 25 ноября 2018. Архивировано из 21 ноября 2018 года.
- Kurzweil, Ray. . — Viking Press. — 2005.
- J. Howe. (ноябрь 1994). 17 августа 2007 года. : «отчёт Лайтхилла [1973] вызвал массовую потерю доверия к ИИ со стороны академического истеблишмента в Великобритании (и в меньшей степени в США). Он сохранялся в течение десятилетия ― так называемая „зима AI“»
-
Stuart J. Russell
,
Peter Norvig
(2003),
(2nd ed.), Upper Saddle River, New Jersey: Prentice Hall, p. 24,
ISBN
0-13-790395-2
{{ citation }}
: Википедия:Обслуживание CS1 (множественные имена: authors list) ( ссылка ) . Дата обращения: 5 ноября 2018. Архивировано 28 февраля 2011 года. : «в целом, индустрия искусственного интеллекта выросла с нескольких миллионов долларов в 1980 году до миллиардов долларов в 1988 году. Вскоре после этого наступил период, названный „зимой ИИ“» - ↑ John Hutchins 2005 от 13 июля 2019 на Wayback Machine
- Hutchins, John. 1995. «The whisky was invisible», or Persistent myths of MT. Retrieved from от 4 апреля 2020 на Wayback Machine
- , p. 21.
- , p. 203.
- ↑
- процитировала одного коллегу: «Он был мечтой для пресс-службы, настоящим шаманом.» ( )
- ↑
- , ,
- and
- ↑ , , and see also
- . BBC "Controversy" debates series . ARTIFICIAL_INTELLIGENCE-APPLICATIONS¯INSTITUTE. Дата обращения: 13 августа 2010. 1 мая 2013 года.
- McCarthy, John . Дата обращения: 10 сентября 2008. 30 сентября 2008 года.
- Hendler, James . 12 февраля 2012 года.
- ↑ (разделы до 1980)
- ↑
- (on whom this account is based). Other views include and under «Success in Speech Recognition»
- under «Success in Speech Recognition»
- Brooks, Rodney . Lucid, Inc.. 20 августа 2013 года.
- ↑ от 12 февраля 2012 на Wayback Machine , James Hendler, IEEE Intelligent Systems (March/April 2008 (Vol. 23, No. 2) pp. 2-4
- ↑
- Alex Castro in The Economist Technology Quarterly (7 June 2007) {{{2}}}.
- . By Patty Tascarella. Pittsburgh Business Times (11 August 2006) {{{2}}}.
- ↑ Markoff, John (2005-10-14). . The New York Times . Дата обращения: 30 июля 2007 .
- ↑ , p. 264.
- under «Artificial Intelligence in the 90s»
- ↑ , p. 263.
- For the use of AI at Google, see , от 14 июля 2014 на Wayback Machine and от 14 июля 2014 на Wayback Machine .
- 24 декабря 2010 года.
- 6 марта 2009 года.
- (недоступная ссылка) , overview document for European Union funding. Retrieved 20 September 2007.
- Reddy, Raj . (1988). 5 июня 2012 года.
- Newquist, HP. The Brain Makers, Second Edition. — New York, NY : The Relayer Group, 2018. — P. 491.
- obituary of Donald Michie in The Guardian 27 января 2008 года.
- Yarden Katz, , The Atlantic, 1 November 2012 3 ноября 2012 года.
- Noam Chomsky, 17 мая 2013 года.
- Peter Norvig, 27 мая 2011 года.
Литература
- Crevier, Daniel. (англ.) . — New York, NY: BasicBooks, 1993. — ISBN 0-465-02997-3 .
- Vol. 22 , no. 3 . — P. 2—3 . — doi : . Where Are All the Intelligent Agents? (англ.) // : journal. — 2007. —
- Howe, J. (ноябрь 1994). Дата обращения: 30 августа 2007. 17 августа 2007 года.
- Андреас Каплан ; Haenlein, Michael. (англ.) : journal. — Business Horizons 62(1), 2018. 21 ноября 2018 года.
- The Singularity is Near (неопр.) . — Viking Press, 2005.
- Artificial Intelligence: a paper symposium (итал.) . — Science Research Council, 1973.
- ; Papert, Seymour. Perceptrons: An Introduction to Computational Geometry (англ.) : journal. — The MIT Press, 1969.
- McCorduck, Pamela. (англ.) . — Natick, MA: A. K. Peters, Ltd., 2004. — ISBN 1-56881-205-1 .
- // (англ.) . — , 1999.
- ISBN 978-0-9885937-1-8 . The Brain Makers: Genius, Ego, and Greed In The Search For Machines That Think (англ.) . — Macmillan/SAMS, 1994. —
- Russell, Stuart J.; Norvig, Peter. Artificial Intelligence: A Modern Approach (2nd ed.) (англ.) . — Upper Saddle River, New Jersey: Prentice Hall, 2003. — ISBN 0-13-790395-2 .
- 2020-02-21
- 1