Interested Article - Этика искусственного интеллекта

Этика искусственного интеллекта является частью (англ.) , характерной для роботов и других искусственно интеллектуальных существ. Она обычно подразделяется на робоэтику , которая решает вопросы морального поведения людей при проектировании, конструировании, использовании и лечении искусственно разумных существ и (англ.) , которая затрагивает проблемы морального поведения искусственных моральных агентов (ИМА).

Этика роботов

Термин «этика роботов» (или «робоэтика») относится к моральным вопросам того, как люди проектируют, конструируют, используют и обращаются с роботами и другими искусственно интеллектуальными существами . Она занимается вопросами того, как искусственно разумные существа могут быть использованы во вред и в интересах людей.

Права роботов

«Права роботов» — это концепция, согласно которой люди должны иметь моральные обязательства перед своими машинами, аналогичные правам человека или животных . Есть предложение, что права роботов, такие как право на существование и выполнение своей собственной миссии, можно связать с обязанностью робота служить человеку, по аналогии с увязкой прав человека с обязанностями человека перед обществом . Они могут включать право на жизнь и свободу, свободу мысли и высказываний, а также равенство перед законом . Этот вопрос был рассмотрен и Министерством торговли и промышленности Великобритании .

Эксперты не имеют общего мнения, потребуются ли конкретные и подробные законы уже в ближайшее время или только в отдалённом будущем . Гленн МакГи сообщает, что к 2020 году могут появиться достаточно гуманоидные роботы . Рэй Курцвейл считает, что это произойдет к 2029 году . В 2007 году другая группа учёных предполагала, что пройдет, по крайней мере, 50 лет, прежде чем сможет существовать какая-либо достаточно продвинутая система .

Правила конкурса Лобнеровской премии 2003 года предусматривали возможность того, что роботы могут иметь собственные права.

В октябре 2017 года андроид София получила «почётное» гражданство в Саудовской Аравии , хотя некоторые наблюдатели сочли это скорее рекламным ходом, чем осмысленным юридическим признанием . Некоторые рассматривали этот жест как открытое унижение прав человека и верховенства закона .

Философия (англ.) предоставляет право на моральные соображения всем чувствующим существам, прежде всего людям и большинству животных. Если искусственные или инопланетные интеллектуальные существа демонстрируют доказательства своей , эта философия считает, что к ним следует проявить сострадание и предоставить права.

утверждала, что создание требующего прав ИИ можно избежать и само по себе неэтично, что это будет бременем и для агентов ИИ и для человеческого общества .

Угроза человеческому достоинству

Джозеф Вейзенбаум утверждал в 1976 году, что технология искусственного интеллекта не должна использоваться для замены людей на должностях, требующих уважения и заботы, таких как:

  • Сотрудник службы поддержки клиентов (технологии ИИ уже используется сегодня в телефонных системах интерактивных голосовых ответов )
  • Терапевт (как было предложено в 1970-х годах)
  • Сиделка для пожилых людей (как рассказала в своей книге «Пятое поколение»)
  • Солдат
  • Судья
  • Полицейский

Вайзенбаум объясняет, что от людей на этих должностях мы требуем подлинного чувства эмпатии . Если машины их заменят, мы окажемся отчужденными, обесцененными и разочарованными. Искусственный интеллект, если его использовать таким образом, представляет угрозу для человеческого достоинства. Вайзенбаум утверждает, что факт того, что мы рассматриваем возможность машинам занимать эти позиции, говорит о том, что мы испытали «атрофию человеческого духа, возникающую из-за того, что мы думаем о себе как о компьютерах» .

возражает, говоря о женщинах и меньшинствах, «я бы предпочла рискнуть с беспристрастным компьютером», указывая на условия, в которых мы бы предпочли иметь автоматических судей и полицию, у которых вообще нет личных интересов . Тем не менее, Каплан и Хенлейн подчеркивают, что системы искусственного интеллекта интеллектуальны ровно в соответствии с теми данными, которые использовались для их обучения, поскольку по своей сути они представляют собой не что иное, машины для приближения с помощью кривых : использование искусственного интеллекта для поддержки судебного решения может быть весьма проблематичным, если прошлые решения демонстрируют предвзятость к определённым группам, поскольку эти предубеждения формализуются и закрепляются, что делает выявление и борьбы с ними ещё более трудной . Основатель ИИ Джон Маккарти возражает против морализирующего тона критики Вейзенбаума. Он пишет: «Когда морализаторство неистово и расплывчато, оно поощряет авторитарное насилие».

отмечал, что «человеческое достоинство требует, чтобы мы стремились устранить наше незнание природы бытия, и для этого необходим ИИ».

Прозрачность, ответственность и открытый исходный код

(англ.) утверждает, что, поскольку ИИ сильно повлияет на человечество, усилия разработчиков ИИ этически должны быть прозрачными . Бен Гертцель и Дэвид Харт создали OpenCog в качестве фреймворка с открытым исходным кодом для разработки ИИ . OpenAI — это некоммерческая исследовательская компания по искусственному интеллекту, созданная Илоном Маском , Сэмом Альтманом и другими для разработки полезного для человечества программного обеспечения ИИ с открытым исходным кодом . Существует множество других разработок ИИ с открытым исходным кодом.

Открытие кода не делает его понятным, то есть ИИ, который им закодирован, не является прозрачным. IEEE пытается заниматься стандартизацией прозрачности ИИ . Усилия IEEE выделяют для разных пользователей несколько степеней прозрачности. Кроме того, есть опасение, что предоставление полного потенциала современного ИИ некоторым организациям может быть плохо для общественности, то есть причинить больше вреда, чем пользы. Например, Microsoft выразила обеспокоенность по поводу предоставления всегобщего доступа к своему программному обеспечению для распознавания лиц, даже для тех, кто может за него заплатить. Microsoft опубликовала необычный блог на эту тему с просьбой о правительственном регулировании с целью помощи в определении правильных действий .

Не только компании, но и многие другие исследователи и гражданские адвокаты рекомендуют государственное регулирование для обеспечения прозрачности и, как следствие, ответственности человека. от 30 ноября 2019 на Wayback Machine Эта стратегия спорная, так как некоторые опасаются, что это приведет к замедлению темпов инноваций. Другие утверждают, что регулирование приводит к систематической стабильности, способной в большей степени поддерживать инновации в долгосрочной перспективе . ОЭСР , ООН , ЕС и многие страны в настоящее время работают над стратегиями регулирования ИИ и ищут соответствующие правовые рамки . 26 июня Группа высокоуровневых экспертов Европейской комиссии по искусственному интеллекту (AI HLEG) опубликовала свои «Рекомендации по политике и инвестициям в области надежного искусственного интеллекта». Это второй документ AI HLEG, который вышел вслед за публикацией в апреле 2019 г. «Руководства по этике для надежного AI». Новые рекомендации касаются четырёх основных областей: люди и общество в целом, частный сектор, государственный сектор, а также исследования и наука. Рекомендации HLEG отражают понимание как возможностей для технологий искусственного интеллекта стимулировать экономический рост, процветание и инновации, так и потенциальных рисков. Европейского Союза имеет амбиции возглавить разработку политик, регулирующих ИИ во всем мире. Однако, если Европа не ускорит развертывание и внедрение и не создаст производственные, исследовательские и опытно-конструкторские мощности, её возможности для этого будут ограничены .

Предвзятость в системах ИИ

ИИ становится все более неотъемлемой частью систем распознавания лиц и голоса. Некоторые из этих систем имеют реальное влияние на бизнес и людей. Эти системы уязвимы для предвзятостей и ошибок, вносимых создателями-людьми. Кроме того, данные, используемые для обучения самих этих систем ИИ, могут иметь искажения . Например, алгоритмы распознавания лиц , разработанные Microsoft , IBM и en , оказались необъективны, когда дело дошло до определения пола людей . Эти системы искусственного интеллекта были в состоянии определять пол белых мужчин более точно, чем пол темнокожих мужчин. Ещё одним примером необъективности ИИ стало прекращение со стороны Amazon’s.com Inc использования ИИ для найма сотрудников. Алгоритм предпочитал больше кандидатов-мужчин, чем женщин. Это произошло потому, что система Amazon была обучена с использованием данных, собранных за 10-летний период, которые поступали в основном от кандидатов-мужчин .

Предвзятость может попасть в алгоритмы разными способами. В очень влиятельной ветке ИИ, известной как «обработка естественного языка», могут возникнуть проблемы из «текстового свода» — исходного материала, который использует алгоритм, чтобы узнать о взаимосвязях между разными словами .

Крупные компании, такие как IBM, Google и прочие, уже начали исследовать и решать проблему предвзятости .

Проблема предвзятости в машинном обучении, вероятно, станет более серьёзной, поскольку технология распространяется на такие критические области, как медицина и юриспруденция, и поскольку задачу её развертывания поручают все большему числу людей, которые не имеют глубоких технических знаний. Некоторые эксперты предупреждают, что алгоритмическая необъективность уже широко распространена во многих отраслях, и что почти никто не предпринимает усилий для её выявления или исправления .

Во всем мире уже есть различные примеры стран (включая Германию, Америку, Англию и Индию), где необдуманное применение искусственного интеллекта правительствами имело серьёзные социальные последствия в таких областях, как иммиграция, правоохранительная деятельность и социальное обеспечение.

Ответственность за частично или полностью беспилотные автомобили

Есть все основания считать, что в будущем неизбежно широкое использование частично или полностью беспилотных автомобилей . Но полностью автономные технологии ставят перед нами новые проблемы и вызовы . В последнее время поднялись дебаты по поводу юридической ответственности сторон при попадании беспилотных автомобилей в аварии . В одном из отчётов автомобиль без водителя сбил пешехода и встала проблема, кто виноват в аварии. Несмотря на то, что водитель во время аварии находился в автомобиле, органы управления были полностью в руках компьютера. Необходимо решить такого рода вопросы прежде, чем беспилотные автомобили будут иметь широкое распространение .

Вооружённый искусственный интеллект

Некоторые эксперты и ученые ставят под сомнение использование роботов в боевых действиях, особенно когда таким роботам предоставляются определённая степень автономности . ВМС США профинансировали доклад, в котором указывается, что, поскольку боевые роботы становятся все более сложными, следует уделять больше внимания последствиям их способностям принимать самостоятельные решения .

В течение последнего десятилетия проводились интенсивные исследования в области самообучаемой автономности с назначаемой моральной ответственностью. «Результаты могут быть использованы при разработке будущих военных роботов для контролирования нежелательных тенденций возложения ответственности на роботов» . С точки зрения консеквенциализма есть вероятность, что роботы будут развивать способности принимать свои собственные логические решения о том, кого убивать, и поэтому необходимы моральные ограничения, которые ИИ не сможет обойти .

Недавно были протестные голоса против разработки ИИ-оружия, которое включало бы идеи захвата человечества роботом. ИИ-оружие несёт опасность другого рода, в отличие от оружия, контролируемого человеком. Многие правительства уже начали финансировать программы по разработке ИИ-вооружения. ВМС США недавно объявили о планах разработки ударного беспилотника , параллельно с аналогичными заявлениями России и Кореи. В связи с тем, что ИИ-оружие становится более опасным, чем управляемое человеком оружие, Стивен Хокинг и Макс Тегмарк подписали петицию «Будущее жизни» о запрете ИИ-оружия. В сообщении, опубликованном Хокингом и Тегмарком, говорится, что ИИ-оружие представляет собой непосредственную опасность и что необходимо предпринять какие-то действия, чтобы в ближайшем будущем избежать катастрофических последствий .

«Если какая-либо крупная военная сила продвигает разработку ИИ-оружия, практически неизбежна глобальная гонка вооружений , и в итоге автономное оружие станет автоматом Калашникова завтрашнего дня», — говорится в петиции, в которую входят противники вооружённого искусственного интеллекта: Skype -основатель Яан Таллинн и профессор лингвистики Массачусетского технологического института Ноам Хомский .

Физик и астроном сэр Мартин Рис предупреждает о таких катастрофических примерах, как «глупые роботы, которые становятся изгоями, или сеть, которая развивает собственный разум». , коллега Риса из Кембриджа, озвучил аналогичное предупреждение о том, что люди могут не выжить, если интеллект «ускользнёт от биологических ограничений». в Кембриджском университете они создали (англ.) в надежде избежать этой угрозы человеческому существованию .

Что касается возможности использования систем «умнее человека» в военном деле, проект « (англ.) » пишет, что эти сценарии «кажутся потенциально настолько же важными, как и риски, связанные с потерей контроля», но исследовательские организации, занимающиеся долгосрочным социальным воздействием ИИ, недостаточно изучили эту проблему: «этот класс сценариев не был в центре внимания занимающихся этими вопросами организаций, таких как Научно-исследовательский институт машинного интеллекта (MIRI) и Институт будущего человечества (FHI) и поэтому меньше обсуждались» .

Машинная этика

Машинная этика (или машинная мораль) — это область исследований, связанных с разработкой искусственных (англ.) (ИМА), роботов или искусственно интеллектуальных компьютеров, которые ведут себя морально или как бы морально . Чтобы учесть природу этих агентов, было предложено рассмотреть некоторые философские идеи, такие как стандартные характеристики субъектности , рациональных агентов , (англ.) и искусственной субъектности, которые связанные с концепцией ИМА .

Айзек Азимов рассмотрел эту проблему в 1950-х годах в своей серии рассказов «Я, робот». По настоянию своего редактора Джона У. Кэмпбелла младшего для управления искусственно интеллектуальными системами он предложил Три закона робототехники . Большая часть его работы была потрачена на проверку границ трех его законов, чтобы увидеть, где они могут сломаться или где они могут вызвать парадоксальное или непредвиденное поведение. Его работа предполагает, что ни один из установленных законов не может в достаточной мере предвидеть все возможные обстоятельства. Последнее время ученые и многие правительства поставили под сомнение идею о привлечении к ответственности ИИ . Комиссия, созванная Соединенным Королевством в 2010 году, пересмотрела законы Азимова, чтобы уточнить, что ИИ является ответственностью либо его производителей, либо его владельца/оператора .

В 2009 году во время эксперимента в Лаборатории интеллектуальных систем в Политехнической школе Лозанны в Швейцарии роботы, которые были запрограммированы на сотрудничество друг с другом (в поиске полезных ресурсов и избегании ядовитых), в конечном итоге научились лгать друг другу в попытке накопить полезные ресурсы . Одной из проблем в этом случае могло быть то, что цели были «конечными» (в то время как основные человеческие мотивы обычно имеют качество, требующее бесконечного обучения) .

Некоторые эксперты и ученые ставят под сомнение использование роботов для боевых действий, особенно когда таким роботам предоставляются определённые степени автономных функций . ВМС США профинансировали доклад, в котором указывается, что по мере усложнения военных роботов следует уделять больше внимания последствиям их способности принимать самостоятельные решения .

Вернор Виндж предположил, что может наступить момент, когда некоторые компьютеры станут умнее людей, назвав этот явление сингулярностью . Он предполагает, что это может быть частично или даже очень опасно для человека . Научно-исследовательский институт машинного интеллекта высказал предположение о необходимости создания « Дружественного ИИ », имея ввиду, что прогресс, который уже происходит с ИИ, должен также включать усилия, направленные на создание более дружелюбного и гуманного ИИ.

В 2009 году ученые и технические эксперты приняли участие в конференции, организованной (англ.) , чтобы обсудить потенциальное воздействие роботов и компьютеров и влияние гипотетической возможности того, что они могут стать самодостаточными и способными принимать собственные решения. Они обсудили возможность и степень, с которой компьютеры и роботы могли бы приобрести любой уровень автономии, и в какой степени они могли бы использовать такие возможности, чтобы представлять какую-либо угрозу или опасность. Они отметили, что некоторые машины приобрели различные формы полуавтономности, в том числе возможность самостоятельно находить источники энергии и возможность самостоятельно выбирать цели для атаки оружием. Они также отметили, что некоторые компьютерные вирусы могут избегать уничтожения и достигли «интеллекта тараканов». Они отметили, что самосознание, как изображено в научной фантастике, вероятно, маловероятно, но есть другие потенциальные опасности и подводные камни .

Тем не менее, существует одна технология, которая действительно может привести к роботам с моральными способностями. В статье о приобретении моральных ценностей роботами (англ.) упоминает случай (англ.) чипов, которые стремятся обрабатывать информацию аналогично людям, нелинейно и с миллионами взаимосвязанных искусственных нейронов . Роботы со встроенной нейроморфной технологией могут изучать и развивать знания уникальным образом. Это неизбежно поднимает вопрос об окружающей среде, в которой такие роботы познают мир и мораль которого они унаследуют, или если они в конечном итоге также разовьют человеческие «слабости»: эгоизм, отношение к выживанию, колебания и т. д.

В « Моральные машины: обучение роботов правильному через неправильное» Уэнделл Уоллах и Колин Аллен делают вывод, что попытки научить роботов поступать правильно через неправильно могут продвинуть понимание человеческой этики, мотивируя людей на устранение пробелов в современной нормативной теории и предоставляя платформу для экспериментального исследования. В качестве примера он задаёт нормативным специалистам по этике спорный вопрос о том, какие конкретные алгоритмы машинного обучения нужно использовать. Ник Бостром и Элиэзер Юдковски приводят доводы в пользу деревьев решений (таких как ID3 ) потив нейронных сетей и генетических алгоритмов , потому что деревья решений подчиняются современным социальным нормам прозрачности и предсказуемости (например, stare decisis ) , то время как Крис Сантос-Ланг возражает, что нормы любого возраста можно менять и что естественная неспособность полностью удовлетворить эти конкретные нормы имеет важное значение для того, чтобы сделать людей менее уязвимыми для преступных « хакеров » .

Согласно отчету Центра по управлению ИИ в Оксфордском университете за 2019 год, 82 % американцев считают, что необходимо тщательно управлять роботами и ИИ. Обсуждаемые проблемы варьировались от того, как ИИ используется для слежки и распространения фальшивого контента в Интернете (известного как глубокие фейки (deepfakes), когда они включают в себя подделанные видеоизображения и аудио, сгенерированные с помощью ИИ), до кибератак, посягательств на конфиденциальность данных, предвзятости при найме на работу, беспилотных транспортных средств и дронов, которые не требуют человека-контролера .

Неожиданные последствия

Многие исследователи утверждают, что в результате «интеллектуального взрыва», произошедшего где-то в XXI веке, самосовершенствующийся ИИ может стать настолько мощнее людей, что мы не сможем помешать ему достичь своих целей . В своей статье «Этические проблемы в продвинутом искусственном интеллекте» философ Ник Бостром утверждает, что искусственный интеллект способен вызвать вымирание человека. Он утверждает, что общий сверхразум способен на самостоятельную инициативу и на создание собственных планов, и поэтому его более целесообразно рассматривать как автономного агента. Поскольку искусственный интеллект не обязан разделять человеческие мотивации, разработчики (англ.) должны были бы заложить его первоначальную мотивацию. Теоретически, сверхинтеллектуальный ИИ сможет привести к практически любому возможному исходу и пресечь любую попытку помешать достижению своей главной цели, может возникнуть много неконтролируемых непреднамеренных последствий . Это может убить всех других агентов, убедить их изменить свое поведение или заблокировать их попытки вмешательства .

Однако вместо того, чтобы превзойти человеческую расу и вести её к разрушению, Бостром также утверждает, что супер-интеллект может помочь нам решить многие сложные проблемы, такие как болезни, бедность, разрушение окружающей среды, и может помочь нам «улучшить» себя .

Сложность систем человеческих ценностей ведет к очень трудному созданию удобных для человека мотиваций ИИ . Пока моральная философия не дает нам безупречную этическую теорию, функция полезности ИИ может допускать множество потенциально вредных сценариев, которые соответствуют данной этической структуре, но не соответствуют «здравому смыслу». По словам Элиэзера Юдковского , у нас мало оснований полагать, что искусственно созданный разум будет обладать такой адаптацией .

предложил такой дизайн искусственного интеллекта, который избегает некоторых типов непреднамеренного поведения, включая самообман, непреднамеренные инструментальные действия и повреждение генератора вознаграждений.

Организации

Amazon , Google , Facebook , IBM и Microsoft создали некоммерческое партнерство для разработки передового опыта в области технологий искусственного интеллекта, улучшения понимания общественностью и обеспечения ИИ платформы. Они заявили: «Это партнерство по ИИ будет проводить исследования, организовывать дискуссии, обеспечивать интеллектуальное лидерство, консультироваться с соответствующими третьими сторонами, отвечать на вопросы общественности и средств массовой информации, а также создавать учебные материалы, способствующие пониманию технологий ИИ, включая машинное восприятие, обучение и автоматическое рассуждение» . Apple присоединилась к другим технологическим компаниям в качестве одного из основателей Партнерства по искусственному интеллекту в январе 2017 года. Корпоративные участники будут вносить финансовый и исследовательский вклад в работу группы, взаимодействуя с научным сообществом, чтобы привлечь учёных в совет директоров .

IEEE разработал от 6 октября 2019 на Wayback Machine , которая разрабатывает и пересматривает с помощью общественного мнения методические рекомендации, и принимает в качестве своих членов многих специалистов изнутри и снаружи своей организации.

Традиционно, общественность используют правительство для контроля соответствия этики рамкам законодательства и правопорядка. В настоящее время национальные правительства, а также транснациональные правительственные и неправительственные организации прилагают много усилий для обеспечения этического применения ИИ.

В массовой культуре

Фильм « Тринадцатый этаж » показывает будущее, в котором на игровых консолях создаются для развлечения симулированные миры с разумными обитателями. Фильм « Матрица » показывает будущее, где доминирующим видом на планете Земля являются разумные машины, а человечество подвергается предельной дискриминации. В коротком рассказе « (англ.) » показывается будущее, в котором человечество превратилось в программное обеспечение, которое можно дублировать и оптимизировать, а соответствующее различие между типами программного обеспечения является разумным и не чувствительным. Та же самая идея может быть найдена в Голограмме скорой медицинской помощи Starship Voyager , которая является явно разумной копией уменьшенного подмножества сознания её создателя, , который из лучших побуждений создал систему для предоставления экстренной медицинской помощи. В фильмах «Двухсотлетний человек » и « Искусственный разум » рассматриваются возможности разумных роботов, которые могут любить. « Я, Робот » показал некоторые аспекты трёх законов робототехники Азимова. Все они пытаются предугадать, возможно, неэтичные последствия создания разумных компьютеров.

Этика искусственного интеллекта является одной из основных тем в серии игр BioWare « Mass Effect» . Она рассматривает сценарий, в котором цивилизация случайно создала ИИ благодаря быстрому увеличению вычислительной мощности используя глобальную нейронную сеть . Это событие вызвало этический раскол между теми, кто считал, что разумных Гетов можно наделить органическими правами, и теми, кто продолжал рассматривать их как одноразовый механизм и боролся за их уничтожение. Помимо начального конфликта ещё одной постоянной темой всей истории является сложность отношений между машинами и их создателями.

См. также

Исследователи
Организации

Примечания

  1. Veruggio, Gianmarco. The Roboethics Roadmap (неопр.) . — Scuola di Robotica, 2007.
  2. (англ.) . Posthuman Rights: Dimensions of Transhuman Worlds (неопр.) // Teknokultura. — 2015. — Т. 12 , № 2 . — doi : .
  3. (англ.) . (англ.) : journal. — European journal of law and political sciences, 2017. 14 июля 2018 года.
  4. The American Heritage Dictionary of the English Language, Fourth Edition
  5. . BBC News. 2006-12-21. из оригинала 15 октября 2019 . Дата обращения: 3 января 2010 .
  6. Henderson, Mark (2007-04-24). . The Times Online . The Times of London. из оригинала 17 мая 2008 . Дата обращения: 2 мая 2010 .
  7. McGee. . The Scientist. Дата обращения: 10 октября 2019. 6 сентября 2020 года.
  8. Ray Kurzweil . The Singularity is Near (неопр.) . — Penguin Books , 2005. — ISBN 978-0-670-03384-3 .
  9. , Independent Newspaper.
  10. . Дата обращения: 10 октября 2019. 27 октября 2017 года.
  11. Vincent, James (2017-10-30). . The Verge. из оригинала 3 августа 2019 . Дата обращения: 10 октября 2019 .
  12. Close engagements with artificial companions : key social, psychological, ethical and design issues (англ.) . — Amsterdam: John Benjamins Pub. Co, 2010. — ISBN 978-9027249944 .
  13. Joseph Weizenbaum , quoted in , pp. 356, 374–376
  14. . Дата обращения: 10 октября 2019. Архивировано из 21 ноября 2018 года.
  15. Hibbard, Bill (2014): « ».
  16. от 4 марта 2016 на Wayback Machine Bill Hibbard. 2008 proceedings of the First Conference on Artificial General Intelligence, eds. Pei Wang, Ben Goertzel and Stan Franklin.
  17. от 4 марта 2016 на Wayback Machine David Hart and Ben Goertzel. 2008 proceedings of the First Conference on Artificial General Intelligence, eds. Pei Wang, Ben Goertzel and Stan Franklin.
  18. от 27 апреля 2016 на Wayback Machine Cade Metz, Wired 27 April 2016.
  19. . P7001 - Transparency of Autonomous Systems . IEEE. Дата обращения: 10 января 2019. 10 января 2019 года. .
  20. Thurm, Scott (2018-07-13). . Wired. из оригинала 9 мая 2019 . Дата обращения: 10 октября 2019 .
  21. Bastin. . Inside magazine . Deloitte (июнь 2017). Дата обращения: 11 октября 2019. Архивировано из 10 января 2019 года.
  22. (англ.) . UN News (7 июня 2017). Дата обращения: 26 июля 2019. 26 июля 2019 года.
  23. (англ.) . www.oecd.org . Дата обращения: 26 июля 2019. 22 июля 2019 года.
  24. Anonymous. (англ.) . Digital Single Market - European Commission (14 июня 2018). Дата обращения: 26 июля 2019. 1 августа 2019 года.
  25. (англ.) . Center for Democracy & Technology . Дата обращения: 9 августа 2019. 9 августа 2019 года.
  26. Society. (англ.) . Medium (14 марта 2018). Дата обращения: 22 июля 2019. 22 июля 2019 года.
  27. (англ.) . TechCrunch . Дата обращения: 22 июля 2019. 18 марта 2021 года.
  28. Knight. (англ.) . MIT Technology Review . Дата обращения: 22 июля 2019. 4 июля 2019 года.
  29. Villasenor. (англ.) . Brookings (3 января 2019). Дата обращения: 22 июля 2019. 22 июля 2019 года.
  30. Lohr, Steve (2018-02-09). . The New York Times (англ.) . из оригинала 9 января 2019 . Дата обращения: 29 мая 2019 .
  31. . Reuters (англ.) . 2018-10-10. из оригинала 27 мая 2019 . Дата обращения: 29 мая 2019 .
  32. (англ.) . techxplore.com . Дата обращения: 26 июля 2019. 25 июля 2019 года.
  33. Olson. (англ.) . Forbes . Дата обращения: 26 июля 2019. 26 июля 2019 года.
  34. (англ.) . Google Developers . Дата обращения: 26 июля 2019. 10 августа 2019 года.
  35. (англ.) . www.research.ibm.com (REPLACE). Дата обращения: 26 июля 2019. Архивировано из 17 июля 2019 года.
  36. Knight. (англ.) . MIT Technology Review . Дата обращения: 26 июля 2019. 4 июля 2019 года.
  37. Peggy Sue. (рус.) . scienceblog (3 февраля 2023). Дата обращения: 3 февраля 2023. 3 февраля 2023 года.
  38. Davies, Alex (2016-02-29). . Wired . из оригинала 7 июля 2019 . Дата обращения: 26 июля 2019 .
  39. , 2019-06-05 , Дата обращения: 26 июля 2019
  40. Levin, Sam (2018-03-19). . The Guardian (англ.) . из оригинала 26 июля 2019 . Дата обращения: 26 июля 2019 .
  41. (англ.) . Futurism . Дата обращения: 26 июля 2019. 26 июля 2019 года.
  42. Radio. (англ.) . Knowledge@Wharton . Дата обращения: 26 июля 2019. 26 июля 2019 года.
  43. Delbridge. (англ.) . The Balance . Дата обращения: 29 мая 2019. 29 мая 2019 года.
  44. (англ.) . GOV.UK . Дата обращения: 26 июля 2019. 26 июля 2019 года.
  45. . cyberlaw.stanford.edu . Дата обращения: 26 июля 2019. Архивировано из 26 июля 2019 года.
  46. . www.ncsl.org . Дата обращения: 26 июля 2019. 26 июля 2019 года.
  47. от 7 августа 2009 на Wayback Machine , By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
  48. от 7 ноября 2012 на Wayback Machine , By David Axe wired.com, August 13, 2009.
  49. 28 июля 2009 года. , by Jason Mick (Blog), dailytech.com, February 17, 2009.
  50. от 4 июня 2011 на Wayback Machine , by Joseph L. Flatley engadget.com, Feb 18th 2009.
  51. . Дата обращения: 11 октября 2019. 5 июля 2019 года.
  52. Mitra. (англ.) . Quartz . Дата обращения: 26 июля 2019. 26 июля 2019 года.
  53. (англ.) . Future of Life Institute . Дата обращения: 26 июля 2019. 11 декабря 2017 года.
  54. Zach Musgrave and Bryan W. Roberts. . The Atlantic (14 августа 2015). Дата обращения: 11 октября 2019. 11 апреля 2017 года.
  55. Cat Zakrzewski. . WSJ (27 июля 2015). Дата обращения: 13 октября 2019. 28 июля 2015 года.
  56. GiveWell. (Report). из оригинала 12 октября 2015 . Дата обращения: 13 октября 2019 .
  57. Anderson. . Дата обращения: 27 июня 2011. 28 сентября 2011 года.
  58. (неопр.) / Anderson, Michael; Anderson, Susan Leigh. — Cambridge University Press , 2011. — ISBN 978-0-521-11235-2 .
  59. (англ.) // (англ.) : journal. — Vol. 21 , no. 4 . — P. 10—63 . — ISSN . — doi : . 26 ноября 2011 года.
  60. Michael; Anderson. (англ.) // AI Magazine : journal. — Vol. 28 , no. 4 . — P. 15—26 . — ISSN . 18 сентября 2020 года.
  61. Robert James M.; Boyles. (англ.) // Suri : journal. — 2017. — October ( vol. 6 , no. 2 ). — P. 92—109 . 7 марта 2022 года.
  62. Joanna; Bryson. Of, for, and by the people: the legal lacuna of synthetic persons (англ.) // Artificial Intelligence and Law : journal. — 2017. — September ( vol. 25 , no. 3 ). — P. 273—291 . — doi : .
  63. . UK's EPSRC (сентябрь 2010). Дата обращения: 10 января 2019. Архивировано из 1 апреля 2018 года.
  64. от 28 августа 2009 на Wayback Machine , Popular Science, August 18, 2009
  65. Santos-Lang. . Дата обращения: 13 октября 2019. 25 декабря 2014 года.
  66. 28 июля 2009 года. , by Jason Mick (Blog), dailytech.com, February 17, 2009.
  67. от 1 июля 2017 на Wayback Machine By JOHN MARKOFF, NY Times, July 26, 2009.
  68. от 1 января 2007 на Wayback Machine , by Vernor Vinge, Department of Mathematical Sciences, San Diego State University, (c) 1993 by Vernor Vinge.
  69. Al-Rodhan, Nayef (2015-08-12). . Foreign Affairs (англ.) . из оригинала 5 марта 2017 . Дата обращения: 23 января 2018 .
  70. Wallach, Wendell; Allen, Colin. Moral Machines: Teaching Robots Right from Wrong (англ.) . — USA: Oxford University Press , 2008. — ISBN 978-0-19-537404-9 .
  71. Bostrom. . Cambridge Handbook of Artificial Intelligence . . Дата обращения: 13 октября 2019. Архивировано из 4 марта 2016 года.
  72. Howard. (англ.) . MIT Sloan Management Review . Дата обращения: 14 августа 2019. 14 августа 2019 года.
  73. Muehlhauser, Luke, and Louie Helm. 2012. от 7 мая 2015 на Wayback Machine . In Singularity Hypotheses: A Scientific and Philosophical Assessment, edited by Amnon Eden, Johnny Søraker, James H. Moor, and Eric Steinhart. Berlin: Springer.
  74. Bostrom, Nick. 2003. от 8 октября 2018 на Wayback Machine . In Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, edited by Iva Smit and George E. Lasker, 12-17. Vol. 2. Windsor, ON: International Institute for Advanced Studies in Systems Research / Cybernetics.
  75. (англ.) // Wired : magazine. — 2014. — 4 December. 31 октября 2015 года.
  76. Yudkowsky, Eliezer. 2011. от 29 сентября 2015 на Wayback Machine . In Schmidhuber, Thórisson, and Looks 2011, 388—393.
  77. «Partnership on Artificial Intelligence to Benefit People and Society». N.p., n.d. 24 October 2016.
  78. Fiegerman, Seth. «Facebook, Google, Amazon Create Group to Ease AI Concerns». CNNMoney. n.d. 4 December 2016.
  79. (англ.) . HPCwire (14 мая 2019). Дата обращения: 22 июля 2019. 18 марта 2021 года.
  80. (англ.) . Дата обращения: 22 июля 2019. 14 мая 2019 года.
  81. . Дата обращения: 7 мая 2022. 30 декабря 2021 года.

Литература

  • McCorduck, Pamela. . — Natick, MA: A. K. Peters, Ltd, 2004. — ISBN 1-56881-205-1 .
  • Гэри Маркус, Эрнест Дэвис. Искусственный интеллект: Перезагрузка. Как создать машинный разум, которому действительно можно доверять = Rebooting AI: Building Artificial Intelligence We Can Trust. — М. : Интеллектуальная Литература, 2021. — 304 с. — ISBN 978-5-907394-93-3 .

Ссылки

  • от 11 октября 2019 на Wayback Machine . «Четыре ведущих исследователя делятся своими проблемами и решениями для снижения социальных рисков от интеллектуальных машин». Nature , 521, 415—418 (28 мая 2015 г.), doi: 10.1038 / 521415a.
  • от 31 марта 2008 на Wayback Machine
  • от 22 марта 2018 на Wayback Machine статья о страхе человечества перед искусственным интеллектом.
  • от 30 ноября 2019 на Wayback Machine от от 13 ноября 2019 на Wayback Machine
  • от 23 ноября 2021 на Wayback Machine
  • от 23 ноября 2021 на Wayback Machine
Источник —

Same as Этика искусственного интеллекта