Суперинтеллект: Paths, опасность, стратегии -Superintelligence: Paths, Dangers, Strategies


Из Википедии, свободной энциклопедии
Суперинтеллект:
Paths, опасность, стратегии
Суперинтеллект-Дорожка Опасность Strategies.jpg
Твердый переплет издание
автор Ник Бостром
Страна Объединенное Королевство
язык английский
Предмет Искусственный интеллект
Жанр Философия , научно - популярные
издатель Oxford University Press
Keith Mansfield
Дата публикации
3 июля 2014 (Великобритания)
1 сентября 2014 (США)
Тип носителя Печать, электронная книга, аудиокнига
страницы 352 стр.
ISBN 978-0199678112
Предшествует Глобальные Катастрофические риски (книга) 

Суперинтеллект: Paths, опасность, стратегия является 2014 книгой шведского философом Ник Бостромы из Оксфордского университета . Он утверждаетчто если машина мозг превзойдет человеческий мозг в общем интеллекте, то этот новый суперинтеллект может заменить человеккачестве доминирующей формы жизни на Земле. Достаточно интеллектуальные машины могли бы улучшить свои возможности быстреечем компьютерщики человека, и результат может быть экзистенциальной катастрофой для людей.

Книга Бострем была переведена на многие языки и доступна в аудиокнигу.

конспект

Неизвестно , является ли на уровне человеческого искусственного интеллекта прибудет в течение нескольких лет, в конце этого века, или не до будущих веков. Независимо от начальной шкалы времени, когда машина ИИ человеческого уровня усовершенствовало «Сверхразумных» система , которая «значительно превосходит когнитивную производительность человека практически во всех областях , представляющих интерес» следовало бы на удивление быстро, возможно , даже мгновенно. Такой суперинтеллект будет трудно контролировать или сдерживать.

В то время как конечные цели superintelligences могут сильно различаться, функциональный суперинтеллект спонтанно генерировать, как природные подзадачи, «инструментальными цели» , такие как самосохранение и достижение цели содержания целостности, когнитивного улучшение и приобретение ресурсов. Например, агент, единственной конечной целью является решение гипотезы Римана (известный нерешенной, математическое - гипотезы ) может создать и действовать в виде подцелей превращения всей Земли в той или иной форме компьютрониум (гипотетический « программируемая материя ») для оказания помощи в расчет. Суперинтеллект будет активно сопротивляться какими - либо внешние попыткам превратить суперинтеллект выключен или иным образом предотвратить его завершение подцели. Для того , чтобы предотвратить такую экзистенциальную катастрофу , это может быть необходимо , чтобы успешно решить «проблему управления AI» для первого суперинтеллекта. Решение может включать в себя привитие суперинтеллекта с целями, которые совместимы с человеческим выживанием и благополучием. Решение проблемы управления на удивлении сложно , поскольку большинство целей, при переводе на машинно-осуществимой коду, привести к непредсказуемым и нежелательным последствиям.

прием

Книга занимает # 17 на Нью - Йорк Таймс список самых продаваемых книг науки за август 2014 г. В том же месяце, бизнес - магнат Элон Маск сделал заголовки, соглашаясь с книгой , что искусственный интеллект является потенциально более опасным , чем ядерное оружие. Работа Бострем на суперинтеллекта также влияет на Билла Гейтса озабоченность «s для экзистенциальных рисков , с которыми сталкивается человечество в течение наступающего века. В марте 2015 года интервью с Baidu генерального директором «s, Робин Ли, Гейтс сказал , что он„очень рекомендует“ суперинтеллект .

Научный редактор Financial Times обнаружил , что письмо Бостромы «иногда сворачивает в непрозрачный языке , который предает его происхождение в качестве профессора философии» , но убедительно свидетельствует о том , что риск от суперинтеллекта достаточно велико , что общество должно начать думать сейчас о путях наделяют будущий интеллект машины с положительными значениями. Обзор в The Guardian отметил, что «даже самые сложные машины , созданные до сих пор разумны лишь в ограниченном смысле» , и что «ожидания , что ИИ вскоре обогнать интеллект человека впервые были пунктирная в 1960 - е годы», но находит общий язык с Бостромом в консультировании , что «один будет опрометчивым отклонить возможность вообще».

Некоторые из коллег Бострем говорят о том , что ядерная война представляет собой большую угрозу для человечества , чем суперинтеллекта, как это делает будущую перспективу военного применения нанотехнологий и биотехнологий . Экономист заявил , что «Bostrom вынужден проводить большую часть книги обсуждают домыслы , построенные на правдоподобную гипотезу ... но книга тем не менее ценная. Последствия введения второго разумных видов на Землю далеко идущие достаточно , чтобы заслужить призадуматься, даже если перспектива на самом деле сделать это кажется отдаленной «. Рональд Бейли пишет в либертарианской Причине , что Бостром делает сильный случай , что решение задачи управления AI является «важной задачей нашего времени». По словам Тома Chivers из The Daily Telegraph , книга трудно читать, но , тем не менее полезно.

Рекомендации