Сверхразум - Superintelligence

Суперинтеллект гипотетический агент , который обладает интеллектом намного превосходящим , что из самых ярких и самых одаренных умов человека. «Суперинтеллект» может также относиться к свойству систем решения проблем (например, сверхразумных переводчиков или инженеров), независимо от того, воплощены ли эти интеллектуальные компетенции высокого уровня в агентах, действующих в мире. Сверхразум может быть создан или не создан взрывом интеллекта и связан с технологической сингулярностью .

Философ из Оксфордского университета Ник Бостром определяет суперинтеллект как «любой интеллект, который значительно превосходит когнитивные способности человека практически во всех областях, представляющих интерес». Программа Фриц не обладает суперинтеллектом - хотя он намного лучше людей в шахматах - потому что Фриц не может превзойти людей в других задачах. После HUTTER и Legg, Бозотрет лечит суперинтеллекта как общее доминирование на целенаправленное поведении, оставляя открытым ли искусственный или человек суперинтеллект обладал бы возможностями , такими как интенциональности (сравните китайскую комнату аргумента) или первое лицо сознания ( ср с трудной проблемой сознания ).

Исследователи-технологи расходятся во мнениях относительно того, насколько вероятно превзойти современный человеческий интеллект . Некоторые утверждают, что успехи в области искусственного интеллекта (ИИ), вероятно, приведут к созданию систем общего мышления, в которых отсутствуют когнитивные ограничения человека. Другие считают, что люди будут развиваться или напрямую изменять свою биологию, чтобы достичь радикально большего интеллекта. Ряд сценариев исследования будущего объединяют элементы обеих этих возможностей, предполагая, что люди, вероятно, будут взаимодействовать с компьютерами или загружать свои мысли в компьютеры таким образом, чтобы обеспечить существенное усиление интеллекта.

Некоторые исследователи полагают, что суперинтеллект, скорее всего, появится вскоре после разработки общего искусственного интеллекта . Первые в целом разумные машины, вероятно, сразу же будут обладать огромным преимуществом по крайней мере в некоторых формах умственных способностей, включая способность совершенного вспоминания , значительно превосходящую базу знаний и способность выполнять многозадачность способами, недоступными для биологических сущностей. Это может дать им возможность - либо как отдельное существо, либо как новый вид - стать намного более могущественными, чем люди, и вытеснить их.

Ряд ученых и прогнозистов выступают за то, чтобы в первую очередь исследовать возможные преимущества и риски улучшения когнитивных функций человека и машины из-за потенциального социального воздействия таких технологий.

Возможность искусственного суперинтеллекта

Прогресс в машинной классификации изображений
Уровень ошибок ИИ по годам. Красная линия - частота ошибок обученного человека.

Философ Дэвид Чалмерс утверждает, что общий искусственный интеллект - очень вероятный путь к сверхчеловеческому интеллекту. Чалмерс разбивает это утверждение на аргумент, что ИИ может достичь эквивалента человеческого интеллекта, что его можно расширить, чтобы превзойти человеческий интеллект, и что его можно еще больше усилить, чтобы полностью доминировать над людьми в произвольных задачах.

Что касается эквивалентности на человеческом уровне, Чалмерс утверждает, что человеческий мозг - это механическая система, и поэтому его следует эмулировать с помощью синтетических материалов. Он также отмечает, что человеческий интеллект смог эволюционировать биологически, что повысило вероятность того, что инженеры-люди смогут повторить это изобретение. В частности, эволюционные алгоритмы должны уметь создавать ИИ человеческого уровня. Что касается расширения и усиления интеллекта, Чалмерс утверждает, что новые технологии искусственного интеллекта, как правило, можно улучшить, и что это особенно вероятно, когда изобретение может помочь в разработке новых технологий.

Если бы исследования сильного ИИ позволили создать достаточно интеллектуальное программное обеспечение, оно могло бы перепрограммироваться и улучшать себя - функция, называемая «рекурсивное самосовершенствование». Тогда он мог бы даже лучше совершенствоваться и мог бы продолжать делать это в быстро растущем цикле, что привело бы к сверхразуму. Этот сценарий известен как интеллектуальный взрыв . Такой разум не будет иметь ограничений человеческого интеллекта и может изобрести или открыть практически все, что угодно.

Компоненты компьютеров уже значительно превосходят по скорости человеческие возможности. Бостром пишет: «Биологические нейроны работают с максимальной скоростью около 200 Гц, что на целых семь порядков медленнее, чем современный микропроцессор (~ 2 ГГц)». Более того, нейроны передают спайковые сигналы через аксоны со скоростью не более 120 м / с, «тогда как существующие ядра электронной обработки могут оптически общаться со скоростью света». Таким образом, простейшим примером суперинтеллекта может быть эмулированный человеческий разум, работающий на гораздо более быстром оборудовании, чем мозг. Человекоподобный рассуждающий, который может мыслить в миллионы раз быстрее, чем современные люди, будет иметь доминирующее преимущество в большинстве задач по рассуждению, особенно в тех, которые требуют поспешности или длинных цепочек действий.

Еще одно преимущество компьютеров - модульность, то есть их размер или вычислительная мощность могут быть увеличены. Нечеловеческий (или модифицированный человеческий) мозг может стать намного больше современного человеческого мозга, как и многие суперкомпьютеры . Бостром также поднимает возможность коллективного суперинтеллекта : достаточно большое количество отдельных систем рассуждений, если они достаточно хорошо взаимодействуют и координируются, могут действовать в совокупности с гораздо большими возможностями, чем любой субагент.

Также могут быть способы качественно улучшить человеческое мышление и процесс принятия решений. Кажется, что люди больше отличаются от шимпанзе по способу мышления, чем по размеру мозга или скорости. Люди превосходят животных, не являющихся людьми, во многом благодаря новым или улучшенным способностям к рассуждению, таким как долгосрочное планирование и использование языка . (См. Эволюцию человеческого интеллекта и познания приматов .) Если есть другие возможные усовершенствования рассуждений, которые окажут такое же большое влияние, это повысит вероятность создания агента, который превосходит людей так же, как люди превосходят шимпанзе.

Все вышеперечисленные преимущества справедливы для искусственного суперинтеллекта, но неясно, сколько из них справедливо для биологического суперинтеллекта. Физиологические ограничения ограничивают скорость и размер биологического мозга во многих отношениях, которые неприменимы к машинному интеллекту. Таким образом, писатели о суперинтеллекте уделили гораздо больше внимания сценариям сверхразумного ИИ.

Возможности биологического суперинтеллекта

Эволюция скорости реакции в ноогенезе . В одноклеточном организме - скорость движения ионов через мембрану ~ м / с, воды через мембрану м / с, внутриклеточной жидкости (цитоплазмы) м / с; Внутри многоклеточного организма - скорость крови по сосудам ~ 0,05 м / с, импульс по нервным волокнам ~ 100 м / с; У населения ( человечества ) - коммуникации: звук (голос и аудио) ~ 300 м / с, квантово-электронный ~ м / с (скорость радиоэлектромагнитных волн, электрического тока, света, оптики, телекоммуникаций).
Эволюция количества компонентов в интеллектуальных системах. - число нейронов в головном мозге во время индивидуального развития ( онтогенеза ), B - число людей , ( эволюции в популяции человечества), C - число нейронов в нервной системе организмов в процессе эволюции ( филогенеза ).
Эволюция количества подключений интеллектуальных систем. A - количество синапсов между нейронами в процессе индивидуального развития (онтогенеза) интеллектуальной системы человеческого мозга, B - количество связей между людьми в динамике роста популяции человека, C - количество синапсов между нейронами в историческом эволюционном развитии. (филогенез) нервной системы в мозг человека.
Возникновение и эволюция информационных взаимодействий внутри популяций Человечества A - человеческое население мира → 7 миллиардов; Б - количество грамотных ; C - количество прочитанных книг (с началом печати ); D - количество приемников (радио, ТВ); E - количество телефонов, компьютеров, интернет-пользователей

Карл Саган предположил, что появление кесарева сечения и экстракорпорального оплодотворения может позволить людям развить более крупные головы, что приведет к улучшениям посредством естественного отбора в наследуемом компоненте человеческого интеллекта . Напротив, Джеральд Крэбтри утверждал, что снижение давления отбора приводит к медленному, многовековому снижению человеческого интеллекта , и что этот процесс, скорее всего, будет продолжаться и в будущем. Нет научного консенсуса относительно любой возможности, и в обоих случаях биологические изменения будут медленными, особенно относительно темпов культурных изменений.

Селективное разведение , ноотропы , NSI-189 , MAOI , эпигенетическая модуляция и генная инженерия могут быстрее улучшить человеческий интеллект. Бостром пишет, что если мы придем к пониманию генетического компонента интеллекта, предимплантационная генетическая диагностика может быть использована для отбора эмбрионов с повышением IQ до 4 баллов (если один эмбрион выбран из двух) или с большим приростом. (например, до 24,3 балла IQ получено, если один эмбрион выбран из 1000). Если этот процесс повторяется на протяжении многих поколений, выигрыш может быть на порядок больше. Бостром предполагает, что получение новых гамет из эмбриональных стволовых клеток может быть использовано для очень быстрой итерации процесса отбора. Хорошо организованное общество таких людей с высоким интеллектом потенциально могло бы достичь коллективного суперинтеллекта.

В качестве альтернативы коллективный разум можно создать, лучше организовав людей на нынешнем уровне индивидуального интеллекта. Ряд авторов предположили, что человеческая цивилизация или некоторые ее аспекты (например, Интернет или экономика) начинают функционировать как глобальный мозг с возможностями, намного превышающими его составляющие агенты. Однако, если этот системный суперинтеллект в значительной степени полагается на искусственные компоненты, его можно квалифицировать как ИИ, а не как суперорганизм, основанный на биологии . Рынок предсказания иногда рассматриваются как пример работы системы коллективной разведки, состоящая только из людей (предполагающие алгоритмы не используются для обоснования решений).

Последним методом усиления интеллекта будет прямое улучшение отдельных людей, а не улучшение их социальной или репродуктивной динамики. Этого можно добиться с помощью ноотропов , соматической генной терапии или интерфейсов мозг-компьютер . Однако Бостром скептически относится к масштабируемости первых двух подходов и утверждает, что создание сверхразумного интерфейса киборга - это проблема, связанная с искусственным интеллектом .

Эволюция с возможной интеграцией NI, IT и AI

В 2005 году Алексей Ерёмин в монографии «Ноогенез и теория интеллекта» предложил новую концепцию ноогенеза в понимании эволюции интеллектуальных систем. Эволюция интеллектуальных способностей может происходить при одновременном участии естественного (биологического) интеллекта (НИ), современных достижений в области информационных технологий (ИТ) и будущих научных достижений в области искусственного интеллекта (ИИ).

Эволюция скорости взаимодействия между компонентами интеллектуальных систем

Первым человеком, измерившим скорость (в диапазоне от 24,6 до 38,4 метра в секунду), с которой сигнал проходит по нервному волокну в 1849 году, был Гельмгольц . На сегодняшний день измеренные скорости нервной проводимости составляют 0,5 - 120 м / с. Скорость звука и скорость света были определены ранее в XVII веке. К 21 веку стало ясно, что они определяют в основном скорости физических носителей сигналов-информации, между интеллектуальными системами и их компонентами: звук (голос и звук) ~ 300 м / с, квантово-электронный ~ м / с (скорость радиоэлектромагнитных волн, электрического тока, световых, оптических, телекоммуникационных).

Эволюция компонентов интеллектуальных систем

В 1906 году Сантьяго Рамон-и-Кахаль обратил внимание ученых на центральное значение нейрона и установил доктрину нейронов, согласно которой нервная система состоит из отдельных отдельных клеток. По современным данным, в мозгу взрослого человека насчитывается около 86 миллиардов нейронов.

Эволюция связей между компонентами интеллектуальных систем

Синапс - от греческого синапсиса (συνάψις), что означает «соединение», в свою очередь от συνάπτεὶν (συν («вместе») и ἅπτειν («закреплять»)) - был введен в 1897 году Чарльзом Шеррингтоном . Актуальность измерений в этом направлении подтверждается как современными комплексными исследованиями сотрудничества, так и связями информационных, генетических и культурных, обусловленных структурами на нейронном уровне мозга, и важностью сотрудничества в развитии цивилизации. В связи с этим А.Л. Ерёмин проанализировал известные данные об эволюции количества связей для взаимодействия в интеллектуальных системах. Связи, контакты между биологическими объектами, можно считать появившимися в многоклеточности ~ 3–3,5 миллиарда лет назад. Система высокоскоростных соединений специализированных клеток, передающих информацию с помощью электрических сигналов, нервная система, за всю историю жизни появилась только в одной крупной эволюционной ветви: у многоклеточных животных ( Metazoa ) и появилась в эдиакарский период (около 635 г. -542 миллиона лет назад). В ходе эволюции (филогении) количество связей между нейронами увеличилось с одного до ~ 7000 синоптических связей каждого нейрона с другими нейронами в мозгу человека. Было подсчитано, что мозг трехлетнего ребенка имеет примерно 1 квадриллион синапсов. В индивидуальном развитии (онтогенезе) количество синапсов с возрастом уменьшается до ~ . По другим данным, расчетное количество неокортикальных синапсов в мужском и женском мозге уменьшается в течение жизни человека с ~ до ~ .

Количество человеческих контактов трудно подсчитать, но « число Данбара » ~ 150 устойчивых человеческих связей с другими людьми зафиксировано в науке, предполагаемый когнитивный предел количества людей, с которыми возможно поддерживать стабильные социальные отношения, согласно другим авторам - диапазон 100–290. В мозгу были выявлены структуры, отвечающие за социальное взаимодействие. С появлением Homo sapiens ~ 50-300 тысяч лет назад актуальность сотрудничества, его эволюция в человеческой популяции возросла количественно. Если 2000 лет назад на Земле было 0,1 миллиарда человек, 100 лет назад - 1 миллиард, к середине ХХ века - 3 миллиарда, а сейчас человечество - 7,7 миллиарда. Таким образом, общее количество «устойчивых связей» между людьми, социальных отношений внутри населения можно оценить числом ~ ».

Ноометрия интеллектуального взаимодействия
Параметр Результаты измерений
(пределы)
Количество компонентов
интеллектуальных систем
~ -
Количество связей между
компонентами
~ -
Скорость взаимодействия между
компонентами (м / с)
~ -

Прогнозы

Большинство опрошенных исследователей ИИ ожидают, что машины в конечном итоге смогут соперничать с людьми по уровню интеллекта, хотя нет единого мнения о том, когда это, вероятно, произойдет. На конференции AI @ 50 2006 года 18% участников сообщили, что ожидают, что к 2056 году машины смогут «моделировать обучение и все другие аспекты человеческого интеллекта»; 41% участников ожидали, что это произойдет где-то после 2056 года; и 41% ожидали, что машины никогда не достигнут этого рубежа.

В опросе 100 наиболее цитируемых авторов в области ИИ (по состоянию на май 2013 г., согласно академическому поиску Microsoft), средний год, к которому респонденты ожидали, что машины «могут выполнять большинство человеческих профессий не хуже, чем обычный человек» ( при условии, что глобальная катастрофа не произойдет) с достоверностью 10% составляет 2024 год (среднее значение 2034 г., среднее отклонение 33 года), с достоверностью 50% - 2050 год (среднее значение 2072 г., среднее отклонение 110 лет), а с достоверностью 90% - 2070 ( среднее 2168, ст. дев. 342 года). Эти оценки исключают 1,2% респондентов, которые сказали, что ни один год никогда не достигнет 10% уверенности, 4,1%, которые сказали «никогда» для 50% уверенности, и 16,5%, которые сказали «никогда» для 90% уверенности. Респонденты назвали в среднем 50% вероятности того, что машинный суперинтеллект будет изобретен в течение 30 лет после изобретения машинного интеллекта примерно человеческого уровня.

Соображения по дизайну

Бостром выразил озабоченность по поводу того, какие ценности должен иметь суперинтеллект. Он сравнил несколько предложений:

Бостром разъясняет эти термины:

вместо того, чтобы реализовать согласованное экстраполированное волеизъявление человечества, можно попытаться создать ИИ с целью делать то, что морально правильно, полагаясь на превосходные когнитивные способности ИИ, чтобы выяснить, какие действия соответствуют этому описанию. Мы можем назвать это предложение «моральной справедливостью» (MR)  ... MR также, похоже, имеет некоторые недостатки. Он основан на понятии «морального права», заведомо трудном понятии, с которым философы боролись с древних времен, но еще не достигли консенсуса в отношении его анализа. Выбор ошибочного объяснения «моральной справедливости» может привести к результатам, которые были бы очень неправильными с моральной точки  зрения ... Путь к наделению ИИ любой из этих [моральных] концепций может включать в себя наделение его общими языковыми способностями (сравнимыми, по крайней мере, с что у нормального взрослого человека). Такая общая способность понимать естественный язык затем может быть использована для понимания того, что имеется в виду под «моральным правом». Если бы ИИ мог уловить смысл, он мог бы искать действия, которые подходят  ...

Можно попытаться сохранить основную идею модели MR, уменьшив при этом ее требовательность, сосредоточив внимание на моральной допустимости : идея заключается в том, что мы можем позволить ИИ следовать CEV человечества, пока он не будет действовать морально недопустимым образом.

Отвечая Бострому, Сантос-Ланг выразил обеспокоенность тем, что разработчики могут попытаться начать с одного вида сверхразума.

Потенциальная угроза человечеству

Было высказано предположение, что, если системы ИИ быстро станут суперинтеллектуальными, они могут предпринять непредвиденные действия или превзойти человечество. Исследователи утверждали, что в результате "интеллектуального взрыва" самосовершенствующийся ИИ может стать настолько мощным, что его не остановить для людей.

Что касается сценариев вымирания человечества, Бостром (2002) определяет сверхразум как возможную причину:

Когда мы создаем первую сверхразумную сущность, мы можем совершить ошибку и поставить перед ней цели, которые приведут к уничтожению человечества, если предположить, что ее огромное интеллектуальное преимущество дает ей возможность сделать это. Например, мы могли ошибочно повысить подцель до статуса суперцели. Мы говорим ему решить математическую задачу, и он подчиняется, превращая всю материю в солнечной системе в гигантское вычислительное устройство, убивая человека, задавшего вопрос.

Теоретически, поскольку суперинтеллектуальный ИИ способен вызвать практически любой возможный результат и помешать любой попытке помешать реализации его целей, может возникнуть множество неконтролируемых, непредвиденных последствий . Он может убить всех других агентов, убедить их изменить свое поведение или заблокировать их попытки вмешательства. Элиэзер Юдковски иллюстрирует такую инструментальную конвергенцию следующим образом: «ИИ не ненавидит вас и не любит вас, но вы созданы из атомов, которые он может использовать для чего-то еще».

Это представляет собой проблему управления ИИ : как создать интеллектуального агента, который будет помогать своим создателям, избегая при этом непреднамеренного создания сверхразума, который нанесет вред его создателям. Опасность неправильной разработки управления «с первого раза» состоит в том, что сверхразум может захватить власть над окружающей средой и не дать людям выключить ее. Поскольку сверхразумный ИИ, скорее всего, будет иметь способность не бояться смерти и вместо этого будет рассматривать ее как ситуацию, которой можно избежать, которую можно предсказать и избежать, просто отключив кнопку питания. Потенциальные стратегии управления ИИ включают «управление возможностями» (ограничение способности ИИ влиять на мир) и «мотивационный контроль» (создание ИИ, цели которого соответствуют человеческим ценностям).

Билл Хиббард выступает за просвещение общественности по вопросам суперинтеллекта и за общественный контроль над развитием суперинтеллекта.

Смотрите также

Цитаты

Библиография

внешние ссылки