Искусственное сознание - Artificial consciousness

Искусственное сознание ( AC ), также известное как машинное сознание ( MC ) или синтетическое сознание ( Gamez 2008 ; Reggia 2013 ), - это область, связанная с искусственным интеллектом и когнитивной робототехникой . Цель теории искусственного сознания состоит в том, чтобы «определить то, что нужно было бы синтезировать, если бы сознание было найдено в искусственно созданном артефакте» ( Александр, 1995 ).

Нейробиология предполагает, что сознание генерируется взаимодействием различных частей мозга , называемых нейронными коррелятами сознания или NCC, хотя с этой точки зрения есть проблемы. Сторонники AC полагают, что можно построить системы (например, компьютерные системы), которые могут имитировать это взаимодействие NCC.

Концепции искусственного сознания также рассматриваются в философии искусственного интеллекта через вопросы о разуме, сознании и ментальных состояниях .

Философские взгляды

Поскольку существует множество предполагаемых типов сознания , существует множество потенциальных реализаций искусственного сознания. В философской литературе, возможно, наиболее распространена таксономия сознания на «доступный» и «феноменальный» варианты. Сознание доступа касается тех аспектов опыта, которые могут быть постигнуты, тогда как феноменальное сознание касается тех аспектов опыта, которые, казалось бы, не могут быть постигнуты, вместо этого качественно характеризуясь в терминах «сырых ощущений», «каково это» или квалиа ( Block 1997 ). .

Дискуссия о правдоподобности

Теоретики типовой идентичности и другие скептики придерживаются точки зрения, что сознание может быть реализовано только в определенных физических системах, потому что сознание обладает свойствами, которые обязательно зависят от физического строения ( Block 1978 ; Bickle 2003 ).

В своей статье «Искусственное сознание: утопия или реальная возможность» Джорджио Бутаццо говорит, что распространенное возражение против искусственного сознания состоит в том, что «работая в полностью автоматическом режиме, они [компьютеры] не могут проявлять творческий потенциал, неперепрограммирование (что означает, что они больше не могут быть перепрограммированы, переосмысливая), эмоции или свободную волю . Компьютер, как и стиральная машина, является рабом, управляемым его компонентами ».

Для других теоретиков (например, функционалистов ), которые определяют ментальные состояния в терминах причинных ролей, любая система, которая может создавать один и тот же паттерн причинных ролей, независимо от физического строения, будет создавать экземпляры тех же ментальных состояний, включая сознание ( Putnam 1967 ).

Аргумент вычислительного фонда

Один из наиболее явных аргументов в пользу правдоподобия AC исходит от Дэвида Чалмерса . Его предложение, изложенное в его статье Chalmers 2011 , примерно состоит в том, что правильных вычислений достаточно для обладания сознательным разумом. В общих чертах он защищает свое утверждение следующим образом: Компьютеры выполняют вычисления. Вычисления могут уловить абстрактную причинную организацию других систем.

Самая спорная часть предложения Чалмерса состоит в том, что ментальные свойства «организационно инвариантны». Психические свойства бывают двух видов: психологические и феноменологические. Психологические свойства, такие как убеждение и восприятие, «характеризуются их причинной ролью». Он ссылается на работы Армстронга 1968 и Льюиса 1972, утверждая, что «системы с одинаковой причинной топологией ... будут разделять свои психологические свойства».

Феноменологические свойства не поддаются определению prima facie в терминах их причинных ролей. Следовательно, установление того, что феноменологические свойства поддаются индивидуации посредством причинной роли, требует аргумента. Для этой цели Чалмерс приводит свой аргумент «Танцующий квалиа».

Чалмерс начинает с предположения, что агенты с одинаковыми причинными организациями могут иметь разный опыт. Затем он просит нас представить превращение одного агента в другого путем замены частей (например, нейронные части, замененные кремнием) при сохранении его причинной организации. Ex hypothesi, опыт трансформируемого агента изменился бы (по мере замены частей), но не было бы никаких изменений в каузальной топологии и, следовательно, не было бы средств, с помощью которых агент мог бы «заметить» сдвиг в опыте.

Критики AC возражают против того, что Чалмерс задается вопросом, предполагая, что все ментальные свойства и внешние связи в достаточной степени охвачены абстрактной причинной организацией.

Этика

Если бы возникло подозрение, что конкретная машина находится в сознании, ее права были бы этическим вопросом, который необходимо было бы оценить (например, какие права она будет иметь по закону). Например, сознательный компьютер, который принадлежал и использовался в качестве инструмента или центрального компьютера для создания более крупной машины, представляет собой особую двусмысленность. Следует ли принимать законы для такого случая? Сознание также потребует юридического определения в данном конкретном случае. Поскольку искусственное сознание по-прежнему в значительной степени является теоретическим предметом, такая этика не обсуждалась и не разрабатывалась в значительной степени, хотя она часто была темой в художественной литературе (см. Ниже).

В 2021 году немецкий философ Томас Метцингер потребовал глобального моратория на синтетическую феноменологию до 2050 года по этическим соображениям.

В правилах конкурса на Премию Лебнера 2003 года прямо затрагивался вопрос о правах роботов:

61. Если в любом конкретном году общедоступная заявка с открытым исходным кодом, поданная Университетом Суррея или Кембриджским центром, получает Серебряную или Золотую медаль, то медаль и денежная премия будут вручены органу, ответственному за развитие этой записи. Если такой орган не может быть идентифицирован, или если есть разногласия между двумя или более заявителями, Медаль и Денежное вознаграждение будут храниться в доверительном управлении до тех пор, пока Заявка не сможет законно владеть, либо в Соединенных Штатах Америки, либо в место проведения конкурса, Денежная премия и Золотая медаль .

Предложения по исследованиям и внедрению

Аспекты сознания

Существуют различные аспекты сознания, которые обычно считаются необходимыми для искусственного сознания машины. Различные функции, в которых играет роль сознание, были предложены Бернардом Баарсом ( Baars 1988 ) и другими. Функции сознания, предложенные Бернардом Баарсом, - это определение и установка контекста, адаптация и обучение, редактирование, отметка и отладка, набор и контроль, определение приоритетов и контроль доступа, принятие решений или исполнительная функция, функция формирования аналогии, метакогнитивная и самовоспроизводящаяся функция. Функция мониторинга, а также функция автопрограммирования и самообслуживания. Игорь Александр предложил 12 принципов искусственного сознания ( Александр, 1995 ), а именно: мозг - это государственная машина, разделение внутренних нейронов, сознательные и бессознательные состояния, перцептивное обучение и память, прогнозирование, самосознание, представление смысла, обучающие высказывания. , Изучение языка, воли, инстинкта и эмоций. Целью AC является определение того, могут ли и как эти и другие аспекты сознания быть синтезированы в созданном артефакте, таком как цифровой компьютер. Этот список не является исчерпывающим; есть много других, не охваченных.

Осведомленность

Осведомленность может быть одним из необходимых аспектов, но есть много проблем с точным определением осведомленности . Результаты экспериментов по нейросканированию на обезьянах позволяют предположить, что нейроны активируются не только состоянием или объектом, но и процессом. Осведомленность включает создание и тестирование альтернативных моделей каждого процесса на основе информации, полученной через органы чувств или воображаемой, а также полезной для прогнозирования. Такое моделирование требует большой гибкости. Создание такой модели включает моделирование физического мира, моделирование собственных внутренних состояний и процессов, а также моделирование других сознательных сущностей.

Существует по крайней мере три типа осведомленности: осведомленность агентства, осведомленность о цели и сенсомоторная осведомленность, которая также может быть осознанной или нет. Например, в осознании агентства вы можете осознавать, что вчера совершили определенное действие, но сейчас не осознаете этого. Осознавая цель, вы можете осознавать, что должны искать потерянный объект, но сейчас не осознаёте этого. В сенсомоторном осознавании вы можете осознавать, что ваша рука опирается на объект, но теперь не осознаёте этого.

Эл Берд, автор книги «Сверхчеловеческие создатели», определяет сознание для животных, людей и искусственных агентов как эффект интеграции и фильтрации многих различных типов осознания аффорданса; то есть осознание возможностей действий в окружающей среде. Согласно этому определению, все агенты, которые могут воспринимать аффорданс и действовать в соответствии с ними, в той или иной степени сознательны.

Поскольку объекты осознания часто бывают сознательными, различие между осознанием и сознанием часто размывается или они используются как синонимы.

объем памяти

Сознательные события взаимодействуют с системами памяти при обучении, репетиции и поиске. Модель IDA разъясняет роль сознания в обновлении перцептивной памяти, временной эпизодической памяти и процедурной памяти . Преходящие эпизодические и декларативные воспоминания имеют распределенные репрезентации в IDA, есть свидетельства того, что это также имеет место в нервной системе. В IDA эти две памяти реализованы в вычислительном с использованием модифицированной версии Канерв «s разреженных распределенной памятью архитектуры.

Обучение

Обучение также считается необходимым для AC. По словам Бернарда Баарса, сознательный опыт необходим для представления и адаптации к новым и значительным событиям ( Баарс, 1988 ). По Axel Клиреманс и Луис Хименес, обучение определяется как «совокупность филогенетический [ так в оригинале ] продвинутые процессы адаптации , которые критически зависят от усовершенствованной чувствительности к субъективному опыту , с тем чтобы позволить агентам , чтобы получить гибкий контроль над своими действиями в сложных, непредсказуемых средах» ( Клиреманс 2001 ).

Предвкушение

Игорь Александр считает важной для AC способность предсказывать (или предвидеть ) предсказуемые события . Эмерджентистский принцип множественных черновиков, предложенный Дэниелом Деннетом в книге «Объяснение сознания», может быть полезен для прогнозирования: он включает в себя оценку и выбор наиболее подходящего «черновика», подходящего для текущей среды. Предвидение включает в себя предсказание последствий собственных предлагаемых действий и предсказание последствий возможных действий других субъектов.

Отношения между состояниями реального мира отражаются в структуре состояний сознательного организма, позволяя организму предсказывать события. Машина с искусственным сознанием должна быть способна правильно предвидеть события, чтобы быть готовой реагировать на них, когда они происходят, или предпринимать упреждающие действия для предотвращения ожидаемых событий. Подразумевается, что машине нужны гибкие компоненты, работающие в реальном времени, которые строят пространственные, динамические, статистические, функциональные и причинно-следственные модели реального мира и предсказанных миров, что позволяет продемонстрировать, что она обладает искусственным сознанием в настоящем. и будущее и не только в прошлом. Для этого сознательная машина должна делать последовательные прогнозы и планы действий в непредвиденных обстоятельствах не только в мирах с фиксированными правилами, такими как шахматная доска, но и в новых средах, которые могут измениться, чтобы выполняться только тогда, когда это уместно для имитации и управления реальным. Мир.

Субъективный опыт

Субъективные переживания или квалия широко считается трудной проблемой сознания . Действительно, считается, что это бросает вызов физикализму , не говоря уже о вычислительном подходе . С другой стороны, есть проблемы в других областях науки, которые ограничивают то, что мы можем наблюдать, например, принцип неопределенности в физике, который не делал исследования в этих областях науки невозможными.

Роль когнитивных архитектур

Термин «когнитивная архитектура» может относиться к теории о структуре человеческого разума или любой его части или функции, включая сознание. В другом контексте когнитивная архитектура реализует теорию на компьютерах. Примером может служить QuBIC: Quantum and Bio-вдохновленная когнитивная архитектура для машинного сознания . Одна из основных целей когнитивной архитектуры - обобщить различные результаты когнитивной психологии в комплексной компьютерной модели. Однако результаты должны быть в формализованном виде, чтобы они могли быть основой компьютерной программы. Кроме того, роль когнитивной архитектуры заключается в том, чтобы ИИ четко структурировал, строил и реализовывал свой мыслительный процесс.

Символические или гибридные предложения

Интеллектуальный агент распределения Франклина

Стэн Франклин (1995, 2003) определяет автономный агент как обладающие функциональное сознание , когда она способна несколько функций сознания, определенная Бернард Баарс " теория глобальной рабочего пространства (Баарс  1988 , 1997 ). Его дочерний мозг IDA (Intelligent Distribution Agent) представляет собой программную реализацию GWT, которая по определению делает его функционально осознанным. Задача IDA состоит в том, чтобы согласовать новые назначения для моряков в ВМС США после того, как они закончат службу, согласовывая навыки и предпочтения каждого человека с потребностями ВМФ. IDA взаимодействует с базами данных ВМФ и общается с моряками через диалоги электронной почты на естественном языке, соблюдая при этом большой набор политик ВМФ. Вычислительная модель IDA была разработана в 1996–2001 годах в исследовательской группе «Сознательного» программного обеспечения Стэна Франклина в Университете Мемфиса . Он «состоит примерно из четверти миллиона строк кода Java и почти полностью потребляет ресурсы высокопроизводительной рабочей станции 2001 года». Он в значительной степени полагается на кодлеты , которые представляют собой «специальные, относительно независимые мини-агенты, которые обычно реализуются как небольшой фрагмент кода, работающий как отдельный поток». В нисходящей архитектуре IDA явным образом моделируются высокоуровневые когнитивные функции (подробности см. В Franklin 1995 и Franklin 2003 ). Хотя IDA по определению функционально сознательна, Франклин «не приписывает феноменальное сознание своему собственному« сознательному »программному агенту, IDA, несмотря на ее многочисленные человеческие поступки. И это несмотря на то, что некоторые детали ВМС США неоднократно кивали головами, говоря: «Да, вот как я это делаю», наблюдая за внутренними и внешними действиями IDA, когда она выполняет свою задачу ». IDA была расширена до LIDA (Learning Intelligent Distribution Agent).

Когнитивная архитектура Рона Сана CLARION

CLARION предлагает двухуровневое представление, объясняющее различие между сознательными и бессознательными ментальными процессами.

CLARION успешно учитывает множество психологических данных. С помощью CLARION смоделирован ряд хорошо известных задач по обучению навыкам, которые охватывают весь спектр от простых реактивных навыков до сложных когнитивных навыков. Задачи включают в себя задачи последовательного времени реакции (SRT), задачи искусственного обучения грамматике (AGL), задачи управления процессом (ПК), задачу категориального вывода (CI), задачу алфавитной арифметики (AA) и Ханойскую башню (TOH). задача ( вс, 2002 ) . Среди них SRT, AGL и PC являются типичными неявными обучающими задачами, очень важными для проблемы сознания, поскольку они операционализировали понятие сознания в контексте психологических экспериментов.

OpenCog Бена Гертцеля

Бен Гертцель добивается воплощенного AGI через проект OpenCog с открытым исходным кодом . Текущий код включает в себя воплощенных виртуальных питомцев, способных изучать простые команды на английском языке, а также интеграцию с реальной робототехникой, которая выполняется в Гонконгском политехническом университете .

Предложения коннекционистов

Когнитивная архитектура Хайконена

Пентти Хайконен (2003) считает классические вычисления, основанные на правилах, неадекватными для достижения AC: «Мозг определенно не компьютер. Мышление - это не выполнение запрограммированных строк команд. Мозг также не является числовым калькулятором. числа ". Вместо того, чтобы пытаться достичь разума и сознания путем выявления и реализации лежащих в их основе вычислительных правил, Хайконен предлагает «особую когнитивную архитектуру для воспроизведения процессов восприятия , внутренних образов , внутренней речи , боли , удовольствия , эмоций и лежащих в их основе когнитивных функций. восходящая архитектура будет производить функции более высокого уровня за счет мощности элементарных процессоров, искусственных нейронов , без алгоритмов или программ ». Хайконен считает, что при реализации с достаточной сложностью эта архитектура разовьет сознание, которое он считает «стилем и способом работы, характеризующимся распределенным представлением сигналов, процессом восприятия, кросс-модальным отчетом и доступностью для ретроспекции». Хайконен не единственный, кто придерживается этого взгляда на процесс сознания или взгляда, что AC спонтанно возникнет в автономных агентах, которые имеют подходящую нейро-вдохновленную архитектуру сложности; их разделяют многие, например Freeman (1999) и Cotterill (2003) . Несложная реализация архитектуры, предложенной Хайконеном (2003), по сообщениям, не поддерживала AC, но, как и ожидалось, показывала эмоции. См. Doan (2009) для всестороннего введения в когнитивную архитектуру Хайконена. Обновленный отчет об архитектуре Хайконена вместе с кратким изложением его философских взглядов дан в Haikonen (2012) , Haikonen (2019) .

Когнитивная архитектура Шанахана

Мюррей Шанахан описывает когнитивную архитектуру, которая объединяет идею Баарса о глобальном рабочем пространстве с механизмом внутреннего моделирования («воображение») ( Шанахан, 2006 ). Для обсуждения архитектуры Шанахана см. ( Gamez 2008 ) и ( Reggia 2013 ) и главу 20 ( Haikonen 2012 ).

Исследование самосознания Такено

Самосознание роботов исследует Дзюнъити Такено из Университета Мэйдзи в Японии. Такено утверждает, что он разработал робота, способного отличать свое изображение в зеркале от любого другого, имеющего идентичное ему изображение, и это утверждение уже было рассмотрено ( Takeno, Inaba & Suzuki 2005 ). Такено утверждает, что сначала он разработал вычислительный модуль под названием MoNAD, который имеет функцию самосознания, а затем сконструировал систему искусственного сознания, формулируя отношения между эмоциями, чувствами и разумом, соединив модули в иерархию (Игараси, Такено 2007). Такено завершил эксперимент по познанию в зеркальном отражении с помощью робота, оснащенного системой MoNAD. Такено предложил теорию «Я-тело», утверждая, что «люди чувствуют, что их собственное зеркальное отображение ближе к себе, чем реальная часть их самих». Самым важным моментом в развитии искусственного сознания или прояснения человеческого сознания является развитие функции самосознания, и он утверждает, что продемонстрировал физические и математические доказательства этого в своей диссертации. Он также продемонстрировал, что роботы могут изучать эпизоды в памяти, когда эмоции были стимулированы, и использовать этот опыт для выполнения прогнозных действий, чтобы предотвратить повторение неприятных эмоций (Torigoe, Takeno 2009).

Невозможный разум Александра

Игорь Александер , заслуженный профессор инженерии нейронных систем в Имперском колледже , тщательно исследовал искусственные нейронные сети и в своей книге Impossible Minds: My Neurons, My Consciousness утверждает, что принципы создания сознательной машины уже существуют, но потребуется сорок лет, чтобы обучить такую ​​машину пониманию языка . Верно ли это, еще предстоит продемонстрировать, и основной принцип, изложенный в книге «Невозможные разумы», - что мозг является нейронной государственной машиной, - вызывает сомнения.

Парадигма творческой машины Талера

Стивен Талер предложил возможную связь между сознанием и творчеством в своем патенте 1994 года, названном «Устройство для автономного генерирования полезной информации» (DAGUI), или так называемой «Машина творчества», в которой вычислительные критики управляют внедрением синаптического шума. и деградация в нейронные сети, чтобы вызвать ложные воспоминания или конфабуляции, которые можно квалифицировать как потенциальные идеи или стратегии. Он использует эту нейронную архитектуру и методологию для учета субъективного ощущения сознания, утверждая, что подобные нейронные сборки, управляемые шумом, в мозге придают сомнительное значение для общей активности коры. Теория Талера и полученные в результате патенты на машинное сознание были вдохновлены экспериментами, в которых он внутренне разрушал обученные нейронные сети, чтобы запустить последовательность нейронных паттернов активации, которые он сравнил с потоком сознания.

Схема внимания Майкла Грациано

В 2011 году Майкл Грациано и Сабина Кастлер опубликовали статью «Человеческое сознание и его связь с социальной нейробиологией: новая гипотеза», в которой предлагали теорию сознания в качестве схемы внимания. Грациано опубликовал развернутое обсуждение этой теории в своей книге «Сознание и социальный мозг». Эта теория сознания схемы внимания, как он ее назвал, предполагает, что мозг отслеживает внимание к различным сенсорным входам посредством схемы внимания, аналогичной хорошо изученной схеме тела, которая отслеживает пространственное положение тела человека. Это относится к искусственному сознанию, предлагая особый механизм обработки информации, который производит то, что мы якобы переживаем и называем сознанием, и которое должно быть в состоянии скопировать с помощью машины, использующей современные технологии. Когда мозг обнаруживает, что человек X осведомлен о вещи Y, он фактически моделирует состояние, в котором человек X применяет усиление внимания к Y. В теории схемы внимания тот же процесс может быть применен к самому себе. Мозг отслеживает внимание к различным сенсорным входам, а собственное осознание является схематической моделью внимания. Грациано предлагает определенные места в мозге для этого процесса и предполагает, что такое осознание является вычисляемой функцией, созданной экспертной системой в мозгу.

«Самомоделирование»

Ход Липсон определяет «самомоделирование» как необходимый компонент самосознания или самосознания роботов. «Самомоделирование» состоит из робота, запускающего внутреннюю модель или симуляцию самого себя .

Тестирование

Самый известный метод тестирования машинного интеллекта - это тест Тьюринга . Но когда этот тест интерпретируется только как наблюдательный, он противоречит философским научным принципам теории зависимости наблюдений . Также предлагалось серьезно отнестись к рекомендации Алана Тьюринга имитировать не сознание взрослого человека, а сознание ребенка.

Другие тесты, такие как ConsScale , проверяют наличие функций, вдохновленных биологическими системами, или измеряют когнитивное развитие искусственных систем.

Qualia, или феноменологическое сознание, по своей сути является феноменом от первого лица. Хотя различные системы могут отображать различные признаки поведения, связанные с функциональным сознанием, невозможно представить себе способ, которым тесты от третьего лица могут иметь доступ к феноменологическим особенностям от первого лица. Из-за этого, а также из-за отсутствия эмпирического определения сознания, проверка наличия сознания в AC может быть невозможна.

В 2014 году Виктор Аргонов предложил не-Тьюринговский тест для машинного сознания, основанный на способности машины производить философские суждения. Он утверждает, что детерминированная машина должна рассматриваться как сознательная, если она способна выносить суждения обо всех проблемных свойствах сознания (таких как квалиа или связывание), не имея врожденных (предварительно загруженных) философских знаний по этим вопросам, никаких философских дискуссий во время обучения и никаких информационных моделей других существ в его памяти (такие модели могут неявно или явно содержать знания о сознании этих существ). Однако этот тест можно использовать только для обнаружения, но не для опровержения существования сознания. Положительный результат доказывает, что машина сознательна, а отрицательный результат ничего не доказывает. Например, отсутствие философских суждений может быть вызвано отсутствием интеллекта машины, а не отсутствием сознания.

В фантастике

Персонажи с искусственным сознанием (или, по крайней мере, с личностями, которые подразумевают, что у них есть сознание) из художественных произведений:

Смотрите также

использованная литература

Цитаты

Библиография

дальнейшее чтение

  • Баарс, Бернард; Франклин, Стэн (2003). «Как взаимодействуют сознательный опыт и рабочая память» (PDF) . Тенденции в когнитивных науках . 7 (4): 166–172. DOI : 10.1016 / s1364-6613 (03) 00056-1 . PMID  12691765 . S2CID  14185056 .
  • Касти, Джон Л. "Кембриджский квинтет: работа научных размышлений", Perseus Books Group, 1998
  • Франклин, С., Би Джей Баарс, У Рамамурти и Мэтью Вентура. 2005. Роль сознания в памяти . Мозг, разум и медиа 1: 1–38, pdf.
  • Хайконен, Пентти (2004), « Сознательные машины и машинные эмоции» , представленный на семинаре по моделям машинного сознания, Антверпен, Бельгия, июнь 2004 г.
  • Маккарти, Джон (1971–1987), Универсальность в искусственном интеллекте . Стэнфордский университет, 1971–1987 годы.
  • Пенроуз, Роджер, Новый разум императора , 1989.
  • Штернберг, Элиэзер Дж. (2007) Вы машина ?: Мозг, разум и что значит быть человеком. Амхерст, Нью-Йорк: Книги Прометея.
  • Судзуки Т., Инаба К., Такено, Джуничи (2005), Сознательный робот, который различает себя и других и реализует имитационное поведение , ( Лучшая статья МЭА / AIE2005 ), Инновации в прикладном искусственном интеллекте, 18-я Международная конференция по промышленности и инженерии Приложения искусственного интеллекта и экспертных систем, стр. 101–110, IEA / AIE 2005, Бари, Италия, 22–24 июня 2005 г.
  • Такено, Дзюнъити (2006), Self-Aware Робот - A Ответ Реакция на Discovery Новости- , HRI Press, август 2006 года.
  • Загал, Дж. К., Липсон, Х. (2009) « Саморефлексия в эволюционной робототехнике », Труды конференции по генетическим и эволюционным вычислениям, стр. 2179–2188, GECCO 2009.

внешние ссылки