AI @ 50 - AI@50

AI @ 50 , официально известная как « Дартмутская конференция по искусственному интеллекту: следующие пятьдесят лет » (13–15 июля 2006 г.), была конференцией, организованной Джеймсом Муром в ознаменование 50-летия Дартмутского семинара, который фактически открыл историю искусственный интеллект . Присутствовали пять из первых десяти участников: Марвин Мински , Рэй Соломонофф , Оливер Селфридж , Тренчард Мор и Джон Маккарти .

Несмотря на то, что при финансовой поддержке Дартмутского колледжа , General Electric и Фонда Фредерика Уиттемора , Агентство перспективных исследовательских проектов Министерства обороны США (DARPA) предоставило грант в размере 200000 долларов США для отчета о слушаниях, который:

  • Проанализировать прогресс в решении исходных задач ИИ в течение первых 50 лет и оценить, были ли задачи «проще» или «сложнее», чем предполагалось изначально, и почему
  • Задокументируйте, что участники AI @ 50 считают основными проблемами исследований и разработок, стоящими перед этой областью в ближайшие 50 лет, и определите, какие прорывы потребуются для решения этих задач.
  • Свяжите эти проблемы и открытия с разработками и тенденциями в других областях, таких как теория управления, обработка сигналов, теория информации, статистика и теория оптимизации.

Сводный отчет директора конференции Джеймса Мура был опубликован в журнале AI Magazine .

Программа конференции и ссылки на опубликованные статьи

AI: прошлое, настоящее, будущее

Будущая модель мышления

Будущее сетевых моделей

Будущее обучения и поиска

Будущее искусственного интеллекта

Будущее видения

  • Эрик Гримсон , Интеллектуальный анализ медицинских изображений: компьютерная хирургия и мониторинг заболеваний
  • Такео Канаде , «Видение искусственного интеллекта: прогресс и не прогресс»
  • Терри Сейновски , Критика чистого видения

Будущее рассуждений

  • Алан Банди , Построение, выбор и исправление представлений знаний
  • Эдвина Рисланд , Изысканная центральность примеров
  • Барт Селман , Проблема и перспективы автоматизированного мышления

Будущее языка и познания

  • Тренчард Мор Рождение теории массивов и Ниала
  • Евгений Чарняк , Почему обработка естественного языка теперь является статистической обработкой естественного языка
  • Пэт Лэнгли , Интеллектуальное поведение людей и машин

Будущее будущего

AI и игры

Будущее взаимодействие с интеллектуальными машинами

Избранные представленные статьи: будущие стратегии ИИ

Избранные представленные статьи: будущие возможности ИИ

Рекомендации

  1. Перейти ↑ Nilsson, Nils J. (2009). В поисках искусственного интеллекта . Издательство Кембриджского университета. ISBN 978-0-521-12293-1. стр. 80-81
  2. Перейти ↑ Knapp, Susan (2006-07-06). «Дартмут получает грант от DARPA на поддержку конференции AI @ 50» . Управление по связям с общественностью Дартмутского колледжа . Архивировано из оригинала на 2010-06-07 . Проверено 11 июня 2010 .
  3. ^ Мур, Джеймс (2006). «Конференция Дартмутского колледжа по искусственному интеллекту: следующие пятьдесят лет» (PDF) . Журнал AI . 27 (4): 87–91. ISSN  0738-4602 .
  4. Перейти ↑ Knapp, Susan (24.07.2006). «Искусственный интеллект: прошлое, настоящее и будущее» . Голос Дартмута . Проверено 11 июня 2010 .
  5. Рассел, Стюарт (12 июля 2006 г.). «Подход современного ИИ» . Архивировано из оригинального (PPT) 24 марта 2012 года . Проверено 11 июня 2010 .
  6. Перейти ↑ Solomonoff, Ray J. (2006). «Машинное обучение - прошлое и будущее» (PDF) . Проверено 25 июля 2008 .
  7. Перейти ↑ Langley, Pat (2006). «Интеллектуальное поведение людей и машин» (PDF) . Проверено 25 июля 2008 .
  8. Курцвейл, Рэй (14 июля 2006 г.). «Почему мы можем быть уверены в возможности теста Тьюринга в течение четверти века» . Архивировано из оригинального 10 августа 2006 года . Проверено 25 июля 2006 года .
  9. ^ Холл, Дж. Стоорс (2007). «Самосовершенствующийся ИИ: анализ». Умы и машины . 17 (3): 249–259. DOI : 10.1007 / s11023-007-9065-3 . Самосовершенствование было одним из аспектов ИИ, предложенных для изучения на Дартмутской конференции 1956 года. Тьюринг предложил «детскую машину», которую можно было бы обучить по-человечески, чтобы достичь интеллекта взрослого человека. В последнее время утверждение о том, что система ИИ может быть построена так, чтобы бесконечно учиться и совершенствоваться, приобрело ярлык ошибки начальной загрузки. Попытки ИИ реализовать такую ​​систему на протяжении полувека терпели неудачу. Однако технологические оптимисты утверждали, что такая система возможна, создавая, если она будет реализована, петлю обратной связи, которая приведет к быстрому экспоненциальному увеличению интеллекта. Мы исследуем аргументы обеих позиций и сделаем некоторые выводы. Самоархив. Архивировано 15 февраля 2010 г. в Wayback Machine.
  10. ^ Брингсджорда, Selmer (декабрь 2008). «Манифест логика: пусть наконец ИИ, основанный на логике, станет полем самооценки» . Журнал прикладной логики . 6 (4): 502–525. DOI : 10.1016 / j.jal.2008.09.001 . Эта статья является убедительным аргументом в пользу того, что ИИ, основанный на логике, должен стать замкнутой областью, полностью отделенной от парадигм, которые в настоящее время все еще включены в «зонтик» ИИ - таких парадигм, как коннекционизм и непрерывный системный подход. Документ включает в себя автономное резюме основанного на логике ИИ, а также опровержения ряда возражений, которые неизбежно будут выдвинуты против выраженной здесь декларации независимости.Самоархив
  11. Перейти ↑ Müller, Vincent C. (март 2007 г.). «Есть ли будущее у ИИ без репрезентации?». Умы и машины . 17 (1): 101–115. DOI : 10.1007 / s11023-007-9067-1 . В этой статье исследуются перспективы предложения Родни Брукса об искусственном интеллекте без представительства. Оказывается, что якобы характерные черты «нового ИИ» (воплощение, ситуативность, отсутствие рассуждений и отсутствие репрезентации) все присутствуют в обычных системах: «Новый ИИ» подобен старому ИИ. Предложение Брукса сводится к архитектурному отказу от централизованного управления интеллектуальными агентами, что, однако, оказывается решающим. Некоторые из более поздних когнитивных наук предполагают, что мы могли бы поступить правильно, избавившись от образа интеллектуальных агентов как центральных процессоров репрезентации. Если этот сдвиг парадигмы будет достигнут, предложение Брукса о познании без репрезентации окажется многообещающим для полноценных интеллектуальных агентов, хотя и не для сознательных агентов. Самоархив. Архивировано 17 ноября 2009 г. в Wayback Machine.
  12. ^ Thórisson, Kristinn R. (март 2007). «Интегрированные системы ИИ». Умы и машины . 17 (1): 11–25. DOI : 10.1007 / s11023-007-9055-5 . Широкий спектр способностей, проявляемых людьми и животными, достигается за счет большого набора разнородных, тесно интегрированных когнитивных механизмов. Чтобы приблизить искусственные системы к такому универсальному интеллекту, мы не можем избежать репликации некоторого подмножества - вполне возможно, значительной части - этого большого набора. Прогресс в этом направлении требует более серьезного отношения к системной интеграции как к фундаментальной исследовательской проблеме. В этой статье я утверждаю, что интеллект необходимо изучать комплексно. Я представляю ключевые вопросы, которые необходимо решить в области интеграции, и предлагаю решения для ускорения прогресса в направлении более мощных интегрированных систем искусственного интеллекта, включая (а) инструменты для создания больших сложных архитектур, (б) методологию проектирования для построения системы искусственного интеллекта в реальном времени и (c) методы для облегчения совместного использования кода на уровне сообщества.
  13. Стейнхарт, Эрик (октябрь 2007 г.). «Выживание как цифровой призрак». Умы и машины . 17 (3): 261–271. DOI : 10.1007 / s11023-007-9068-0 . Выжить после смерти можно в разного рода артефактах. Вы можете выжить в дневниках, фотографиях, звукозаписях и фильмах. Но эти артефакты фиксируют только поверхностные черты вас самих. Мы уже близки к созданию программ, которые частично и приблизительно воспроизводят всю человеческую жизнь (сохраняя их воспоминания и дублируя их личности). Цифровой призрак - это программа с искусственным интеллектом, которая знает о вашей жизни все. Это анимированная автобиография. Он воспроизводит ваши шаблоны убеждений и желаний. Вы можете выжить после смерти в цифровом призраке. Мы обсуждаем серию цифровых призраков на ближайшие 50 лет. Со временем и развитием технологий они становятся все более совершенными копиями жизней своих первоначальных авторов.
  14. ^ Шмидт, Колин Т.А. (октябрь 2007 г.). «Дети, роботы и… родительская роль». Умы и машины . 17 (3): 273–286. DOI : 10.1007 / s11023-007-9069-Z . Смысл существования этой статьи в том, что многие проницательные аналитики работ в области интеллектуальных вычислений и робототехники не видят существенного, касающегося разработки приложений, а именно выражения их конечной цели. С другой стороны, они не могут сформулировать это подходящим образом для менее информированной общественности. Автор не претендует на то, чтобы исправить это. Вместо этого дальновидное исследование предлагало парам учиться и работать с другими смежными областями как часть более широкого спектра, чтобы полностью имитировать людей в их воплощенном образе. Впервые ставятся под сомнение социальные роли, приписываемые производимым техническим объектам, и это делается с юмористической иллюстрацией.
  15. ^ Андерсон, Майкл; Сьюзан Ли Андерсон (март 2007 г.). «Состояние машинной этики: доклад с симпозиума AAAI». Умы и машины . 17 (1): 1–10. DOI : 10.1007 / s11023-007-9053-7 . Этот документ представляет собой резюме и оценку работы, представленной на осеннем симпозиуме AAAI 2005 по машинной этике, на котором собрались участники из областей компьютерных наук и философии, чтобы прояснить природу этой недавно появившейся области и обсудить различные подходы, которые можно было бы использовать. к реализации конечной цели создания этической машины.
  16. Перейти ↑ Guarini, Marcello (март 2007 г.). «Вычисление, согласованность и этическое мышление». Умы и машины . 17 (1): 27–46. DOI : 10.1007 / s11023-007-9056-4 . Теории морального и, в более общем смысле, практического мышления иногда основываются на понятии согласованности. Замечательно то, что Пол Тагард попытался дать вычислительно подробное описание вида согласованности, задействованной в практических рассуждениях, утверждая, что это поможет преодолеть проблемы в фундаменталистских подходах к этике. Приведенные здесь аргументы опровергают предполагаемую роль последовательности в практических рассуждениях, одобренную Тагардом. Хотя из вышеизложенного можно извлечь некоторые общие уроки, не предпринимается никаких попыток оспаривать все формы согласованности во всех контекстах. Не ставится под сомнение и полезность компьютерного моделирования. Дело в том, что согласованность не может быть столь полезной для понимания морального мышления, как думают когерентисты. Этот результат имеет очевидные последствия для будущего Машинной этики, недавно появившейся области искусственного интеллекта.

Внешние ссылки

Примечания и комментарии

Блогер конференции Мэг Хьюстон Мейкер освещала конференцию с места событий, включая записи о: