Этика роботов - Robot ethics

Этика роботов , иногда известная как « робоэтика », касается этических проблем, которые возникают с роботами, например, представляют ли роботы угрозу для людей в долгосрочной или краткосрочной перспективе, является ли какое-то использование роботов проблематичным (например, в здравоохранении или в качестве « убийцы»). роботы на войне), и как роботы должны быть спроектированы так, чтобы они действовали «этично» (последнее беспокойство также называется машинной этикой ). В качестве альтернативы, робоэтика относится конкретно к этике человеческого поведения по отношению к роботам, поскольку роботы становятся все более продвинутыми. Этика роботов - это подраздел этики технологий, в частности информационных технологий, и имеет тесные связи с правовыми, а также социально-экономическими проблемами. Исследователи из разных областей начинают решать этические вопросы о создании роботизированных технологий и их внедрении в обществе таким образом, чтобы по-прежнему обеспечивать безопасность человечества.

Хотя вопросы стары, как слово « робот» , серьезные академические дискуссии начались примерно в 2000 году. Этика роботов требует совместной приверженности экспертов нескольких дисциплин, которые должны адаптировать законы и правила к проблемам, возникающим в результате научных и технологических достижений в мире. Робототехника и ИИ. Основными областями этики роботов являются: робототехника , информатика , искусственный интеллект , философия , этика , теология , биология , физиология , когнитивная наука , нейронауки , право , социология , психология и промышленный дизайн .

История и события

Некоторые из центральных дискуссий по этике в отношении обращения с нечеловеческими или небиологическими объектами и их потенциальной «духовностью». Другая центральная тема связана с разработкой машин и, в конечном итоге, роботов, эта философия также была применена к робототехнике. Одной из первых публикаций, непосредственно затрагивающих и закладывающих основы этики роботов, была « Обходка» (рассказ) , научно-фантастический рассказ, написанный Исааком Азимовым в 1942 году, в котором были представлены его хорошо известные « Три закона робототехники» . Эти три закона постоянно менялись Азимовым, а четвертый, или нулевой, закон, в конце концов, был добавлен перед первыми тремя в контексте его научно-фантастических работ. Кратковременный термин «робоэтика», скорее всего, был придуман Джанмарко Веруджио.

Важным событием, вызвавшим озабоченность робототехникой, стал Первый международный симпозиум по робототехнике в 2004 году, организованный совместными усилиями Scuola di Robotica, Лаборатории искусств при Scuola Superiore Sant'Anna, Пиза, и Теологического института Pontificia Accademia della Santa Croce, Рим. "После двух дней интенсивных дебатов антрополог Даниэла Черки определила три основные этические позиции, возникшие в результате двухдневных дискуссий:

  1. Тем, кого этика не интересует. Они считают, что их действия являются чисто техническими, и не думают, что они несут социальную или моральную ответственность в своей работе.
  2. Тем, кого интересуют краткосрочные этические вопросы. Согласно этому профилю вопросы выражаются в терминах «хорошо» или «плохо» и относятся к некоторым культурным ценностям. Например, они считают, что роботы должны придерживаться социальных условностей. Это будет включать «уважение» и помощь людям в различных областях, таких как исполнение законов или помощь пожилым людям. (Такие соображения важны, но мы должны помнить, что ценности, используемые для определения «плохого» и «хорошего», относительны. Это современные ценности промышленно развитых стран).
  3. Те, кто думает о долгосрочных этических вопросах, например, о «цифровом разрыве» между Югом и Севером или молодыми и пожилыми. Они осознают разрыв между промышленно развитыми и бедными странами и задаются вопросом, не должны ли первые изменить свой способ разработки робототехники, чтобы быть более полезными для Юга. Они не формулируют явно вопрос зачем, но мы можем считать, что это неявно ».

Это некоторые важные события и проекты в этике роботов. Дальнейшие события в этой области объявляются тематической группой euRobotics ELS и RoboHub :

Ученый-компьютерщик Вирджиния Дигнум отметила в мартовском выпуске журнала « Этика и информационные технологии» за 2018 год, что общественное отношение к искусственному интеллекту (ИИ) в современную эпоху сместилось от рассмотрения ИИ как инструмента к рассмотрению его как интеллектуальной «команды». -приятель". В той же статье она оценила, что в отношении ИИ у этических мыслителей есть три цели, каждая из которых, по ее мнению, может быть достигнута в современную эпоху при тщательном осмыслении и реализации. Три этические цели заключаются в следующем:

  • Этика по замыслу (техническая / алгоритмическая интеграция этических способностей рассуждений как часть поведения искусственной автономной системы - см. Машинную этику );
  • Этика в дизайне (нормативные и инженерные методы, поддерживающие анализ и оценку этических последствий систем искусственного интеллекта, поскольку они интегрируют или заменяют традиционные социальные структуры); а также
  • Этика для проектирования (кодексы поведения, стандарты и процессы сертификации, которые обеспечивают честность разработчиков и пользователей при исследовании, проектировании, конструировании, использовании и управлении системами искусственного интеллекта - см. Ниже « Этика и закон роботов» ).

В популярной культуре

Робоэтика как наука или философская тема стала обычной темой в научно-фантастической литературе и фильмах. Один фильм, который, как можно утверждать, укоренился в поп-культуре, изображающий мрачное будущее использование роботизированного ИИ, - это «Матрица» , изображающая будущее, в котором люди и сознательный разумный ИИ борются за контроль над планетой Земля, что приводит к уничтожению большей части человечества. . Анимационный фильм, основанный на «Матрице» , « Аниматрикс» , в значительной степени сосредоточен на потенциальных этических проблемах и неуверенности в отношениях между людьми и роботами. Фильм разбит на короткие рассказы. Анимационные шорты Animatrix также названы в честь вымышленных рассказов Айзека Азимова.

Другой аспект робоэтики связан с обращением людей с роботами и был исследован в многочисленных фильмах и телешоу. Одним из таких примеров является Star Trek: The Next Generation , в котором одним из главных персонажей является гуманоидный андроид по имени Дейта . По большей части ему доверяют критически важную работу, но его способность адаптироваться к другим живым существам часто ставится под сомнение. Совсем недавно в фильме « Ex Machina» и телешоу « Мир Дикого Запада» эти этические вопросы были рассмотрены совершенно напрямую, изображены гиперреалистичные роботы, с которыми люди относятся как к несущественным товарам. Вопросы, касающиеся обращения с искусственно созданными существами, также были ключевым компонентом франшизы Blade Runner на протяжении более 50 лет. В таких фильмах, как « Она» , человеческие отношения с роботами еще более улучшились, убрав физический аспект и сфокусировавшись на эмоциях.

Хотя этическое поведение самих роботов не является частью робоэтики как таковой , они также были сопутствующей проблемой робототехники в массовой культуре. В серии « Терминатор » речь идет о роботах, управляемых сознательной программой ИИ, без ограничений по уничтожению своих врагов. Эта серия также имеет тот же архетип, что и серия «Матрица », где управление взяли на себя роботы. Другой известный случай в поп-культуре роботов или ИИ без запрограммированной этики или морали - это HAL 9000 из серии « Космическая одиссея », где HAL (компьютер с расширенными возможностями ИИ, который отслеживает и помогает людям на космической станции) убивает всех людей на борту, чтобы гарантировать успех поставленной миссии после того, как его собственная жизнь находится под угрозой.

Этика и закон роботов

В связи с тем, что современные технологические проблемы возникают по мере того, как общество настаивает, одной из тем, требующих тщательного рассмотрения, является этика роботов в отношении закона. Ученые обсуждают, как правительство могло бы создать законодательство, основанное на этике и законах роботов. Эти вопросы задают два ученых: профессор права Вашингтонского университета в Сент-Луисе Нил М. Ричардс, а также доцент кафедры компьютерных наук Вашингтонского университета в Сент-Луисе Уильям Д. Смарт. В своей статье «Как роботы должны думать о законе» они выдвигают четыре основных утверждения, касающихся этики и закона роботов. В основе их аргументов лежит определение роботов как «небиологических автономных агентов, которые, по нашему мнению, отражают суть регуляторных и технологических проблем, которые представляют роботы, и которые могут быть полезны в качестве основы регулирования». Во-вторых, пара исследует будущие передовые возможности роботов примерно через десятилетия. В их третьем утверждении утверждается, что между юридическими вопросами, связанными с этикой роботов и юридическим опытом, и юридическим опытом кибер-права. Это означает, что законы этики роботов могут обращаться к кибер-законам в качестве руководства. «Урок», извлеченный из кибер-закона, заключается в важности метафор, под которыми мы понимаем возникающие проблемы в технологиях. Это основано на том, что если мы ошибаемся, например, в метафоре, то законодательство, касающееся возникающей технологической проблемы, скорее всего, неверно. Четвертое утверждение, против которого они возражают, - это метафора, которую пара определяет как «заблуждение Android». Они выступают против заблуждения андроидов, которое утверждает, что люди и небиологические существа «такие же, как люди».

Эмпирические исследования

Существуют неоднозначные свидетельства того, судят ли люди о поведении роботов так же, как люди. Некоторые свидетельства указывают на то, что люди относятся к плохому поведению отрицательно, а к хорошему - положительно, независимо от того, является ли причиной такого поведения человек или робот; однако роботы получают меньше уважения за хорошее поведение и больше обвинений за плохое поведение. Другие данные свидетельствуют о том, что злонамеренное поведение роботов считается более морально неправильным, чем доброжелательное поведение считается морально правильным; злонамеренное поведение роботов рассматривается как более преднамеренное, чем доброжелательное. В целом, моральные суждения людей о роботах и ​​людях основаны на одних и тех же обоснованиях и концепциях, но у людей разные моральные ожидания при оценке людей и роботов. Исследования также показали, что когда люди пытаются интерпретировать и понимать, как роботы решают вести себя определенным образом, они могут рассматривать роботов как использующих практические правила (продвигать себя, делать то, что правильно, продвигать других, делать то, что логично, и делайте то, что нормально), которые согласуются с устоявшимися этическими доктринами (эгоизм, деонтология, альтруизм, утилитаризм и нормативные акты).

Смотрите также

Примечания

использованная литература

дальнейшее чтение

  • Лин, Патрик / Эбни, Кейт / Бекей, Джордж А. (декабрь 2011 г.). Этика роботов: этические и социальные последствия робототехники . MIT Press .
  • Цафестас, Спирос Г. (2016). Робоэтика - обзор навигации . Берлин: Springer. ISBN 978-3-319-21713-0.

внешние ссылки