Роботы и искусственный интеллект все больше проникают в жизнь людей. Их задействуют в промышленности, медицине, сфере обслуживания. Возможно, со временем роботы будут не только выполнять команды человека, но и принимать собственные решения. О том, нужно ли наделять роботов правами, можно ли использовать их для удовлетворения сексуальных потребностей и стоит ли бояться восстания машин Belbiz поговорил с руководителем Европейского колледжа Liberal Arts в Беларуси (ECLAB), экспертом в области робоэтики Александром Адамянцем.
Почему при создании роботов нужно думать о моральных нормах
— Что такое робоэтика и зачем она нужна? Роботы пока не стали частью нашей повседневной жизни и разговор об отношении с роботами кажется преждевременным.
— Я бы сказал, что вы правы и неправы одновременно. Мы пока не сталкиваемся с роботами на каждом шагу, как это изображается в фантастических фильмах. Однако роботы понемногу и неуклонно входят в нашу повседневность. У многих уже есть робот-пылесос. В детских магазинах продаются роботы-игрушки, в интернете вы можете купить, например, секс-робота и так далее. Уже этих фактов достаточно, чтобы увидеть те потенциальные проблемы, которые возникнут с развитием робототехники. И вопросы этики и морали играют здесь первостепенную роль.
— Но при чем здесь мораль и этика? Когда мы покупаем робота-игрушку, мы не решаем моральный вопрос. Мы просто покупаем игрушку.
— Могу с вами согласится, что в повседневной жизни мы редко задумываемся над моральными вопросами, хотя ежедневно совершаем множество моральных выборов. И здесь проявляется отличие нашего образа жизни от западного.
В европейских странах, США этические вопросы постоянно обсуждаются в школах, в университетах, а также на уровне корпораций и госучреждений. Например, в США на военной и государственной службах этический аспект является одним из важных факторов для принятия решений. Посмотрите на учебную программу военной академии США West Point. Вы найдете там множество курсов, посвященных этике и этическим проблемам.
Когда военных обучают управлять дронами, с ними непременно обсуждают вопрос о степени допустимости применения дистанционного оружия в тех или иных случаях. Взвешивается возможный ущерб для гражданского населения, который сопоставляется с необходимостью решать военные задачи. На эту тему есть очень показательный британский фильм «Всевидящее око». По сюжету, уничтожение группы террористов может повлечь гибель случайно оказавшейся поблизости девочки. И весь фильм построен вокруг этой почти неразрешимой моральной дилеммы.
— Но ведь дистанционно управляемые дроны — это не совсем роботы.
Совершенно верно. Робот отличается тем, что действует автономно. И сейчас мир стоит перед перспективой введения автономного роботизированного оружия. Это ставит перед нами моральные проблемы совсем другого масштаба! Возникает вопрос, каким образом запрограммировать роботов, чтобы их действия не нарушили принятые в человеческом сообществе моральные нормы и права. В первую очередь право на жизнь и безопасность.
Сенсоры и алгоритмы такого робота должны будут идентифицировать цель и дать команду на поражение. Но даже если рассматривать возможные ошибки идентификации как техническую проблему, остаются открытыми этические вопросы. Уже на уровне программирования целей необходимо решить, будет ли являться такой целью, например, ребенок, если известно, что в некоторых регионах мира детей используют в качестве комбатантов (в международном праве лица, входящие в состав вооруженных сил и непосредственно участвующие в военных действиях — прим. авт.).
Роботов будут проектировать на самообучение, чтобы они могли приспособиться к изменяющимся условиям. Сразу же встает вопрос, каковы те моральные нормы, которыми будет регулироваться процесс самообучения. Что делать, если военные прикрываются гражданскими в качестве щита? Будет ли алгоритм учитывать потери среди гражданских, если да, то каковы критерии? Какая из множества моральных теорий ляжет в основу алгоритма?
— Но робот своими действиями может нанести не только физический, но и моральный, психологический ущерб.
— Да, и это не менее важная проблема. Возьмем такую сенситивную сферу как медицина, куда постепенно внедряется все больше роботов, помогающих ухаживать за больными. Например, разработчики робота NAO должны были решать этические вопросы. Если, разнося таблетки, робот столкнется с отказом больного их принимать, как он должен себя повести: настоять, уйти, обратиться к персоналу? Если настоять, то как часто, не нанесет ли такая настойчивость психологическую травму?
Робот NAO. Фото: pinterest.com
А что делать роботу, если к нему одновременно обратятся двое больных? К кому первым он должен подойти? К более тяжелому больному или к тому, кому в данный момент больше необходима помощь? Как определить величину этой необходимости? И что делать, если больной ведет себя враждебно или даже агрессивно?
Эти решения необходимо заложить на уровне алгоритмов таким образом, чтобы они не нарушали права пациентов и помогали свести возможность психологического ущерба к минимуму.
Люди не могут обращаться с роботами как им угодно
— В последнее время все чаще можно слышать голоса, призывающие наделить робота правами. Но робот — это лишь запрограммированная машина, которая не обладает сознанием, представлением о морали, и не может нести ответственность за свои действия.
— Действительно, пока нам сложно представить робота, у которого есть представления о морали, и вообще представления. Если роботы и обретут когда-либо сознание, то это случится в неопределенно далеком будущем. Мы пока не будем рассматривать такой гипотетический сценарий. Нас интересует ближайшая перспектива.
Когда мы говорим о роботах, то должны ясно понимать, что роботы бывают разными. Роботы бывают промышленными, исследовательскими, сервисными и так далее. Робоэтика в первую очередь имеет дело с такой категорией, как социальные роботы. Это особый вид роботов, созданный для взаимодействия с людьми.
Вопрос о правах роботов ставится прежде всего по отношению к социальным роботам. Мысль о правах роботов на первый взгляд кажется абсурдной. Наша интуиция и здравый смысл говорят о том, что права могут иметь только существа, обладающие разумом, волей, самосознанием, чувствами. Роботу сложно приписать эти качества, поскольку робот — это не более чем запрограммированное электромеханическое устройство.
Однако вопрос прав связан с определенным пониманием природы человека. Это понимание я бы назвал метафизическим.
— Что значит метафизическое понимание?
— Ну, например, человека определяют как существо, обладающее разумом и мышлением. Разум — существенный признак человека. Следовательно, правами может обладать только разумное существо. Из этого делается вывод, что если нет разума (чувств, сознания), то нет и прав. Но сразу же возникает следующий вопрос, что значит мышление (чувство, сознание)? Новорожденный ребенок еще не обладает разумом, а человек, страдающий психическим заболеванием, деменцией, уже потерял способность мыслить. У находящегося в коме отсутствуют признаки сознания и чувств. Означает ли это, что дети и некоторые больные лишаются прав, и их можно использовать в качестве предметов как угодно, например, отключить от системы жизнеобеспечения?
Метафизическим путем на эти вопросы сложно найти ответы. Однако существует другой коммуникативный подход. Согласно ему, мы спрашиваем, не ЧТО есть человек, но КТО он есть. Человек в этом случае рассматривается не как некая субстанция, обладающая теми или иными признаками. Напротив, мы рассматриваем человека как участника или участницу социального взаимодействия, актора, действующего субъекта.
— Как коммуникативный подход изменяет отношение к роботам? Ведь изменение перспективы не сделает робота равным человеку.
— Это зависит от того, как мы понимаем равенство. Напомню, что мы говорим о социальных роботах. А социальные роботы — это роботы, которые включены в сеть социального взаимодействия. Задавая вопрос, КТО есть робот, мы получаем следующий ответ: робот — это актор, то есть участник коммуникации. Таким образом робот-актор в определенном смысле равен человеку-актору. Робот и человек составляют два полюса коммуникативного действия.
С этой точки зрения вопрос о правах роботов уже не кажется таким уж абсурдным. В ситуации коммуникации мы больше не можем относится к роботу как механизму, простому средству наподобие стиральной машины или даже смартфона. Робот уже не просто и не только средство, он приобретает черты некоего квази-субъекта, с которым мы имеем дело.
— Тем не менее, как роботы могут иметь права и обязанности? Разве робот может нести ответственность за действия, которые запрограммированы на уровне алгоритмов?
— Робота нельзя рассматривать как полноценного субъекта прав и обязанностей. Но внутри социального взаимодействия мы можем говорить об ответственности людей перед роботами, без того, приписывать роботу права. Иногда применительно к роботам используют понятие «мягких прав» (soft rights).
— На чем может основываться и в чем проявляться такая ответственность? Что значит для человека иметь ответственность перед роботом?
— Это значит, что мы, люди, не можем создавать каких угодно роботов и как угодно с ними обращаться.
— Но почему? Ведь робот — это средство, созданное людьми, чтобы люди могли преследовать свои собственные цели, решать свои задачи и удовлетворять свои потребности.
— Давайте посмотрим, какие задачи решает человек, какие потребности он удовлетворяет. Помните, в фильме Стивена Спилберга «Искусственный разум» есть сцена, где люди развлекаются, имитируя публичную казнь? Казни подвергаются роботы, которых люди отлавливают и отправляют на арену. Там роботов разрывают на куски, выстреливают ими из пушки, обливают раскаленной жидкостью и так далее. При этом роботы проявляют эмоции страха, ужаса, просят о пощаде.
И люди-зрители все больше беснуются, требуются все новых и более изощренных казней. Здесь у меня возникает вопрос: какую потребность удовлетворяют люди?
Кадр из фильма «Искусственный разум». Фото: www.kino-teatr.ru
В другом фильме «Двухсотлетний человек» есть эпизод, когда девочка ради развлечения (или эксперимента) приказывает антропоморфному домашнему роботу выброситься из окна. В соответствии со Вторым законом робототехники робот, не раздумывая, выполняет приказ. После чего, шатаясь от повреждений, с трудом возвращается в дом.
Тогда я спрашиваю: хотим ли мы, каждый из нас и общество в целом, чтобы наши дети усваивали подобные привычки?
Когда робот и человек заключат первый брак
— В том же фильме Спилберга мы видим персонажа Джуда Лоу — Жиголо Джо.
— Здесь мы подошли еще к одной большой теме — теме секс-роботов, каковым является Жиголо Джо. Секс-роботы активно разрабатываются рядом компаний. Роботов для секса уже можно купить в интернете или воспользоваться услугами робо-борделей, которые открылись в нескольких странах.
— Насколько оправданно и морально допустимо существование таких борделей?
— Это хороший вопрос. Если речь идет о борделях со «взрослыми» секс-роботами, то, здесь, мне кажется, нужно решить, допускаем ли мы существование борделей для людей. Если да, то, скорее всего, согласимся, что и для роботов они возможны.
Но секс — это гораздо больше, чем просто секс. Это форма социального взаимодействия. Роботы все усложняются, и есть значительный общественный запрос на роботов-компаньонов, партнеров и так далее. Человеческие взаимоотношения связаны с большими трудностями. Мы видим, что в западных странах все больше одиноких людей. Например, в Финляндии 44% домохозяйств состоит из одного человека. Нам в Беларуси это пока трудно представить, но это глобальный тренд. Потому роботы-компаньоны будут все больше востребованы.
Как предсказывает Дэвид Леви — эксперт в области искусственного интеллекта и большой сторонник секс-роботов, — первый брак между человеком и роботом будет заключен в 2050 году. Учитывая, что робот София уже получила гражданство Саудовской Аравии, такой сценарий не кажется невероятным.
Робот София. Фото: blog.althumans.com
— Можно ли считать секс с роботом изменой?
— Я думаю, что однозначного ответа здесь быть не может. Каждый/каждая ответит на него по-своему. Кто-то скажет, что антропоморфный секс-робот — это всего лишь усовершенствованная секс-игрушка. Кто-то, что это нечто большее. Во втором случае очевидно, что робот рассматривается не просто как средство. Если робот вызывает ревность, то он тем самым наделяется чертами личности.
Еще более чувствительная проблема касается возможности создания секс-роботов в виде детей. Некоторые считают, что такие роботы послужат в некотором роде «громоотводом» для педофилов. Другие — что это приведет к тому, что уровень насилия повысится, поскольку общество будет поощрять нежелательное, деструктивное поведение, которое неизбежно проявится по отношению к людям.
Мне близка вторая точка зрения. Ведь, допуская такие действия по отношению к роботам, мы способствуем закреплению нежелательных привычек и форм поведения.
Но нужно понимать, что этические и законодательные нормы, регулирующие взаимодействие с роботами, должны стать результатом широкого публичного обсуждения. В этой новой для нас области нет однозначных ответов и окончательных решений. В разных странах, скорее всего, будут разные мнения, касающиеся широкого спектра вопросов о роботах.
«Люди рассматривают роботов как конкурентов не только в трудовой, но и в частной сфере»
— Многие испытывают страх перед роботами, которые очень похожи на людей. С чем, по вашему, это связано?
— Эта реакция имеет научное название «зловещая долина». Этот эффект был открыт в 1970 году японским исследователем Масахиро Мори. Суть в том, что, когда робот в некоторый степени похож на человека, он вызывает симпатию. Но это продолжается до определенного предела. С какого-то момента увеличение сходства начинает вызывать неприятные ощущения, возникает чувство зловещего.
Эксперты спорят о природе и причинах этого психологического эффекта. Возможно, он связан с боязнью мертвого. Слишком большое, но не стопроцентное сходство делает роботов похожих на живых мертвецов. Это чувство можно назвать эффектом зомби. Кстати, этим эффектом широко пользуются создатели фильмов про вампиров и зомби. Мультипликаторы, напротив, создают персонажей в утрированной форме, их сходство с реальными людьми и животными весьма условно. Такие персонажи вызывают чувство умиления.
— Один из страхов, распространенных в обществе — это страх того, что роботы лишат людей работы. Насколько он оправдан?
— Конечно, для этого страха есть свои причины. Но это не новый сюжет, не новый страх. Когда возникли первые промышленные фабрики, рабочих, занимающихся цеховым производством, заменили машины. Но при этом новые технологии создали еще больше рабочих мест в других областях. Объективно от роботизации больше всего страдают люди, которые много лет находятся в одной профессии и которым трудно переучиваться. Новые поколения более успешно осваивают новые сферы деятельности.
Отчасти боязнь роботов обусловлена этим традиционным страхом потерять работу. Но в отличие от эпохи промышленной революции и последующих смен технологических циклов в существующей ситуации есть нечто новое. Роботы, о которых мы говорим сейчас, не просто станки или автоматы. Они начинают внешне сильно походить на людей. И люди рассматривают их как конкурентов не только в трудовой, но и в частной сфере.
Здесь уместна аналогия с мигрантами. Патриархально-националистическое сознание предполагает, что мигранты не только отнимают рабочие места, но увеличивают преступность, а также посягают на «наших» женщин. Это возвращает нас к вопросу о роботах-партнерах, роботах-супругах. Это страх не только перед тем, что роботы отнимут нашу работу, но заменят нас и в других значимых сферах.
«Дегуманизацию, которую мы приписываем технологиям, осуществляет сам человек»
— Как вы оцениваете известный страх восстания машин? Насколько он реален? Могут ли люди потерять контроль над роботами, если те захотят уничтожить человечество?
— Это распространенный страх, навеянный Голливудом. Я не стал бы рассматривать сценарий восстания злобных машин как реалистический. «Терминатор» — это всего лишь еще одна страшная сказка, наподобие графа Дракулы и зомби-апокалипсиса. Тем не менее, эти социальные страхи имеют определенную почву. Они выражают, как мне кажется, опасность потери контроля над теми силами, которые люди освободили благодаря технологиям. Это и Чернобыльская катастрофа, и угроза ядерного самоуничтожения человечества, и вторжение в природу человека на уровне генной инженерии. Нам стоит опасаться не того, что машины обретут злую волю и направят ее против человечества. Главная опасность заключается в нашей собственной безответственности и близорукости.
Сценарий восстания машин не следует рассматривать как реалистический. Фото: dneprovec.by
Страх восстания машин имеет еще и иррациональную, мифологическую подоплеку. Он связан с тем, что технологии стали настолько сложными, что большинство людей не понимает, как они работают, а значит, ощущает невозможность их контролировать. Технологии представляются некими почти магическими внешними силами, которым нужно противостоять и от которых нужно защищаться.
— Но как предотвратить негативное развитие технологий, как избежать новых катастроф?
— Контроль над технологиями — это не столько технологический вопрос, сколько вопрос политический и социальный. Как должно происходить развитие технологий, какие направления следует развивать, а какие нужно сдерживать? На все эти вопросы должно ответить общество в ходе публичных дискуссий. А их результатом должны стать политические решения.
Дегуманизацию, которую мы приписываем технологиям, осуществляет сам человек. Образ Терминатора — это спроецированный вовне образ человека, уничтожающий Землю и себя самого. В этой проекции проявляется все еще неизжитое магическое сознание наших предков. Для них мир был наполнен злыми и добрыми духами, которыми можно было овладеть с помощью магии.
Но рациональное сознание должно понимать, что все это дело человеческих рук и человеческой воли. Наша отношение к человекообразным роботам отражает наше отношение к самим себе. Поэтому наша задача как людей — гуманизировать роботов, гуманизировать технологию, сделать ее такой, чтобы она приносила людям благо, а не зло.
Заглавное фото предоставлено Александром Адамянцем.