Законы для роботов. Кто будет решать этические и юридические проблемы беспилотных авто?
Три закона робототехники – обязательные правила поведения для роботов – впервые появились в марте 1942 года на страницах журнала Astounding Science Fiction. Их придумал знаменитый писатель-фантаст Айзек Азимов в рассказе "Хоровод", который затем вошёл в авторский сборник "Я, робот".
Вот эти законы:
-
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
-
Робот должен повиноваться всем приказам, которые отдаёт человек, кроме тех случаев, когда эти приказы противоречат первому закону.
-
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму законам.
И если на тот момент это было стопроцентной научной фантастикой, то в 2019-м – обычная часть жизни. Развитие робототехники с использованием искусственного интеллекта приобретает новый масштаб, который помимо прогресса приводит ещё и к юридическим проблемам.
Спасти нельзя помиловать
В прошлом году исследователи из Массачусетского технологического университета опубликовали результаты отчёта, в котором приняло участие более 2 млн пользователей. Учёные создали сайт под названием The Moral Machine и предложили участникам выбрать, как нужно поступить беспилотному автомобилю в случае, если у него будет выбор: спасти троих детей-пешеходов или пожертвовать взрослыми людьми.
Несмотря на то что результаты теста разделились (кто-то посчитал правильным спасти как можно больше людей, а кто-то был уверен, что нельзя вмешиваться в процесс), люди были больше склонны спасать молодых пассажиров вместо пожилых, большие группы вместо пары человек и людей, а не животных. На основе результатов этого теста учёные, по идее, разработают алгоритм выбора для машины. Но на что именно ориентироваться, пока непонятно.
"Легко представить ситуацию, когда алгоритмы, заложенные в программу безопасного движения, войдут в конфликт друг с другом", – пишет один из авторов отчёта Эдмонд Авад.
С такой же дилеммой сталкиваются и производители беспилотных авто. Например, пару лет назад в США и Китае произошли две аварии со смертельным исходом с участием автопилотируемых автомобилей Tesla. Несмотря на то что компании удалось избежать ответственности, Илон Маcк заявил, что пассажирам таких авто следует заранее позаботиться о страховке.
"Компания не должна нести ответственность за аварии, в которые попадают беспилотные авто. Ответственность компании за аварии похожа на ситуацию, когда человек застрял в лифте. Ответственность за все лифты по всему миру лежит на Otis (производитель лифтов. – Авт.), но ведь они же не отвечают за всё это", – пояснил Маск.
Правила для роботов
Рынок индустриальных и неиндустриальных роботов оценивается примерно в $100 млрд. Сюда же относятся и беспилотные авто. К 2025 году этот показатель возрастёт до $498 млрд. Помимо коммерческого интереса производители полностью автономных беспилотных авто беспокоятся и об этической стороне вопроса, ведь один из ожидаемых результатов внедрения таких машин – уменьшение аварий на дорогах.
Предполагается, что с распространением автономного транспорта число ДТП снизится до минимальных показателей, ведь такое авто всегда осведомлено о ситуации на дороге, никогда не устаёт, не болеет и не ругается с начальником. Стивен Шледовер, инженер Калифорнийского исследовательского института транспортных технологий, уверен, что на один смертельный случай с участием беспилотных авто будет приходиться 3,3 млн часов езды.
"Автоматическая система должна быть надёжной, чтобы побить этот рекорд", – говорит он в материале для Science Mag. Инженер предполагает, что общество будет менее терпимо к авариям, если те произойдут из-за ошибок программного обеспечения, чем к ошибками, которые произошли по вине людей.
Легитимизация юридической личности у робототехники связана с необходимостью решения юридических вопросов. Например, кто будет нести ответственность за человеческую жизнь в случае аварии с участием беспилотного авто: роботы или операторы?
В 2017 году Европарламент принял резолюцию о гражданско-правовых нормах, которые касаются робототехники. Главным вопросом резолюции стал вопрос о гражданско-правовой ответственности за вред, причинённый роботами. В документе были выделены две базовые модели ответственности: ответственность независимо от вины и подход, когда ответственным признаётся лицо, которое было способно минимизировать риски и негативные последствия. Кроме того, Европарламент также предлагает присвоить специальный правовой статус – electronic persons, чтобы автономные машины нести ответственность за любой причинённый ими вред.
Несмотря на то что парламент Евросоюза придерживается позиции, что ответственность за действия роботов должна лежать на человеке, а не на роботе, в документе также подчеркивается, что распределение ответственности остаётся сложной задачей, ведь всегда нужно учитывать уровень автономности робота.
Что делать беспилотному автомобилю, если у него отказали тормоза? Прежде всего, не нужно ожидать, что автономный транспорт будет поддерживать моральную сторону вопроса, ведь такой робот действует по заданным критериям. Получается, что в таком случае должен быть критерий минимизации ущерба без прописывания каких-либо этических вопросов. Скорее речь может идти о сравнении числа жертв, но без их оценок.
Вполне возможно, что в будущем нам придётся обучать роботов принимать и этические решения, но тут есть несколько сложностей. Прежде всего пользователи смогут задать некоторые правила, как у Азимова, которым робот должен будет следовать, а возможно "обучать" машины на примере поступков людей. Такое положение дел снимет некоторую ответственность с разработчиков, но не решит проблему до конца.