Три закона робототехники – обязательные правила поведения для роботов – впервые появились в марте 1942 года на страницах журнала Astounding Science Fiction. Их придумал знаменитый писатель-фантаст Айзек Азимов в рассказе "Хоровод", который затем вошёл в авторский сборник "Я, робот".

Вот эти законы:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

  2. Робот должен повиноваться всем приказам, которые отдаёт человек, кроме тех случаев, когда эти приказы противоречат первому закону.

  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму законам.

И если на тот момент это было стопроцентной научной фантастикой, то в 2019-м – обычная часть жизни. Развитие робототехники с использованием искусственного интеллекта приобретает новый масштаб, который помимо прогресса приводит ещё и к юридическим проблемам.

Спасти нельзя помиловать

В прошлом году исследователи из Массачусетского технологического университета опубликовали результаты отчёта, в котором приняло участие более 2 млн пользователей. Учёные создали сайт под названием The Moral Machine и предложили участникам выбрать, как нужно поступить беспилотному автомобилю в случае, если у него будет выбор: спасти троих детей-пешеходов или пожертвовать взрослыми людьми.

Несмотря на то что результаты теста разделились (кто-то посчитал правильным спасти как можно больше людей, а кто-то был уверен, что нельзя вмешиваться в процесс), люди были больше склонны спасать молодых пассажиров вместо пожилых, большие группы вместо пары человек и людей, а не животных. На основе результатов этого теста учёные, по идее, разработают алгоритм выбора для машины. Но на что именно ориентироваться, пока непонятно.

"Легко представить ситуацию, когда алгоритмы, заложенные в программу безопасного движения, войдут в конфликт друг с другом", – пишет один из авторов отчёта Эдмонд Авад.

С такой же дилеммой сталкиваются и производители беспилотных авто. Например, пару лет назад в США и Китае произошли две аварии со смертельным исходом с участием автопилотируемых автомобилей Tesla. Несмотря на то что компании удалось избежать ответственности, Илон Маcк заявил, что пассажирам таких авто следует заранее позаботиться о страховке.

"Компания не должна нести ответственность за аварии, в которые попадают беспилотные авто. Ответственность компании за аварии похожа на ситуацию, когда человек застрял в лифте. Ответственность за все лифты по всему миру лежит на Otis (производитель лифтов. – Авт.), но ведь они же не отвечают за всё это", – пояснил Маск.

Правила для роботов

Рынок индустриальных и неиндустриальных роботов оценивается примерно в $100 млрд. Сюда же относятся и беспилотные авто. К 2025 году этот показатель возрастёт до $498 млрд. Помимо коммерческого интереса производители полностью автономных беспилотных авто беспокоятся и об этической стороне вопроса, ведь один из ожидаемых результатов внедрения таких машин – уменьшение аварий на дорогах.

Предполагается, что с распространением автономного транспорта число ДТП снизится до минимальных показателей, ведь такое авто всегда осведомлено о ситуации на дороге, никогда не устаёт, не болеет и не ругается с начальником. Стивен Шледовер, инженер Калифорнийского исследовательского института транспортных технологий, уверен, что на один смертельный случай с участием беспилотных авто будет приходиться 3,3 млн часов езды.

"Автоматическая система должна быть надёжной, чтобы побить этот рекорд", – говорит он в материале для Science Mag. Инженер предполагает, что общество будет менее терпимо к авариям, если те произойдут из-за ошибок программного обеспечения, чем к ошибками, которые произошли по вине людей.


Кадр из фильма "Я, робот"

Легитимизация юридической личности у робототехники связана с необходимостью решения юридических вопросов. Например, кто будет нести ответственность за человеческую жизнь в случае аварии с участием беспилотного авто: роботы или операторы?

В 2017 году Европарламент принял резолюцию о гражданско-правовых нормах, которые касаются робототехники. Главным вопросом резолюции стал вопрос о гражданско-правовой ответственности за вред, причинённый роботами. В документе были выделены две базовые модели ответственности: ответственность независимо от вины и подход, когда ответственным признаётся лицо, которое было способно минимизировать риски и негативные последствия. Кроме того, Европарламент также предлагает присвоить специальный правовой статус – electronic persons, чтобы автономные машины нести ответственность за любой причинённый ими вред.

Несмотря на то что парламент Евросоюза придерживается позиции, что ответственность за действия роботов должна лежать на человеке, а не на роботе, в документе также подчеркивается, что распределение ответственности остаётся сложной задачей, ведь всегда нужно учитывать уровень автономности робота.


Кадр из фильма "Я, робот"

Что делать беспилотному автомобилю, если у него отказали тормоза? Прежде всего, не нужно ожидать, что автономный транспорт будет поддерживать моральную сторону вопроса, ведь такой робот действует по заданным критериям. Получается, что в таком случае должен быть критерий минимизации ущерба без прописывания каких-либо этических вопросов. Скорее речь может идти о сравнении числа жертв, но без их оценок.

Вполне возможно, что в будущем нам придётся обучать роботов принимать и этические решения, но тут есть несколько сложностей. Прежде всего пользователи смогут задать некоторые правила, как у Азимова, которым робот должен будет следовать, а возможно "обучать" машины на примере поступков людей. Такое положение дел снимет некоторую ответственность с разработчиков, но не решит проблему до конца.