"Не могу уснуть из-за этого". Глава Google предупредил об опасности искусственного интеллекта
Сундар Пичаи призвал создать глобальную нормативно-правовую базу по ИИ, аналогичную ядерному договору, из соображений безопасности.Гендиректор Google Сундар Пичаи заявил, что искусственный интеллект может быть очень опасен при его неправильном применении, сообщает The Guardian. Глава корпорации признался, что крайне обеспокоен стремительным и неконтролируемым развитием ИИ.
Сундар Пичаи призвал создать международную нормативно-правовую базу по применению ИИ, подобную договорам, используемым для регулирования применения ядерного оружия. Он предупредил, что конкуренция за достижения в области этой технологии может привести к тому, что вопросы безопасности отойдут на второй план.
Своими опасениями глава корпорации поделился в эфире общественно-политического телешоу "60 минут" на канале CBS.
"ИИ может быть крайне опасен, если использовать его неправильно, и у нас ещё нет нужных ответов на все вопросы – а технологии тем временем развиваются стремительно. Так не даёт ли это мне спать по ночам? Безусловно", – сказал Сундар Пичаи.
Глава Google добавил, что ИИ может нанести вред из-за своей способности производить дезинформацию.
"С помощью ИИ можно будет легко создать видеоролик, где Скотт (Скотт Пелли, интервьюер CBS. – Авт.) говорит что-то, или я говорю что-то, а мы никогда этого не говорили. И это может выглядеть достоверно. На уровне всего общества это может нанести огромный ущерб", – отметил Сундар Пичаи.
В прошлом месяце более тысячи экспертов в сфере разработки искусственного интеллекта, – в том числе глава SpaceX, Tesla и Twitter Илон Маск, сооснователь Apple Стив Возняк, сооснователь Skype Яан Таллинн, сооснователь Pinterest Эван Шарп, – подписали открытое письмо, в котором призвали все лаборатории по разработке ИИ немедленно приостановить как минимум на шесть месяцев обучение продвинутых систем, которые превосходят по мощности GPT-4.