В работу казахстанских госструктур планируют внедрить цифрового помощника – искусственный интеллект. Его уже используют в разных странах. Но эксперты обеспокоены информационной безопасностью. По их мнению, такой помощник может не только помочь, но и навредить, сообщает "31 канал".
Сейчас нет никаких ограничений по использованию искусственного интеллекта, говорят эксперты. Его результаты поиска могут быть неточными, данные – неверными, а загруженные в него файлы – личные или корпоративные – могут стать добычей конкурентов или хакеров.
"Сейчас главная проблема – это утечка информации, которая происходит колоссальным образом, и многие бизнесмены, чиновники в соседних странах, министры используют для подготовки докладов ChatGPT. Это не так здорово, как могло бы показаться", – отметил эксперт по кибербезопасности Евгений Питолин.
В Казахстане создали концепцию развития искусственного интеллекта на ближайшие пять лет. При цифровом регуляторе появился Комитет по управлению ИИ. Эксперты говорят, алгоритмы его работы должны быть прозрачными для казахстанцев, чтобы люди точно знали, что происходит с их данными и как их защищают от утечки. Для того, чтобы ИИ работал без вреда для безопасности данных, нужны обученные разработчики и операторы – его конечные пользователи. При этом важно проработать вопрос ограничения работы искусственного интеллекта и ответственности в случае, если что-то пойдёт не так.
"На текущий момент в Казахстане законов об искусственном интеллекте нет, есть только концепция, разработанная недавно. Какие-то законопроекты существуют, но в публичном доступе мы пока не можем изучить их. Вопрос разделения ответственности при использовании ИИ – это важный вопрос", – сказал руководитель ОЦИБ Ps Cloud Services Александр Пушкин.
Эксперты отметили, что важно законодательно разграничить ответственность создателей и операторов искусственного интеллекта.
"Перенесём, например, на беспилотные автомобили или автомобили с автопилотом, которые используют искусственный интеллект. Ответственность в случае ДТП должны нести как разработчики ИИ, которые заложили туда функционал, так и оператор, водитель, который находится в этом автомобиле. Эту границу ответственности нужно в этом законе провести, и чтобы не было коллизий с другими законами", – добавил Пушкин.
Специалисты считают, что к разработке законопроекта следует привлечь экспертов, которые имеют опыт работы с информационной безопасностью и большими данными. Но самое главное в работе с ИИ – помнить, что конечное решение должно оставаться не за "машиной", а за человеком.
-
1‼️Наводнение в Испании: число погибших выросло до 158
- 2466
- 1
- 31
-
2🌪 Самый мощный за последние 30 лет: супертайфун Конг-Рей обрушился на Тайвань
- 2244
- 0
- 14
-
3❔ АЭС, нефть и логистика: о чём говорил Токаев на встрече с иностранными инвесторами
- 2247
- 0
- 32
-
4💊 Вывозили на Запад под видом витаминов: контрабандистов анаболиков задержали в Алматы
- 2269
- 0
- 11
-
5❔ Летать и ездить с цифровыми документами. Что изменится в Казахстане в ноябре 2024 года
- 2293
- 3
- 14
-
6🤑 Как изменился курс доллара к тенге на бирже 31 октября
- 2208
- 0
- 4
-
7🇪🇸 Почему от наводнений в Испании погибло так много людей?
- 2233
- 0
- 11
-
8⚡️В суде Астаны рассматривают иск журналистов против Минкультуры по правилам аккредитации
- 2238
- 2
- 17
-
9☄️Авария на шахте имени Костенко: Генпрокуратура обнародовала имена подозреваемых
- 2295
- 0
- 5
-
10🌡Прогноз погоды на 1 ноября: штормовое предупреждение из-за гололедицы объявили в восьми регионах страны
- 2289
- 0
- 6