Госкомпании и структуры обяжут информировать граждан, если в контакт-центрах с ними общается искусственный интеллект, а не живой сотрудник. Такое требование содержится в законопроекте о регулировании ИИ. Эксперты считают, что такое неосознанное взаимодействие с ИИ, имеющим технические ограничения, может приводить к серьезным последствиям.

Завкафедрой "Владельческое управление" Международного НИИ проблем управления Раиса Донская уверена, что нужно не просто сообщать людям о том, что с ними общается робот, а оставлять выбор за человеком. Роботы действительно помогают с маршрутизацией звонков. Но человека нужно мгновенно переключать на оператора, если того требует ситуация.

"У нас не должны забирать право выбирать, с кем мы хотим общаться. И нам всё равно должны предоставлять возможность, что ты вот куда-то нажимаешь, ну или просто говоришь: "оператор", и тебя однозначно переводят тут же, на оператора. А не так, что ты должен прослушать всю рекламу, которую они тебе по дороге расскажут, все вариации того, что тебе не нужно. А сейчас нам навязывают общение, навязывают вот эти часы, проведенные в тыканье кнопок, при этом где-то посередине тебе сбросят звонок. Потом ты опять [будешь слушать] "Подождите, подождите!" - 35 вот этих цепочек!"

Эксперт также подчеркнула, что при общении с роботом в уязвимом положении окажется любой человек, особенно люди старшего возраста и те, кто не следит за технологиями.

"Надо же уметь сформулировать вопрос. А если человек находится в стрессовой ситуации? [В этом случае] возможность вменяемо, чётко сформулировать желаемое очень сильно уменьшается, а то и пропадает. То есть, если послушать любые звонки, когда в экстренные службы люди звонят, там же "Ой-ай-ой!". До вменяемого предложения там [целая цепочка]: людей учат работать, как из человека собрать информацию, чтобы он смог тебе её сказать, когда он находится в шоке. И вот мы говорим о том, что у тебя что-то случилось: у тебя украли деньги с банковского счёта, ты звонишь, у тебя голова просто 360 градусов, ты в шоке. И ты даже не можешь сообразить, что тебе нужно сказать, куда нажать. Тебе просто нужна помощь."

Эксперты заявляют, что попытки регулировать контент, создаваемый ИИ (от текстов и изображений до голосовых роботов и дипфейков), предпринимаемые во многих странах, коренятся в базовом страхе человека перед ошибками или вредом со стороны алгоритмов. Специалисты добавляют, что человек ещё не прожил с роботами и алгоритмами длинную жизнь, и предупреждать о факте столкновения с ними — разумно.