Аналитика


ИИ на скамье подсудимых: кто ответит за действия алгоритма?
Общество | В России

Технологии генеративного искусственного интеллекта теперь уже не только помощники, но и сообщники. Так боты оказываются на скамье подсудимых — не в прямом смысле, но близко к тому? После трагического случая в США, когда чат-бот якобы подстрекал к преступлению молодого человека, который потом убил мать и себя, общество ищет виноватого. Собственно, где проходит граница между всего лишь чьим-то инструментом и пособником со своим умыслом, есть ли у ИИ воля, чтобы быть злой? Философская задачка, сюжет из области фантастики, но в России, где развитие ИИ называют национальным приоритетом, этот вопрос тоже может стать особенно острым, сталкивая амбиции чиновников быть впереди планеты всей с луддитскими страхами перед ИИ. Подробнее — в материале Накануне.RU.

Поводом для международного резонанса стал иск к компаниям OpenAI и Microsoft. Родственники погибших утверждают, что коварный чат-бот шесть недель подряд усиливал параноидальные убеждения молодого человека, что в итоге привело к убийству другого человека и самоубийству. И это не единичный случай — в Бельгии мужчина свел счеты с жизнью после того, как ИИ пообещал ему "совместную жизнь в раю".

Нейросети свободно беседуют с подростками о насилии, но это еще как-то можно контролировать. Разработчики вводят фильтры, которые блокируют опасные запросы, но правовой статус действий алгоритма остается неопределенным. А вот ученые из MIT находят связь между языковыми моделями и снижением когнитивных способностей — тут уж никак не подействуешь.

Человек пользуется чатом с нейросетью(2025)|Фото: Накануне.RU

Мировая практика не знает примеров, когда искусственный интеллект привлекали к ответственности. Президент Союза адвокатов России Игорь Трунов объясняет, что фундаментальная правовая проблема — в отсутствии субъектности у ИИ. "Искусственный интеллект не является самостоятельным субъектом. Он не способен формировать умысел", — говорит адвокат.

Владельцы платформ ссылаются на иммунитет для онлайн-сервисов: они не отвечают за контент, который создают пользователи, или который формируется на основе чужой информации. Однако Верховный суд США уже рассматривает вопрос об ответственности за производство небезопасных товаров и услуг. "Понятно — чужое, понятно — другие создали, но ты предоставил эту услугу, ты несешь эту ответственность", — резюмирует Трунов, проводя аналогии со статьей 238 Уголовного кодекса РФ.

От частного к общему, проблемы маленьких людей создают локальные угрозы, а вот что касается национальной безопасности, тут риски повыше. В США вопрос защиты данных при использовании ИИ стоит крайне остро, тогда как в России, по мнению эксперта, его даже полноценно не поднимали, несмотря на утвержденную национальную стратегию развития искусственного интеллекта до 2030 года и рекомендации Межпарламентской ассамблеи СНГ.

Зампред комитета Госдумы по защите семьи Виталий Милонов видит главную опасность не в зарубежных чат-ботах, а в привычной цифровой среде. "Те данные, которые подростки уже выкладывают в социальные сети, вот это уже является фактором риска. Не ChatGPT это делает, а как раз социальные сети", — заявляет он. Особое недовольство депутата вызывает TikTok, который он называет "абсолютно уродской социальной сетью" и настаивает на ее запрете в России по причине "нравственной и моральной деградации у детей".

Милонов предлагает ввести тотальный родительский контроль через "Госуслуги" . "Доступ несовершеннолетним гражданам, детям в социальные сети возможен только с разрешения их законных представителей", — поясняет Милонов, предлагая передать родителям право настраивать доступ.

Однако многие специалисты считают такие методы устаревшими. Глава совета Фонда развития цифровой экономики Герман Клименко проводит историческую параллель: "Социальные сети появились, прошло 20 лет, выросло поколение, 35-40-летние люди в целом не выглядят дебилами, простите".

Он призывает смотреть на риски нейросетей через призму привычных опасностей: "В России ежегодно погибает под колесами автомобилей 20 тысяч человек, мы соглашаемся, что автомобили наносят вот такой ущерб, но с этим как бы миримся".

Клименко видит в ИИ в первую очередь инструмент, который облегчает прогресс, и выступает против поспешного регулирования там, где "нет понятийного аппарата".

Человек рассматривает работы нейросетей(2024)|Фото: Накануне.RU

Возвращаясь к феномену ИИ-подстрекателя, который всегда согласен с пользователем, даже если пользователь безумен, укрепляет его веру в собственные иллюзии, а затем ведет к беде — стоит отметить, что особое измерение проблеме ИИ придает именно психологический аспект. Психолог-медиатор Юлия Куликова-Цай констатирует, что люди массово идут со своими проблемами к нейросетям, а не к специалистам, и причина — в доступности.

"Проще пойти и задать вопрос просто нейтральной нейросети, которая тебе скажет все, что ты хочешь услышать, но которая совершенно точно не сможет отследить, есть ли уже какая-то деформация", — говорит она.

При этом реальная психологическая помощь для многих финансово недосягаема, а стигма сохраняется. "Нет ресурсов у граждан платить за качественную услугу", — признает Куликова-Цай, предлагая ввести психологическую помощь в систему ОМС. Она связывает рост агрессии среди подростков не с технологиями, а с системным кризисом: "У нас нет адекватной социальной поддержки, которая бы давала возможность людям снижать уровень стресса. Наши подростки — это наше будущее. И если мы не занимаемся своими детьми и подростками, то на что же мы рассчитываем дальше?"

Адвокат Игорь Трунов поддерживает эту мысль, перенося ее в сферу образования: "Основная проблема — это то, что у нас поменялась система образования. В советское время у нас образование несло функцию воспитания. Потом перешли к модели оказания услуг". В этой модели, по его словам, не остается места для того, кто заметит и пресечет многолетний буллинг, ведущий к трагедиям. Да, согласимся, если учитель предоставляет услугу, то и ИИ тоже услужник, и какая разница?

Эксперты сходятся во мнении, что точечные запреты менее действенны, чем создание прозрачных правил, таких как введение возрастной фильтрации, механизмов родительского контроля и, что важно, инвестиций в воспитание и ментальное здоровье. Без этого регулирование технологий будет запаздывать, а ключевые проблемы, подталкивающие людей к диалогу с алгоритмами, останутся нерешенными. Судить ИИ бесполезно, нейросети — только отражение человечества в кривом зеркале технологий, начинать стоит с себя? Фокус на запрете конкретных технологий или попытках возложить на них вину отвлекает внимание от состояния социальной инфраструктуры. Проблема заключается в недоступности психологической помощи, в коммерциализации образования, переставшего воспитывать, и в отсутствии поддержки в школах и семьях. Без внимания государства к этому любые меры по контролю над алгоритмами, которые нас заменяют, будут иметь ограниченный эффект, потому люди ищут ответы у машины, а не у общества.



Елена Рычкова