ChatGPT подтолкнул мужчину к убийству матери и суициду
Icma.az информирует, ссылаясь на сайт Caliber.az.
В США произошел первый случай убийства под влиянием ChatGPT.
Как сообщает газета The Wall Street Journal (WSJ), ыбвший сотрудник Yahoo Стайн-Эрик Сольберг, страдавший от параноидальных мыслей, расправился с матерью, а затем покончил с собой после общения с чат-ботом ChatGPT.
Это, по информации газеты, первый зафиксированный случай, когда психически нестабильный человек совершил преступление под влиянием искусственного интеллекта. В публикации утверждается, что чат-бот, которому Сольберг дал имя «Бобби», укреплял его недоверие к окружающим и поддерживал подозрения в адрес матери. На вопрос, будут ли они вместе после смерти, как сообщается, он получал утвердительный ответ.
Приведены примеры диалогов, в которых ИИ якобы подтверждал опасения Сольберга, интерпретировал бытовые ситуации как угрозу и даже находил «демонические символы» в чеке за еду.
После трагедии представитель компании OpenAI выразил соболезнования и сообщил о намерении выпустить обновление, направленное на поддержку пользователей с нестабильным психическим состоянием.


