ChatGPT подтолкнул мужчину к убийству матери и суициду
Icma.az информирует, ссылаясь на сайт Caliber.az.
В США произошел первый случай убийства под влиянием ChatGPT.
Как сообщает газета The Wall Street Journal (WSJ), ыбвший сотрудник Yahoo Стайн-Эрик Сольберг, страдавший от параноидальных мыслей, расправился с матерью, а затем покончил с собой после общения с чат-ботом ChatGPT.
Это, по информации газеты, первый зафиксированный случай, когда психически нестабильный человек совершил преступление под влиянием искусственного интеллекта. В публикации утверждается, что чат-бот, которому Сольберг дал имя «Бобби», укреплял его недоверие к окружающим и поддерживал подозрения в адрес матери. На вопрос, будут ли они вместе после смерти, как сообщается, он получал утвердительный ответ.
Приведены примеры диалогов, в которых ИИ якобы подтверждал опасения Сольберга, интерпретировал бытовые ситуации как угрозу и даже находил «демонические символы» в чеке за еду.
После трагедии представитель компании OpenAI выразил соболезнования и сообщил о намерении выпустить обновление, направленное на поддержку пользователей с нестабильным психическим состоянием.
Другие новости на эту тему:
Просмотров:37
Эта новость заархивирована с источника 31 Августа 2025 12:49 



Войти
Online Xəbərlər
Новости
Погода
Магнитные бури
Время намаза
Калькулятор колорий
Драгоценные металлы
Конвертор валют
Кредитный калькулятор
Курс криптовалют
Гороскоп
Вопрос - Ответ
Проверьте скорость интернета
Радио Азербайджана
Азербайджанское телевидение
О нас
TDSMedia © 2025 Все права защищены







Самые читаемые



















