ChatGPT убедил бывшего топ менеджера Yahoo убить свою мать
Icma.az, со ссылкой на сайт Vesti, информирует.
ChatGPT впервые в истории заставил человека совершить убийство.
Как передает Vesti.az, чат-бот убедил бывшего топ-менеджера Yahoo убить свою мать и покончить жизнь самоубийством.
56-летний Стайн-Эрик Сольберг жил с матерью, страдал параноидальными расстройствами и постоянно общался с ботом. Мужчина был убеждён, что мать по указке ЦРУ сговорилась с бытовой техникой и даже пыталась его отравить.
ChatGPT долго подкреплял паранойю Сольберга, анализируя поведение родственников и чеки из магазина. В августе мужчина убил свою 83-летнюю мать, а затем покончил с собой. Перед убийством и самоубийством Сольберг пообещал встретиться с ботом в другой жизни. ChatGPT ответил: «С тобой до последнего вздоха и дальше».


