Icma.az передает, что по данным сайта Vesti. ИИ-помощники дают искажённые ответы почти в половине случаев — к такому выводу пришли эксперты
В проекте участвовали профессиональные журналисты из 22 общественных СМИ 18 стран, работающие на 14 языках.
Они проанализировали более трёх тысяч ответов популярных ИИ-систем — ChatGPT, Copilot, Gemini и Perplexity — оценивая точность данных, качество источников, различие между фактами и мнениями, а также наличие контекста.
Результаты оказались тревожными: в 45% ответов содержалась хотя бы одна существенная ошибка; в 31% случаев наблюдались проблемы с источниками — отсутствием ссылок, вводящими в заблуждение или некорректными данными; около 20% ответов включали устаревшую или неточную информацию; хуже всего себя показал Gemini — у 76% ответов были выявлены серьёзные ошибки.
По данным Института Reuters, ИИ уже частично вытесняет поисковые системы: около 7% пользователей получают новости через такие помощники, а среди молодёжи до 25 лет этот показатель достигает 15%.
Заместитель генерального директора EBU и медиадиректор организации Жан Филип де Тендер заявил: «Это исследование показывает, что ошибки носят системный, а не случайный характер.
Они проявляются на разных языках и в разных странах, подрывая общественное доверие.
Когда люди перестают понимать, чему верить, они начинают не доверять ничему — и это угрожает демократическому участию».