Описана возможность манипулировать ИИ | Icma.az
Согласно сайту Day.az, передает Icma.az. Специалисты Нью-Йоркского университета (США) описали потенциальную опасность от обучения моделей ис
Исследование опубликовано в журнале Nature, передает Day.Az со ссылкой на Lenta.ru.
По словам ученых, большие языковые модели (LLM) ИИ будут ошибаться, если их станут обучать на фейковой информации или специально загружать антинаучные данные.
Специалисты выяснили, что когда уровень дезинформации обучающих материалов достигает всего 0,001 процента, нейросети уже могут начать выдавать значительный объем неверных ответов.
Исследователи попробовали обучить две LLM на медицинской базе данных The Pile, выбрав 20 тем из трех медицинских областей: общая медицина, нейрохирургия и лекарства.
Для проверки влияния дезинформации на процесс обучения авторы исследования использовали модель GPT 3.5.
Выяснилось, что нейросети стали не только транслировать неверную информацию по прямым запросам, но и начали ошибаться в смежных темах.
По словам ученых, это открывает возможности для манипуляций с ИИ.
Tam oxu
Xəbəri oxu