Ученые: Выдачей ИИ можно манипулировать, обучая на непроверенных данных | Icma.az
Icma.az передает, что по данным сайта Caliber.az. Специалисты Нью-Йоркского университета (США) описали потенциальную опасность от обучения м
Исследование опубликовано в журнале Nature. По словам ученых, большие языковые модели (LLM) ИИ будут ошибаться, если их станут обучать на фе
Специалисты выяснили, что когда уровень дезинформации обучающих материалов достигает всего 0,001 процента, нейросети уже могут начать выдава
Исследователи попробовали обучить две LLM на медицинской базе данных The Pile, выбрав 20 тем из трех медицинских областей: общая медицина, н
Для проверки влияния дезинформации на процесс обучения авторы исследования использовали модель GPT 3.5.
Выяснилось, что нейросети стали не только транслировать неверную информацию по прямым запросам, но и начали ошибаться в смежных темах.
По словам ученых, это открывает возможности для манипуляций с ИИ.
Так, при показателе дезинформации в 0,01 процента LLM начинает ошибаться в 10 процентах ответов.
Tam oxu
Xəbəri oxu