Новую нейросеть научили создавать чрезвычайно реалистичные ИИ двойников людей
Как сообщает Icma.az, ссылаясь на сайт Media az.
Платформа Character.AI, известная своими ИИ-персонажами для общения, представила новую технологию генерации видео — AvatarFX. Этот сервис, находящийся на стадии закрытого бета-тестирования, способен анимировать как виртуальных собеседников платформы (включая реалистичные образы людей и 2D-анимацию), так и создавать видео из загруженных изображений, включая фотографии реальных людей. Об этом сообщает издание TechCrunch.
Технология AvatarFX позволяет преобразовывать как текстовые описания, так и статичные изображения в анимированные видеоролики с возможностью применения различных визуальных стилей и вариантов озвучивания. Ключевым отличием от некоторых других решений на рынке, таких как Sora от OpenAI, является возможность генерации видео не только на основе текста, но и из загруженных изображений.
Способность анимировать фотографии реальных людей вызывает опасения, связанные с потенциальным созданием так называемых «дипфейков», открывая возможность для генерации видео с изображениями публичных личностей или даже знакомых пользователей без их согласия.
В Character.AI заявляют о внедрении ряда мер безопасности, направленных на минимизацию рисков злоупотреблений. К ним относятся нанесение водяных знаков на сгенерированные видео, система блокировки контента с несовершеннолетними, механизмы фильтрации изображений реальных людей для снижения степени их узнаваемости, а также распознавание и потенциальное ограничение использования фотографий известных политиков и знаменитостей.
Впрочем, Character.AI уже сталкивается с вызовами в области безопасности своей основной платформы. Против стартапа были поданы иски от родителей, утверждающих, что общение с чат-ботами сервиса побуждало их детей к самоповреждению и другим опасным действиям.
В ответ на подобные обвинения компания заявляет о работе над улучшением родительского контроля и внедрении дополнительных защитных механизмов. Однако появление технологии генерации видео может сделать взаимодействие пользователей, особенно молодых, с виртуальными персонажами еще более реалистичным и эмоционально вовлекающим, что потенциально повышает риски манипуляций. Эксперты отмечают, что даже самые совершенные инструменты контроля эффективны лишь при условии их правильного использования и осведомленности со стороны взрослых, при этом существует вероятность того, что дети могут скрывать использование подобных ИИ-сервисов от своих родителей.


