Голосовые клоны и дипфейки: как искусственный интеллект помогает обманывать людей
Icma.az, ссылаясь на сайт Media az, отмечает.
Эксперты в области кибербезопасности бьют тревогу: с развитием технологий искусственного интеллекта (ИИ) наблюдается резкий рост случаев его использования в преступных целях. Особую обеспокоенность вызывает технология клонирования голоса, которая становится излюбленным инструментом мошенников в социальных сетях и мессенджерах.
Специалист по информационным технологиям Эльвин Аббасов предупреждает о нарастающей угрозе.
«Если мы просто чем-то делимся с близким другом, и он со стороны отправляет нам голосовое сообщение, видео с просьбой оказать материальную помощь или предоставить персональные данные, мы должны заподозрить неладное, ведь у нас нет таких отношений с этим товарищем, а даже если бы и были, или например, вы сотрудник какой-то компании, и HR или кто-то из финансового отдела связывается с вами с просьбой: «отправь мне номер своей карты», - отметил он.
По словам эксперта, современные нейросети достигли такого уровня развития, что могут создавать практически неотличимые от оригинала аудио-, видео- и фотоматериалы. Технология дипфейков позволяет синтезировать голос или изображение любого человека и представить их в контексте любого обращения. Качество таких подделок настолько высоко, что даже профессиональным экспертам бывает сложно определить фальсификацию без специального программного обеспечения.
«Люди должны быть осторожны. Если их голоса появляются в массмедиа, они должны знать, что их голоса и изображения могут быть скопированы. О них могут распространяться видео или изображения, голоса. В нынешнюю эпоху искусственного интеллекта это доступно в открытых ресурсах. То есть, с помощью голосовых сообщений, полученных от любого человека в WhatsApp, вы можете точно клонировать голос этого человека. Эти технологии сейчас существуют», - подчеркивает собеседник.
Между тем Министерство внутренних дел выступило с официальным предупреждением для граждан. Ведомство рекомендует проявлять бдительность и при обнаружении подозрительной активности незамедлительно обращаться в службу «102» или на официальные аккаунты МВД в социальных сетях.
Подробнее - в видеосюжете Xəzər Xəbər:
Другие новости на эту тему:
Просмотров:133
Эта новость заархивирована с источника 11 Июня 2025 15:01 



Войти
Новости
Погода
Магнитные бури
Время намаза
Драгоценные металлы
Конвертор валют
Кредитный калькулятор
Курс криптовалют
Гороскоп
Вопрос - Ответ
Проверьте скорость интернета
Радио Азербайджана
Азербайджанское телевидение
О нас
TDSMedia © 2025 Все права защищены







Самые читаемые



















