Голосовые клоны и дипфейки: как искусственный интеллект помогает обманывать людей
Icma.az, ссылаясь на сайт Media az, отмечает.
Эксперты в области кибербезопасности бьют тревогу: с развитием технологий искусственного интеллекта (ИИ) наблюдается резкий рост случаев его использования в преступных целях. Особую обеспокоенность вызывает технология клонирования голоса, которая становится излюбленным инструментом мошенников в социальных сетях и мессенджерах.
Специалист по информационным технологиям Эльвин Аббасов предупреждает о нарастающей угрозе.
«Если мы просто чем-то делимся с близким другом, и он со стороны отправляет нам голосовое сообщение, видео с просьбой оказать материальную помощь или предоставить персональные данные, мы должны заподозрить неладное, ведь у нас нет таких отношений с этим товарищем, а даже если бы и были, или например, вы сотрудник какой-то компании, и HR или кто-то из финансового отдела связывается с вами с просьбой: «отправь мне номер своей карты», - отметил он.
По словам эксперта, современные нейросети достигли такого уровня развития, что могут создавать практически неотличимые от оригинала аудио-, видео- и фотоматериалы. Технология дипфейков позволяет синтезировать голос или изображение любого человека и представить их в контексте любого обращения. Качество таких подделок настолько высоко, что даже профессиональным экспертам бывает сложно определить фальсификацию без специального программного обеспечения.
«Люди должны быть осторожны. Если их голоса появляются в массмедиа, они должны знать, что их голоса и изображения могут быть скопированы. О них могут распространяться видео или изображения, голоса. В нынешнюю эпоху искусственного интеллекта это доступно в открытых ресурсах. То есть, с помощью голосовых сообщений, полученных от любого человека в WhatsApp, вы можете точно клонировать голос этого человека. Эти технологии сейчас существуют», - подчеркивает собеседник.
Между тем Министерство внутренних дел выступило с официальным предупреждением для граждан. Ведомство рекомендует проявлять бдительность и при обнаружении подозрительной активности незамедлительно обращаться в службу «102» или на официальные аккаунты МВД в социальных сетях.
Подробнее - в видеосюжете Xəzər Xəbər:


