Icma.az
close
up
AZ
Menu

Убийство таджикского мальчика в России. Душанбе негодует! наш комментарий

В Баку молодая женщина отравилась угарным газом

Рецепт от Лукашенко: заморозить конфликт от начала до конца

Таджикистан вручил ноту российскому послу Minval Politika

Джейкоб Элорди грубо ответил надоевшему фотографу

Сабах упускает свой шанс в ЛЧ

ФИФА объявила символическую сборную 2025 года на премии The Best

Экспорт Азербайджана превысил импорт: положительное сальдо составило более $2,2 млрд

В Екатеринбурге Маяковского обвинили в дискредитации армии

В Таиланде высказались о ситуации в сфере туризма

Выбрана "Мисс Азербайджан 2025" ВИДЕО

Журналисты из недружественных стран смогут задать вопрос Путину на прямой линии

Тяжелая победа Нефтчи, Хиласедиджи против Орду

Трамп намерен выступить с обращением к нации

Армения и Люксембург заключили стратегическое партнерство Minval Politika

2026 год: Год обороны, безопасности и экономического возрождения

Друг польских детей . Сикорский съязвил Захаровой о Ленине Minval Politika

СБУ поразила истребитель МиГ 31 в Крыму Minval Politika

Зеленский предупредил Запад о том, что Россия уже планирует новый год войны

ВСУ взяли под контроль 90% Купянска

Голосовые клоны и дипфейки: как искусственный интеллект помогает обманывать людей

Голосовые клоны и дипфейки: как искусственный интеллект помогает обманывать людей

Icma.az, ссылаясь на сайт Media az, отмечает.

Эксперты в области кибербезопасности бьют тревогу: с развитием технологий искусственного интеллекта (ИИ) наблюдается резкий рост случаев его использования в преступных целях. Особую обеспокоенность вызывает технология клонирования голоса, которая становится излюбленным инструментом мошенников в социальных сетях и мессенджерах.

Специалист по информационным технологиям Эльвин Аббасов предупреждает о нарастающей угрозе.

«Если мы просто чем-то делимся с близким другом, и он со стороны отправляет нам голосовое сообщение, видео с просьбой оказать материальную помощь или предоставить персональные данные, мы должны заподозрить неладное, ведь у нас нет таких отношений с этим товарищем, а даже если бы и были, или например, вы сотрудник какой-то компании, и HR или кто-то из финансового отдела связывается с вами с просьбой: «отправь мне номер своей карты», - отметил он.

По словам эксперта, современные нейросети достигли такого уровня развития, что могут создавать практически неотличимые от оригинала аудио-, видео- и фотоматериалы. Технология дипфейков позволяет синтезировать голос или изображение любого человека и представить их в контексте любого обращения. Качество таких подделок настолько высоко, что даже профессиональным экспертам бывает сложно определить фальсификацию без специального программного обеспечения.

«Люди должны быть осторожны. Если их голоса появляются в массмедиа, они должны знать, что их голоса и изображения могут быть скопированы. О них могут распространяться видео или изображения, голоса. В нынешнюю эпоху искусственного интеллекта это доступно в открытых ресурсах. То есть, с помощью голосовых сообщений, полученных от любого человека в WhatsApp, вы можете точно клонировать голос этого человека. Эти технологии сейчас существуют», - подчеркивает собеседник.

Между тем Министерство внутренних дел выступило с официальным предупреждением для граждан. Ведомство рекомендует проявлять бдительность и при обнаружении подозрительной активности незамедлительно обращаться в службу «102» или на официальные аккаунты МВД в социальных сетях.

Подробнее - в видеосюжете Xəzər Xəbər:

Продолжайте следить за ситуацией на Icma.az, где мы всегда предоставляем свежие новости.
seeПросмотров:152
embedИсточник:https://media.az
archiveЭта новость заархивирована с источника 11 Июня 2025 15:01
0 Комментариев
Войдите, чтобы оставлять комментарии...
Будьте первыми, кто ответит на публикацию...
topСамые читаемые
Самые обсуждаемые события прямо сейчас

Убийство таджикского мальчика в России. Душанбе негодует! наш комментарий

17 Декабря 2025 23:07see331

В Баку молодая женщина отравилась угарным газом

17 Декабря 2025 11:38see301

Рецепт от Лукашенко: заморозить конфликт от начала до конца

17 Декабря 2025 03:22see299

Таджикистан вручил ноту российскому послу Minval Politika

17 Декабря 2025 14:02see292

Джейкоб Элорди грубо ответил надоевшему фотографу

17 Декабря 2025 08:03see233

Сабах упускает свой шанс в ЛЧ

17 Декабря 2025 01:03see228

ФИФА объявила символическую сборную 2025 года на премии The Best

17 Декабря 2025 01:15see226

Экспорт Азербайджана превысил импорт: положительное сальдо составило более $2,2 млрд

17 Декабря 2025 06:32see225

В Екатеринбурге Маяковского обвинили в дискредитации армии

16 Декабря 2025 21:15see224

В Таиланде высказались о ситуации в сфере туризма

17 Декабря 2025 09:57see219

Выбрана "Мисс Азербайджан 2025" ВИДЕО

17 Декабря 2025 12:12see218

Журналисты из недружественных стран смогут задать вопрос Путину на прямой линии

17 Декабря 2025 02:16see210

Тяжелая победа Нефтчи, Хиласедиджи против Орду

17 Декабря 2025 19:37see206

Трамп намерен выступить с обращением к нации

16 Декабря 2025 23:17see182

Армения и Люксембург заключили стратегическое партнерство Minval Politika

16 Декабря 2025 23:10see173

2026 год: Год обороны, безопасности и экономического возрождения

17 Декабря 2025 12:18see165

Друг польских детей . Сикорский съязвил Захаровой о Ленине Minval Politika

17 Декабря 2025 19:16see163

СБУ поразила истребитель МиГ 31 в Крыму Minval Politika

18 Декабря 2025 15:12see153

Зеленский предупредил Запад о том, что Россия уже планирует новый год войны

17 Декабря 2025 22:17see143

ВСУ взяли под контроль 90% Купянска

17 Декабря 2025 17:20see142
newsПоследние новости
Самые свежие и актуальные события дня