Icma.az
close
up
AZ
Menu

Украинские дроны бьют по Москве видео

Первое интервью посла РФ в Азербайджане: какова позиция Москвы в связи с мирным соглашением?

Юбилей Лалы Аббасовой: Мир женщины история жизни, рассказанная сердцем (ФОТО)

Зеленский: Цена в $30 за российскую нефть заставит Москву искать мира

Французский легионер покидает Карабах

Совет иностранных инвесторов о новом этапе экономической трансформации Узбекистана (Эксклюзив)

В США заявили, что Иран активно работает над созданием ядерного оружия

В Индонезии обсудили расширение сотрудничества со структурами оборонпрома Азербайджана (ФОТО)

Осимхен стремится в Манчестер Юнайтед

ХАМАС убивает произраильских палестинцев

Nintendo Switch 2 установила новый рекорд

В Азербайджане оборот объектов торговли и услуг, использующих современные ККА, вырос почти на 12%

Курсы валют Центрального банка Азербайджана (11.06.2025)

Уиткофф: Трамп способен совмещать роль президента США и премьер министра Израиля

Ташкент передал Москве ноту из за грубого обращения с гражданами Узбекистана в РФ

Ильхам Алиев поднял выплаты героям

Европа ударит по России в 18 й раз наш обзор

WTTC : Этот год станет годом прорыва туризма в Азербайджане

Milli Məclisin sədri Sahibə Qafarova Astanada Nurdinjon İsmoilov ilə qarşılıqlı maraq doğuran məsələləri müzakirə edib

У берегов Антарктиды впервые засняли редкого глубоководного кальмара

Голосовые клоны и дипфейки: как искусственный интеллект помогает обманывать людей

Голосовые клоны и дипфейки: как искусственный интеллект помогает обманывать людей

Icma.az, ссылаясь на сайт Media az, отмечает.

Эксперты в области кибербезопасности бьют тревогу: с развитием технологий искусственного интеллекта (ИИ) наблюдается резкий рост случаев его использования в преступных целях. Особую обеспокоенность вызывает технология клонирования голоса, которая становится излюбленным инструментом мошенников в социальных сетях и мессенджерах.

Специалист по информационным технологиям Эльвин Аббасов предупреждает о нарастающей угрозе.

«Если мы просто чем-то делимся с близким другом, и он со стороны отправляет нам голосовое сообщение, видео с просьбой оказать материальную помощь или предоставить персональные данные, мы должны заподозрить неладное, ведь у нас нет таких отношений с этим товарищем, а даже если бы и были, или например, вы сотрудник какой-то компании, и HR или кто-то из финансового отдела связывается с вами с просьбой: «отправь мне номер своей карты», - отметил он.

По словам эксперта, современные нейросети достигли такого уровня развития, что могут создавать практически неотличимые от оригинала аудио-, видео- и фотоматериалы. Технология дипфейков позволяет синтезировать голос или изображение любого человека и представить их в контексте любого обращения. Качество таких подделок настолько высоко, что даже профессиональным экспертам бывает сложно определить фальсификацию без специального программного обеспечения.

«Люди должны быть осторожны. Если их голоса появляются в массмедиа, они должны знать, что их голоса и изображения могут быть скопированы. О них могут распространяться видео или изображения, голоса. В нынешнюю эпоху искусственного интеллекта это доступно в открытых ресурсах. То есть, с помощью голосовых сообщений, полученных от любого человека в WhatsApp, вы можете точно клонировать голос этого человека. Эти технологии сейчас существуют», - подчеркивает собеседник.

Между тем Министерство внутренних дел выступило с официальным предупреждением для граждан. Ведомство рекомендует проявлять бдительность и при обнаружении подозрительной активности незамедлительно обращаться в службу «102» или на официальные аккаунты МВД в социальных сетях.

Подробнее - в видеосюжете Xəzər Xəbər:

Продолжайте следить за ситуацией на Icma.az, где мы всегда предоставляем свежие новости.
seeПросмотров:77
embedИсточник:https://media.az
archiveЭта новость заархивирована с источника 11 Июня 2025 15:01
0 Комментариев
Войдите, чтобы оставлять комментарии...
Будьте первыми, кто ответит на публикацию...
topСамые читаемые
Самые обсуждаемые события прямо сейчас

Украинские дроны бьют по Москве видео

12 Июня 2025 10:16see376

Первое интервью посла РФ в Азербайджане: какова позиция Москвы в связи с мирным соглашением?

12 Июня 2025 01:45see170

Юбилей Лалы Аббасовой: Мир женщины история жизни, рассказанная сердцем (ФОТО)

11 Июня 2025 17:14see131

Зеленский: Цена в $30 за российскую нефть заставит Москву искать мира

11 Июня 2025 01:02see129

Французский легионер покидает Карабах

11 Июня 2025 21:46see121

Совет иностранных инвесторов о новом этапе экономической трансформации Узбекистана (Эксклюзив)

11 Июня 2025 12:19see121

В США заявили, что Иран активно работает над созданием ядерного оружия

12 Июня 2025 03:48see117

В Индонезии обсудили расширение сотрудничества со структурами оборонпрома Азербайджана (ФОТО)

11 Июня 2025 19:05see117

Осимхен стремится в Манчестер Юнайтед

11 Июня 2025 03:30see117

ХАМАС убивает произраильских палестинцев

11 Июня 2025 10:49see116

Nintendo Switch 2 установила новый рекорд

11 Июня 2025 11:47see116

В Азербайджане оборот объектов торговли и услуг, использующих современные ККА, вырос почти на 12%

11 Июня 2025 13:14see116

Курсы валют Центрального банка Азербайджана (11.06.2025)

11 Июня 2025 09:17see116

Уиткофф: Трамп способен совмещать роль президента США и премьер министра Израиля

12 Июня 2025 16:13see116

Ташкент передал Москве ноту из за грубого обращения с гражданами Узбекистана в РФ

11 Июня 2025 01:36see115

Ильхам Алиев поднял выплаты героям

12 Июня 2025 17:30see115

Европа ударит по России в 18 й раз наш обзор

11 Июня 2025 01:54see114

WTTC : Этот год станет годом прорыва туризма в Азербайджане

11 Июня 2025 12:57see114

Milli Məclisin sədri Sahibə Qafarova Astanada Nurdinjon İsmoilov ilə qarşılıqlı maraq doğuran məsələləri müzakirə edib

11 Июня 2025 20:50see114

У берегов Антарктиды впервые засняли редкого глубоководного кальмара

12 Июня 2025 02:25see112
newsПоследние новости
Самые свежие и актуальные события дня