Icma.az
close
up
AZ
Menu

Форвард Динамо отказал Азербайджану и выбрал Россию

Украинская армия получила истребители танков

Студенты Карабахского университета будут стажироваться в SOCAR ФОТО

Сикорский допустил возможность выхода Польши из Евросоюза

Фестиваль современной драматургии CHARACTERS объявляет новый конкурс пьес

Экипажи вертолетов и пилоты штурмовиков ВКС России получили новые пистолеты

Махир Эмрели опубликовал эмоциональный пост в память о двоюродном брате

В Финляндии взорвался припаркованный возле отеля фургон, погибли два человека

Трагически погиб легендарный турецкий актер Энгин Чаглар

В Турции трагически погиб азербайджанский студент ФОТО

Балтийский бастион: военные потенциалы Латвии, Литвы и Эстонии АНАЛИЗ от Baku Network

В Ханкенди прошла конференция в рамках Года Конституции и суверенитета (ФОТО)

Минск против железных занавесов Аналитика Лиманского

Супруга главы МИД Армении вошла в комиссию по разблокировке коммуникаций с Азербайджаном

В России после начала войны новый всплеск домашнего насилия

Принципиальный матч Нефтчи Габала

Посол Словакии: Участники визита получили ценные сведения о восстановительных проектах

Владельцу отеля и всей его семье дали пожизненное

Украинские Нептуны обесточили военные заводы в Орловской области

Президенту Народной Демократической Республики Алжир Его превосходительству господину Абдельмаджиду Теббуну

Голосовые клоны и дипфейки: как искусственный интеллект помогает обманывать людей

Голосовые клоны и дипфейки: как искусственный интеллект помогает обманывать людей

Icma.az, ссылаясь на сайт Media az, отмечает.

Эксперты в области кибербезопасности бьют тревогу: с развитием технологий искусственного интеллекта (ИИ) наблюдается резкий рост случаев его использования в преступных целях. Особую обеспокоенность вызывает технология клонирования голоса, которая становится излюбленным инструментом мошенников в социальных сетях и мессенджерах.

Специалист по информационным технологиям Эльвин Аббасов предупреждает о нарастающей угрозе.

«Если мы просто чем-то делимся с близким другом, и он со стороны отправляет нам голосовое сообщение, видео с просьбой оказать материальную помощь или предоставить персональные данные, мы должны заподозрить неладное, ведь у нас нет таких отношений с этим товарищем, а даже если бы и были, или например, вы сотрудник какой-то компании, и HR или кто-то из финансового отдела связывается с вами с просьбой: «отправь мне номер своей карты», - отметил он.

По словам эксперта, современные нейросети достигли такого уровня развития, что могут создавать практически неотличимые от оригинала аудио-, видео- и фотоматериалы. Технология дипфейков позволяет синтезировать голос или изображение любого человека и представить их в контексте любого обращения. Качество таких подделок настолько высоко, что даже профессиональным экспертам бывает сложно определить фальсификацию без специального программного обеспечения.

«Люди должны быть осторожны. Если их голоса появляются в массмедиа, они должны знать, что их голоса и изображения могут быть скопированы. О них могут распространяться видео или изображения, голоса. В нынешнюю эпоху искусственного интеллекта это доступно в открытых ресурсах. То есть, с помощью голосовых сообщений, полученных от любого человека в WhatsApp, вы можете точно клонировать голос этого человека. Эти технологии сейчас существуют», - подчеркивает собеседник.

Между тем Министерство внутренних дел выступило с официальным предупреждением для граждан. Ведомство рекомендует проявлять бдительность и при обнаружении подозрительной активности незамедлительно обращаться в службу «102» или на официальные аккаунты МВД в социальных сетях.

Подробнее - в видеосюжете Xəzər Xəbər:

Продолжайте следить за ситуацией на Icma.az, где мы всегда предоставляем свежие новости.
seeПросмотров:133
embedИсточник:https://media.az
archiveЭта новость заархивирована с источника 11 Июня 2025 15:01
0 Комментариев
Войдите, чтобы оставлять комментарии...
Будьте первыми, кто ответит на публикацию...
topСамые читаемые
Самые обсуждаемые события прямо сейчас

Форвард Динамо отказал Азербайджану и выбрал Россию

01 Ноября 2025 13:34see280

Украинская армия получила истребители танков

01 Ноября 2025 16:44see247

Студенты Карабахского университета будут стажироваться в SOCAR ФОТО

01 Ноября 2025 10:20see216

Сикорский допустил возможность выхода Польши из Евросоюза

31 Октября 2025 18:30see185

Фестиваль современной драматургии CHARACTERS объявляет новый конкурс пьес

31 Октября 2025 17:31see181

Экипажи вертолетов и пилоты штурмовиков ВКС России получили новые пистолеты

01 Ноября 2025 15:33see176

Махир Эмрели опубликовал эмоциональный пост в память о двоюродном брате

02 Ноября 2025 05:00see165

В Финляндии взорвался припаркованный возле отеля фургон, погибли два человека

02 Ноября 2025 06:31see160

Трагически погиб легендарный турецкий актер Энгин Чаглар

01 Ноября 2025 13:37see156

В Турции трагически погиб азербайджанский студент ФОТО

01 Ноября 2025 10:04see153

Балтийский бастион: военные потенциалы Латвии, Литвы и Эстонии АНАЛИЗ от Baku Network

31 Октября 2025 17:01see144

В Ханкенди прошла конференция в рамках Года Конституции и суверенитета (ФОТО)

31 Октября 2025 21:13see142

Минск против железных занавесов Аналитика Лиманского

31 Октября 2025 19:05see136

Супруга главы МИД Армении вошла в комиссию по разблокировке коммуникаций с Азербайджаном

31 Октября 2025 18:54see136

В России после начала войны новый всплеск домашнего насилия

31 Октября 2025 17:42see134

Принципиальный матч Нефтчи Габала

02 Ноября 2025 10:32see133

Посол Словакии: Участники визита получили ценные сведения о восстановительных проектах

31 Октября 2025 19:50see131

Владельцу отеля и всей его семье дали пожизненное

31 Октября 2025 17:00see127

Украинские Нептуны обесточили военные заводы в Орловской области

31 Октября 2025 19:56see127

Президенту Народной Демократической Республики Алжир Его превосходительству господину Абдельмаджиду Теббуну

01 Ноября 2025 20:01see125
newsПоследние новости
Самые свежие и актуальные события дня