Icma.az
close
up
RU
Gördüyümüz hər şey doğrudurmu? Deepfake TƏHLÜKƏSİ

Gördüyümüz hər şey doğrudurmu? Deepfake TƏHLÜKƏSİ

Bizim media saytından verilən məlumata əsasən, Icma.az məlumatı açıqlayır.

Rəqəmsal texnologiyaların sürətli inkişafı informasiya mühitində yeni imkanlarla yanaşı, ciddi risklər də yaradıb. Bu risklərdən biri də son illərdə geniş yayılmağa başlayan deepfake məlumatlardır. Deepfake texnologiyası reallıqla saxtanı bir-birindən ayırmağı çətinləşdirərək cəmiyyət, media və fərdlər üçün təhlükəli nəticələr doğura bilər və ölkə olaraq biz bü cür təhlükəli məqamlarla tez-tez qarşılaşırıq.
Dünən Azərbaycan Respublikası Prezidentinin köməkçisi – Azərbaycan Respublikası Prezidentinin Administrasiyasının Xarici siyasət məsələləri şöbəsinin müdiri Hikmət Hacıyevin adından "deepfake" texnologiyası tətbiq olunmaqla hazırlanmış saxta məzmunlu daha bir videonun yayılması dediklərimi bir daha təsdiq edir.
Bu videoya görə Azərbaycan Respublikasının Medianın İnkişafı Agentliyi (MEDİA) açıqlama yaymağa məcbur oldu:
"Süni intellektin köməyi ilə hazırlanmış, ictimai rəyi çaşdırmağa yönələn bu dezinformasiya nümunəsi Azərbaycan və Türkiyə arasında olan münasibətləri zədələməyə, iki qardaş ölkə arasında mövcud olan strateji müttəfiqliyə xələl gətirməyə və qarşılıqlı etimadı sarsıtmağa xidmət edir.
Cəmiyyəti yalnız rəsmi mənbələrin verdiyi informasiyaya inanmağa, jurnalistləri, ictimai fəalları bu kimi hallara qarşı hər zaman prinsipiallıq nümayiş etdirməyə, saxta və yalan məlumat əsaslı kampaniyaların, "deepfake" texnologiyaları ilə məzmunyaratma tendensiyasının vüsət aldığı bir şəraitdə sayıq olmağa səsləyirik".
Göründüyü kimi, artıq cəmiyyət demək olar hər gün ortaya çıxan yeni bir problemlə üz-üzə qalır və təbii olaraq həmin problemlərlə mübarizə immuniteti də yaranmaqdadır. Bu cur zərərli vasitələrə qarşı ən yaxşı mübarizə isə maariflənmə, diqqət və texnoloji bilgilərdir.
Bəs deepfake nədir və onun təhlükələri nədən ibarətdir?
Deepfake süni intellekt və dərin öyrənmə (deep learning) alqoritmləri vasitəsilə yaradılan, real insana aid saxta video, səs və ya görüntülərdir. Bu texnologiya mövcud şəkil, video və səs materiallarını analiz edərək bir insanın üzünü, mimikasını və səsini başqa bir video və ya audio fayla tətbiq etməyə imkan verir.Nəticədə, insanın heç vaxt demədiyi sözləri deyirmiş və ya etmədiyi hərəkətləri edirmiş kimi göstərən olduqca inandırıcı məzmun yaranır. Deepfake texnologiyası ilkin mərhələdə kino və əyləncə sənayesində istifadə olunsa da, bu gün daha çox dezinformasiya və fırıldaqçılıq aləti kimi diqqət çəkir.
Mütəxəssislər əsas təhlükələri belə sıralayır:
Dezinformasiya və ictimai manipulyasiya – saxta siyasi çıxışlar və xəbərlər
Maliyyə fırıldaqları – səs deepfake vasitəsilə rəhbər və ya yaxın adam adı ilə pul tələb edilməsi
Şəxsi nüfuzun zədələnməsi – fərdlərin adından saxta videoların yayılması
Psixoloji və sosial təsirlər – cəmiyyətin informasiyaya olan etibarının azalması
Bu hallar informasiya təhlükəsizliyi anlayışını yeni mərhələyə çıxarır.
Deepfake-i aşkar etmək niyə çətindir?
Müasir deepfakelər texniki baxımdan o qədər inkişaf edib ki, adi istifadəçi üçün onları ayırd etmək çətindir. Çünki süni intellekt real mimikanı təqlid edir, səs tonunu və emosiyanı kopyalayır, video keyfiyyətini təbii saxlayır. Bu səbəbdən yalnız texniki bilik deyil, tənqidi düşüncə də vacib rol oynayır.
Deepfake məlumatlardan necə qorunmaq olar?
İlk növbədə Tənqidi yanaşma formalaşdırmaq, hər görünən video və eşidilən səsə dərhal inanmaq olmaz. Xüsusilə, “təcili” xarakterli çağırışlar, pul və ya şəxsi məlumat tələbləri şübhə ilə qarşılanmalıdır. Məlumatı alternativ mənbələrdən yoxlamaq da vacibdir. Əhəmiyyətli bir xəbər və ya açıqlama yalnız bir mənbədə varsa, onun doğruluğu sual altındadır. Etibarlı media və rəsmi kanallar əsas meyar olmalıdır. Rəsmi qaynaqlarla işləmək vacib amildir. Sosial mediada, açıq platformalarda çoxlu video və səs paylaşmaq deepfake yaradılmasını asanlaşdırır. Xüsusilə şəxsi və peşəkar məlumatların qorunması vacibdir.
Rəqəmsal savadlılığı artırmaq
Deepfake texnologiyası haqqında məlumatlı olan insan:
manipulyasiyanı daha tez anlayır,
emosional qərarlar vermir,
informasiya təhlükəsizliyinə daha məsuliyyətlə yanaşır.
Təbii ki, rəqəmsal savadlılığa elə ailədən, uşaqlardan, məktəblərdən başlamaq lazımdır. Uşaqların deepfake və ümumilikdə rəqəmsal saxtakarlıqlar barədə məlumatlandırılması müasir təhsil sisteminin vacib tərkib hissəsinə çevrilməlidir. Məktəblərdə bu istiqamətdə şagirdlərin yaş səviyyəsinə uyğun rəqəmsal savadlılıq dərsləri, real və saxta məzmunu ayırd etməyə yönəlmiş praktik nümunələr, həmçinin onlayn təhlükəsizlik və şəxsi məlumatların qorunması mövzusunda maarifləndirici müzakirələr aparıla bilər. Müəllimlər şagirdlərə hər gördükləri video və ya eşitdikləri məlumata tənqidi yanaşmağı, şübhəli hallarda valideyn və ya müəllimə müraciət etməyin vacibliyini aşılamalıdırlar. Bu cür sistemli iş uşaqların həm informasiya manipulyasiyasından qorunmasına, həm də məsuliyyətli rəqəmsal vətəndaş kimi formalaşmasına töhfə verər.
Nəticə etibari ilə
Deepfake məlumatlar müasir dövrün ən ciddi informasiya təhlükələrindən biridir. Texnologiyanın inkişafı qarşısında tam müdafiə mümkün olmasa da, məlumatlılıq, tənqidi düşüncə və düzgün davranış vərdişləri bu riskləri minimuma endirə bilər. Cəmiyyət olaraq əsas vəzifə yalnız texnologiyanı izləmək deyil, onu düzgün istifadə etməyi də  öyrənməkdir.
Sahil Tahirli
Media mütəxəssisi

Ən son yeniliklər və məlumatlar üçün Icma.az saytını izləyin, biz hadisənin gedişatını izləyirik və ən aktual məlumatları təqdim edirik.
seeBaxış sayı:52
embedMənbə:https://bizim.media
archiveBu xəbər 28 Yanvar 2026 21:04 mənbədən arxivləşdirilmişdir
0 Şərh
Daxil olun, şərh yazmaq üçün...
İlk cavab verən siz olun...
topGünün ən çox oxunanları
Hal-hazırda ən çox müzakirə olunan hadisələr

Londonda Cənubi Qafqazda sülh və regional təhlükəsizlik məsələləri müzakirə olunub

28 Yanvar 2026 06:56see341

Vensin səfəri həm də bəzi qüvvələrə ABŞ ın siyasi mesajıdır

27 Yanvar 2026 11:50see277

Yeni yaradılan Komando briqadasının komandiri kimdir? VİDEO

27 Yanvar 2026 05:37see231

Dəhşətli müharibənin astanasındayıq: ölkə sərhədlərini aşacaq Türk ekspert

28 Yanvar 2026 01:54see210

“Nikosayağı” 3 il sonra ilk dəfə öz görüntüsünü PAYLAŞDI VİDEO

27 Yanvar 2026 00:39see194

Saat 10:00 da qaz kəsiləcək Bu ərazilərdə

28 Yanvar 2026 09:42see189

Çin şirkəti Anta Sports Puma nın ən böyük səhmdarı olacaq

27 Yanvar 2026 22:03see186

PAŞA Bank səhmlərinin 5% ni hərraca çıxaracaq

28 Yanvar 2026 11:10see176

Qarabağ ın vingeri MLS liqasında?

27 Yanvar 2026 17:12see170

Nazirlikdə ixtisarlar: Bu şəxslər işdən çıxarıldı SİYAHI

26 Yanvar 2026 23:37see169

Nazirlərin və komitə sədrlərinin qəbuluna düşmək istəyənlərin NƏZƏRİNƏ

27 Yanvar 2026 13:00see168

Liverpul Qarabağ la oyunun hazırlığını başa vurdu FOTOLAR

27 Yanvar 2026 19:28see163

Azərbaycan ABŞ münasibətlərində yeni mərhələnin siyasi anatomiyası ŞƏRH

27 Yanvar 2026 15:09see158

Əhalinin faktiki yaşayış yerinə əsaslanan məlumat bazası hazırlanır Zaur Əliyev

27 Yanvar 2026 10:58see155

Pinqvin hekayəsi Azərbaycanda gəlirə çevrildi FOTO

27 Yanvar 2026 12:23see155

Ən çox şikayət olunan bankları hansı cəza gözləyir?

28 Yanvar 2026 15:56see152

Məhyəddin Aydəmirov vəfat etdi Foto KONKRET

27 Yanvar 2026 00:38see150

“Everton” “Lids”lə oyun məğlubiyyətdən qurtarıb VİDEO

27 Yanvar 2026 02:12see150

İsrail İrana cavab zərbəsinə hazırlaşır

27 Yanvar 2026 13:54see145

“Qarabağ” “Enfild Roud”da Fotolar+Video

27 Yanvar 2026 22:58see136
newsSon xəbərlər
Günün ən son və aktual hadisələri