05 mart 2026 10:45
115

Dipfeyklərdən necə qorunaq?

İnsanlar artıq həqiqi  ilə saxta materialı ayırd etməkdə çətinlik şəkirlər

Rəqəmsal texnologiyaların inkişafı informasiya istehsalını sürətləndirdiyi kimi, onun manipulyasiya imkanlarını da genişləndirir. Son illərdə süni intellekt əsaslı dipfeyk texnologiyası informasiya təhlükəsizliyi gündəminin ən həssas mövzularından birinə çevrilib. “Deepfake” termini ilk dəfə 2017-ci ildə internet forumlarında istifadə olunmağa başlayıb və qısa müddətdə həm media, həm də təhlükəsizlik dairələrinin diqqətini cəlb edib. Texnologiyanın əsasında duran əsas mexanizm generativ neyron şəbəkələr,  xüsusilə Generative Adversarial Networks (GAN) modelləridir ki, bu da real insanın səsini, mimikasını və görüntüsünü yüksək dəqiqliklə imitasiya etməyə imkan verir.

Məsələ artıq yalnız məşhurların görüntülərinin dəyişdirilməsi ilə məhdudlaşmır. ABŞ-ın Federal Bureau of Investigation qurumu 2023-cü ildə yaydığı rəsmi xəbərdarlıqda dipfeyk texnologiyasının işə qəbul proseslərində, maliyyə fırıldaqlarında və korporativ kiberhücumlarda istifadə edildiyini bildirib. Qurumun məlumatına görə, bəzi hallarda saxta videomüsahibələr vasitəsilə şirkətlərə sızma cəhdləri qeydə alınıb. Bu fakt göstərir ki, dipfeyk artıq təkcə informasiya manipulyasiyası deyil, iqtisadi təhlükəsizlik məsələsidir.

Saxta səs, real milyonlar - Yeni nəsil fırıldaqçılıq

Texnologiyanın siyasi riskləri isə daha genişmiqyaslıdır. "Europol" 2022-ci ildə yaydığı qiymətləndirmə hesabatında xəbərdarlıq edib ki, yaxın illərdə onlayn məzmunun böyük hissəsi süni şəkildə yaradılacaq və bunun mühüm qismi dezinformasiya məqsədi daşıyacaq. Xüsusilə seçki prosesləri, ictimai etimad və sosial sabitlik dipfeyklərin əsas hədəfləri sırasında göstərilir. Bu isə o deməkdir ki, problem təkcə fərdi reputasiya deyil, demokratik institutların dayanıqlığı ilə də bağlıdır.

Texnoloji inkişafın sürəti təhlükənin miqyasını artırır. "MIT Media Lab" tərəfindən aparılan araşdırmalar göstərir ki, insanlar vizual məzmunu mətn informasiyasına nisbətən daha tez və daha az tənqidi filtrdən keçirərək qəbul edir. Bu psixoloji xüsusiyyət dipfeykləri xüsusilə təhlükəli alətə çevirir. Çünki real görünən video və ya səs yazısı fakt yoxlamadan əvvəl emosional reaksiya doğurur və paylaşılır.

Göz gördüyünə inanır, ağıl gecikir

Analitik baxımdan dipfeyk təhlükəsi üç istiqamətdə qiymətləndirilir. Belə ki, informasiya müharibəsi, iqtisadi cinayətkarlıq və sosial-psixoloji təsir. İnformasiya müharibəsi kontekstində dipfeyklər dövlətlərarası rəqabətdə təsir vasitəsinə çevrilə bilər. Saxta bəyanatlar, montaj edilmiş çıxışlar və ya böhran anlarında yayılan manipulyativ videolar ictimai panika yarada bilər. İqtisadi sahədə isə korporativ rəhbərlərin saxta səs yazıları ilə böyük məbləğdə pul köçürmələrinin həyata keçirildiyi hallara rast gəlinir. Beynəlxalq mediada işıqlandırılan bir neçə hadisədə şirkət rəhbərinin səsini təqlid edən zəng nəticəsində milyonlarla dollar vəsaitin köçürüldüyü qeyd olunub.

Sosial-psixoloji təsir isə daha incədir. Dipfeyklər təkcə konkret şəxsi hədəfə almır, eyni zamanda, “heç nəyə inanma” sindromunu gücləndirir. Bu fenomen beynəlxalq ekspertlər tərəfindən “reallığın eroziyası” kimi xarakterizə olunur. Yəni, insanlar artıq həqiqi video ilə saxta materialı ayırd etməkdə çətinlik çəkdikcə ümumi etimad mühiti zəifləyir. Bu isə informasiya mühitinin xaotikləşməsinə gətirib çıxarır.

Bəs çıxış yolu varmı?

Analitiklər problemin yalnız texniki vasitələrlə həll olunmasının mümkün olmadığını vurğulayır. Birincisi, texnoloji cavab mexanizmləri vacibdir. Böyük texnologiya şirkətləri süni intellektlə yaradılan kontentin aşkarlanması üçün alqoritmlər üzərində işləyir. "Microsoft" və "Google" kimi şirkətlər media autentifikasiyası və rəqəmsal su nişanları (watermark) texnologiyalarını tətbiq etməyə başlayıblar. Bu yanaşma kontentin mənşəyini izləməyə imkan yaradır.

İkincisi, hüquqi çərçivə formalaşdırılmalıdır. "European Union" tərəfindən qəbul edilən “AI Act” sənədi süni intellekt məhsullarına şəffaflıq tələbləri qoyur və istifadəçilərin məlumatlandırılmasını nəzərdə tutur. Bu, dipfeyk məzmununun etiketsiz yayılmasının qarşısını almağa yönəlmiş ilk sistemli addımlardan sayılır.

Üçüncüsü və ən vacibi isə media savadlılığıdır. Texnologiya nə qədər inkişaf etsə də, son qərarı verən insandır. İstifadəçi emosional reaksiya vermədən əvvəl mənbəni yoxlamağı, alternativ informasiya kanallarına baxmağı və rəsmi açıqlamaları gözləməyi öyrənməlidir. İnformasiya təhlükəsizliyi artıq yalnız dövlət strukturlarının deyil, hər bir vətəndaşın məsuliyyət sahəsinə daxildir.

İnformasiya müharibəsi riskləri ilə üzləşmiş ölkələr üçün dipfeyk təhlükəsi xüsusilə aktualdır. Regionda geosiyasi həssaslıq nəzərə alınarsa, saxta video və ya audiomaterialların ictimai rəyə təsir imkanları real təhlükə kimi qiymətləndirilə bilər. Bu baxımdan kibertəhlükəsizlik strategiyalarında süni intellekt əsaslı manipulyasiyalara qarşı xüsusi bölmələrin ayrılması zəruridir.

Beləliklə, dipfeyklər texnoloji innovasiyanın qaranlıq tərəfini nümayiş etdirir. Onlarla mübarizə qadağalarla deyil, kompleks yanaşma ilə mümkündür. Bu baxımdan texnoloji nəzarət mexanizmləri, hüquqi tənzimləmə və cəmiyyətin informasiya immunitetinin gücləndirilməsi paralel aparılmalıdır. Əks halda, reallıqla manipulyasiya arasındakı sərhəd daha da silinəcək və informasiya mühiti etibarlılıq böhranı ilə üzləşəcək.

Nigar Orucova, "İki sahil"