18 mart 2026 00:35
113

Hüquq, texnologiya və etimadın sınağı - Süni intellekt

Ekspert: Dürüst istifadəçilər təzyiq altında qalmasın – bu, rəqəmsal ekosistemin sağlam qalmasının əsas şərtidir

Rəqəmsal texnologiyaların sürətli inkişafı informasiya mühitini köklü şəkildə dəyişdirməklə yanaşı, yeni risklər və çağırışlar da yaradır. Xüsusilə süni intellekt əsaslı alətlərin geniş yayılması informasiyanın yaradılması və yayılması prosesini asanlaşdırmaqla yanaşı, onun manipulyasiya olunması imkanlarını da xeyli artırır. Belə bir şəraitdə hüquqi tənzimləmələrin təkmilləşdirilməsi artıq zərurətə çevrilir. Milli Məclisdə süni intellekt vasitəsilə qanunsuz materialların hazırlanması və yayılmasına görə məsuliyyətin sərtləşdirilməsini nəzərdə tutan qanun layihəsinin ilk oxunuşda qəbul edilməsi də məhz bu reallığın nəticəsi kimi qiymətləndirilir.

Yeni dəyişikliklər bir daha göstərir ki, müasir dövrdə informasiya təhlükəsizliyi yalnız texniki məsələ deyil, həm də hüquqi və sosial məsuliyyət məsələsidir. Layihəyə əsasən, şəxsin razılığı olmadan onun görüntüsü və ya səsi əsasında reallığı əks etdirməyən foto, video və audio materialların hazırlanması və yayılması ciddi hüquqi məsuliyyət yaradır. Bu yanaşma xüsusilə son illərdə geniş yayılan və ictimai rəyə təsir imkanları ilə seçilən saxta vizual və audio materialların qarşısının alınmasına yönəlib.

Süni intellekt texnologiyalarının yaratdığı ən böyük təhlükələrdən biri reallıqla manipulyasiya imkanlarının artmasıdır. Artıq xüsusi proqram təminatları vasitəsilə istənilən şəxsin səsini və ya görüntüsünü imitasiya etmək, onu heç vaxt demədiyi sözləri deyirmiş kimi təqdim etmək və ya baş verməyən hadisələri real görüntü kimi göstərmək mümkündür. Bu isə yalnız ayrı-ayrı şəxslərin nüfuzuna zərər vurmaqla kifayətlənmir, bütövlükdə cəmiyyətin informasiya mühitinə olan etimadını sarsıdır.

Cəzalar yalnız kağız üzərində deyil...

Qanun layihəsində nəzərdə tutulan cərimələr və cəza tədbirləri də məhz bu risklərin ciddiliyini əks etdirir. Maddi sanksiyalarla yanaşı, ictimai işlər və azadlığın məhdudlaşdırılması kimi tədbirlərin tətbiqi süni intellektdən sui-istifadənin qarşısını almağa yönəlmiş preventiv mexanizm kimi çıxış edir. Xüsusilə əməlin ağırlaşdırıcı hallarda törədilməsi zamanı daha sərt cəzaların nəzərdə tutulması qanunun yalnız formal xarakter daşımadığını, real təsir gücünə malik olacağını göstərir.

Eyni zamanda, layihədə süni intellekt vasitəsilə hazırlanmış materialların xüsusi nişanlanma ilə təqdim edilməsi tələbinin irəli sürülməsi informasiya şəffaflığının təmin edilməsi baxımından əhəmiyyətlidir. Bu yanaşma istifadəçilərə təqdim olunan məzmunun real olub-olmaması barədə ilkin təsəvvür formalaşdırmağa imkan verir və manipulyasiya risklərini müəyyən qədər azaldır. Belə bir mexanizmin tətbiqi informasiya savadlılığının artırılması ilə yanaşı, media mühitində etibarlılığın qorunmasına da xidmət edir.

Beynəlxalq səhnədə süni intellekt risklərinə qarşı

Qlobal miqyasda da oxşar tendensiyaların müşahidə olunması Azərbaycanın bu sahədə atdığı addımların beynəlxalq çağırışlarla uzlaşdığını göstərir. Bir çox ölkələr artıq süni intellektin yaratdığı risklərin hüquqi çərçivəyə salınması istiqamətində konkret addımlar atır. Bu baxımdan milli qanunvericiliyin təkmilləşdirilməsi həm daxili informasiya təhlükəsizliyinin təmin edilməsi, həm də beynəlxalq təcrübəyə uyğunlaşma baxımından vacib əhəmiyyət daşıyır.

Müasir dövrdə informasiya yalnız xəbər mənbəyi deyil, eyni zamanda, təsir və yönləndirmə alətidir. Bu səbəbdən onun etibarlılığı məsələsi getdikcə daha böyük əhəmiyyət kəsb edir. Süni intellekt texnologiyalarının imkanları genişləndikcə, bu imkanlardan məsuliyyətli istifadə məsələsi də ön plana çıxır. Qanunvericilikdə nəzərdə tutulan dəyişikliklər məhz bu balansın qorunmasına – texnoloji inkişafla yanaşı, cəmiyyətin təhlükəsizliyinin təmin edilməsinə xidmət edir.

Yeni hüquqi mexanizmlərin tətbiqi ilə yanaşı, bu sahədə maarifləndirmə tədbirlərinin gücləndirilməsi də vacibdir. Çünki yalnız cəza tədbirləri ilə deyil, eyni zamanda, ictimai şüurun formalaşdırılması ilə də bu kimi halların qarşısını almaq mümkündür. İnsanların süni intellekt vasitəsilə hazırlanan məzmunları ayırd edə bilməsi, informasiya savadlılığının artırılması və rəqəmsal etik davranış qaydalarının təşviqi bu istiqamətdə mühüm rol oynayır.

Hüquq və AI – balans itirsə, etibar sarsılar

“Azərbaycan İnformasiya və Kommunikasiya Texnologiyaları Sənayesi Assosiasiyası” İctimai Birliyinin sədri Elvin Abbasov mövzu ilə bağlı “İki sahil”ə açıqlamasında bildirdi ki, Milli Məclisin süni intellekt vasitəsilə hazırlanan saxta materiallara dair qəbul edəcəyi yeni normalar rəqəmsal mühitdə yaranan yeni növ risklərin hüquqi müstəvidə qarşılanması cəhdidir: “Bu addım texnologiyanın imkanlarından sui-istifadə edərək dezinformasiya yayan və ya şəxsi həyata müdaxilə edən şəxslərə qarşı konkret məsuliyyət təyin edir. Texnoloji tərəfdən bu cür materialların qarşısını almaq üçün ən real həllər sırasına "Rəqəmsal Su Nişanlanması" (Digital Watermarking) və kontentin mənbəyini təsdiqləyən metadata protokolları daxildir. Beynəlxalq şirkətlərlə qurulan sıx ünsiyyət və əməkdaşlıq çərçivəsində, süni intellekt alətlərinin yaradılan hər bir materiala avtomatik iz qoyması təmin edilərsə, saxta kontentləri real olanlardan ayırmaq texniki baxımdan daha asan olar”.

Ekspert qeyd etdi ki, hüquqi tənzimləmə ilə texnologiya arasında balansın qurulması isə qanunların tətbiqi zamanı "niyyət" və "nəticə" amillərinin düzgün qiymətləndirilməsindən asılıdır: “Sərt cəzalar və cərimələr bir tənzimləmə vasitəsi olsa da, innovasiyaların və yaradıcı istifadənin qarşısını almamalıdır. Balansı təmin etmək üçün qanunvericiliklə bərabər, ictimaiyyətin rəqəmsal savadlılığı və vətəndaş məsuliyyəti də paralel inkişaf etməlidir. Yəni, bir tərəfdən cinayət xarakterli fəaliyyətlər cəzalandırılmalı, digər tərəfdən isə insanların qarşılaşdıqları materialları yoxlaya biləcəyi texnoloji alətlərə çıxışı təmin olunmalıdır ki, dürüst istifadəçilər təzyiq altında qalmasın”.

Nigar Orucova, "İki sahil"