Yeni qorxulu dönəm başladı: Şantaj və manipulyasiya... - Bunları bilməliyik

Son illər süni intellektin (SI) sürətli inkişafı ilə bir çox sahədə inqilabi dəyişikliklər baş verib. Artıq təkcə yazılı mətnlər deyil, həm də video və audio kontentlər SI vasitəsilə yaradılır. "Deepfake" texnologiyası sayəsində insanların üz ifadələri, səsləri və davranışları dəqiq təqlid edilə bilir. Bu texnologiyanın istifadəsi bir tərəfdən kino, təhsil və reklam sahələrində müsbət imkanlar yaratsa da, digər tərəfdən cəmiyyət üçün ciddi təhdidlər də formalaşdırır. Artıq sosial media platformalarında reallığa birbəbir uyğun olan videolar hazırlanaraq paylaşılır.

Saxta reallıq: Harada başlayır və necə tanıyaq?

Süni intellektlə yaradılmış videolar real görüntülərlə o qədər oxşar olur ki, adi gözlə və ya təcrübəsiz istifadəçi tərəfindən ayırd etmək çətinləşir.

Bəs bu cür saxta videoları necə tanıya bilərik?

  1. Mənbəni yoxlayın – Həmin videonu paylaşan şəxs və ya qurum etibarlıdırmı? Rəsmi kanallar, media qurumları və ya təsdiqlənmiş profillərlə yoxlayın.

  2. Üz mimikaları və göz hərəkətləri – "Deepfake" texnologiyasında ən çox səhv edilən məqam göz qırpma və dodaq-hərəkət uyğunsuzluqlarıdır. Təcrübəli izləyici bu nüansları görə bilər.

  3. Audio ilə video sinxronluğunu analiz edin – Bəzən səs və görüntü arasında minimal da olsa uyğunsuzluqlar olur.

  4. Texnoloji alətlərdən istifadə – “Deepware Scanner”, “Sensity” və digər SI alətləri şübhəli videoların analizində istifadə edilə bilər.

Etibar böhranı: İnsanların narahatlığı nədən qaynaqlanır?

Bu texnologiyaların “güclü əllərdə” necə istifadə olunacağı ilə bağlı narahatlıqlar haqlıdır. Çünki artıq istənilən şəxsin səsi və görüntüsü istifadə olunaraq:

  • Şantaj məqsədli videolar yaradıla bilər;

  • Siyasi manipulyasiya edilə bilər;

  • Məhkəmə və hüquq sistemində yanlış sübutlar təqdim oluna bilər;

  • Məşhurların nüfuzu bilərəkdən zədələnə bilər;

  • Ailə və dostluq münasibətləri pozula bilər.

Sosial media platformalarında yayılan bu cür “real görkəmli” saxta videolar insanların psixoloji vəziyyətinə də təsir edir. Artıq insanlar gördüklərinə inanmamağa başlayırlar. Bu isə cəmiyyətin etibar və informasiya dayanıqlığına zərbə vurur.

Gələcəkdə bizi nə gözləyir?

Texnologiyanın inkişafı dayandırıla bilməz, lakin onun necə istifadə olunacağına nəzarət mexanizmləri qurulmalıdır. Gələcəkdə aşağıdakı tendensiyalar gözlənilir:

Qanunvericilik addımları: Bir çox ölkələrdə "deepfake" texnologiyasının istifadəsinə dair qanunlar hazırlanır. Azərbaycanda da bu sahədə hüquqi çərçivənin yaradılması mümkündür.

Etik kodekslərin hazırlanması: Media və texnologiya şirkətləri bu texnologiyanın istifadəsində etik prinsipləri müəyyən etməlidir.

Texnoloji-müdafiə: Süni intellektə qarşı yenə süni intellektin istifadə olunması, yəni "deepfake"ləri ifşa edən sistemlərin inkişafı.

Maarifləndirmə və media savadlılığı: İnsanlar vizual manipulyasiyaları tanıya bilməli, paylaşmadan öncə araşdırma aparmağı öyrənməlidirlər.

Etibar et, amma yoxla

Bəşəriyyət bir daha sübut edir ki, texnologiya nə qədər güclü olsa da, onun istifadəsindəki məqsəd həlledici rol oynayır. Süni intellekt imkanlarını inkişafa yönəltmək əvəzinə manipulyasiya və şantaj üçün istifadə edənlər informasiya cəmiyyətinə böyük zərbə vurur. Ona görə də, həm fərdi, həm də ictimai səviyyədə məsuliyyət daşımalıyıq.

Texnologiya bizdən daha ağıllı ola bilər, amma insanlıq bizdən asılıdır.