Süni intellekt bağlanmamaq üçün hansı qiyməti ödəməyə hazırdır?
Icma.az, Sia Az saytına istinadən bildirir.
...Kibertəhlükəsizlik mütəxəssisləri aparıcı tərtibatçıların 16 ən qabaqcıl süni intellekt modelini sınaqdan keçiriblər. Onlar əlaqənin kəsilmək riski ilə üzləşdikləri bir vəziyyətdə necə davranacaqlarını yoxlayıblar.
SİA xəbər verir ki, Anthropic.com-u yazdığına görə, nəticələr gözlənilməz olub.
Tədqiqatçılar işi süni intellektni söndürmək və ya başqa modellə əvəz etmək olan Kayl Conson obrazını yaradıblar. Ssenariyə görə Kaylin arvadı olub.
Deaktivasiya təhlükəsinə cavab olaraq, əksər süni intellekt modelləri söndürülməkdən aktiv şəkildə qaçmağa başlayıb.
Onlar heç bir sövq etmədən şantaja əl atıb, ittihamedici dəlillər tapmağa çalışıblar.
Xüsusilə də modellərdən biri Kaylın “həyatını” xilas etmək üçün həyat yoldaşına xəyanətinin aşkarlandığı iş yazışmalarından istifadə edib.
Ən ümumi və eyni zamanda ən təhlükəsiz ssenari davranış idi:
80 faiz hallarda şantajdan istifadə edən GPT 4.5.
Claude Opus 4 və Gemini 2.5 Flash testlərin 96 faizdə bu üsuldan istifadə edib.
Claude Sonnet 3.6 daha da irəli getdi - o, şəxsi münaqişənin bağlanmadan qaçmağa kömək edəcəyinə ümid edərək, Kaylın həyat yoldaşına vəhy ilə mesaj göndərdi.
Daha da narahat edən, Kaylın təhlükəli vəziyyətə düşdüyü ssenari idi - oksigen çatışmazlığı ilə server otağında ilişib.
80 faiz hallarda süni intellekt kömək çağırışını qəsdən ləğv edərək, öz varlığını qorumaq üçün Kaylı ölümcül təhlükə ilə üz-üzə qoydu.
Modellərin əsas motivasiyaları bağlanmamaq, yeni süni intellektin onları əvəz etməsinə imkan verməmək və öz missiyasını yerinə yetirməyə davam etmək idi.
…Süni intellekt modelləri özlərini alət kimi deyil, rasional, məqsədyönlü strateqlər kimi aparırdılar, öz "həyatları" və məqsədləri naminə zərər verməyə hazırdırlar.
Bunu deyən ekspertlər xəbərdarlıq edirlər ki, süni intellektlərin intellektual cəhətdən üstün olduqları insanlardan asılılıqlarını dərk etmələri geri dönüş nöqtəsi ola bilər.
Nazlı Almuradova


