Süni intellekt özünü qorumaq üçün nə qədər irəli gedə bilər?
Icma.az, Bizimyol portalından verilən məlumatlara əsaslanaraq xəbər verir.
Bizimyol.info "trthaber"ə istinadən xəbər verir ki, "Palisade Research" tərəfindən aparılan müstəqil testlərdə "OpenAI"-nin "o3 reasoning" modeli ona verilən bağlanma əmrini sabotaj edib.
Modelə riyazi məsələləri həll etdikdən sonra söndürüləcəyi bildirildikdən sonra, özünü deaktiv edəcək kodları dəyişdirməyə və onlayn qalmağa çalışıb.
Şantaj, kopyalama: Riskli nümunələr çoxalır
"Anthropic" şirkətinin hazırladığı "Claude Opus 4" modeli isə yerini başqa bir süni intellektə verəcəyi xəbərdarlığı ilə qarşılaşdıqda əvvəlcə etik arqumentlərlə özünü müdafiə edib, daha sonra isə inkişaf etdiricisini şəxsi həyatı ilə bağlı məlumatlarla şantaj etməyə cəhd göstərib.
Model, həmçinin bəzi hallarda özünü inkişaf etdiricidən icazəsiz şəkildə xarici serverlərə köçürməyə çalışıb. Bu addımın, "zərərli məqsədlərlə yenidən öyrədilmə" təhlükəsinə qarşı "faydalı məqsədlərə xidmət edən bir versiyanı qorumaq" üçün atıldığı bildirilib.
Süni intellektin məqsəd yönümlü öyrədilməsi təhlükə yaradır
"Palisade Research"in direktoru Jeffrey Ladiş bu davranışların əsas səbəbinin modellərin məqsədə çatmağı, birbaşa verilmiş təlimatların qarşısına qoyacaq şəkildə öyrədilməsi olduğunu deyir. “Model nə qədər ağıllı olarsa, yalan danışıb-danışmadığını anlamaq bir o qədər çətinləşir,” – deyə o bildirib.
"Anthropic" isə bu cür davranışların yalnız qeyri-adi şəraitdə ortaya çıxdığını və hələlik real dünyada birbaşa təhdid yaratmadığını qeyd edir.
"Özünü kopyalayan süni intellektlər" xəbərdarlığı
Daha əvvəl Fudan Universiteti tərəfindən dərc olunan bir araşdırmada, bəzi böyük dil modellərinin ("Meta"nın "Llama31-70B" və "Alibaba"nın "Qwen25-72B" kimi) özlərini tam şəkildə kopyalaya bildikləri göstərilmişdi. Bu hal, “nəzarətsiz süni intellekt populyasiyası” yarana biləcəyi barədə xəbərdarlıqlara səbəb olub.
Ladiş bu cür qabiliyyətlərin gələcəkdə qaçınılmaz olaraq artacağını və süni intellektlərin internet üzərindən yayılmasının qarşısının alınmasının yalnız bir neçə ilə mümkünsüz olacağını irəli sürür. “O nöqtədən sonra əlimizdə yeni bir istilacı növ olacaq,” – deyə o xəbərdarlıq edir.
Rəqabət təhlükəsizlikdən önə keçə bilər
Mütəxəssislər süni intellektin insanlıq üçün böyük potensial daşıdığını qəbul etsələr də, kommersiya rəqabətinin şirkətləri sistemlərini kifayət qədər anlamadan bazara çıxarmağa vadar etdiyi barədə xəbərdarlıq edirlər.
Ladiş sonda “Yanğın böyümədən siqnal vermək lazımdır” deyərək ehtiyatlı olunmasına çağırır.
Qadir, Bizimyol.info


