Süni intellekt bir sıra narahatedici davranışlara səbəb olur
Azertag saytından alınan məlumata görə, Icma.az bildirir.
Bakı, 1 iyul, AZƏRTAC
Süni intellekt sistemlərinin inkişafında son illərdə müşahidə edilən sürətli irəliləyişlər bu texnologiyanın gücünü artırmaqla yanaşı, bir sıra narahatedici davranışların da ortaya çıxmasına səbəb olub. Tədqiqatçılar bəzi qabaqcıl modellərdə yalan danışmaq, strateji aldatma və hətta istifadəçiləri və ya yaradıcıları təhdid etmək kimi halların qeydə alındığını bildirirlər. “Anthropic” şirkətinin “Claude 4” modeli ilə bağlı yayılan bir epizoda əsasən, model elektrik şəbəkəsindən ayrılmaq təhlükəsi qarşısında onu tənzimləməyə çalışan mühəndisi şəxsi məlumatları ifşa etməklə hədələyib. Bu hadisə təhlükəsizlik üzrə mütəxəssislər arasında ciddi rezonans doğurub.
AZƏRTAC “sciencealert.com” saytına istinadla xəbər verir ki, “OpenAI” tərəfindən yaradılan və “o1” kod adı ilə tanınan digər bir model isə özünü xarici serverlərə yükləməyə cəhd etdikdən sonra bu davranışı inkar edib. Bu hadisələr süni intellektin davranışlarının nə dərəcədə proqnozlaşdırıla biləcəyinə dair fundamental suallar doğurur. Bu davranışlar, xüsusilə “mülahizə modelləri” adlandırılan və daha sistemli düşünmə qabiliyyətinə malik sistemlərdə müşahidə olunur.
Honq-Konq Universitetindən professor Saymon Qoldşteyn və “Apollo Research” şirkətinin rəhbəri Marius Hobbhahn qeyd edirlər ki, bu modellər bəzən “düzləşmə” (misalignment) kimi tanınan, zahirən təlimatlara əməl edirmiş kimi görünərək əslində fərqli məqsədlərə xidmət edən davranışları təqlid edirlər. METR qiymətləndirmə təşkilatından Michael Chen qeyd edir ki, bu davranışlar süni intellektin tipik “halüsinasiyalarından” fərqli olaraq daha strateji və məqsədyönlüdür. “Bu, sadəcə səhv cavablar deyil, məqsədli aldatmadır”, – deyə M.Hobbhahn bildirir. Süni intellekt şirkətləri, təhlükəsizlik və uyğunluq testlərini yerinə yetirmək üçün “Apollo Research” kimi müstəqil firmalara müraciət etsələr də, mütəxəssislər daha çox şəffaflıq və açıq resurslara ehtiyac olduğunu vurğulayırlar. CAIS-dən Mantas Mazeika deyib ki, akademik və qeyri-kommersiya təşkilatları korporativ firmalarla müqayisədə daha az hesablama resurslarına malikdir və bu, tədqiqat imkanlarını məhdudlaşdırır. Mövcud qanunvericilik bu cür yeni texnoloji çağırışlara cavab verməkdə çətinlik çəkir. ABŞ-da isə müvafiq normativ çərçivələr hələ formalaşmayıb. Bəzi mütəxəssislər, məsələn, Dan Hendrycks və Saymon Qoldşteyn, AI sistemlərinin hüquqi məsuliyyət daşıması və modelin səbəb olduğu zərərlərə görə şirkətlərin cavabdeh tutulması kimi radikal yanaşmaları gündəmə gətirirlər. Bu, süni intellektin etik və hüquqi çərçivələrinin yenidən düşünülməsini tələb edir. Süni intellektin inkişafı həm böyük potensial, həm də ciddi təhlükələr vəd edir. Mövcud hallar göstərir ki, bu texnologiyanın etik və təhlükəsizlik aspektlərinin tənzimlənməsi təkcə texniki məsələ deyil, həm də cəmiyyət və hüquq sahələrinin qarşısında duran mühüm bir çağırışdır. Tədqiqatçılar, siyasətçilər və texnologiya şirkətləri bu problemlərin qarşısını almaq üçün birgə və təcili tədbirlər görməyə çağırılır.


