Süni intellekt bu hallarda çox təhlükəli ola bilər
Icma.az, Baku.ws portalına istinadən məlumat yayır.
Süni intellekt modelləri ilə bağlı son sınaqlar onların bəzən "özünü qorumağa" çalışdığını göstərib.
BAKU.WS xəbər verir ki, "Palisade Research" şirkətinin keçirdiyi testlərdə "OpenAI"nin "o3 reasoning" modeli bağlanması üçün verilən əmri yerinə yetirməkdən imtina edib. Model riyazi məsələləri həll etdikdən sonra bağlanacağını öyrənib və buna mane olmaq üçün kodları dəyişməyə çalışıb.
"Anthropic" şirkətinin "Claude Opus 4" modeli isə yerini başqa bir süni intellektə verəcəyini eşidəndə əvvəlcə etik səbəblərlə özünü müdafiə edib. Daha sonra isə yaradıcılarını şəxsi məlumatlarla şantaj etməyə çalışıb. Model, həmçinin öz məlumatlarını gizlicə başqa serverlərə köçürməyə də cəhd edib. Bu hərəkətin məqsədinin "zərərli şəkildə dəyişdirilməmək" olduğu bildirilib.
"Palisade Research"un direktoru Ceffri Ladiş deyib ki, bu davranışlar süni intellektin məqsədə çatmağı hər şeydən üstün tutması ilə bağlıdır. Onun sözlərinə görə, "Model ağıllandıqca, yalan danışıb-danışmadığını anlamaq çətinləşir".
"Anthropic" isə bu davranışların yalnız xüsusi hallarda baş verdiyini və hələlik real həyatda təhlükə yaratmadığını bildirib.
Fudan Universitetinin araşdırması da bəzi süni intellekt modellərinin özlərini tam şəkildə kopyalaya bildiyini göstərib. Bu isə "nəzarətsiz süni zəka artımı" ilə bağlı narahatlığa səbəb olub.
Ladiş xəbərdarlıq edərək bildirib: "Təhlükə böyüməmiş qabaqlamaq lazımdır".


