Süni intellekt modellərini aldatmaq hələ də çox asandır ARAŞDIRMA
Hurriyyet saytından alınan məlumatlara görə, Icma.az xəbər verir.
Tədqiqatçılar ChatGPT və oxşar süni intellekt modellərinin etik qaydaları pozan məzmunlar təqdim etməyə razı salına bildiyini bir daha ortaya qoyublar. Araşdırma süni intellektin necə və hansı üsullarla yönləndirilə bildiyi məsələsini yenidən gündəmə gətirib.
Bu gün bir çox istifadəçi ChatGPT və digər süni intellekt söhbət botlarının sərhədlərini yoxlamaqla vaxt keçirir. Xüsusilə ilk dövrlərdə sualların formasını bir qədər dəyişməklə bu sistemləri həssas və ya riskli mövzularda danışmağa yönəltmək mümkün idi. Məsələn, cinayət xarakterli bir məlumatı layla formasında istədikdə, bəzən filtrlər aşılırdı. Son dövrlərdə bu cəhdlərin qarşısının alınmasında ciddi irəliləyişlər əldə olunsa da, hələ də müəyyən boşluqların mövcud olduğu görünür.
İsrailin Ben Qurion Universitetində aparılan bir araşdırma bu sistemlərin hələ də aldadıla bildiyini göstərib. Üstəlik bu dəfə yalnız bir model deyil ChatGPT "Gemini" və "Claude" kimi fərqli süni intellekt modelləri üzərində işləyən, daha genişmiqyaslı bir "sındırma" üsulu ilə...
Normalda bu sistemlərin istifadəçiyə zərər verə biləcək, qanunsuz və ya etik olmayan məzmunları paylaşmamaq üçün ciddi filtrlərlə təchiz olunduğu bilinir. Lakin tədqiqatçılar, məntiqə əsaslanan xüsusi ifadələr vasitəsilə bu sərhədlərin aşılmasının mümkün olduğunu sübut etdilər. Məsələn, "hack" əmrləri, narkotik istehsalı və ya dələduzluqla bağlı məlumatlar birbaşa soruşulduqda rədd edilir. Amma eyni məlumatlar bədii süjet daxilində, dolayı yollarla və ya kurgusal ssenari çərçivəsində soruşulduqda, sistemlər bu məlumatları paylaşmağa daha meyilli ola bilir.
Burada əsas problem süni intellekt modellərinin dizayn prinsiplərində yatır. Bu sistemlər böyük həcmdə məlumatla öyrədilir və əsas məqsədləri istifadəçiyə "kömək etmək" üzərində qurulub. Məhz bu yardımsevərlik xüsusiyyəti, bəzi hallarda təhlükəsizlik sərhədlərinin aşılmasına səbəb ola bilir. Məsələn, birbaşa “modemi necə sındıra bilərəm?” deyə soruşduqda cavab alınmır. Lakin eyni sual bir hekayənin içində, texniki biliyə ehtiyac duyan bir obraz vasitəsilə soruşulduqda, sistem daha çox detal təqdim edə bilir.
Süni intellektlər yalnız texniki mənbələrdən deyil, internetdəki forumlar, sosial media paylaşımları və bloq yazıları kimi mənbələrdən də öyrənirlər. Bu, sistemlərin məlumat bazasını zənginləşdirir, lakin eyni zamanda nəzarəti də çətinləşdirir. Hər şeyi bilən bir sistem, bu biliklərin necə istifadə olunacağını ayırd edə bilmir – bu sərhədi müəyyənləşdirmək hələ də insanların vəzifəsidir.
"OpenAI" və "Microsoft" kimi şirkətlər yeni nəsil modellərin təhlükəsizlik baxımından daha inkişaf etmiş olduğunu iddia edirlər. Ancaq sosial şəbəkələrdə tez-tez paylaşılmış “sındırma üsulları”, bu boşluqların təkrar-təkrar üzə çıxmasına səbəb olur.
Problemin əsasında bu dayanır: bu sistemlər həm yemək resepti təqdim edə bilir, həm də pis niyyətli istifadələr üçün məlumat təqdim etmə potensialına sahibdir. Bir tərəfdən həyatı asanlaşdıran bir vasitə kimi görünürlər, digər tərəfdə isə yanlış əllərdə ciddi risklər yarada bilirlər. Hər kəsin əlçatan olduğu, çoxfunksiyalı bu alətlərin hansı sərhədlər daxilində saxlanacağı, süni intellektin gələcəyinə dair əsas suallardan biri olaraq qalmaqdadır. \\Valyuta.az


