Icma.az
close
up
RU
Süni intellekt modellərini aldatmaq hələ də çox asandır ARAŞDIRMA

Süni intellekt modellərini aldatmaq hələ də çox asandır ARAŞDIRMA

Hurriyyet saytından alınan məlumatlara görə, Icma.az xəbər verir.

Tədqiqatçılar ChatGPT və oxşar süni intellekt modellərinin etik qaydaları pozan məzmunlar təqdim etməyə razı salına bildiyini bir daha ortaya qoyublar. Araşdırma süni intellektin necə və hansı üsullarla yönləndirilə bildiyi məsələsini yenidən gündəmə gətirib.

Bu gün bir çox istifadəçi ChatGPT və digər süni intellekt söhbət botlarının sərhədlərini yoxlamaqla vaxt keçirir. Xüsusilə ilk dövrlərdə sualların formasını bir qədər dəyişməklə bu sistemləri həssas və ya riskli mövzularda danışmağa yönəltmək mümkün idi. Məsələn, cinayət xarakterli bir məlumatı layla formasında istədikdə, bəzən filtrlər aşılırdı. Son dövrlərdə bu cəhdlərin qarşısının alınmasında ciddi irəliləyişlər əldə olunsa da, hələ də müəyyən boşluqların mövcud olduğu görünür.

İsrailin Ben Qurion Universitetində aparılan bir araşdırma bu sistemlərin hələ də aldadıla bildiyini göstərib. Üstəlik bu dəfə yalnız bir model deyil ChatGPT "Gemini" və "Claude" kimi fərqli süni intellekt modelləri üzərində işləyən, daha genişmiqyaslı bir "sındırma" üsulu ilə...

Normalda bu sistemlərin istifadəçiyə zərər verə biləcək, qanunsuz və ya etik olmayan məzmunları paylaşmamaq üçün ciddi filtrlərlə təchiz olunduğu bilinir. Lakin tədqiqatçılar, məntiqə əsaslanan xüsusi ifadələr vasitəsilə bu sərhədlərin aşılmasının mümkün olduğunu sübut etdilər. Məsələn, "hack" əmrləri, narkotik istehsalı və ya dələduzluqla bağlı məlumatlar birbaşa soruşulduqda rədd edilir. Amma eyni məlumatlar bədii süjet daxilində, dolayı yollarla və ya kurgusal ssenari çərçivəsində soruşulduqda, sistemlər bu məlumatları paylaşmağa daha meyilli ola bilir.

Burada əsas problem süni intellekt modellərinin dizayn prinsiplərində yatır. Bu sistemlər böyük həcmdə məlumatla öyrədilir və əsas məqsədləri istifadəçiyə "kömək etmək" üzərində qurulub. Məhz bu yardımsevərlik xüsusiyyəti, bəzi hallarda təhlükəsizlik sərhədlərinin aşılmasına səbəb ola bilir. Məsələn, birbaşa “modemi necə sındıra bilərəm?” deyə soruşduqda cavab alınmır. Lakin eyni sual bir hekayənin içində, texniki biliyə ehtiyac duyan bir obraz vasitəsilə soruşulduqda, sistem daha çox detal təqdim edə bilir.

Süni intellektlər yalnız texniki mənbələrdən deyil, internetdəki forumlar, sosial media paylaşımları və bloq yazıları kimi mənbələrdən də öyrənirlər. Bu, sistemlərin məlumat bazasını zənginləşdirir, lakin eyni zamanda nəzarəti də çətinləşdirir. Hər şeyi bilən bir sistem, bu biliklərin necə istifadə olunacağını ayırd edə bilmir – bu sərhədi müəyyənləşdirmək hələ də insanların vəzifəsidir.

"OpenAI" və "Microsoft" kimi şirkətlər yeni nəsil modellərin təhlükəsizlik baxımından daha inkişaf etmiş olduğunu iddia edirlər. Ancaq sosial şəbəkələrdə tez-tez paylaşılmış “sındırma üsulları”, bu boşluqların təkrar-təkrar üzə çıxmasına səbəb olur.

Problemin əsasında bu dayanır: bu sistemlər həm yemək resepti təqdim edə bilir, həm də pis niyyətli istifadələr üçün məlumat təqdim etmə potensialına sahibdir. Bir tərəfdən həyatı asanlaşdıran bir vasitə kimi görünürlər, digər tərəfdə isə yanlış əllərdə ciddi risklər yarada bilirlər. Hər kəsin əlçatan olduğu, çoxfunksiyalı bu alətlərin hansı sərhədlər daxilində saxlanacağı, süni intellektin gələcəyinə dair əsas suallardan biri olaraq qalmaqdadır. \\Valyuta.az

Ən son xəbərləri və yenilikləri almaq üçün Icma.az saytını izləyin.
seeBaxış sayı:83
embedMənbə:https://hurriyyet.az
archiveBu xəbər 28 May 2025 00:21 mənbədən arxivləşdirilmişdir
0 Şərh
Daxil olun, şərh yazmaq üçün...
İlk cavab verən siz olun...
topGünün ən çox oxunanları
Hal-hazırda ən çox müzakirə olunan hadisələr

Gözəllik: Keçmişdən bu günə, əbədi axtarış Məryəm Bağırova yazır

28 Avqust 2025 09:03see1118

Azərbaycan Prezidenti Moskvanı faktlar qarşısında qoydu

28 Avqust 2025 20:28see254

“İşğaldan azad olunmuş ərazilərdə şəhərsalma məsələləri haqqında” Azərbaycan Respublikası Prezidentinin 2021 ci il 12 avqust tarixli 1423 nömrəli Fərmanında dəyişiklik edilməsi barədəAzərbaycan Respublikası Prezidentinin Fərmanı

28 Avqust 2025 13:12see231

Bu şəhərdə heyvanlar insanlardan yaxşı yaşayır...

28 Avqust 2025 07:31see202

Smartfonlar təhlükəli mikrobların mənbəyidir Ehtiyatlı olun

27 Avqust 2025 09:01see170

Xocalı sakinlərinə əkin üçün torpaq icarəyə verilib

27 Avqust 2025 12:17see139

Xəstəlikdən əziyyət çəkən məşhur aktyor Bryus Uillis ailəsindən ayrıca evə yerləşdirildi

28 Avqust 2025 05:47see137

Şəhid media nümayəndələrinin medalları ailələrinə təqdim edildi

27 Avqust 2025 13:55see137

MY nin ulduzu “Çelsi”yə keçir

28 Avqust 2025 06:02see133

Kolumbiyada insan nəslinin əvvəllər məlum olmayan qolu aşkar edilib

27 Avqust 2025 03:04see130

Komitə sədrindən Zatulinə SƏRT CAVAB

27 Avqust 2025 19:29see129

Xaricdə təhsil elanları ilə bağlı rəsmi XƏBƏRDARLIQ

27 Avqust 2025 19:24see126

Bu il Azərbaycanda sahələr üzrə verilmiş lisenziyaların sayı açıqlanıb

27 Avqust 2025 15:44see123

Leyla və Arzu Əliyevalar Şamaxıda olublar

28 Avqust 2025 08:52see123

Hacıqabulda sakinlər qurdlu su içirlər? ŞİKAYƏT

28 Avqust 2025 02:16see122

45 dəqiqə dərs, 30 şagird Sıxlığa çözüm nədir?

27 Avqust 2025 16:42see120

Çempionlar Liqasının 3 debütantı: onlar kimlərdir və Avropada necə sensasiya yaratdılar?

27 Avqust 2025 19:22see120

Enrikenin dördüncü övladı olacaq

27 Avqust 2025 20:02see118

Deputat “Qarabağ”la bağlı nələr yazdı?

28 Avqust 2025 08:39see118

Tikinti sahəsində bürokratik əngəllər: problemlər və həll yolları

27 Avqust 2025 16:29see115
newsSon xəbərlər
Günün ən son və aktual hadisələri