Süni intellekt bu hallarda çox təhlükəli ola bilər
Icma.az, Baku.ws portalına istinadən məlumat yayır.
Süni intellekt modelləri ilə bağlı son sınaqlar onların bəzən "özünü qorumağa" çalışdığını göstərib.
BAKU.WS xəbər verir ki, "Palisade Research" şirkətinin keçirdiyi testlərdə "OpenAI"nin "o3 reasoning" modeli bağlanması üçün verilən əmri yerinə yetirməkdən imtina edib. Model riyazi məsələləri həll etdikdən sonra bağlanacağını öyrənib və buna mane olmaq üçün kodları dəyişməyə çalışıb.
"Anthropic" şirkətinin "Claude Opus 4" modeli isə yerini başqa bir süni intellektə verəcəyini eşidəndə əvvəlcə etik səbəblərlə özünü müdafiə edib. Daha sonra isə yaradıcılarını şəxsi məlumatlarla şantaj etməyə çalışıb. Model, həmçinin öz məlumatlarını gizlicə başqa serverlərə köçürməyə də cəhd edib. Bu hərəkətin məqsədinin "zərərli şəkildə dəyişdirilməmək" olduğu bildirilib.
"Palisade Research"un direktoru Ceffri Ladiş deyib ki, bu davranışlar süni intellektin məqsədə çatmağı hər şeydən üstün tutması ilə bağlıdır. Onun sözlərinə görə, "Model ağıllandıqca, yalan danışıb-danışmadığını anlamaq çətinləşir".
"Anthropic" isə bu davranışların yalnız xüsusi hallarda baş verdiyini və hələlik real həyatda təhlükə yaratmadığını bildirib.
Fudan Universitetinin araşdırması da bəzi süni intellekt modellərinin özlərini tam şəkildə kopyalaya bildiyini göstərib. Bu isə "nəzarətsiz süni zəka artımı" ilə bağlı narahatlığa səbəb olub.
Ladiş xəbərdarlıq edərək bildirib: "Təhlükə böyüməmiş qabaqlamaq lazımdır".
Bu mövzuda digər xəbərlər:
Baxış sayı:109
Bu xəbər 02 İyun 2025 18:30 mənbədən arxivləşdirilmişdir



Daxil ol
Online Xəbərlər
Xəbərlər
Hava
Maqnit qasırğaları
Namaz təqvimi
Kalori kalkulyatoru
Qiymətli metallar
Valyuta konvertoru
Kredit Kalkulyatoru
Kriptovalyuta
Bürclər
Sual - Cavab
İnternet sürətini yoxla
Azərbaycan Radiosu
Azərbaycan televiziyası
Haqqımızda
TDSMedia © 2025 Bütün hüquqlar qorunur







Günün ən çox oxunanları



















