ChatGPT niyə “bilmirəm” demək əvəzinə uydurur?
Bizim media saytından verilən məlumata görə, Icma.az xəbər verir.
Yeni araşdırma göstərib ki, ChatGPT kimi süni intellekt modellərinin “uydurma cavablar verməsinin” səbəbi onların məhz təxmin yürütməyə proqramlaşdırılmasıdır.
Bizim.Media xarici mətbuata istinadən xəbər verir ki, İspaniyalı tədqiqatçılar 2024-cü ilin oktyabrında BLOOM, LLaMA və ChatGPT modellərini minlərlə riyaziyyat, təbiət elmləri və coğrafiya sualları ilə sınaqdan keçiriblər. Nəticədə məlum olub ki, model nə qədər inkişaf etmişsə, “bilmirəm” demək ehtimalı bir o qədər azalır.
Köhnə versiyalar cavabı bilmədikdə bunu etiraf edirdi, lakin yeni modellər təxmin etməyə və bəzən sadə suallara belə yanlış cavab verməyə meyllidirlər.
Mütəxəssislər bildirirlər ki, bu süni intellektin ən ciddi problemlərindən biridir. Çünki bu sistemlər yanlış məlumatı inamla təqdim edə bilir.
Bizim.Media
Bu mövzuda digər xəbərlər:
Baxış sayı:79
Bu xəbər 11 Noyabr 2025 17:47 mənbədən arxivləşdirilmişdir



Daxil ol
Xəbərlər
Hava
Maqnit qasırğaları
Namaz təqvimi
Qiymətli metallar
Valyuta konvertoru
Kredit Kalkulyatoru
Kriptovalyuta
Bürclər
Sual - Cavab
İnternet sürətini yoxla
Azərbaycan Radiosu
Azərbaycan televiziyası
Haqqımızda
TDSMedia © 2025 Bütün hüquqlar qorunur







Günün ən çox oxunanları



















