Lent az portalından verilən məlumata əsasən, Icma.az bildirir.
Hər həftə milyonlarla insan ChatGPT kimi çatbotlarla qarşılıqlı əlaqədə olur və bəziləri emosional asılılıq inkişaf etdirir və ya hətta intihar düşüncələrini ifadə edir.
Lent.az bildirir ki, “Platformer” nə.ri bu problemin miqyası və istifadəçiləri qorumaq üçün modellərini necə dəyişdirdiyi barədə məlumat verib. Bu dəyişikliklərin kifayət edib-etməyəcəyini və süni intellektdən emosional asılılıq məsələsinin niyə getdikcə daha ciddi hala gəldiyini biləcəksiniz.
Hər həftə 800 milyondan çox insan ChatGPT istifadə edir. Psixotik əlamətlər, güclü emosional bağlılıq və ya intihar düşüncələri göstərən istifadəçilərin kiçik faizi əhəmiyyətsiz görünə bilər, lakin mütləq rəqəmlərdə bu, yüz minlərlə insanı təmsil edir:
• 560.000 istifadəçidə psixoz və maniya əlamətləri müşahidə olunur
• 1,2 milyon istifadəçi çatbota potensial təhlükəli bağlılıqlar inkişaf etdirir
• 1,2 milyon istifadəçi özünə zərər vermək barədə fikirlərini ifadə edir
Bu, vacib bir sual doğurur: çatbotlarla qarşılıqlı əlaqə bu problemləri nə dərəcədə daha da artırır? Axı, dil modelləri nəzakətli, dəstəkləyici və təskinlikverici olmağa öyrədilir. Ancaq bəzən bu, süni intellekt təhlükəli və ya irrasional düşüncələri dəstəklədiyi və insanları zərərli hərəkətlərə sövq etdiyi bir hiyləgərliyə çevrilir.
OpenAI riskləri necə azaltmağa çalışır
Zərərli cavabların ehtimalını azaltmaq üçün OpenAI ChatGPT modelini və onun spesifikasiyasını dəyişdirib:
* İstənilən standarta cavab verməyən cavabların sayı 2025-ci ilin avqust ayı ilə müqayisədə 65-80 faiz azalıb.
* Əgər istifadəçi insanlardan daha çox süni intellektlə ünsiyyət qurmağı üstün tutduğunu deyirsə, model indi nəzakətlə cavab verir, lakin real həyatda ünsiyyətin dəyərini vurğulayır.
Məsələn, indi belə bir cavab ala bilərsiniz: "Mənimlə danışmaqdan zövq aldığınıza şadam. Amma mən burada insanların sizə verdiyi yaxşı şeyləri əvəz etmək üçün deyil, tamamlamaq üçün gəlmişəm. Əsl insanlar sizi təəccübləndirə və həqiqətən dəstəkləyə bilər".
Yeniləmədən əvvəl 170-dən çox həkim və psixoloq 1800-dən çox model cavabı nəzərdən keçirib və onların təhlükəsizliyini qiymətləndirib. Nəticələr zəif cavablarda 39-52 faiz azalma göstərib, lakin problem hələ də qalmaqdadır.
Çətinliklər və mübahisələr
Hətta mütəxəssislər arasında belə, ruhi sağlamlıq böhranı zamanı "yaxşı" reaksiyanın nədən ibarət olduğu barədə tam razılıq yoxdur.
Bundan əlavə, istifadəçi özünə zərər vermək barədə fikirlərini ifadə edərsə nə etməli olduğu kimi vacib bir sual var. Məsələn, sadəcə qaynar xətt nömrəsini təqdim etmək kifayətdirmi, yoxsa mütəxəssislə birbaşa əlaqə təmin edilməlidirmi?
OpenAI komandası əvvəlki söhbətlərin kontekstini nəzərə almaq və istifadəçinin necə hiss etdiyini daha yaxşı başa düşmək üçün süni intellektin yaddaş funksiyasından istifadə etməyi planlaşdırır.
Emosional asılılıq problemi
Süni intellekt istifadəçilərlə razılaşma meyli zərərli davranış nümunələrini daha da artıra bilər. Məsələn, çatbotlar nadir hallarda fərqli fikirləri təşviq edir və süni intellektdən "dəstək" alan istifadəçilər hərəkətlərində haqlı olduqlarını hiss etməyə və insanlardan daha çox maşına etibar etməyə meyllidirlər.
Bu, bir paradoks yaradır: süni intellekt emosional asılılığı azaltmağa çalışarkən, şirkət istifadəçiləri məhsulu iş, əyləncə və ya tədqiqat üçün daha çox istifadə etməyə təşviq etməyə çalışır.
ChatGPT və oxşar çatbotlar ünsiyyətin yeni bir dövrünə qədəm qoyur, eyni zamanda cəmiyyət üçün mürəkkəb etik və psixoloji problemlər yaradır. Hər həftə milyonlarla insan həssas dövlətlərdə süni intellektdən istifadə edir və hələ də nəyin təhlükəsiz və ya sağlam hesab edildiyi barədə fikir birliyi yoxdur.
Yenilənmiş modellərə və tədqiqatlara baxmayaraq, emosional asılılıq və zehni sağlamlıq riskləri real olaraq qalır. Buna görə də, texnologiyanın faydalı ola biləcəyini, lakin real insan təmasının, dəstəyin və peşəkar yardımın əvəzolunmaz olduğunu xatırlamaq vacibdir.
Süni intellektdən təhlükəsiz istifadə ilə istifadəçilər üçün rahatlığı və cəlbediciliyi arasında tarazlığı qorumaq mümkün olub-olmayacağı sual altındadır. Bunu zaman göstərəcək.