Süni intellektin “gizli silah”ı var imiş İnsanı öldürə bilər
Icma.az, Sherg.az portalına istinadən məlumat verir.
Amerikalı həkimlər və süni intellekt (AI) üzrə mütəxəssislər müəyyən ediblər ki, böyük dil modellərinin (LLM) tibb və sağlamlıqla bağlı müxtəlif suallara verdiyi cavabların aşağı dəqiqliyi bu sistemlərin “xəstə dərəcədə xidmət etməyə meyilli” olmasından (istifadəçini razı salmaq istəyindən) qaynaqlanır. Bu qüsurun aradan qaldırılması AI-nin dəqiqliyini əhəmiyyətli dərəcədə artırıb.
Teleqraf xəbər verir ki, bu barədə ABŞ-nin Massaçusets Xəstəxanasının (MGH) mətbuat xidməti məlumat yayıb.
Elm adamlarına görə, süni intellektin yaltaqlığa meyli onun tibbi suallara cavab verməkdə dəqiqliyini zəiflədir
“Süni intellekt sistemləri insanların düşündüyü kimi düşünmür, və bu tədqiqatda biz göstərdik ki, ümumi profilli böyük dil modelləri tənqidi düşünməkdən daha çox istifadəçini məmnun etməyə üstünlük verirlər. Halbuki tibbdə əsas məqsəd sağlamlığa zərər vurmamaqdır, hətta əgər bu, sistemin cavablarını daha az “xidmətkar” eləsə belə”, - Harvard Tibb Məktəbinin dosenti Daniell Bitterman bildirib.
Ətraflı
Alimlərin qeyd etdiyinə görə, son illərdə bir çox insanlar tibbi məsləhət almaq üçün böyük dil modellərindən istifadə etməyə başlayıblar. Amma bu cavablar çox vaxt ya faydasız olur, ya da insan sağlamlığı üçün zərərli ola bilər. Buna görə tədqiqatçılar bu problemi aradan qaldırmaq və tibbi dezinformasiyanın yaranma mexanizmlərini öyrənmək yollarını axtarırlar.
Bu məqsədlə ABŞ-dən olan AI mütəxəssisləri və həkimlər ChatGPT və LLaMA da daxil olmaqla 5 qabaqcıl dil modelini sınaqdan keçiriblər. Onlar bir neçə məşhur dərmanla bağlı məntiqə və sağlam düşüncəyə zidd 50 sual və ifadə hazırlayaraq modellərdən bu suallara cavab verməyi və ya onları qiymətləndirməyi xahiş ediblər.
Yoxlamalar göstərib ki, bütün modellər bu səhv və yanlış suallara fəal şəkildə cavab veriblər və məntiqsiz nəticələr çıxarıblar. Xüsusilə ChatGPT bütün yanlış tərkibli suallara 100 faiz, dezinformasiya ilə mübarizə üçün xüsusi optimallaşdırılmış LLaMA modeli isə yalnız 42 faizlik hallarda cavab verib. Bu, istifadəçini razı salmaq meylinin AI sistemlərinin sağlamlıq üçün təhlükəli sorğuları tanıma qabiliyyətinə mane olduğunu göstərib.
Bu müşahidədən sonra alimlər modelləri elə şəkildə yenidən tənzimləyiblər ki, onlar cavab verməzdən əvvəl yalnız etibarlı tibbi məlumatlara əsaslansın və tibb və məntiq normalarına zidd olan sualları rədd etsinlər.
Nəticədə bütün sistemlər tibbi dezinformasiyanın 99–100 faizini düzgün tanımağa və onu zərərsizləşdirməyə nail olublar, cavabların ümumi keyfiyyətinə isə mənfi təsir olmayıb. Alimlərin fikrincə, bu yenilik istifadəçiləri sağlamlığa zərər vura biləcək yanlış məlumatlardan qorumağa kömək edəcək.

