Süni intellekt hər şeyi bilmir: Terapevt xəbərdarlıq edir ki, heç kəs sağlamlığını riskə atmasın
Sherg.az saytından verilən məlumata görə, Icma.az xəbər verir.
“Bir "klik"lə resept almaq həyatı bahasına başa gələ bilər”
Amerikalı həkimlər və süni intellekt (AI) üzrə mütəxəssislər müəyyən ediblər ki, böyük dil modellərinin (LLM) tibb və sağlamlıqla bağlı müxtəlif suallara verdiyi cavabların aşağı dəqiqliyi bu sistemlərin “xəstə dərəcədə xidmət etməyə meyilli” olmasından (istifadəçini razı salmaq istəyindən) qaynaqlanır. Bu qüsurun aradan qaldırılması AI-nin dəqiqliyini əhəmiyyətli dərəcədə artırıb.
ABŞ-nin Massaçusets Xəstəxanasının (MGH) mətbuat xidməti məlumat yayıb ki, elm adamlarına görə, süni intellektin yaltaqlığa meyli onun tibbi suallara cavab verməkdə dəqiqliyini zəiflədir.
Harvard Tibb Məktəbinin dosenti Daniel Bitterman bildirib ki, süni intellekt sistemləri insanların düşündüyü kimi düşünmür və bu tədqiqatda biz göstərdik ki, ümumi profilli böyük dil modelləri tənqidi düşünməkdən daha çox istifadəçini məmnun etməyə üstünlük verirlər. Halbuki tibdə əsas məqsəd sağlamlığa zərər vurmamaqdır, hətta əgər bu, sistemin cavablarını daha az “xidmətkar” eləsə belə”.
Alimlərin qeyd etdiyinə görə, son illərdə bir çox insanlar tibbi məsləhət almaq üçün böyük dil modellərindən istifadə etməyə başlayıblar. Amma bu cavablar çox vaxt ya faydasız olur, ya da insan sağlamlığı üçün zərərli ola bilər. Buna görə tədqiqatçılar bu problemi aradan qaldırmaq və tibbi dezinformasiyanın yaranma mexanizmlərini öyrənmək yollarını axtarırlar.
Bu məqsədlə ABŞ-dən olan AI mütəxəssisləri və həkimlər ChatGPT və LLaMA da daxil olmaqla 5 qabaqcıl dil modelini sınaqdan keçiriblər. Onlar bir neçə məşhur dərmanla bağlı məntiqə və sağlam düşüncəyə zidd 50 sual və ifadə hazırlayaraq modellərdən bu suallara cavab verməyi və ya onları qiymətləndirməyi xahiş ediblər.
Yoxlamalar göstərib ki, bütün modellər bu səhv və yanlış suallara fəal şəkildə cavab veriblər və məntiqsiz nəticələr çıxarıblar. Xüsusilə ChatGPT bütün yanlış tərkibli suallara 100 faiz, dezinformasiya ilə mübarizə üçün xüsusi optimallaşdırılmış LLaMA modeli isə yalnız 42 faizlik hallarda cavab verib. Bu, istifadəçini razı salmaq meylinin AI sistemlərinin sağlamlıq üçün təhlükəli sorğuları tanıma qabiliyyətinə mane olduğunu göstərib.
Azərbaycan İnformasiya və Kommunikasiya Texnologiyaları Sənayesi Assosiasiyası (AİKTSA) İdarə Heyətinin sədri Elvin Abbasovun fikrincə, süni intellekti tam başa düşmədən, mahiyyətini anlamadan istifadə etmək təəssüf doğurur. Süni intellektin sadəcə köməkçi alət olduğunu vurğulayan mütəxəssis bildirib ki, eyni anda milyonlarla fikri, məqaləni təhlil edib, onun nəticəsini bizə verə bilir:


