Neyroşəbəkə alimləri təəccübləndirib
Icma.az, Azvision portalına istinadən məlumat verir.
AzVision.az xəbər verir ki, eramızdan əvvəl 385-ci ildə Platon tərəfindən təsvir edilən problem sadə görünsə də, onun qeyri-aşkar bir həll yolu var: kvadratın sahəsini iki dəfə artırmaq, orijinalın diaqonalına bərabər olan yeni bir kvadrat qurmaq.
Kembric Universiteti və Yerusəlim İvrit Universitetinin alimləri bu xüsusi problemi təsadüfiən seçməyiblər. Belə ki, “ChatGPT” əsasən şəkillərlə yox, mətnlər üzərində təlim keçdiyi üçün onun öyrədildiyi məlumatlarda hazır həllin mövcud olma ehtimalı çox aşağı idi.
Yəni süni intellekt müstəqil şəkildə cavabı tapsa, riyazi qabiliyyətlərin öyrənmə yolu ilə əldə edildiyini və anadangəlmə olmadığını iddia etmək mümkündür. Nəticələr alimlər üçün gözlənilməz olub.
“Əvvəlcə çatbot ağlabatan izahat verə bilib. Lakin tapşırıq daha mürəkkəbləşəndə və ona düzbucaqlının sahəsini ikiqat artırmağı tapşıranda, o, bunun həndəsi cəhətdən qeyri-mümkün olduğunu deyib. Halbuki, alimlər bir həllin mövcud olduğunu bilirdilər. Yəni əvvəllər mövcud olan məlumatlardan sitat gətirməyən ChatGPT əvvəlki mülahizələrə əsaslanaraq “improvizasiya” edib”, - verilən açıqlamada deyilir.
Kembric Universitetinin dəvət olunmuş elmi işçisi Nadav Marko modelin təlim məlumatlarında yalan iddianın görünməsini “kiçik qeybolma” ehtimalı kimi qiymətləndirib. Onun sözlərinə görə, bot özünü keçmiş təcrübəsinə əsaslanaraq fərziyyələr irəli sürən tələbə kimi davranıb. Bu davranış insan şüurunun necə işlədiyinə çox bənzəyir: əvvəlcə hər şeyi sınamaq, sonra səhv edərsə, qərarlarını tənzimləmək.
Tədqiqatın həmmüəllifi, professor Andreas Stylianides qeyd edib ki, bu, neyron şəbəkələrin həqiqi “düşüncəyə” malik olduğunu göstərməsə də, vəziyyət süni intellektdə (Sİ) “qara qutu” problemini önə çəkir.
- Biz yalnız nəticəni görürük, amma maşının buna necə gəldiyini anlamırıq. Əgər qədim yunanlar üçün mülahizə prosesinin özü vacib idisə, alimlərin fikrincə, müasir tələbələr alqoritmlərin yaratdığı sübutları yoxlamağı və tənqidi qiymətləndirməyi bacarmalıdırlar. Hər bir dəlilin yoxlanıldığı dərsliklərdən fərqli olaraq, ChatGPT-un nəticələrinə sözdə inanıla bilməz”, - Stilianides vurğulayıb.
Tədqiqatın müəllifləri öz qənaətlərində ehtiyatlıdırlar: onlar Sİ-nin problemləri insanlarla eyni şəkildə həll etdiyində israrlı deyillər. Bununla belə, neyron şəbəkələrin “insan kimi” davranışı yeni imkanlar açır.
Gələcəkdə belə modellər daha geniş tapşırıqlar üzrə sınaqdan keçirilə və hətta dinamik həndəsə sistemləri ilə birləşdirilə bilər. Bu, çatbotlara tələbələr və müəllimlər üçün birgə tədqiqat alətləri və effektiv rəqəmsal yoldaşları olmağa imkan verəcək.
Sahil İsgəndərov
AzVision.az
Sonrakı hadisələr barədə daha çox məlumat almaq üçün Icma.az saytını izləyin.
Kembric Universiteti və Yerusəlim İvrit Universitetinin alimləri bu xüsusi problemi təsadüfiən seçməyiblər. Belə ki, “ChatGPT” əsasən şəkillərlə yox, mətnlər üzərində təlim keçdiyi üçün onun öyrədildiyi məlumatlarda hazır həllin mövcud olma ehtimalı çox aşağı idi.
Yəni süni intellekt müstəqil şəkildə cavabı tapsa, riyazi qabiliyyətlərin öyrənmə yolu ilə əldə edildiyini və anadangəlmə olmadığını iddia etmək mümkündür. Nəticələr alimlər üçün gözlənilməz olub.
“Əvvəlcə çatbot ağlabatan izahat verə bilib. Lakin tapşırıq daha mürəkkəbləşəndə və ona düzbucaqlının sahəsini ikiqat artırmağı tapşıranda, o, bunun həndəsi cəhətdən qeyri-mümkün olduğunu deyib. Halbuki, alimlər bir həllin mövcud olduğunu bilirdilər. Yəni əvvəllər mövcud olan məlumatlardan sitat gətirməyən ChatGPT əvvəlki mülahizələrə əsaslanaraq “improvizasiya” edib”, - verilən açıqlamada deyilir.
Kembric Universitetinin dəvət olunmuş elmi işçisi Nadav Marko modelin təlim məlumatlarında yalan iddianın görünməsini “kiçik qeybolma” ehtimalı kimi qiymətləndirib. Onun sözlərinə görə, bot özünü keçmiş təcrübəsinə əsaslanaraq fərziyyələr irəli sürən tələbə kimi davranıb. Bu davranış insan şüurunun necə işlədiyinə çox bənzəyir: əvvəlcə hər şeyi sınamaq, sonra səhv edərsə, qərarlarını tənzimləmək.
Tədqiqatın həmmüəllifi, professor Andreas Stylianides qeyd edib ki, bu, neyron şəbəkələrin həqiqi “düşüncəyə” malik olduğunu göstərməsə də, vəziyyət süni intellektdə (Sİ) “qara qutu” problemini önə çəkir.
- Biz yalnız nəticəni görürük, amma maşının buna necə gəldiyini anlamırıq. Əgər qədim yunanlar üçün mülahizə prosesinin özü vacib idisə, alimlərin fikrincə, müasir tələbələr alqoritmlərin yaratdığı sübutları yoxlamağı və tənqidi qiymətləndirməyi bacarmalıdırlar. Hər bir dəlilin yoxlanıldığı dərsliklərdən fərqli olaraq, ChatGPT-un nəticələrinə sözdə inanıla bilməz”, - Stilianides vurğulayıb.
Tədqiqatın müəllifləri öz qənaətlərində ehtiyatlıdırlar: onlar Sİ-nin problemləri insanlarla eyni şəkildə həll etdiyində israrlı deyillər. Bununla belə, neyron şəbəkələrin “insan kimi” davranışı yeni imkanlar açır.
Gələcəkdə belə modellər daha geniş tapşırıqlar üzrə sınaqdan keçirilə və hətta dinamik həndəsə sistemləri ilə birləşdirilə bilər. Bu, çatbotlara tələbələr və müəllimlər üçün birgə tədqiqat alətləri və effektiv rəqəmsal yoldaşları olmağa imkan verəcək.
Sahil İsgəndərov
AzVision.az

Bu neyroşəbəkə sizə istənilən dili öyrənməyə kömək edəcək
22 İyul 2025 21:03
“Google” delfinlərlə ünsiyyət qurmağa imkan verəcək neyroşəbəkə tərcüməçisi yaradıb
15 Aprel 2025 16:09
Kosmosdan gələn sirli radiosiqnallar alimləri təəccübləndirib
13 Mart 2025 08:42
Siçanlara “insanın danışmaq geni” köçürülüb nəticə alimləri təəccübləndirib
09 İyul 2025 08:38
Bağırovu kimlər təəccübləndirib?
04 Sentyabr 2025 10:10

