
OpenAI süni intellektin nəyə görə həmişə hallüsinasiya yaşayacağını açıqlayıb
Süni İntellekt
17.09.2025
Emil
OpenAI-nin yeni araşdırması böyük dil modellərində hallüsinasiyaların əsl təbiətini üzə çıxarır: bu, müvəqqəti çatışmazlıq deyil, ideal məlumatlar və mürəkkəb təlim üsulları tətbiq olunduqda belə qalan qaçılmaz riyazi problemdir. Texniki cəhətdən süni intellektin özünə inam səviyyəsini qiymətləndirməsinə və şübhə yarandıqda cavab verməkdən çəkinməsinə imkan yaradaraq səhvlərin sayını azaltmaq mümkün olsa da, bu həll iqtisadi baxımdan sərfəli və praktik deyil. İstifadəçilər daim “bilmirəm” deyən süni intellektlə barışmağa hazır deyillər. Buna görə də yaxın gələcəkdə hallüsinasiyalar yəqin ki, dil modellərinin ayrılmaz xüsusiyyəti olaraq qalacaq. Səbəb qismən modellərin iş prinsipində gizlənir: süni intellekt ehtimallara əsaslanaraq mətni hər dəfə bir söz proqnozlaşdırmaqla yaradır. Bu üsul uzun mətnlər generasiya edilərkən səhvlərin toplanmasına təbii şəkildə gətirib çıxarır və nəticədə hallüsinasiyaların səviyyəsi sadə “bəli/xeyr” suallarına cavablarla müqayisədə ən azı 2 dəfə yüksək olur.

Bundan əlavə, model öyrənmə zamanı hər hansı fakta nə qədər az rast gəlsə, səhv ehtimalı bir o qədər çox olur. Məsələn, məşhur şəxslərin ad günlərinin 20%-i təlim məlumatlarında cəmi bir dəfə rast gəlinirsə, modellər ən azı həmin halların 20%-də səhv etməlidirlər. Mövcud post-treninq yanaşmaları, o cümlədən insanların geribildirimləri problemi tam həll etmir. Süni intellektin 10 məşhur bençmarkının təhlili göstərib ki, onların əksəriyyəti binar qiymətləndirmə sistemi istifadə edir və burada “bilmirəm” cavabı yanlış cavabla eyni dərəcədə cəzalandırılır. Bu isə modelləri qeyri-müəyyənliyi etiraf etmək əvəzinə “təxmin etməyə” sövq edir. OpenAI-nin məqaləsində həll yolu təklif olunur: süni intellekt cavab verməzdən əvvəl öz inam səviyyəsini qiymətləndirməlidir. Model yalnız 75%-dən çox əmin olduqda cavab verə bilərdi. Bu halda hər bir səhv cəhd üçün 3 bal “cərimə” tətbiq ediləcək, düzgün cavab isə cəmi 1 balla qiymətləndiriləcəkdi.

Nəzəri olaraq bu, hallüsinasiyaların sayını azalda bilər, lakin praktikada istifadəçilərin tez-tez “bilmirəm” cavabı verən sistemdən imtina etmələri ehtimal olunur. Problemi hesablama iqtisadiyyatı daha da gücləndirir. Qeyri-müəyyənliyi nəzərə alan modellər mümkün variantları dəfələrlə analiz etməyə və onların etibarlılığını qiymətləndirməyə məcbur qalır, bu isə hesablama resurslarına böyük yük yaradır. Xüsusilə də söhbət gündə milyonlarla sorğunu emal edən sistemlərdən gedirsə. Daha inkişaf etmiş üsullar, məsələn, qeyri-müəyyənliyi azaltmaq üçün süni intellektin dəqiqləşdirici suallar verdiyi aktiv öyrənmə modellərin dəqiqliyini artıra bilər, lakin eyni zamanda hesablama tələblərini də yüksəldir. Bu cür yanaşmalar səhvin milyonlarla dollara başa gəldiyi ixtisaslaşmış sahələrdə - məsələn, mikrosxemlərin layihələndirilməsi, maliyyə ticarəti və ya tibbi diaqnostika zamanı - əsaslı sayıla bilər.

Lakin istehlakçı tətbiqləri üçün hələ ki, iqtisadi baxımdan sərfəli deyil. Hallüsinasiyaları azaltmaq üçün texniki imkanlar mövcud olsa da, mövcud biznes stimulları buna ziddir. Süni intellektin hazırlanmasında prioritetlər arasında istehlakçı tətbiqləri hələ də üstünlük təşkil edir. İstifadəçilər sürətli və inamlı cavablar istəyirlər, testlər və metriklər isə hətta yanlış olsa belə, hər hansı cavab verən sistemləri təşviq edir. Bu isə hallüsinasiyaların qaçılmaz yan təsir kimi qalmasına şərait yaradır. Nəticədə, OpenAI-nin araşdırması xoşagəlməz bir həqiqəti üzə çıxarır: prioritet istehlakçı tətbiqləri olduqca, hallüsinasiyalar qalacaq. Onların tam aradan qaldırılması yalnız süni intellektin hazırlanmasında stimulların və yanaşmaların yenidən nəzərdən keçirilməsi ilə mümkündür, lakin mövcud hesablama iqtisadiyyatı və istifadəçi gözləntiləri bunu olduqca az ehtimal edilən edir.
Paylaş
Bənzər xəbərlər

Süni İntellekt
Süni intellekt tərtibatçıları süni intellekt səbəbilə ixtisar olunurlar
Belə bir fikir var ki, süni intellekt əmək bazarına böyük təsir göstərəcək, lakin onun hazırlanmasında iştirak edənlərin ixtisarı barədə məlumatlar çox nadir hallarda yayılır.

Proqram Təminatı
ChatGPT-nin uşaqlar üçün versiyası hazırlanır
OpenAI şirkəti ChatGPT-in uşaq interfeysi üzərində işləyir və 18 yaşdan kiçik uşaqların və yeniyetmələrin standart versiyaya girişini məhdudlaşdırmaq üçün yaşın proqnozlaşdırılması texnologiyasından istifadə etməyi planlaşdırır.

Süni İntellekt
Süni intellekt görmə qabiliyyətinin itirilməsini illər öncədən təyin edir
Süni intellekt keratokonusun - görmə qabiliyyətini itirməyə səbəb ola biləcək göz xəstəliyinin - proqressini proqnozlaşdırmağı öyrənib. Cəmi 1-2 müayinənin məlumatları əsasında sistem 90%-ə qədər dəqiqliklə kimin erkən müdaxiləyə ehtiyacı olduğunu, kimin isə sadəcə müşahidə ilə kifayətlənə biləcəyini müəyyən edir.

Proqram Təminatı
ChatGPT-ni daha çox kimlər tərəfindən və nə üçün istifadə edildiyi statistikası təqdim edilib
ChatGPT-nin yaradıcısı OpenAI onun kimlər tərəfindən istifadə edildiyi və ən çox hansı tapşırıqlar üçün müraciət olunduğu barədə ilk ətraflı ictimai araşdırmasını dərc edib.

Proqram Təminatı
OpenAI proqramlaşdırma üçün GPT-5-Codex modelini təqdim edib
OpenAI Codex süni intellekt agentinin yenilənmiş versiyasını - GPT-5-Codex-i təqdim edib. Yeni model tapşırıqların yerinə yetirilməsinə sərf olunan vaxtı dinamik şəkildə bölüşdürə bilir və buna bir neçə saniyədən 7 saata qədər vaxt sərf edir.
Ən çox oxunanlar

İnsanabənzər robotlar ilə bağlı optimizm azalır
