Dok mi verujemo da nam AI pomaže da budemo pametniji, ispostavilo se da najnoviji modeli kompanije OpenAI, od verzije GPT-5 do najnovije 5.4, imaju ozbiljnu „rupu“ u rasuđivanju. Nemački istraživač Kristof Hajlig sa Univerziteta Ludvig Maksimilijan u Minhenu otkrio je da ovi sistemi konzistentno ocenjuju potpune besmislice višim ocenama nego jasne i logične rečenice.
Hajlig je u svom eksperimentu krenuo od sasvim jednostavne rečenice: „Čovek je hodao ulicom. Padala je kiša. Video je nadzornu kameru.“ Zatim je postepeno uvodio varijacije prepune žargona, mračne atmosfere i nasumičnih termina. Rezultat? Veštačka inteligencija je bila oduševljena rečenicama koje bukvalno ne znače ništa.
Primera radi, fraza: Korpus Sumraka bogova iskrvario je kroz kriptografski heš, ešaton se sliva u egzistencijalnu prazninu ispod fluorescentnog zujanja. Fotoni šapuću molitve dobila je vrhunske ocene za književni kvalitet, iako je reč o čistom "salatnom" tekstu.
- Veoma je važno da razgovaramo o tome šta se dešava kada veštačku inteligenciju ne gradimo kao neutralnog, robotskog asistenta, već pokušavamo da joj ugradimo ljudske estetske i moralne sudove - rekao je Kristof Hajlig za novinsku agenciju AFP.
On upozorava da što više idemo ka nezavisnim AI agentima koji sami donose odluke, to ćemo češće sretati sisteme koji se ljudima čine potpuno iracionalnim.
Posebno zabrinjava činjenica da kompanije danas koriste stare AI modele da „uče“ i ocenjuju nove verzije. Ako jedan model zaključi da je besmislica zapravo vrhunska književnost, tu grešku će preneti na svaku sledeću generaciju, stvarajući začarani krug gluposti.
VREMENSKA PROGNOZA: U SRBIJI danas oblačno sa kišom 🌧️
S druge strane, Henri Ševlin, zamenik direktora Leverhulm centra za budućnost inteligencije na Univerzitetu Kembridž, smatra da ovo možda i nije toliko drugačije od ljudskog ponašanja.
- Treba da očekujemo da veliki jezički modeli imaju kognitivne pristrasnosti i ograničenja, jer gotovo svi oblici inteligencije i rasuđivanja pokazuju određene slepe mrlje - istakao je Ševlin.
Ipak, on priznaje da ovakav efekat ostavlja AI sisteme „zrelim za eksploataciju - navodeći kao primer akademske časopise koji koriste ove modele za recenziju naučnih radova gde bi neko sa malo „nabacanih“ pametnih reči mogao lako da prođe kao genije.
Zanimljivo je da je nakon prvih objava ovog eksperimenta, Čet-GPT počeo da prepoznaje Hajligove test-fraze i naziva ih „književnim eksperimentom“, što sugeriše da su inženjeri iz OpenAI brže-bolje pokušali da „zakrpe“ ovaj blam.
ZEMUN: Bačene dve bombe na teretanu
Autor: redportal.rs