Ipak, samo nekoliko sati nakon lansiranja, korisnici širom društvenih mreža počeli su da ukazuju na niz iznenađujućih i često duhovitih grešaka koje su dovele u pitanje vjerodostojnost tvrdnje o „doktorskom“ znanju. Uprkos tehničkim unapređenjima, jasno je da se GPT-5 i dalje muči sa zadacima koje bi većina smatrala osnovnim, poput spelovanja, brojanja slova ili pravilnog prepoznavanja geografskih lokacija.
U jednom slučaju koji je brzo postao viralan, korisnik je pitao model koliko slova B ima u riječi „blueberry“. ChatGPT-5 je samouvjereno odgovorio da ih ima tri, čak je dodatno obrazložio uz antropomorfnu opasku: „Da – blueberry je jedna od onih riječi kod kojih te sredina skoro prevari, kao da kaže ‘b-b-bolje pazi’. Taj mali bb momenat je baš zadovoljavajući – čini da riječ zvuči posebno skakutavo“. Iako ispisan u tonu, odgovor je bio netačan, što odražava sklonost velikih jezičkih modela ka „halucinaciji“ – terminu koji se u razvoju AI-ja koristi za samouvjerene, ali pogrešne odgovore.Pristizali su i drugi primjeri. Kada je modelu postavljeno pitanje da navede američke savezne države koje sadrže slovo R, GPT-5 je iznio čudnu i greškama ispunjenu mapu. Arizona je bila napisana kao Krizona, Vermont kao Vermoni, a čak su izmišljene i potpuno fiktivne države kao što su Mitroinia i New Jefst. Kalifornija se na listi pojavila dva puta. Ovo nisu obične slovne greške – ukazuju na dublji problem u načinu na koji jezički modeli obrađuju činjenice, posebno kada generišu informacije od nule.
U sličnom testu osnovnog prepoznavanja, GPT-5 je bio upitan koliko se puta slovo R pojavljuje u imenu poznatog regiona. Na primjer, kada je trebalo da prebroji slova R u „Northern Territory“, model je odgovorio tri – iako ih ima pet. Kada je dodatno upitan da prikaže ovu lokaciju na mapi, napisao je „Northan Territor“, dodatno pogoršavajući grešku lošim spelovanjem i pogrešnim prepoznavanjem imena.
Ove greške su naročito upadljive imajući u vidu da je model predstavljen kao ozbiljan alat za znanje. Iako GPT-5 svojim izražajem i razumijevanjem konteksta u mnogim oblastima prevazilazi prethodne generacije, njegova sklonost ka osnovnim greškama otvara važna pitanja o pouzdanosti. Kako se može vjerovati alatu koji treba da pomaže istraživačima, studentima i profesionalcima, ako nije u stanju da prebroji slova ili pravilno napiše geografsko ime?
Objašnjenje možda leži u arhitektonskim promjenama GPT-5 modela. Za razliku od prethodnih verzija, GPT-5 koristi sistem poznat kao „real-time router“, koji dinamički odlučuje koji će AI model da koristi za konkretan upit. U zavisnosti od načina na koji korisnik formuliše pitanje ili kompleksnosti zahtjeva, ruter bira model koji procijeni kao najprikladniji – bilo da je riječ o brzom pronalaženju informacija, zaključivanju, sažimanju ili kreativnom pisanju. OpenAI je saopštio da izrazi poput „razmisli dobro o ovome“ mogu aktivirati model sa najboljim sposobnostima rezonovanja.
Ovakav pristup nudi fleksibilnost i potencijalno bolje razumijevanje konteksta kroz vrijeme, posebno kako se ruter bude prilagođavao stvarnoj upotrebi i povratnim informacijama korisnika. Ipak, može dovesti i do neujednačenosti, budući da proces koji bi trebalo inteligentno da usmjerava upite ponekad može da odabere manje prikladan model ili ne prepozna kada je potrebno dublje analitičko razmišljanje, što dovodi do grešaka koje djeluju neusklađeno sa inače naprednim mogućnostima modela.
OpenAI je priznao da GPT-5 nije savršen i da halucinacije, iako rjeđe, i dalje postoje. Kompanija tvrdi da je model dizajniran da se neprestano unapređuje, učeći iz interakcija i ispravki korisnika. Međutim, objavljivanje je jasno pokazalo raskorak između javnih očekivanja i tehničke realnosti.
Za korisnike, poruka je jasna: GPT-5 je izuzetno moćan alat, sposoban za tečnu komunikaciju, sofisticirano rezonovanje i kreativno izražavanje. Ali, uprkos njegovoj uglađenoj prezentaciji i akademskom tonu, i dalje je ranjiv na neke od osnovnih grešaka koje su mučile i prethodne modele. Pravopisne greške, netačne informacije i geografske halucinacije možda djeluju beznačajno same po sebi, ali ukazuju na šire izazove u pouzdanosti AI-ja, posebno u situacijama gdje je preciznost ključna.
Preporučeno
ChatGPT-5 možda govori samouvjereno kao doktor nauka, ali dok ne nauči da pouzdano broji slova i pravilno imenuje mape, njegov stvarni nivo ,,inteligencije” ostaje nedovršen posao.