Zašto ne mislim da je AGI neizbježan!
AGI se najavljuje kao sljedeća stanica tehnološke istorije. Ali ispod demoa i benchmark rezultata kriju se arhitekturna ograničenja i kognitivni jaz koji ne nestaje skaliranjem.
U tehnološkom sektoru postoji gotovo ritualna rečenica: “Opšta vještačka inteligencija je blizu.Nekada u narednih pet godina, nekada već ovdje. Kada to izgovore izvršni direktori kompanija poput OpenAI ili Anthropic, to zvuči kao neizbježan istorijski talas.
Ali izvan konferencijskih bina i investitorskih pisama, stvar izgleda manje linearno.
Pitanje nije da li su današnji modeli impresivni. Jesu. Pitanje je da li su oni zapravo na kontiniumu koji prirodno vodi ka ljudskom nivou inteligencije ili su, uprkos snazi, zaglavljeni unutar arhitekture koja ima jasne i duboke granice.
Šta se zapravo dešava iza kulisa
Dominantna paradigma posljednjih godina je transformator arhitektura. Od rada “Attention Is All You Need” 2017. do današnjih modela poput GPT-5.2 ili Claude Opus 4.5, napredak je dolazio kroz skaliranje: više podataka, više parametara, više računarske snage.
Rezultati su spektakularni u određenim domenima: kodiranje, generisanje teksta, analiza slika, pa čak i rješavanje apstraktnih testova poput ARC Prize Foundation ARC-AGI izazova.
Ali detalji su manje glamurozni. Na ARC-AGI-2 testu iz 2025. godine, čisti jezički modeli su postigli 0%. Tek kada su oko njih dodane tzv. refinement petlje generiši, provjeri, ispravi, ponovi performanse su skočile na 50–70%. Cijena po zadatku? Desetine dolara u računskoj snazi.
To nije emergentna inteligencija. To je sofisticirana, iterativna pretraga prostora rješenja.
U međuvremenu, novi benchmark Stanford University ENACT testirao je nešto dublje: znakove utjelovljene kognicije razumijevanje uzročno-posljedičnih veza, dugoročnog planiranja. Rezultat je bio jasan, jaz između ljudi i modela raste kako zadaci postaju interaktivniji i dugoročniji.
Drugim riječima, modeli briljiraju u obrascima. Posrću u svijetu.
Problem koji se ne vidi u prikazu
Jedna od ključnih ideja iz razvojne psihologije, posebno u radu Elizabeth Spelke, jeste da ljudi posjeduju “jezgro znanja” urođene kognitivne primitive trajnost objekta, osnovni osjećaj broja, kauzalnost, prostornu orijentaciju.
Jezik se razvio na toj osnovi. Kada kažemo “Marija drži loptu”, mi podrazumijevamo gravitaciju, čvrstoću materije, kontinuitet identiteta, trodimenzionalni prostor. Ništa od toga nije eksplicitno u rečenici.
Transformerski modeli pokušavaju da rekonstruišu taj temelj isključivo iz jezika i slike. To je kao da pokušavate da naučite fiziku čitajući romane.
Čak i kada modeli treniraju na videu, kao u DeepMind-ovim projektima, često se radi o pasivnom posmatranju. Google DeepMind SIMA 2, recimo, trenira se gledanjem ljudskog gejmpleja i imitiranjem akcija. Inteligencija dolazi iz prethodno treniranog jezičkog modela, ne iz stvarnog percepcijsko-akcionog iskustva.
Slično je i sa JEPA pristupom koji promoviše Yann LeCun. To je napredniji način reprezentacionog učenja, ali i dalje bez zatvorene petlje percepcije i akcije. Model gleda svijet. Ne djeluje u njemu.
A bez djelovanja nema stvarne kauzalnosti. Nema rizika. Nema potrebe da sistem razvije stabilne unutrašnje reprezentacije objekata kao trajnih entiteta.
Arhitektura kao plafon
Postoji još jedan sloj problema sama arhitektura.
Transformeri su feed-forward sistemi. Informacija teče unaprijed, od tokena ka izlazu. Nema stvarnog povratnog toka koji bi mijenjao prethodne reprezentacije. To omogućava skaliranje keširanje, paralelizaciju, obradu triliona tokena ali istovremeno uvodi matematička ograničenja.
Teorijski radovi, uključujući analize kompleksnosti transformera, pokazuju da fiksno-dubinski modeli spadaju u klase koje ne mogu riješiti ni formalno jednostavne probleme bez dodatne spoljne strukture. Nije pitanje podataka. Nije pitanje GPU-ova. To je pitanje forme.
Da li će nove arhitekture neuro-simbolički hibridi, rekurentne mreže sa povratnim vezama probiti taj plafon? Moguće. Ali to znači napuštanje dijela onoga što je transformere učinilo praktičnim i profitabilnim.
A to je već strateško, ne samo tehničko pitanje.
Diskurs i tišina
Zanimljivo je da se javna priča i akademska slika razilaze. Dok direktori najavljuju superinteligenciju, istraživačke ankete pokazuju znatno veći skepticizam prema ideji da će puko skaliranje dovesti do AGI-ja.
To ne znači da su izvršni direktori neiskreni. Njihove kompanije zaista vjeruju u skaliranje. One ulažu u podatkovne centre, GPU farme, nove proizvode.
Ali skaliranje postojećeg paradigmskog okvira nije isto što i rješavanje fundamentalnih problema kognicije.
I to je razlika koja se lako izgubi u naslovima.
Šira slika
Neuralne mreže postoje od pedesetih godina prošlog vijeka. Backpropagation je popularizovan osamdesetih. LSTM, attention, rezidualne veze sve su to bile faze dugog, nelinearnog istraživanja.
Transformeri su ogroman skok. Ali možda su i plato.
Benchmark saturacija, stalno uvođenje novih testova poput ARC-AGI-3, pomjeranje fokusa ka interaktivnom rezonovanju sve to ne liči na završnicu. Više liči na mapiranje granice.
A granica, za sada, izgleda daleko.
Naš zaključak
Možda AGI neće doći kroz još jedan red veličine parametara, već kroz nešto što još nemamo ni ime za to što će doći.