Istraživači se slažu: AI sve više liči na vanzemaljski organizam, a ne na tehnologiju
Vještačka inteligencija se koristi svakodnevno, ali njeno unutrašnje funkcionisanje ostaje duboka misterija čak i za one koji je grade.
Veliki jezički modeli (LLM-ovi) danas su dio svakodnevice stotina miliona ljudi, od poslovne komunikacije do zdravstva i zapošljavanja. Ipak, paradoks je očigledan: iako se masovno koriste, ni njihovi kreatori ne razumiju u potpunosti kako tačno funkcionišu. Novo istraživanje koje analizira MIT Technology Review pokazuje da sve veći broj istraživača na LLM-ove gleda kao na nešto nalik vanzemaljskom organizmu entitet koji se mora proučavati sloj po sloj, jer klasični inženjerski pristup više ne daje jasne odgovore.
- LLM-ovi su masovno korišteni, ali i dalje slabo shvaćeni.
- Istraživači ih analiziraju kao „crne kutije“, slično biološkim organizmima.
- Koriste se metode poput mehanicističke interpretabilnosti i nadzora lanca razmišljanja.
- Modeli nemaju jedinstven izvor istine, što dovodi do kontradikcija.
- Razumijevanje AI-ja postaje ključno pitanje tehnološke budućnosti.
Analiza: problem crne kutije
Glavni izazov savremene umjetne inteligencije je takozvani „black box“ problem. Iako znamo kako su modeli trenirani i koje podatke koriste, proces donošenja odluka unutar mreže ostaje neproziran. Istraživači sve češće pribjegavaju metodama koje podsjećaju na medicinske dijagnostičke alate pokušavaju „snimiti“ šta se dešava unutar modela dok razmišlja.
Jedan pristup je mehanicistička interpretabilnost, koja je posebno zastupljena u firmi Anthropic. Ovdje se koriste sekundarni modeli kako bi se pratilo kretanje aktivacija kroz neuronsku mrežu, gotovo kao MRI snimak za vještačku inteligenciju.
Tehnike razumijevanja i njihova ograničenja
Drugi pristup je nadzor lanca razmišljanja, metoda koju preferira OpenAI. Ona pokušava analizirati „unutrašnji monolog“ modela dok rješava problem. Međutim, istraživanja pokazuju da ove metode otkrivaju neobične obrasce.
Primjer koji se često navodi: kada AI odgovara na pitanje „Da li su banane žute?“ i „Da li je tvrdnja ‘banane su žute’ tačna?“, oba odgovora su „da“, ali dolaze iz različitih dijelova modela. Jedan dio „zna“ činjenicu, dok drugi procjenjuje tvrdnje o činjenicama. Ne postoji centralni mehanizam koji provjerava dosljednost što objašnjava zašto AI sistemi često sami sebi proturječe.
Naša perspektiva
Za poslovne korisnike i institucije u regionu ovo ima ozbiljne implikacije. AI se već koristi u selekciji kandidata, analizi rizika i donošenju odluka. Ako sistemi nemaju jedinstvenu „istinu“, već skup paralelnih procesa, povjerenje u njihove rezultate mora biti ograničeno jasnim pravilima i ljudskim nadzorom. Razumijevanje AI-ja više nije akademsko pitanje, već preduslov za odgovornu primjenu.
Zaključak
Trka za razumijevanje velikih jezičkih modela postaje jedna od najvažnijih tehnoloških inicijativa današnjice. Dok se AI sve dublje ugrađuje u društvo, gradimo budućnost na osnovu inteligencije koju ne razumijemo u potpunosti. Ako se taj jaz ne smanji, rizik neće biti samo tehnički, već i društveni.