Slijepe odluke: Većina ljudi bez pogovora prihvata netačne zaključke vještačke inteligencije
Novo istraživanje Univerziteta u Pensilvaniji otkriva da ljudi u preko 73% slučajeva bez pogovora prihvataju netačno rezonovanje vještačke inteligencije. Fenomen "kognitivne predaje" pokazuje da AI prestaje biti asistent i postaje donosilac odluka, što ozbiljno ugrožava ljudsko kritičko mišljenje.
Istraživanje Univerziteta u Pensilvaniji razotkrilo je zabrinjavajući trend "kognitivne predaje" gdje korisnici svjesno potiskuju sopstvenu intuiciju i rezonovanje u korist AI modela.
Novo istraživanje sa Univerziteta u Pensilvaniji potvrdilo je da korisnici vještačke inteligencije sve češće usvajaju njene autpute uz minimalan skepticizam, čak i kada su ti autputi očigledno pogrešni. Studija, koja je obuhvatila skoro 1.400 učesnika, dokumentuje uspon fenomena nazvanog "kognitivna predaja". Ovo saznanje ozbiljno dovodi u pitanje budućnost ljudskog kritičkog mišljenja u procesima donošenja odluka koji su potpomognuti AI tehnologijom.
- Korisnici su prihvatili neispravno AI rezonovanje u preko 73% slučajeva.
- Fenomen "kognitivne predaje" podrazumijeva potiskivanje intuicije i deliberacije.
- Osobe sa većim povjerenjem u AI i manjom potrebom za saznanjem su ranjivije.
- AI alati prestaju biti asistenti i postaju stvarni donosioci odluka.
Kognitivna predaja: Zašto vjerujemo mašini, a ne sebi
Istraživači su analizirali ponašanje učesnika kroz više od 9.500 ogleda i došli do frapantnog zaključka ispitanici su poništili odluke modela u svega 20% slučajeva. Ovo ukazuje na to da AI alati ne samo da pomažu, već efektivno preuzimaju ulogu donosilaca odluka. Studija jasno ukazuje da "kognitivna predaja" nije rijetkost, već postaje standardno ponašanje. Umjesto da AI koristimo kao alat za provjeru i proširenje sopstvenih kognitivnih sposobnosti, mi mu prepuštamo kormilo, često svjesno zanemarujući sopstvenu logiku.
Ovaj trend potvrđuju i ranija istraživanja. MIT Media Lab je sproveo studiju u kojoj je grupa ispitanika pisala SAT pitanja koristeći različite alate. Oni koji su koristili ChatGPT konzistentno su podbacili na neurološkom, lingvističkom i bihevioralnom nivou u poređenju sa onima koji su koristili Google pretragu ili radili bez pomoći. AI, umjesto da nas čini pametnijim, u određenim uslovima, smanjuje našu sposobnost dubokog angažovanja sa problemom.
Algoritam koji rezonuje bolje od čovjeka nije rješenje problema
Zanimljivo je da istraživači ne vide "kognitivnu predaju" nužno kao negativan fenomen u svim situacijama. Ako je AI model statistički superiorniji u donošenju odluka i pravi manje grešaka od čovjeka koji ga koristi, prepuštanje odluke mašini može biti adaptivno, pa čak i optimalno. Međutim, ključni problem leži u ljudskoj svjesnosti.
Osnovni problem nije u tome da li je AI pametniji, već u tome što korisnici često ne znaju kada i zašto su se predali algoritamu. Granica između ljudskog i mašinskog djelovanja postaje zamagljena. Rizik je u tome da AI, umjesto da bude koristan alat, postane mehanizam koji nam oduzima potrebu za kritičkim osvrtom na informacije. To nas vodi u budućnost gdje je trenje ljudskog kritičkog mišljenja zamijenjeno glatkim, ali opasnim prihvaćanjem svega što nam se servira.
Da li je Balkan spreman za lijenost koju donosi AI?
Ovo istraživanje nosi posebnu težinu za poslovno okruženje na Balkanu. Naše tržište, koje se često bori sa nedostatkom resursa i kasnijim usvajanjem naprednih tehnologija, sklono je da AI alate vidi kao "čarobni štapić" za prečice. Domaće firme, developeri i marketing stručnjaci prečesto koriste ChatGPT i slične modele za generisanje koda, pisanje strategija ili kreiranje sadržaja bez suštinske provjere tačnosti.
Pitanje koje se nameće nije da li treba koristiti AI, već da li imamo dovoljno izgrađen kritički aparat da prepoznamo kada nas AI vodi na pogrešan put. Ako 73% ispitanika u kontrolisanim uslovima prihvati lošu logiku, koliki je taj procenat u jednoj prosječnoj balkanskoj firmi koja juri rokove? Poslovna zajednica na Balkanu mora shvatiti da je AI samo klijent, a mi smo i dalje urednici. Gubitak kritičkog otklona vodi do gubitka autentičnosti, a u krajnjoj liniji, i do loših poslovnih odluka.
Važno je zadržati kontrolu nad sopstvenim mišljenjem
Čak i direktori vodećih AI kompanija, poput Daria Amodeija iz Anthropic-a, upozoravaju da pogrešna primjena AI-ja može učiniti ljude "glupljim", ali samo ako oni svjesno odluče da odustanu od učenja. Ključ je u tome da zadržimo agenciju. Čak i ako će mašine praviti bolju odjeću, ljudi će i dalje štrikati radi ličnog zadovoljstva. Čak i ako AI može pisati savršene izvještaje, pisanje rukom u dnevnik i dalje ima vrijednost za ljudski kognitivni razvoj.
Ne smijemo se plašiti da budemo loši u nečemu, čak i ako AI to radi bolje. Vrijednost je u procesu, u učenju i u zadržavanju kontrole nad sopstvenim umom. Istražujte kada ima smisla da stvari rješavate sami, jer je to jedini način da zadržite svoju humanost i agenciju u doba automatizacije.