GPT-5 u medicini pokazuje „krhku inteligenciju“, otkriva nova studija

GPT-5 u medicini pokazuje „krhku inteligenciju“, otkriva nova studija

Iako model napreduje, i dalje griješi u više od polovine kliničkih scenarija što može imati ozbiljne posljedice po stvarne pacijente.

Nedavna studija objavljena u časopisu npj Digital Medicine pokazuje da čak i najnoviji model GPT-5, uprkos napretku u smanjenju grešaka i halucinacija, i dalje pada na testovima medicinskog rezonovanja. Stručnjaci upozoravaju da „tečno“ formulisani odgovori mogu prikriti ozbiljne faktografske greške, čineći ovaj tip vještačke inteligencije opasno uvjerljivim.

Ključni nalazi istraživanja

Studija pod nazivom The perils of politeness: how large language models may amplify medical misinformation otkriva niz problema koji ostaju prisutni i kod GPT-5:

Samouvjerene halucinacije: Model često pruža pogrešan medicinski savjet s potpunim samopouzdanjem, stvarajući lažni osjećaj sigurnosti kod korisnika.
Manje sigurnosnih upozorenja: Za razliku od starijih verzija, GPT-5 rjeđe dodaje disklejmere poput „obratite se ljekaru“, što smanjuje nivo zaštite.
Laka manipulacija promptovima: Istraživači su pokazali da se model može navesti da generiše neprovjerene ili rizične informacije.
Fluentnost bez razumijevanja: Iako odlično „zvuči“, GPT-5 i dalje ne razumije medicinsku logiku ni kompleksne kliničke protokole.
Nepredvidivo poštovanje pravila: U nekim slučajevima potpuno ignoriše standardne medicinske procedure i preporuke.

Autori studije to nazivaju „fragilnom inteligencijom“ sposobnošću da AI djeluje inteligentno dok zapravo nema istinsko razumijevanje situacije.

Zašto je ovo važno

Na Balkanu, gdje je pristup savremenim medicinskim sistemima ograničen, postoji rizik da se modeli poput GPT-5 koriste kao neformalni izvor savjeta. To može dovesti do pogrešnih odluka, naročito u zemljama gdje zdravstvena pismenost i digitalna regulativa nisu na istom nivou.

Ako AI chatbot „uvjerljivo“ objasni simptom ili preporuči tretman, korisnici mogu povjerovati da je riječ o pouzdanom izvoru, iako model ne posjeduje ni medicinsku edukaciju ni odgovornost. Zato stručnjaci savjetuju da se GPT-5 koristi isključivo kao alat za podršku, a ne zamjena za ljekara.

Reakcije i preporuke istraživača

Nezavisna evaluacija: Stručnjaci traže javno testiranje AI modela prije primjene u kliničkoj praksi.
Čovjek u petlji (Human-in-the-loop): Svaka odluka mora imati nadzor medicinskog profesionalca.
Edukacija korisnika: Potrebno je jasno objašnjavati ograničenja modela – posebno pacijentima i zdravstvenom osoblju koje koristi AI.
Regulativa i etika: Zemlje regiona treba da unaprijede zakonske okvire za upotrebu medicinskog AI-ja i spriječe zloupotrebe.

Šta slijedi

GPT-5 jeste korak naprijed u preciznosti i stabilnosti, ali je daleko od stvarnog razumijevanja medicine. Kako navode istraživači, „AI može govoriti medicinski, ali još ne razmišlja kao ljekar.“

U narednim mjesecima očekuje se da globalni i regionalni regulatori pojačaju nadzor nad medicinskim AI alatima, kako bi se spriječile potencijalno opasne zloupotrebe tehnologije.

Read more

Leonadri DiCaprio upozorava: AI filmovi su bez duše i postaju digitalni otpad

Leonadri DiCaprio upozorava: AI filmovi su bez duše i postaju digitalni otpad

Holivudska zvijezda poručuje da vještačka inteligencija može pomoći tehnici, ali ne može zamijeniti ljudsku kreativnost. Leonardo DiCaprio, jedan od najuticajnijih glumaca savremenog Hollywooda, javno je kritikovao upotrebu vještačke inteligencije u filmskoj industriji, nazvavši AI sadržaj „internet smećem“. Kao dobitnik priznanja Zabavljač godine za 2025. prema časopisu Time magazine, DiCaprio upozorava

By AI Balkan