Iza kulisa ChatGPT-a: Misterija slučajne slike i granice vještačke inteligencije

Zamislite sljedeće: čovjek naviknut da istražuje dubine računarskih algoritama, David Bau, naiđe na slučajnu sliku stvorenu vještačkom inteligencijom. Ali slika nije bezazlena: na zamućenoj površini pojavljuje se kontura vuka iz ničega. Kako je moguće da alat koji treba da reproducira tačno ono što mu „kažemo” iznenada proizvede rezultat za koji nije bio programiran? Ova, naizgled, sitna digitalna anomalija otvara vrata najvećim pitanjima današnje tehnološke ere.
- David Bau, istraživač sa MIT-a, slučajno je naišao na neobjašnjiv rezultat tokom rada s modelima slike.
- Vještačka inteligencija, očigledno je, ponekad funkcionira kao crna kutija: znamo šta unesemo, ali ne znamo uvijek šta izlazi.
- Otkriće je objavljeno uz eksplicitna upozorenja stručnjaka: modeli poput Stable Diffusion zadržavaju i ponavljaju obrasce čak i kada nismo svjesni njihove prisutnosti.
'Sasvim neočekivano, algoritam je prikazao lik vuka na mjestu gdje ni jednog vuka nije trebalo biti', piše Bau u članku na portalu Persuasion.
Kada su slike samo 'nasumične greške', a kada su odraz dubljih, skrivenih informacija kojima upravlja model? Da li možemo vjerovati vještačkoj inteligenciji kada ni njeni tvorci ne razumiju svaki njen potez? Bau nije ni prvi ni poslednji koji postavlja ta pitanja ali je jedan od rijetkih koji dovoljno glasno upozorava javnost.
Ovo nije još jedna apstraktna polemika o algoritamskoj pristrasnosti. Svaka 'nasumična' slika koju generišemo možda je djelić tuđeg rada, ili dokument iz digitalnog podzemlja koji ni sami autori AI modela ne mogu predvidjeti ili kontrolirati. I zato, dok slavite moć novih alata, pitajte se: Ko zaista kontroliše ono što će vam sutra prikazati vještačka inteligencija?