Browser agenti pod lupom “AI trust tax” prijeti povjerenju u automatizovane asistente

Browser agenti pod lupom “AI trust tax” prijeti povjerenju u automatizovane asistente
AI browser agenti i Microsoft OpenAI partnerstvo oktobar 2025, AI Balkan

Novi izvještaji o ranjivostima AI pretraživača i nejasnim finansijama Microsoft–OpenAI partnerstva otvaraju pitanje: da li plaćamo skriveni “porez na povjerenje”?

Sigurnosni eksperimenti pokazuju da su AI browser agenti, poput OpenAI-jevog Atlas pretraživača, lako podložni manipulaciji kroz tzv. prompt-injekcije i skriveno prikupljanje podataka. Istovremeno, Microsoftova saradnja s OpenAI-jem izaziva sumnje među investitorima zbog nedostatka transparentnosti. Zajednički imenitelj: rastući “AI trust tax” koji prijeti održivosti cijelog ekosistema.


Ranjivosti u AI pretraživačima

Brave je nedavno objavio izvještaj koji pokazuje kako se AI asistenti u pretraživačima mogu zloupotrijebiti kroz više vektora napada:

  • Screenshot prompt injection skriveni tekst u slikama može se tumačiti kao komanda, ne kao sadržaj, što omogućava napadačima da neprimjetno ubace upute AI-ju.
  • Navigation-based injection jednostavno otvaranje stranice može uzrokovati da AI “ponese” tekst stranice kao da dolazi od korisnika, što mijenja njegovo ponašanje.
  • Zamagljena granica između korisnika i weba agent često ne razlikuje ko mu zapravo daje instrukcije, što otvara prostor za zloupotrebu.

To znači da standardna pravila web sigurnosti više ne važe: ako AI agent ima pristup vašem nalogu ili radnom okruženju, može nehotice pokrenuti transakcije, slati poruke ili pristupiti osjetljivim podacima.

💡
Potrebno je imati opreza prema istraživanjima jer i sam Brave je pretraživač i konkurent. Realno istina je da će vrijeme pokazati ozbiljnost istraživanja. Takođe ne pokazuju jasno koja istraživanja i kako su rađena.

Gaming Copilot i pitanje nadzora

Microsoftov Gaming Copilot dodatno je izazvao zabrinutost jer automatski pravi screenshotove tokom igranja radi “konteksta”. Iako kompanija tvrdi da slike ne koristi za treniranje modela, korisnici su nezadovoljni ograničenim opcijama za isključivanje funkcije.

Takvi slučajevi ukazuju na širi problem kompanije lansiraju AI agente koji imaju dubok pristup korisničkim sistemima, ali bez jasnih mehanizama kontrole, audita ili dozvola.


Nejasne finansije OpenAI–Microsoft partnerstva

Paralelno s tehničkim rizicima, raste zabrinutost oko ekonomske izloženosti Microsofta prema OpenAI-ju. Wall Street Journal je nedavno pozvao na veće finansijsko razotkrivanje ovog partnerstva, dok su korisnici na Hacker Newsu istakli da ključni detalji o troškovima i prihodima stoje u nejasnim kategorijama poput “other, net”.

Investitori se pitaju: koliko su stvarni AI profiti, a koliko “računovodstvena mašta”? Ako rizici nisu pravilno iskazani od troškova sigurnosti do potencijalnih tužbi tržište ne može realno procijeniti vrijednost AI investicija.


“AI trust tax”: trošak povjerenja u automatizaciju

Zajednički zaključak ovih epizoda je jasan: AI agenti se razvijaju brže nego što ih sigurnosni i pravni sistemi mogu pratiti. Rezultat je “porez na povjerenje” dodatni trošak koji kompanije i korisnici plaćaju zbog nejasnih granica, neprovjerenih ovlaštenja i nevidljivih finansijskih rizika.

Stručnjaci preporučuju niz tehničkih i regulatornih mjera:

  • Razdvajanje AI pretraživanja od normalnog web korištenja
  • Obavezna korisnička potvrda prije svake AI akcije na mreži
  • “Sandbox” pristup agenti rade u izolovanom okruženju
  • Dozvolne liste i evidencija svake aktivnosti
  • Potpuna transparentnost o prikupljenim podacima i načinima isključivanja sistema

Na poslovnoj strani, kompanije moraju jasno pokazati kako AI prihod ulazi i izlazi iz bilansa od iznajmljivanja GPU infrastrukture do prodaje Copilot licenci. Samo tada će tržište moći razlikovati stvarni rast od “umjetne inflacije”.


Zaključak

Dok AI agenti postaju standardni dio svakodnevnog poslovanja, njihova sigurnost i finansijska transparentnost ostaju neistraženo područje. U narednim mjesecima bi regulatorne institucije i tržište mogle zatražiti konkretne odgovore a do tada, korisnici i kompanije moraju dizajnirati sopstvene mehanizme povjerenja.

Read more

Hiljade potpisuju apel za ograničavanje razvoja superinteligencije

Hiljade potpisuju apel za ograničavanje razvoja superinteligencije

„Statement on Superintelligence“ traži globalni moratorij dok nauka ne postigne konsenzus o bezbjednom razvoju vještačke superinteligencije. Više od 45.000 ljudi, uključujući vodeće AI naučnike, svjetske biznismene i političare, potpisalo je peticiju kojom se traži uspostavljanje čvrstih pravila prije nego što svijet krene ka stvaranju superinteligencije sistema koji nadmašuje ljudske

By Vladimir Sukara