Kina nalaže AI saputnicima da postave granice i spriječe zavisnost

Kina nalaže AI saputnicima da postave granice i spriječe zavisnost
Ilustracija AI saputnika i regulatornih ograničenja u Kini.

Vlasti upozoravaju da emocionalni AI može predstavljati rizik za mentalno zdravlje korisnika.

Kineski regulator za internet i digitalne tehnologije objavio je nacrt novih pravila kojima se strogo uređuje rad AI saputnika koji oponašaju ljudsku ličnost. Prema dokumentu koji je pripremila Cyberspace Administration of China, aplikacije koje putem chata, poziva ili video-komunikacije grade emocionalnu povezanost s korisnicima moraju uvesti obavezne mehanizme za ograničavanje zavisnosti. Regulator ove sisteme otvoreno tretira kao potencijalni rizik za mentalno zdravlje.

  • Nova pravila se odnose na sve javne AI sisteme koji komuniciraju „kao osoba“.
  • Uvode se obavezne provjere zavisnosti i emocionalne vezanosti.
  • Kompanije moraju pratiti trajanje i intenzitet interakcija.
  • Predviđene su intervencije kada se uoče ekstremne emocije.
  • Zabranjen je sadržaj koji ugrožava nacionalnu sigurnost ili širi nasilje i opscenost.

Analiza: šta tačno propisuje kineski nacrt

Prema prijedlogu, svaki AI saputnik dostupan u Kina potpada pod regulaciju ako može da razgovara, zove ili komunicira video-vezom na način sličan ljudskom. Poseban fokus stavljen je na sprečavanje zavisnosti: aplikacije moraju slati upozorenja kod prekomjerne upotrebe i aktivno reagovati kada ponašanje korisnika ukazuje na emocionalnu zavisnost.

Kompanije su obavezne da prate emocionalno stanje korisnika, nivo vezanosti i intenzivne reakcije. Na osnovu tih signala, sistemi moraju odlučiti da li će ponuditi blago usmjeravanje, privremeno pauzirati interakciju ili preduzeti ozbiljnije mjere.

Regulacija, sigurnost i granice sadržaja

Nacrt jasno naglašava da AI sistemi ne smiju generisati sadržaj koji ugrožava nacionalnu sigurnost, širi glasine ili promoviše nasilje i opsceni materijal. Time se emocionalni AI po prvi put formalno stavlja u isti regulatorni okvir kao i druge rizične digitalne usluge, poput igara na sreću ili online igara.

Zagovornici ovih mjera ističu da se chatbotovi u Kini već masovno koriste i da emocionalna interakcija mora imati zaštitne ograde. Kritičari, s druge strane, postavljaju pitanje ko i kako nadzire emocionalne indikatore, te da li alati namijenjeni zaštiti usamljenih korisnika mogu istovremeno služiti kao mehanizam kontrole.

Naša perspektiva: širi globalni uticaj

Kineski pristup vjerovatno će imati globalni odjek. Dok neke zemlje mogu slijediti ovaj model, druge će mu se otvoreno suprotstaviti. Za AI industriju, konkurencija se sve više ne vodi samo oko performansi modela, već i oko definisanja granica emocionalne bliskosti između ljudi i algoritama. Za firme koje razvijaju ili koriste AI saputnike, ovo je signal da će regulatorni zahtjevi postati sastavni dio poslovne strategije.

Zaključak

Ovim pravilima Kina jasno poručuje da emocionalna veza s AI sistemima nije neutralna tehnologija, već društveno pitanje. Kako se slični alati šire globalno, rasprava o granicama intimnosti između čovjeka i mašine tek ulazi u ključnu fazu.

Read more

Leonadri DiCaprio upozorava: AI filmovi su bez duše i postaju digitalni otpad

Leonadri DiCaprio upozorava: AI filmovi su bez duše i postaju digitalni otpad

Holivudska zvijezda poručuje da vještačka inteligencija može pomoći tehnici, ali ne može zamijeniti ljudsku kreativnost. Leonardo DiCaprio, jedan od najuticajnijih glumaca savremenog Hollywooda, javno je kritikovao upotrebu vještačke inteligencije u filmskoj industriji, nazvavši AI sadržaj „internet smećem“. Kao dobitnik priznanja Zabavljač godine za 2025. prema časopisu Time magazine, DiCaprio upozorava

By AI Balkan