Hiljade potpisuju apel za ograničavanje razvoja superinteligencije
„Statement on Superintelligence“ traži globalni moratorij dok nauka ne postigne konsenzus o bezbjednom razvoju vještačke superinteligencije.
Više od 45.000 ljudi, uključujući vodeće AI naučnike, svjetske biznismene i političare, potpisalo je peticiju kojom se traži uspostavljanje čvrstih pravila prije nego što svijet krene ka stvaranju superinteligencije sistema koji nadmašuje ljudske sposobnosti u svakom domenu.
Poziv na pauzu prije prelaska tačke bez povratka
Peticiju je pokrenuo Future of Life Institute (FLI), organizacija poznata po ranijim upozorenjima o rizicima koje donosi nekontrolisani razvoj vještačke inteligencije.
Dok AI kompanije poput OpenAI-a, Anthropic-a i Google DeepMinda utrkuju ka AGI-ju (opštoj vještačkoj inteligenciji), FLI upozorava da bi prelazak u fazu superinteligencije mogao dovesti do gubitka ljudske kontrole nad ključnim sistemima od ekonomije do infrastrukture.
Iz organizacije navode da razvoj takvih sistema ne bi trebalo da bude dozvoljen dok se ne postigne širok naučni konsenzus o tome kako ih razvijati “bezbjedno, kontrolisano i transparentno”.
Ko sve podržava peticiju
Peticija je okupila širok spektar ličnosti od pionira AI istraživanja do kulturnih ikona. Među potpisnicima su:
- Geoffrey Hinton i Yoshua Bengio, dobitnici Turingove nagrade i pioniri dubokog učenja
- Sir Richard Branson (Virgin Group) i Steve Wozniak (Apple)
- Političke ličnosti poput Mary Robinson (bivša predsjednica Irske), Prince Harry i Meghan Markle, te Steve Bannon
- Umjetnici poput Grimes, Kate Bush, Will.i.am i Joseph Gordon-Levitt
Ben Cumming, direktor komunikacija FLI-ja, izjavio je da je cilj peticije „pokazati koliko je širok konsenzus oko zabrinutosti zbog trenutnog pravca AI razvoja“.
Strah od nekontrolisane trke ka AGI-ju
Prema FLI-ju, sadašnji tempo razvoja AI modela predstavlja “frantic competition” trku u kojoj kompanije ne mogu da stanu, jer bi to značilo zaostajanje za konkurencijom.
Rezultat je koncentracija moći i resursa u rukama nekoliko globalnih tehnoloških korporacija koje ulažu milijarde u računarsku infrastrukturu (compute), dok mali igrači i javne institucije ostaju bez pristupa.
Cumming upozorava da bi takva dinamika mogla dovesti do tehnološkog feudalizma svijeta u kojem šačica entiteta kontroliše tehnologije koje utiču na ekonomiju, kulturu i demokratiju.
Rizici koje ističu naučnici
Zagovornici ograničenja upozoravaju na tri glavna rizika:
- Ekonomski kolaps tržišta rada automatizacija može ugasiti milione poslova prije nego što društva razviju mehanizme prilagođavanja.
- Dezinformacije i kulturni haos generativni modeli već mijenjaju tok javne debate i umanjuju povjerenje u digitalni sadržaj.
- Gubitak kontrole superinteligencija bi teoretski mogla donositi odluke izvan ljudskog razumijevanja ili interesa.
„Pravilo u prirodi je da pametnije vrste kontrolišu one gluplje“, rekao je Cumming, „a mi bismo sami sebe stavili u tu drugu kategoriju.“
Zašto je važno za Balkan
Balkan se sve više uključuje u globalni AI ekosistem kroz istraživačke centre, startape i javne politike. Međutim, region nema sopstvene kapacitete da kontroliše razvoj AGI-ja ili superinteligencije što znači da će se posljedice globalnih odluka direktno preliti i ovdje.
Upravo zato, praćenje međunarodnih standarda i uključivanje u rasprave o globalnim AI okvirima može biti ključno za zaštitu digitalnog suvereniteta i tržišta rada u regionu.
Peticija FLI-ja pokazuje da javni pritisak za “AI guardrails” raste. Dok tehnološke kompanije nastavljaju da guraju granice mogućeg, društvo i politika pokušavaju da pronađu ravnotežu između inovacije i kontrole. U narednim mjesecima bi se ova inicijativa mogla pretvoriti u prvu međunarodnu raspravu o moratorijumu na razvoj superinteligencije i time označiti novu fazu globalne AI etike.