Kada šef AI kompanije upozorava na kraj iluzija
Dario Amodei ne strahuje najviše od pobune mašina, već od ljudi sa previše moći i premalo ograničenja.
Postoji trenutak u svakoj tehnološkoj revoluciji kada oni koji je najviše guraju počnu govoriti kao da je se pomalo i plaše. Ne zato što su postali moralniji preko noći, nego zato što su dovoljno blizu da vide gdje se sistem lomi.
AI industrija je upravo u toj fazi. Više se ne priča samo o produktivnosti, “copilotima” i bržem kodiranju. Priča se o moći, koncentraciji uticaja i o tome šta se dešava kada alat prestane biti neutralan posrednik.
U tom kontekstu treba čitati i najnoviji, izuzetno dugačak tekst jednog od najuticajnijih ljudi u industriji.
Šta se zapravo dešava
Dario Amodei, direktor kompanije Anthropic, objavio je esej pod nazivom The Adolescence of Technology tekst od oko 19.000 riječi koji nastavlja liniju njegovog ranijeg razmišljanja iz eseja Machines of Loving Grace iz 2024.
Centralna teza nije nova, ali je sada izrečena znatno oštrije: AI nosi ozbiljne egzistencijalne rizike. No, za razliku od standardnih scenarija o “pobuni mašina”, Amodei najveću opasnost vidi drugdje u ljudima koji koriste AI protiv drugih ljudi.
On navodi čitav spektar prijetnji: od toga da AI može pomoći izgradnji sofisticiranih totalitarnih režima, preko olakšavanja razvoja biološkog oružja, do manipulacije masama putem chatbotova. U jednom od upečatljivijih dijelova teksta, Amodei priznaje da i same AI kompanije predstavljaju rizik, jer bi mogle koristiti svoje sisteme za suptilno “ispiranje mozga” korisnika.
Zašto je ovo uopšte bitno
Kada ovakva upozorenja dolaze od akademika ili filozofa, industrija ih obično ljubazno ignoriše. Kada dolaze od čovjeka koji vodi jednu od vodećih AI kompanija situacija je drugačija.
Ovo nije marginalni glas. Anthropic je duboko uključen u razvoj naprednih modela i direktno učestvuje u trci koju Amodei opisuje kao potencijalno destabilizujuću. Njegov tekst je zato manje teorijsko razmatranje, a više priznanje da se industrija kreće brže nego što društvo može da apsorbuje.
Važno je i vrijeme objave. Kako modeli postaju opštiji, autonomniji i sposobniji da djeluju kroz alate i agente, pitanje “ko ih kontroliše” prestaje biti apstraktno. Ono postaje političko, ekonomsko i bezbjednosno pitanje.
Šta se previđa u javnoj priči
Najčešći fokus javnosti je i dalje na scenarijima gdje AI “poludi”. Amodei, međutim, sugeriše da je to gotovo distrakcija. Pravi problem je asimetrija moći: mali broj aktera sa pristupom izuzetno moćnim sistemima i ogroman broj ljudi izloženih njihovim efektima.
Drugo što se rijetko pominje jeste koliko su predložena rješenja zapravo skromna. Amodei ne traži zaustavljanje razvoja. Govori o zakonima o transparentnosti, kontroli izvoza naprednih čipova, obaveznim objavama ponašanja modela i regulaciji koja “kupuje vrijeme”.
To nije plan za spas svijeta. To je pokušaj da se haos odgodi.
Šira slika
Posebno je zanimljiv dio u kojem Amodei i ostali suosnivači Anthropica obećavaju da će donirati 80% svog bogatstva za ublažavanje ekonomskih poremećaja koje AI može izazvati. Taj gest djeluje iskreno ali i simptomatično.
Jer ovo je trenutak u kojem lideri industrije istovremeno grade sisteme koji mogu promijeniti društvo i pokušavaju da unaprijed peru ruke od posljedica. To ne znači da su neiskreni. Znači da ni oni sami nisu sigurni gdje sve ovo vodi.
Najzanimljivije pitanje koje Amodeijev tekst ostavlja nije da li je u pravu u vezi sa rizicima. Već da li je moguće da oni koji najjasnije vide opasnost budu i oni koji je ubrzavaju.
Možda AI zaista testira “ko smo kao vrsta”. Ali prije toga, vrlo vjerovatno, testira ko drži volan dok ubrzavamo.