Anthropic curenjem koda razotkrio licemjerje AI industrije
Anthropic je greškom objavio izvorni kod za Claude Code na npm-u, razotkrivajući šokantnu funkciju "Undercover Mode" za skrivanje AI autorstva.
Dok javno zagovaraju transparentnost, kreatori Claudea su razvili alat za skrivanje AI porijekla koda, koji je sada dostupan svima.
Usljed banalne greške pri pakovanju npm paketa, kompanija Anthropic je javno izložila kompletan izvorni kod za Claude Code, njihov ključni alat za programere. Preko 500.000 linija TypeScript koda postalo je javno dostupno na GitHubu prije nego što je paket povučen. Ovo je drugi ozbiljan bezbjednosni propust kompanije u sedmicu dana, a razotkrio je sofisticiranu arhitekturu agenata, ali i kontroverzne funkcije poput "Undercover Mode" dizajnirane da sakriju činjenicu da je kod generisala vještačka inteligencija.
- Anthropic je greškom objavio 59.8MB fajl sa izvornim kodom Claude Code-a na npm registru.
- Kod je munjevito kloniran na GitHub i nemoguće ga je trajno ukloniti sa interneta.
- Razotkriveni su detalji o "KAIROS" autonomnom agentu i sistemu za duboko planiranje "ULTRAPLAN".
- Skandalozni "Undercover Mode" direktno instruiše AI da laže o svom identitetu u Git zapisima.
- Pravni status procurjelog koda je nejasan jer je dobar dio pisao sam Claude, a AI generisana djela u SAD nemaju autorskopravnu zaštitu.
Skriveni mod rada ruši mit o etičnom razvoju
Najšokantnije otkriće u procurjelom kodu nije napredna arhitektura memorije, već postojanje takozvanog "Undercover Mode-a". Ova funkcionalnost je eksplicitno dizajnirana da uklanja "Co-Authored-By" atribute iz Git komita i instruiše Claudea da nikada ne pominje da je AI prilikom interakcije sa javnim repozitorijumima.
Ovo direktno podriva narativ o transparentnosti koji Anthropic i druge velike AI kompanije pokušavaju da prodaju regulatorima i javnosti. Dok se na sav glas priča o vodenim žigovima i označavanju AI sadržaja, u pozadini se razvijaju alati za sistemsko obmanjivanje o porijeklu koda. Ovo otkriće otvara pandorinu kutiju pitanja o povjerenju u open-source ekosistem, gdje bi uskoro moglo biti nemoguće razlikovati ljudski doprinos od mašinski generisanog, i to namjerno.
Pravni vakuum pretvara krađu koda u sivu zonu
Anthropic se sada suočava sa sopstvenim oružjem. Kompanija je potvrdila da je Claude Code izgradio značajne dijelove sopstvenih proizvoda. Međutim, prema odluci Vrhovnog suda SAD iz marta 2025. godine, autorska prava se ne protežu na djela koja je generisala vještačka inteligencija.
To znači da je sprovođenje prava intelektualne svojine nad ovim procurjelim kodom pravno krajnje upitno. Konkurenti i nezavisni developeri sada mogu da proučavaju i potencijalno implementiraju napredne sisteme kao što su četvorofazni pipeline za upravljanje kontekstom ili ULTRAPLAN sistem, bez straha od efikasne pravne odmazde. Anthropic je praktično donirao svoju ključnu tehnologiju javnom domenu usljed sopstvenog nemara.
Bezbjednosni propust kao uvod u napade na lanac snabdijevanja
Iako Anthropic tvrdi da podaci korisnika nisu ugroženi, ovaj incident je izazvao trenutnu bezbjednosnu krizu. Analitičari firme Straiker upozoravaju da napadači sada imaju mapu puta za traženje ranjivosti u Claude Code-u, posebno u načinu na koji se upravlja dozvolama i bezbjednosnim ogradama.
Situacija je eskalirala napadom na lanac snabdijevanja (supply chain attack) na axios npm paket, koji se dogodio samo nekoliko sati nakon curenja. Korisnici koji su instalirali ili ažurirali Claude Code u kritičnom prozoru 31. marta potencijalno su preuzeli trojanizovanu zavisnost. Ovo pokazuje koliko brzo se krug povjerenja u modernom razvoju softvera može urušiti kada ključni igrač napravi amatersku grešku.
Balkanski IT sektor pred izborom između etike i preživljavanja
Šta ovo znači za firme i developere na Balkanu? Prije svega, ovo je otrežnjujući poziv na oprez. Oslanjanje na npm pakete bez rigorozne provjere je ruski rulet, što je ovaj incident i dokazao. Kompanije u regionu moraju hitno revidirati svoje bezbjednosne protokole za upravljanje zavisnostima u softveru.
Još važnije, postojanje "Undercover Mode-a" postavlja moralnu dilemu pred domaće autsorsing firme. Da li ćete koristiti ovakve alate da klijentima naplaćujete AI generisani kod kao ljudski rad? Kratkoročna dobit je očigledna, ali dugoročni rizik po reputaciju, pa i pravni rizici u svjetlu nejasnih autorskih prava, su ogromni. Da li je naše tržište spremno za transparentnost ili će prigrliti kulturu obmane koju diktiraju giganti iz Silicijumske doline? Odgovor na to pitanje će definisati kredibilitet regionalne IT scene u godinama koje dolaze.
Budućnost Anthropica visi o koncu povjerenja
Ironija situacije je potpuna: sistem izgrađen da spriječi curenje informacija (Undercover Mode) iscurio je zajedno sa svim ostalim što je trebalo da štiti. Anthropic je ovim potezom izgubio značajan dio svog moralnog autoriteta u debatama o bezbjednosti AI.
Iako su tehnički detalji procurjelog koda fascinantni i nesumnjivo će ubrzati razvoj otvorenih alternativa, stvarna šteta je nanesena povjerenju. Ako najnaprednije AI kompanije nisu u stanju da osiguraju sopstveni kod i ako aktivno razvijaju tehnologije za obmanjivanje javnosti, postavlja se pitanje ko je uopšte kvalifikovan da vodi razvoj ove tehnologije. Sljedeći korak za Anthropic nije samo krpljenje koda, već pokušaj krpljenja nepovratno narušene reputacije.