Pentagon uslovljava Anthropic zbog odbijanja vojnih operacija u Venecueli

Pentagon uslovljava Anthropic raskidom ugovora od 200 miliona dolara zbog ograničenja u vojnoj upotrebi Claude modela. Sukob je eskalirao nakon operacije u Venecueli, dok konkurencija poput xAI i OpenAI uklanja etičke barijere radi nacionalne bezbjednosti. Da li AI etika prestaje na ratištu?

Pentagon uslovljava Anthropic zbog odbijanja vojnih operacija u Venecueli
Vizuelni prikaz sukoba Anthropic-a i Pentagona: podijeljen ekran sa logotipima, mapom Venecuele pod nišanom i istaknutim iznosom od 200 miliona dolara.

Sukob oko etičkih barijera i korišćenja Claude modela u akciji protiv Madura prijeti raskidom ugovora vrijednog 200 miliona dolara.

Američko Ministarstvo odbrane zaprijetilo je prekidom saradnje sa kompanijom Anthropic nakon višemjesečnih tenzija oko upotrebe vještačke inteligencije u borbene svrhe. Spor je eskalirao nakon izvještaja da je model Claude, putem platforme Palantir, igrao ključnu ulogu u januarskoj operaciji hapšenja Nicolása Madura. Pentagon sada zahtijeva potpunu slobodu u primjeni AI alata za razvoj oružja i obavještajni rad, dok Anthropic odbija popustiti kod autonomnog naoružanja i masovnog nadzora.

  • Ultimatum Pentagona: Razmatra se zamjena kompanije Anthropic ako ne dozvoli punu primjenu modela na ratištu.
  • Slučaj Venecuela: Model Claude je korišćen u akciji protiv Madura, što je izazvalo unutrašnji otpor u kompaniji.
  • Crvene linije: Uprava Anthropic-a striktno zabranjuje razvoj autonomnog oružja i nadzor građana SAD.
  • Konkurencija popušta: OpenAI i Google pokazuju veću fleksibilnost, dok je xAI već uskladio politiku sa potrebama odbrane.

Nacionalna bezbjednost briše granice korporativne etike

Dani dobrovoljnih obećanja o bezbjednosti vještačke inteligencije su završeni u trenutku kada su se direktno sudarili sa vojnim prioritetima. Pentagon više ne želi da taktički softver bude ograničen ideološkim ili etičkim barijerama privatnih kompanija. Iako je Anthropic bio pionir u postavljanju modela na klasifikovane mreže, njihovo odbijanje da podrže razvoj letalnih autonomnih sistema učinilo ih je metom administracije. Poruka je jasn AI bezbjednost je luksuz koji prestaje na granici ratišta.

Anthropic gubi poziciju pred agresivnijim konkurentima

Dok Anthropic insistira na zaštitnim ogradama, rivali poput OpenAI-a i Google-a polako uklanjaju zabrane za vojnu upotrebu svojih tehnologija. Najveći pritisak dolazi od Muskove kompanije xAI, koja se pozicionira kao primarni partner za "ujedinjenu odbranu". Pentagonov ugovor od 200 miliona dolara sada visi o koncu, a prelazak na fleksibilnije modele značio bi da će buduće operacije, poput one u Venecueli, biti vođene sistemima koji nemaju ugrađene moralne kočnice u programskom kodu.

Balkan ostaje poligon za gotova rješenja bez uticaja na razvoj

Ovaj sukob jasno pokazuje da će o standardima vojne upotrebe AI odlučivati isključivo Vašington i Silicijumska dolina, dok će se na Balkanu te tehnologije samo konzumirati kao gotov proizvod. Za lokalne firme i bezbjednosne agencije u regionu, ovo postavlja ključno pitanje. Da li smo spremni za uvoz softvera koji nema jasne etičke granice? Dok se naše IT kompanije fokusiraju na outsourceing, razvoj sopstvenih, kontrolisanih AI modela za specifične namjene ostaje na nivou teorije, ostavljajući nas potpuno zavisnim od političkih hirova velikih sila.

Šta čeka Anthropic nakon gubitka vojnog povjerenja

Ukoliko dođe do raskida saradnje, Anthropic će morati da dokaže da je njihova tržišna vrijednost održiva isključivo kroz civilni sektor. Gubitak Pentagonovog ugovora ne znači samo finansijski minus, već i gubitak pristupa najkompleksnijim podacima na svijetu. S druge strane, Pentagon će ovim potezom vjerovatno postaviti presedan po kojem svaka AI kompanija koja želi državne ugovore mora da se odrekne prava na veto nad upotrebom sopstvene tehnologije u ratnim zonama.