Anthropic ograničio Claude za OpenClaw i druge AI agente

Anthropic je blokirao treće strane poput OpenClaw-a sa Claude pretplata i prebacio agent korištenje na dodatnu naplatu. Odluka otvara pitanje povjerenja, vendor lock-in-a i budućnosti AI agenata za profesionalne korisnike.

Anthropic ograničio Claude za OpenClaw i druge AI agente
Ilustracija sukoba između Anthropic-a i OpenClaw-a nakon ukidanja Claude pretplata za agent platforme.

Odluka Anthropic-a mijenja način na koji developeri i napredni korisnici plaćaju rad sa agent platformama, baš u trenutku kada OpenAI pojačava borbu za istu publiku.

Anthropic je početkom aprila 2026. prekinuo mogućnost da se treće strane poput OpenClaw-a oslanjaju na postojeće Claude pretplate za intenzivno agent korištenje. Umjesto toga, korisnici sada moraju koristiti zasebne usage dodatke ili API ključeve. Firma tvrdi da je razlog održivost sistema i zaštita iskustva standardnih pretplatnika, dok kritičari ovu odluku vide kao udar na zajednicu koja je pomogla popularizaciji Claude ekosistema.

  • Anthropic je ukinuo mogućnost da OpenClaw i slične platforme rade kroz standardne Claude pretplate.
  • Korisnici sada moraju plaćati dodatnu potrošnju kroz usage bundle ili API pristup.
  • Firma tvrdi da su agent alati pravili nesrazmjeran pritisak na infrastrukturu i pretplatnički model.
  • OpenClaw-ov autor Peter Steinberger javno je kritikovao potez i optužio Anthropic za zatvaranje prostora prema zajednici.
  • Odluka dolazi u osjetljivom trenutku jer OpenAI agresivno cilja istu developersku publiku.

Analiza

Anthropic je promjenu praktično postavio kao korekciju poslovnog modela. Prema izvještajima objavljenim 4. i 6. aprila 2026, korištenje alata kao što je OpenClaw više ne ulazi u okvir standardne Claude pretplate, a korisnici za takve scenarije moraju preći na odvojeno plaćanje po potrošnji. Kompanija je navela da takvi alati stvaraju “nesrazmjeran pritisak” na sisteme i da flat-rate pretplata nije bila dizajnirana za kontinuirane agentske radne tokove.

Za korisnike je to velika promjena jer agent platforme ne koriste model kao običan chat interfejs, već kao stalno aktivnog izvršioca zadataka. Takvo ponašanje troši više konteksta, više poziva prema modelu i duže sesije, što direktno udara na trošak inference infrastrukture. Zbog toga je Anthropic odlučio da ovakav tip upotrebe prebaci na model koji je bliži API naplati nego klasičnoj pretplati. Anthropic-ova dokumentacija i ponuda za poslovne korisnike već naglašavaju da se napredna i veća potrošnja naplaćuje po stvarnoj upotrebi, što se uklapa u ovaj zaokret.

Da ublaži udar, Anthropic je korisnicima ponudio kredit u vrijednosti jedne mjesečne pretplate, popuste na dodatne usage pakete i mogućnost povrata novca za one koji žele odustati. To pokazuje da je firma svjesna reputacijskog rizika, ali i da više ne želi subvencionisati tip potrošnje koji podsjeća na profesionalni agentski workload.

Konkurencija i tržište

Najveći problem za Anthropic nije samo sama odluka, nego tajming. Claude je među developerima i naprednim korisnicima izgradio reputaciju alata koji je posebno jak u kodiranju, radu sa kontekstom i agent scenarijima. Upravo zato će dio zajednice ovu promjenu doživjeti kao signal da firma želi strožije kontrolisati ekosistem i monetizovati ono što je zajednica najviše gurala naprijed.

U isto vrijeme, tržište je mnogo agresivnije nego prije godinu dana. OpenAI, Anthropic i drugi igrači se otvoreno bore za developere, timove i firme koje grade agente, coding asistente i workflow automatizaciju. Wired je prošle sedmice pisao o novoj Cursor agent ponudi koja direktno cilja prostor gdje su Claude Code i Codex najjači, što potvrđuje da se cijeli segment brzo pretvara u rat cijena, performansi i fleksibilnosti.

Zato ova odluka Anthropic-u može donijeti dvije suprotne posljedice. Kratkoročno, rasteretiće sistem i vjerovatno poboljšati iskustvo običnih pretplatnika. Dugoročno, može pojačati nepovjerenje kod power user publike koja je često najglasniji promotivni kanal za AI proizvode. Kada se takva zajednica osjeti isključenom, konkurencija dobija otvoren prostor da je preuzme. Ta ocjena je djelimično inferencija, ali je snažno podržana dostupnim izvještajima o reakcijama zajednice i rastu konkurentskih agent proizvoda.

Naša perspektiva

Za firme i profesionalce u regionu ovo je važna poruka: oslanjanje na pretplatničke AI alate za ozbiljnu automatizaciju sve manje će biti dovoljno. Ko god gradi poslovne procese oko agenata, MCP konektora, automatizacije kodiranja, istraživanja ili rada kroz više aplikacija, mora računati na API trošak, kontrolu potrošnje i jasnu arhitekturu pristupa. Flat-rate planovi će ostati dobri za individualni rad, ali ne i za teže produkcione scenarije.

Za tržište BiH i regiona to znači i nešto praktično firme koje tek uvode AI ne bi trebalo da planiraju procese oko “neograničenih” pretplata, nego oko kombinacije pretplate, API budžeta i internog governance modela. Drugim riječima, AI za posao ulazi u fazu u kojoj će pobjednici biti oni koji dobro upravljaju troškom, pristupima i zavisnošću od jednog provajdera. Anthropic-ov potez je podsjetnik da vendor lock-in i promjena pravila mogu doći preko noći.

Za korisnike koji prave AI proizvode, dodatna lekcija je da se open-source i komercijalne platforme više ne mogu posmatrati kao prirodni saveznici. Dok god open-source projekti donose potražnju, kompanije ih vole. Kada ta potražnja počne da opterećuje infrastrukturu ili ugrožava maržu, slijedi zatvaranje pristupa. To nije samo priča o Anthropic-u, nego obrazac koji će se vjerovatno ponavljati i kod drugih model provajdera. Ovaj zaključak je analitički, ali se oslanja na javno objašnjene razloge promjene i širi tržišni trend ka strožijoj komercijalizaciji agent alata.

Zaključak

Anthropic je vjerovatno uradio ono što je finansijski i operativno morao, ali je to uradio na način koji produbljuje problem povjerenja među najvrijednijim korisnicima. U narednim mjesecima možemo očekivati još jasnije razdvajanje između “pretplatničkog AI iskustva” i “profesionalnog agentskog rada koji se plaća po potrošnji”. To će kratkoročno pomoći velikim AI firmama da zaštite infrastrukturu, ali će istovremeno otvoriti prostor za konkurente koji ponude bolju ekonomiju, više fleksibilnosti i manje zaključavanja korisnika.