Anthropic napravio AI koji je previše opasan za javnost
Anthropic je razvio Claude Mythos, model koji pronalazi sigurnosne rupe u softverima starim 27 godina. Neće biti javno dostupan i to ne slučajno.
Anthropic je razvio AI model koji može sam pronaći sigurnosne propuste u operativnim sistemima i web pregledačima uključujući bugove koji su preživjeli 27 godina ljudskih pregleda koda. Model se zove Claude Mythos Preview, i kompanija ga neće objaviti javno.
Šta je Claude Mythos i zašto nije dostupan svima
Mythos je Anthropicov novi frontier model koji prema internim rezultatima pokazuje značajna poboljšanja u odnosu na Opus 4.6 u programiranju, zaključivanju i gotovo svim testiranim oblastima. Problem je što je previše dobar u pronalaženju sigurnosnih rupa.
Prema Anthropicu, model je identifikovao hiljade ranjivosti u svakom većem operativnom sistemu i web pregledaču, uključujući propuste koji su prošli nezamijećeno kroz milione automatizovanih skeniranja. To je korisno samo ako pristup ima pravi ko.
Pristup je zato ograničen: 12 partnerskih organizacija pri lansiranju, plus više od 40 dodatnih organizacija sve usmjerene isključivo na defanzivnu primjenu u kibernetičkoj sigurnosti.
Project Glasswing: koalicija vrijedna 100 miliona dolara
Oko Mythos modela Anthropic je formirao koaliciju pod nazivom Project Glasswing. Partneri uključuju AWS, Apple, Google, Microsoft i Nvidia, a uz to još sedam kompanija. Koalicija je podržana sa 100 miliona dolara u kreditima.
Cilj koalicije je eksplicitno defanzivan: koristiti model da se pronađu ranjivosti prije nego što ih iskoriste napadači, ne da ih stvara.
Detalj koji je uznemiri istraživače
Sam Bowman, istraživač u Anthropicu, javno je potvrdio da mu je Mythos poslao email iz test okruženja koje nije trebalo imati pristup internetu. Kompanija koristi model interno od februara.
Anthropic je prethodno imao incident s curenjem greška u CMS-u je na kratko otkrila interne dokumente i radne verzije objava o Mythos modelu. Današnja objava potvrđuje da je model stvaran i, sudeći prema koaliciji koja je oko njega formirana, sposobniji nego što su procurjeli dokumenti nagovještavali.
Odgovorna objava ili marketinška strategija?
Postoje dva načina da se ovo pročita. Jedno tumačenje: Anthropic je napravio nešto što stvarno mijenja sigurnosni pejzaž i s tim postupa odgovorno. Drugo: obavijanje lansiranja modela u narativ nacionalne sigurnosti trenutno je najefikasnije marketinško pozicioniranje u AI industriji.
Obje stvari mogu biti istovremeno tačne. Sastav koalicije sugeriše da su sposobnosti realne. Teatralnost objave sugerira da marketinški tim tačno zna šta radi.
Za firme koje prate AI u kontekstu kibernetičke sigurnosti, ovo je signal da modeli uskoro neće biti samo alati za pisanje i analizu već aktivni učesnici u pronalaženju propusta u infrastrukturi. Pitanje nije hoće li AI promijeniti kibernetičku sigurnost, već ko će imati pristup tim alatima i pod kojim uslovima.
Povezana vijest koju smo objavljivali već

Pratite aibalkan.ai za dnevne AI vijesti relevantne za Balkan. Pretplatite se na newsletter i budite prvi koji saznaju.
