Neovlašten pristup Mythos alatu potresa Anthropic

Anthropic istražuje navodni neovlašten pristup Mythos AI alatu, što otvara pitanja sigurnosti i kontrole u AI industriji.

Share
Neovlašten pristup Mythos alatu potresa Anthropic
Haker koristi računar sa prikazom Mythos AI sigurnosnog sistema u mračnoj sobi

Ekskluzivni AI za sajber sigurnost navodno završio u rukama nepoznate grupe.

Kompanija Anthropic suočava se s potencijalnim sigurnosnim incidentom nakon što su izvještaji otkrili da je neovlaštena grupa dobila pristup njihovom naprednom AI alatu Mythos. Riječ je o sistemu dizajniranom za korporativnu sajber sigurnost, koji je razvijen s ciljem zaštite firmi, ali uz upozorenje da bi u pogrešnim rukama mogao postati moćno oružje za hakovanje. Incident je navodno povezan s kompromitacijom pristupa kroz eksternog partnera.

  • Neovlaštena grupa navodno pristupila Mythos AI alatu
  • Pristup ostvaren preko treće strane (vendor okruženje)
  • Anthropic tvrdi da nema dokaza o ugrožavanju sistema
  • Grupa koristi alat za testiranje, ne za napade
  • Mythos razvijen kao dio projekta Project Glasswing

Analiza: šta se zapravo desilo

Prema dostupnim informacijama, grupa korisnika sa privatnog online foruma uspjela je pristupiti verziji “Claude Mythos Preview” koristeći pristupne privilegije osobe zaposlene kod eksternog partnera koji sarađuje s Anthropicom.

Anthropic je potvrdio da istražuje slučaj i naglasio da za sada nema dokaza da su njihovi interni sistemi kompromitovani. Međutim, činjenica da je alat korišten i demonstriran van kontrolisanog okruženja izaziva ozbiljna pitanja o sigurnosnim protokolima.

Grupa je, prema izvještajima, pogodila lokaciju modela na internetu koristeći prethodno znanje o strukturi Anthropicovih sistema. Takođe su aktivni na Discord kanalima gdje se razmjenjuju informacije o neobjavljenim AI modelima.

Konkurencija i tržište

Mythos je razvijen kao ekskluzivni alat za ograničen broj partnera, uključujući velike tehnološke firme poput Apple, u okviru inicijative Project Glasswing. Cilj je bio kontrolisano testiranje i sprječavanje zloupotrebe.

Ovaj incident dolazi u trenutku kada AI firme poput OpenAI i Google takođe razvijaju sigurnosne i agentne AI sisteme, čime raste pritisak na Anthropic da dokaže pouzdanost svojih rješenja.

Ako se potvrdi da je pristup bio lakši nego što se očekivalo, to bi moglo uticati na povjerenje enterprise klijenata, što je ključni segment za monetizaciju ovakvih alata.

Naša perspektiva

Za firme u regionu koje uvode AI u sigurnosne procese, ovaj slučaj je važna lekcija.

Prvo, čak i najnapredniji AI sistemi nisu imuni na slabosti u lancu dobavljača. Vendor pristup postaje kritična tačka rizika.

Drugo, AI alati za sigurnost imaju dvostruku prirodu mogu štititi, ali i napadati. To znači da će regulacija i kontrola pristupa postati ključni faktori u narednom periodu.

Treće, kompanije koje razvijaju ili koriste AI moraju ulagati ne samo u modele, već i u infrastrukturu, nadzor i kontrolu pristupa.

Za poslovne korisnike, ovo znači da izbor AI partnera mora uključivati detaljnu procjenu sigurnosnih standarda, a ne samo funkcionalnosti.

Zaključak

Iako Anthropic tvrdi da nema direktne štete po njihove sisteme, sama mogućnost neovlaštenog pristupa Mythosu predstavlja ozbiljan reputacioni izazov.

Ako se pokaže da su sigurnosne mjere bile nedovoljne, to bi moglo usporiti usvajanje AI rješenja u korporativnom sektoru. S druge strane, incident bi mogao ubrzati razvoj strožijih standarda i praksi u industriji.

U svakom slučaju, borba za dominaciju u AI sigurnosti postaje jednako važna kao i razvoj samih modela.