Prijetnja ili napredak? Pravno preispitivanje vojne vještačke inteligencije otkriva ključne dileme

Šta ako vam život jednog dana zavisi od odluke koju donosi algoritam, a ne čovjek?
Američka vojska postavlja nova pravila igre. Kako navodi autoritetni Lieber Institute, u žižu interesa dolaze temeljne pravne i etičke dileme vojne upotrebe vještačke inteligencije (AI). Umjesto konačnih odgovora, svaki novi napredak otvara dodatna pitanja: Ko je odgovoran ako AI pogriješi? Kako biti siguran da ‘crna kutija’ algoritma poštuje ratno pravo?
- Sve AI vojne sposobnosti u SAD-u moraju proći detaljnu pravnu reviziju prije implementacije, što uključuje provjeru njihove usklađenosti sa međunarodnim pravom i domaćim propisima.
- Trenutni protokoli zahtijevaju interdisciplinarni pristup pravnici, programeri i vojne komande zajedno procjenjuju funkcionalnost svakog sistema.
- Najveća dilema: Niti jedna tehnologija ne smije zamijeniti ljudski faktor odlučivanja kod letalnih kapaciteta, ali je granica između podrške i autonomije sve mutnija.
'Iako je vještačka inteligencija sposobna za preciznost nezamislivu za čovjeka, rizik od greške postaje potencijalno katastrofalan upravo zbog brzine i skale na kojoj AI funkcioniše.' (Lieber Institute, 2024)
Povjerenje u ratna pravila nije stvar tehnologije, nego odgovornosti i transparentnosti. Da li je moguće da budući vojni lideri jednom ustuknu pred algoritmom koji ne zna što znači empatija ili savjest? Ako vojska 21. vijeka postaje laboratorija algoritamskih odluka, jedino što ostaje ljudima jeste da uporno i strogo insistiraju na javnom nadzoru i neprikosnovenoj etičkoj granici. Jer u svijetu gdje algoritmi ratuju u naše ime, najveće oružje postaje pitanje: 'Ko uopšte donosi odluke kada više nema klasične odgovornosti?'