Il rischio di un’“arma a doppio taglio” nella guerra militare basata sull’intelligenza artificiale

Il rischio di un’“arma a doppio taglio” nella guerra militare basata sull’intelligenza artificiale

Lo sviluppo dell’intelligenza artificiale sta rivoluzionando il settore militare, con l’obiettivo di ridurre le vittime dei soldati e aumentare la capacità di prendere di mira con precisione il nemico. Si è dimostrato relativamente efficace anche nella difesa, come il sistema di difesa aerea israeliano che sfrutta l’intelligenza artificiale.

Gli Stati Uniti, la Cina e altri grandi paesi competono per integrare l’intelligenza artificiale nei loro eserciti. È arrivata una nuova era di espansione militare guidata dall’intelligenza artificiale, ma con essa arriva il timore che possa portare a crisi e preoccupazioni inaspettate, critiche e gravi.

Pensa all'invenzione dell'aereo. Chi avrebbe potuto immaginare allora che l'aereo avrebbe cambiato la direzione e il carattere della guerra? In futuro, uno sciame di droni potrebbe decidere chi controlla i cieli. Lo sviluppo di sottomarini senza pilota potrebbe neutralizzare le capacità dei sottomarini nucleari.

Si sta verificando un cambiamento non solo nel campo delle armi, ma in tutti gli aspetti degli affari militari. Anche il concetto di “campo di battaglia” sta cambiando radicalmente. Ha già iniziato ad espandersi nello spazio e nel cyberspazio.

Le armi e la tecnologia hanno supportato il processo decisionale degli esseri umani attraverso l’uso della tecnologia dell’informazione, ma è sempre più probabile che le armi e le tecnologie con sistemi di intelligenza artificiale sostituiscano gli esseri umani, nonostante le numerose assicurazioni che gli umani rimarranno sempre al corrente.

Lo sviluppo dell’intelligenza artificiale sta accelerando rapidamente grazie all’innovazione che si verifica nelle aziende tecnologiche e nelle startup globali. I grandi gruppi militari-industriali tradizionali, che hanno monopolizzato la tecnologia militare e lo sviluppo delle armi, stanno lottando per recuperare terreno.

La rivoluzione militare guidata dall’intelligenza artificiale farà affidamento su enormi quantità di informazioni e sugli algoritmi che le elaborano. Ciò è direttamente correlato alla capacità di selezionare e identificare accuratamente nemici e minacce, nonché di attaccare o contrattaccare rapidamente.

Questa è una preoccupazione seria. Se le informazioni sono errate o distorte, l’IA prenderà una decisione sbagliata e imprecisa. Anche i centri di informazione digitale sono vulnerabili agli attacchi informatici.

Affronteremo problemi di pregiudizio grazie all’intelligenza artificiale. Le domande chiave sono: “Le decisioni prese dall’IA sono corrette? » «Perché ha dato queste istruzioni? » “Possiamo controllare l'intelligenza artificiale? » — Sono domande fondamentali e importanti.

Anche diversi sistemi di intelligenza artificiale come Gospel, Lavender e Alchemist, che elaborano flussi di dati e identificano potenziali obiettivi, che si ritiene abbiano utilizzato Israele nei suoi attacchi a Gaza, sono stati criticati per aver causato molte vittime civili.

Questo problema non è limitato a Israele. Sebbene l’introduzione dell’intelligenza artificiale possa migliorare le capacità militari e contribuire all’efficacia, lasciare troppe decisioni all’intelligenza artificiale può rendere la deterrenza e la difesa meno efficaci e rischiare conseguenze catastrofiche. È quindi importante riconoscere che l’intelligenza artificiale è un’arma a doppio taglio.

Poiché lo sviluppo dei siti di social media ha reso visibili tutti i campi di battaglia, abbondano i video di disinformazione e propaganda guidati dall’intelligenza artificiale, creando una situazione ironica in cui la verità sul campo di battaglia non è più chiara.

L’intelligenza artificiale può distinguere correttamente la veridicità di tali informazioni? Ci confrontiamo con le questioni filosofiche ed etiche della governance dell’intelligenza artificiale da parte degli esseri umani e della sua credibilità.

Nelle circostanze che possono essere descritte come l’arrivo della concorrenza sulle armi basate sull’intelligenza artificiale, è importante stabilire regole internazionali che coinvolgano anche Cina e Russia.

In effetti, gli Stati Uniti e le organizzazioni multilaterali, comprese le Nazioni Unite, hanno avviato tale iniziativa, ma rimangono molte domande, tra cui se le regole riusciranno a tenere il passo con lo sviluppo della tecnologia dell’intelligenza artificiale e se potranno diventare giuridicamente vincolanti. .

La saggezza dell’umanità è messa in discussione per superare queste difficoltà.

(Michael Raska è assistente professore di difesa e innovazione militare presso la Scuola di Studi Internazionali S. Rajaratnam, Nanyang Technological University di Singapore.)