Intelligenza artificiale nel campo militare e Lethal Autonomous Weapons Systems (LAWS)

L’intelligenza artificiale ha avuto degli sviluppi sorprendenti negli ultimi venti anni. Nata agli inizi del 1950, si è evoluta tra alti e bassi fino a rappresentare al giorno d’oggi uno dei principali ambiti di interesse della comunità scientifica informatica. E’ difficile darne una definizione precisa, poiché include discipline diverse, che si diramano dall’elaborazione del linguaggio naturale, alla robotica, al ragionamento automatico, al machine learning. Semplificando, potremmo definirla come una scienza che cerca di replicare il processo di ragionamento umano nelle macchine. I campi di applicazione sono potenzialmente infiniti: tutti i settori ne sono stati radicalmente trasformati, dalle telecomunicazioni, ai trasporti passando per la medicina.

È nel campo militare però che le sue potenzialità stanno scatenando preoccupazioni all’interno della comunità internazionale.

AI e armi, il futuro della guerra

L’intelligenza artificiale nel settore delle armi si trasforma in un mezzo rivoluzionario con il potenziale di stravolgere i principi e le leggi della guerra. Non a caso il presidente russo Putin ha affermato nel 2017 che “l’intelligenza artificiale è il futuro, non solo per la Russia, ma per l’intera umanità. […] Chiunque diventerà il capo in questo settore diventerà il capo del mondo.

Si intuisce l’attrattiva dell’automazione per il settore militare: col tempo sarà possibile sostituire i soldati al fronte con dei robot, decisamente più economici e ben più sacrificabili, cosa che in parte già sta accadendo con l’utilizzo dei droni.
L’intelligenza artificiale può migliorare notevolmente i tempi di reazione dei sistemi difensivi contro missili ipersonici, cyber attacchi o armi a energia diretta.
Può semplificare i processi decisionali degli operatori sul campo, giungendo in poco tempo a soluzioni in grado di fornire potenzialmente un vantaggio decisivo sugli avversari.

Ma fino a che punto siamo disposti a lasciare che una macchina prenda decisioni sulla vita di un altro essere umano?

Lethal Autonomous Weapons Systems (LAWS): l’ultima frontiera in fatto di armi

I sistemi di armi “intelligenti” si dividono generalmente in due aree, definite dalla componente umana utilizzata nel processo: quelli semi automatici, o “human in the loop”, che non possono funzionare senza l’intervento umano, e quelli pienamente automatici, “human out of the loop”, che, una volta attivati, sono totalmente indipendenti dall’azione umana. Questi ultimi pongono non pochi problemi di natura etica.

Il dibattito è intenso tra gli esperti, e si sta concentrando soprattutto sull’ultima evoluzione dell’AI, ovvero i sistemi d’arma autonomi letali (LAWS, Lethal Autonomous Weapons Systems) e la loro messa al bando “preventiva”.

Problematiche etiche nell’utilizzo dei Lethal Autonomous Weapons Systems

Attualmente la piena automazione dei nuovi sistemi d’arma è più una visione che una realtà, ma in molti si stanno già opponendo a simili derive. I LAWS sono spesso ritenuti un affronto alla dignità umana: le macchine non possono capire il valore della vita e di conseguenza non dovrebbero prendere decisioni a riguardo. Il tema spinge molti attivisti a lottare per la loro messa al bando internazionale.

Nel 1981 si è tenuta a Ginevra la Convenzione delle Nazioni Unite su Certe Armi Convenzionali (Certain Conventional Weapons – CCW) per “vietare o limitare l’uso di specifici tipi di armi che si ritiene causino sofferenze inutili o ingiustificabili ai combattenti o che colpiscono indiscriminatamente i civili”. Dal 2014 si sono tenute riunioni proprio sulle LAWS, con gli Stati membri che hanno concordato nel 2019 una serie di “principi guida” per regolarne lo sviluppo, senza però interromperlo del tutto.

Tra i principali problemi posti dalle LAWS spicca quello della mancanza di responsabilità in caso di errori. Inoltre, se si lascia prendere il comando di operazioni militari all’intelligenza artificiale, saltano molti principi cardine della guerra, come quello dell’unità di comando. Anche se la decisione finale di approvare o disapprovare i piani proposti dall’IA spettasse ad un essere umano, l’ufficiale in questione sarebbe davvero responsabile della sua scelta, pur non avendo le capacità per analizzare i piani dell’IA? Attualmente infatti non è possibile stabilire con esattezza se un sistema AI sia giunto alle giuste conclusioni, o addirittura come sia giunto a determinate conclusioni.

Un tema dalle forti implicazioni morali dunque, che non impedisce però alle maggiori potenze mondiali di aumentare gli investimenti in tale ambito. Tra i principali leader globali, negli ultimi anni la Cina ha recuperato la distanza dagli USA, e la Russia sta dimostrando la sua volontà di mettersi al paro con i competitor. Anche l’Europa ha riconosciuto l’importanza dell’intelligenza artificiale e ha aumentato in maniera sostanziale i fondi destinati alla ricerca.

 

A cura della Redazione

Condividi sui Social Network:

Articoli simili