Cadere in casa: rischi frequenti e buone pratiche nella sicurezza domestica
30 Maggio 2019
Le soluzioni integrate Axis per il controllo degli accessi e la sicurezza del Caruso Place Boutique & Wellness Suites nel centro di Napoli
10 Giugno 2019

L’A.I. come fattore critico di potere e competizione

I futuri rischi per il mantenimento della stabilità dell’ordine sociale e internazionale derivanti dall’uso delle nuove tecnologie.
Quali sono gli scenari di possibile cooperazione tra Superpotenze.

Come la stabilità sociale di un Paese può essere compromessa dai rischi legati all’uso della A.I.?
Quali fattori tecnologici incidono sulla stabilità di un ordine a livello internazionale?

Le innovazioni tecnologiche, da sempre, possono influenzare gli equilibri di potere e il conflitto internazionale. Le tecnologie emergenti modellano principalmente l’equilibrio del potere attraverso mezzi militari ed economici.

L’intelligenza artificiale costituisce allo stesso tempo un fattore di opportunità e di rischio per la sicurezza. Nell’immediato futuro, se vogliamo mantenere un ordine internazionale stabile, dobbiamo capire meglio come i Paesi dovranno usare l’intelligenza artificiale per migliorare praticamente la loro capacità di generare potenza economica e militare e rapportarsi tra loro.

I mutamenti tecnologici sono stati da sempre fondamentali per le società: i loro incerti possibili utilizzi offensivi rischiano di generare paura, quindi aggressività, e da lì la possibilità concreta di un conflitto armato.

Elon Musk, il capo di Tesla e SpaceX, ha affermato che la crescita della tecnologia di intelligenza artificiale, lasciata incontrollata, potrebbe rischiare di scatenare la Terza Guerra Mondiale.

L’A.I. debole o “ristretta” si evolve verso una traiettoria che è ancora incerta, per cui non sappiamo ancora se i suoi sviluppi saranno di tipo rivoluzionario o produrranno solo degli avanzamenti nei settori coinvolti.

Fatto sta che essendo una tecnologia “abilitante”, come il vapore o l’energia elettrica, il grosso discrimine lo farà il modo in cui essa verrà utilizzata e i settori in cui la nuova tecnologia verrà implementata. La modalità di utilizzo modifica e direziona infatti lo sviluppo delle società stesse, la loro economia e politica, oltre che il posizionamento sullo scenario globale dovuto alla eventuale supremazia militare conseguente.

Possibili Rischi

L’impatto sulle società infatti sarà ad esempio relativo alla dimensione lavorativa e all’occupazione: i colossi commerciali spingono verso una sostituzione della forza lavoro umana con sistemi automatizzati, e  non si tratta solo delle figure operaie nelle fabbriche, ma anche di figure professionali facenti parti di un gran numero di settori, che vanno dall’ economia e finanza, all’agricoltura, all’amministrazione pubblica, commercio etc.

Come affrontare il problema sociale derivante dalla disoccupazione dovuta alla dismissione della forza lavoro? Si pone così un problema etico e di riconversione della forza lavoro.

Di contro si pone quindi il problema della formazione e reclutamento di professionisti specializzati. Ad esempio i fortissimi interessi commerciali spingono ed incentivano lo sviluppo e l’utilizzo di algoritmi, e per fare questo i colossi commerciali si dotano di personale qualificato che viene retribuito con compensi molto più elevati rispetto a quelli del settore militare.

Per fronteggiare questa difficoltà nel reclutamento il settore militare ha quindi adottato, in alcuni casi, la soluzione di collaborare con le aziende commerciali, servendosi dei loro specialisti e dei loro mezzi, in progetti pilota (es. Stati Uniti con Google per il progetto Maven).

I forti legami con il fattore commerciale ed economico della tecnologia, da cui deriverebbe una sua più rapida diffusione, creano il rischio di un uso manipolatorio dei mezzi tecnologici.

L’uso di sistemi per un marketing spinto può infatti pianificare e condizionare le scelte degli utenti e diventare strumento di convincimento e propaganda.

Si pone così il problema del controllo e dell’attendibilità e sicurezza delle informazioni che vengono diffuse, dal momento che possono essere finalizzate a mettere in atto azioni di tipo fraudolento e criminale.

Così eventuali diffusioni e propagande di tipo ideologico, in grado di incentivare violenza e aggressività, andranno attentamente monitorate.

L’avanzamento tecnologico che utilizza il cyberspazio, che è lo spazio virtuale nel quale utenti e programmi connessi fra loro possono muoversi e interagire attraverso una rete telematica, comporta il rischio di attacchi di tipo informatico, quindi i rischi da essi derivanti per la sicurezza di individui singoli, istituzioni e infrastrutture critiche.

Ad un’ampia diffusione e all’apertura commerciale libera dell’A.I. corrisponde un ampliamento dell’area da mettere in sicurezza, dovuto all’aumento delle vulnerabilità dei settori potenzialmente interconnessi.

Competizione e cooperazione

In una società globalizzata diventa fondamentale la diffusione di informazioni e metodologie per evitare o minimizzare gli eventuali impatti negativi.

I rischi, come i campi di applicazione, coinvolgono molti settori, da quello etico e sociale a quello della sicurezza infrastrutturale e fisica, quindi si pone un altro problema per la gestione della competizione tra Stati, indispensabile per fronteggiare i rischi: quale forma di cooperazione adottare?

Ci sono differenti posizioni anche in merito alla cooperazione tra istituzioni non militari, come le società private e i dipartimenti accademici, e il settore militare. Ci sono infatti società di intelligenza artificiale e robotica che ricevono finanziamenti per la ricerca e lo sviluppo anche a scopo militare (come la Boston Dynamics) e altre che al contrario si rifiutano fermamente di impegnarsi con organizzazioni militari, come ad esempio DeepMind.

Competizione e collaborazione sono quindi le caratteristiche delle relazioni tra i vari attori coinvolti, legate alla profonda incertezza del futuro della A.I. e, in base a come vengono gestite, possono verificarsi diversi tipi di scenari possibili relativi alla politica internazionale tra Superpotenze:

  • Piena concorrenza: vietare, imporre limiti e severi controlli sulle esportazioni di hardware e software relativi ad A.I. relativi al mercato commerciale.

Vantaggio = Diminuisce la dipendenza di ciascun paese dal trasferimento di tecnologia dall’esterno.

Rischio = Avere una filiera tecnologica indipendente tuttavia comporterebbe enormi costi economici e aumenterebbe il rischio di diffidenza, difesa e quindi “corsa agli armamenti” da parte degli altri Stati concorrenti.

  • Piena cooperazione: aprire completamente il mercato di hardware e software relativi ad A.I. e monitorare le applicazioni militari attraverso accordi bilaterali.

Vantaggio = Riduce l’incertezza sulle capacità offensive dell’altro.

Rischio = Comporterebbe una forte interdipendenza tecnologica tra le potenze.

  • Concorrenza e cooperazione parziale: effettuare controlli su esportazioni di determinati hardware e software e contemporaneamente accordi bilaterali di information sharing sulle nuove implementazioni.

Vantaggio = Limiterebbe sia i costi di una autoproduzione che i rischi di dipendenza dalla tecnologia estera.

L’obiettivo principale da perseguire nel periodo di incertezza del prossimo futuro resta ridurre il rischio di tensioni politiche tra Superpotenze e quindi di un possibile conflitto armato.

Per fronteggiare i rischi derivanti dall’utilizzo e dagli sviluppi dell’A.I., che convolgono una serie molto ampia di settori e delle cui potenzialità non conosciamo le reali prospettive, è necessario sviluppare parallelamente una cultura di consapevolezza nei confronti del suo corretto uso.

Gli interessi politici, economici e militari in gioco sono alti, sviluppare una pianificazione strategica in materia da parte degli Stati, così come ha fatto la Cina, diventa una conditio sine qua non per non restare indietro, o addirittura estromessi, nello scenario internazionale.

Relativamente all’uso militare, spesso il vero discrimine non è dato dall’arma in sé, ma dall’intelligenza e astuzia della sua tattica di utilizzo. Come la storia insegna, flessibilità, intuito e inventiva nelle tecniche militari fanno la differenza per l’esito di un conflitto, dal cavallo di Troia, alle legioni romane, all’utilizzo delle portaerei nei conflitti mondiali, all’uso di armi non convenzionali e di tipo dual -use.

L’A.I. quindi resta una tecnologia “abilitante” dalle potenziali, enormi, quanto incerte, applicazioni militari e non, capace di incidere notevolmente sulle condizioni di sicurezza e benessere delle società; quindi si conferma un fattore critico di sviluppo da monitorare e gestire con cura.

 

Articolo a cura di Maria Cristina Leone

Dott. Arch. Maria Cristina Leone, laurea magistrale con lode e dignità di pubblicazione presso la “Università Federico II” di Napoli. Project Manager Consultant per progettazione civile impianti Chimici, Petrolchimici - Oil&Gas, strutture ed edifici Blast Resistant, progettazione Ospedaliera. Security Specialist Consultant; sviluppo di principi strategici di analisi ed intervento per la predisposizione di contromisure tecniche di protezione del Sistema Edificio/Ambiente per la minaccia CBRNe e la protezione delle Infrastrutture Critiche.

Master in Protezione Strategica del Sistema Paese, Cyber Intelligence e Sicurezza delle Infrastrutture Critiche, presso SIOI (Società Italiana per l'Organizzazione internazionale), Roma; Corso di alta formazione in “Terrorismo: Analisi e metodologie di prevenzione e contrasto” - SIOI/NATO Defence Foundation College, Roma; Corso di alta formazione in “Environmental Crimes”– UNICRI/SIOI, Roma. Diploma di Progettista Esperto in progettazione sostenibile Casaclima- Klimahouse, Bolzano.

Analisi e strategie per la mitigazione del rischio, progettazione ambientale, integrata e sostenibile, qualità del costruire benessere indoor, ambiente e legalità.

Strategie e tecniche di comunicazione sociale efficace. Facilitatore decisionale per coordinamento, briefing e de-briefing di gruppi, comunità e organizzazioni.

Scrum Master per facilitazione framework  Agile.

Download PDF
Condividi sui Social Network:

ISCRIVITI ALLA NEWSLETTER DI SAFETY & SECURITY MAGAZINE

Una volta al mese riceverai gratuitamente la rassegna dei migliori articoli di Safety & Security Magazine

Rispettiamo totalmente la tua privacy, non cederemo i tuoi dati a nessuno e, soprattutto, non ti invieremo spam o continue offerte, ma solo email di aggiornamento.
Privacy Policy