Tra precauzione e prevenzione: la gestione del rischio nello scenario ‘pre’-emergenza
Pratiche di controllo e sorveglianza sono oggi facilitate dall’applicazione di sofisticati sistemi digitali che agevolano la gestione del rischio.
Forme di sorveglianza definite ‘high-tech’, basate su Big Data e Intelligenza Artificiale (IA), offrono molteplici possibilità di anticipare e catalogare patterns di comportamento sociale. Sebbene queste forme ‘high-tech’ stiano riconfigurando il modo di governare la mobilità degli individui, la tecnologia digitale non ha soppiantato interamente forme di sorveglianza più tradizionali, anche definite ‘low-tech’. Lo sta testimoniando l’emergenza causata dal propagarsi del Covid-19.
Alle immagini di droni per monitorare gli spostamenti delle persone, si accostano immagini di posti di blocco in cui viene richiesta la compilazione di un’autocertificazione come giustificazione dei propri movimenti. Da un lato la tecnologia digitale, dall’altro un semplice foglio di carta, che richiede la partecipazione attiva delle persone alla loro stessa sorveglianza. Entrambe le forme sono però accomunate dalla possibilità di raccogliere incessantemente un’enorme quantità di dati personali.
Ma quando l’epidemia passa e l’emergenza finisce, cosa accade a quei dati che sono stati prontamente acquisiti per catalogare la popolazione in livelli di rischio? Si potrebbe sostenere che la sorveglianza biometrica attraverso App che monitorano lo stato di salute, come accade in Cina, Singapore e Corea del Sud è una misura provvisoria, adottata in un momento di emergenza. O ancora, che il tracciamento degli spostamenti attraverso App di geolocalizzazione che analizzano il collegamento degli smartphone alle celle telefoniche, acquisisce dati ‘aggregati’, quindi non riconducibili al singolo individuo.
Se si esamina più approfonditamente la logica con cui i dati vengono raccolti, la realtà che ne emerge rivela invece uno scenario diverso. Prendendo il caso del Covid-19, il rischio non è rappresentato dal propagarsi dell’epidemia ma dai corpi stessi che, in quanto possibile portatori di contagio, diventano oggetto di misure precauzionali. Tuttavia, non sapendo chi sia portatore di virus e chi, al contrario, soggetto sano, il virus ha legittimato l’adozione di controverse misure di sorveglianza, dirette all’identificazione e isolamento degli individui considerati ‘a rischio’. Per prendere in prestito uno dei concetti utilizzati da Bruno Latour, il virus ha prodotto un’eterotopia (heterotopia), ossia una situazione differente dalle normali condizioni di interazione sociale, in cui pratiche e dinamiche di (im)mobilità diventano uno strumento politico per governare il ‘rischio’.
Quando si tratta di gestire rischi la cui probabilità di produrre effetti catastrofici è alta, ma sconosciuta, la risposta è univoca: prevenzione[1]. Parlare di prevenzione nell’ambito di un rischio legato alla salute pubblica come il Covid-19 chiama in causa una serie di misure di contenimento per prevenire la propogazione di un’epidemia. Il Regolamento Sanitario Internazionale (RSI) – International Health Regulations (IHR) – entrato in vigore il 15 giugno 2007, prescrive le misure da adottare per “garantire la massima sicurezza contro la diffusione internazionale delle malattie, con la minima interferenza possibile sul commercio e sui movimenti internazionali, attraverso il rafforzamento della sorveglianza delle malattie infettive mirante ad identificare, ridurre o eliminare le loro fonti di infezione o fonti di contaminazione […]”. Tre sono le parole chiave che indicano come tali misure siano situate a cavallo tra misure precauzionali e misure preventive: “identificare”, “ridurre” ed “eliminare”[2].
Spesso i due termini – precauzione e prevenzione – vengono erroneamente usati in maniera intercambiabile. Mentre ogni termine assume una connotazione propria, in relazione all’entità del rischio a cui è rivolto.
Il primo si riferisce più nello specifico alle misure precauzionali, adottate prima che una minaccia conosciuta (known) raggiunga un punto irreversibile: si tratta dei rischi chiamati ‘known unknowns’. Rientrano in questa categoria, ad esempio, le attività riguardanti crimine organizzato e attacchi terroristici il cui profilo di rischio è conosciuto, ma il cui impatto catastrofico rimane tuttavia un’incognita (unknown), in quanto non si sa con certezza se, quando e dove, un crimine o attacco avranno luogo[3].
Il secondo termine riguarda invece le misure preventive, indirizzate all’identificazione di rischi la cui entità è sconosciuta e indefinita. Tali rischi sono anche definiti come ‘unknown unknowns’. Fanno parte di queste misure i sistemi informatici di raccolta ed elaborazione dati. In questo caso, le informazioni raccolte vengono immagazzinate all’interno di database e poi usate per generare profili di rischio, non ancora conosciuti. Il rischio è quindi prodotto dal sistema stesso. La tipologia di dati che vengono acquisiti in genere comprende dati alfanumerici (nome, cognome, data di nascita ecc.) e biometrici (es. caratteristiche biologiche), che permettono di identificare direttamente un individuo.
In base a questa distinzione tra ‘known unknowns’ e ‘unknown unknows’, le misure prese nel caso del Covid-19 rientrano nella seconda categoria. Il profilo dell’individuo portatore di virus non è conosciuto. Pertanto un’enorme mole di dati, analizzati attraverso il data mining, viene acquisita per creare profili di rischio tramite sofisticati algoritmi in grado si distinguere tra soggetti ‘a rischio’ e ‘non a rischio’. Questo esercizio di catalogare la popolazione figura come una misura preventiva, dove ‘pre’-venire prescrive di intervenire prima che il virus possa continuare a propogarsi in maniera incontrollata.
Non più misure straordinarie, adottate in tempi straordinari, dunque. Quando si tratta di anticipare, prevedere e prevenire potenziali, future minacce, le misure vengono adottate nello scenario che precede la situazione di emergenza (‘pre’-), o prima che essa continui a intensificarsi, e rimangono in atto anche una volta che il rischio è stato scongiurato (‘post’-). In questo contesto, la sorveglianza di massa passa in secondo piano, lasciando posto alla ricerca del cosidetto ‘ago nel pagliaio’.
Dove il pagliaio è l’oceano di dati che vengono raccolti incessantemente per scopi diversi: dalle impronte digitali al riconoscimento facciale usato alle frontiere degli aeroporti per decidere a chi permettere, limitare o negare l’entrata. Tali dati possono essere estratti in qualsiasi momento, con l’inevitabile conseguenza di armonizzare le decisioni prese nell’ambiente fisico alle previsioni contenute nel corpo di dati generato dagli algoritmi[4].
Le misure preventive hanno infatti la tendenza a sopravvivere alle emergenze, in quanto la sottostante logica della prevenzione implica la costante possibilità che un nuovo rischio – un potenziale, nuovo Covid-19 – sia all’orizzonte.
Note
[1] Aradau, C. and Blanke, T. (2017) Politics of Prediction, European Journal of Social Theory, 20(3): 373-91.
[2] Ministero della Salute, Regolamento Sanitario Nazionale http://www.salute.gov.it/portale/usmafsasn/dettaglioContenutiUsmafSasn.jsp?lingua=italiano&id=3066&area=usmaf-sasn&menu=vuoto
[3] Aradau, C. and Van Munster, R. (2011) Politics of Catastrophe: Genealogies of the Unknown (London: Routledge) 10.4324/9780203815793.
[4] Rouvroy, A. (2013), The End(s) of Critique: Data-behaviourism vs. Due-process, In (ed.) Hildebrandt, M. and De Vries, E. Privacy, Due Process and the Computational Turn. The Philosophy of Law Meets the Philosophy of Technology (New York: Routledge): 143-68.
Riferimenti
Aradau, C. and Van Munster, R. (2011) Politics of Catastrophe: Genealogies of the Unknown (London: Routledge) 10.4324/9780203815793.
Aradau, C. and Blanke, T. (2017) Politics of Prediction, European Journal of Social Theory, 20(3): 373-91.
Ministero della Salute, Regolamento Sanitario Nazionale http://www.salute.gov.it/portale/usmafsasn/dettaglioContenutiUsmafSasn.jsp?lingua=italiano&id=3066&area=usmaf-sasn&menu=vuoto
Rouvroy, A. (2013) The End(s) of Critique: Data-behaviourism vs. Due-process, In (ed.) Hildebrandt, M. and De Vries, E. Privacy, Due Process and the Computational Turn. The Philosophy of Law Meets the Philosophy of Technology (New York: Routledge): 143-68.
Articolo a cura di Vanessa Ugolini
Vanessa Ugolini è una dottoranda in Studi Internazionali presso l’Università degli Studi di Trento. La sua ricerca è incentrata sull’analisi del perseguimento di attività criminali tramite lo scambio di dati raccolti preventivamente su scala trasnazionale e la possibilità di supervisionare centralmente tale modalità di "data travelling". Ha ricevuto il "Barrie Paskins Award" per la migliore tesi magistrale dal Dipartimento di "War Studies" presso il King’s College London (Londra), dove ha completato con Lode un Master in Intelligence e International Security. Ha ottenuto inoltre un Bachelor degree in Politics and East European Studies presso la University College London (Londra). Le sue competenze interessano principalmente l’ambito delle tecniche di sorveglianza digitale, tra cui le tecnologie e gli algoritmi di ricerca dati, e più in generale, l’impatto della cybersecurity sulla sicurezza fisica e preventiva.