Nell’epoca che stiamo vivendo, caratterizzata da un incessante sviluppo e “invasione”, nella quotidianità, delle tecnologie supportate dalle intelligenze artificiali, in cui è estremamente presente l’aspetto di automazione delle attività, qualunque esse siano, e in cui si inizia a confrontarsi e a riflettere sulle responsabilità concrete o meno dei robot, dei computer o anche solo degli algoritmi sempre più complessi, urge richiamare l’attenzione di tutti su un aspetto che sembrerebbe essere uscito, a torto, dal raggio d’azione dei riflettori negli ambienti in cui si parla di protezione dei dati: le implicazioni sociali collegate ai trattamenti automatizzati e alla sorveglianza.
Indice degli argomenti
Trattamenti automatizzati, sorveglianza e implicazioni sociali: il contesto
Nella maggior parte degli eventi, infatti, siano essi seminari, congressi o convegni, gli argomenti che catalizzano l’attenzione sono ormai divenuti “sempre gli stessi”: la violazione dei dati, il registro delle attività di trattamento, l’Internet of Things, le misure di sicurezza, l’accountability.
Talvolta si assiste anche al ritorno di argomenti mai fuori moda, come la videosorveglianza e il controllo a distanza dei lavoratori, spacciando per novità qualcosa che è (o dovrebbe essere) radicato nella nostra società almeno dal 1970 (quest’anno lo Statuto dei Lavoratori compirà cinquant’anni).
In questo mare magnum degli opinionisti e degli influencer della protezione dei dati, tuttavia, manca troppo spesso qualcuno che si assuma il compito di far notare che la materia in questione non è solo e soltanto questione di leggi e tecniche, non è solo argomento per avvocati e ingegneri, ma dovrebbero essere considerati anche gli aspetti sociali e sociologici che, forse, sono il vero centro di questo mondo che dal 2016 ha subìto la rivoluzione del GDPR.
Quando mettiamo in essere un qualsiasi trattamento, infatti, stiamo andando a modificare lo status quo del tessuto sociale, agendo (positivamente o negativamente) sulla particella quantistica del sistema in cui ognuno di noi vive e vuole vivere, per essere riconosciuto e in cui si riconosce: la persona.
Trattamenti automatizzati, sorveglianza e implicazioni sociali: la gestione dei rischi
Se, per quanto riguarda i trattamenti messi in atto direttamente dall’operatore umano, si può sempre fare affidamento ai principi di moralità, etica e, talvolta, deontologia, possiamo affermare lo stesso con riferimento ai trattamenti automatizzati?
Essi, per proprie caratteristiche intrinseche, lavorano e agiscono confrontando le informazioni nel tempo, ossia comparando le differenze da ciò che era prima e ciò che è adesso, talvolta cercando di prevedere ciò che sarà e tentando di influenzare gli eventi affinché sia, il tutto subordinato alla realizzazione e al compimento di operazioni logiche predeterminate.
I trattamenti automatizzati, in altre parole, attuano un sistematico e profondo processo di sorveglianza sul contesto osservato e su cui sono applicati, in modo da identificare, ossia percepire, quelle che sono le variazioni e le differenze tra il “prima” e il “dopo” e, conseguentemente, avere a disposizione le informazioni (richiamando la storica definizione del sociologo Gregory Bateson) che possiamo chiamare “dati personali”.
Questa sorveglianza sistematica profonda serve solo a determinare il dato personale (considerando anche l’assenza di dati personali, volendo, un dato personale) su cui il medesimo trattamento automatizzato produrrà effetti, magari nuovamente attraverso un processo di sorveglianza e monitoraggio.
Esprimendo con altre parole lo stesso concetto, ogniqualvolta ci troviamo di fronte a un trattamento automatizzato, ci troviamo di fronte a un’attività di sorveglianza. Un algoritmo, una RPA, un’AI sono tutti risultati di una sorveglianza sistematica, sovente senza soluzione di continuità.
I risvolti sulla società e sulle persone
È doveroso, quindi, domandarsi quali siano i risvolti sulla società e sulle persone, perché, adottando il principio di gestione dei rischi a cui lo stesso GDPR s’ispira (come le norme che lo hanno preceduto), essi potrebbero non essere necessariamente positivi, benevoli o benvoluti.
Eugéne Enriquez, psicologo, affermava che “chi ha a cuore la propria invisibilità è destinato a essere respinto, emarginato o sospettato di aver commesso un crimine”; parafrasandolo, chiunque voglia sottrarsi alla sorveglianza dei trattamenti automatizzati, rischia di veder compromessa la sua immagine e la sua personalità, anche semplicemente attraverso la preclusione all’accesso a servizi a cui avrebbe diritto.
Problematiche simili le ravvisa anche l’antropologo Michel Agier, che ritiene che “oggi la tecnologia di sorveglianza si sviluppa su due fronti ed è orientata su due obiettivi strategici opposti: il confino (<<chiudere dentro>>) e l’esclusione (<<chiudere fuori>>)”, e così, quindi, “essere collocato in un luogo chiamato <<campo profughi>> ha un unico significato definito: che tutti gli altri luoghi concepibili sono diventati off limits. Essere insider di un campo profughi ha come unico significato il fatto di essere outsider, straniero, corpo estraneo, intruso rispetto al resto del mondo” e ancora “a distinguere un esule da tutti gli altri uomini non è il luogo da cui è arrivato al campo, ma il fatto di non essere più diretto verso alcun luogo”.
È chiaro che il concetto debba essere generalizzato: è attraverso la sorveglianza che la società attuale discrimina “chi può” e “chi non può”, nel tentativo di creare ordine e portar vantaggio a qualcuno, a fronte di uno svantaggio (leggasi anche danno, nocumento) arrecato ad altri.
Ordine che, osservando la situazione con un occhio critico e riprendendo le idee espresse dalla sociologa nostrana Chiara Fonio nel libro “La videosorveglianza – Uno sguardo senza volto”, punterebbe al raggiungimento del controllo proprio attraverso la sorveglianza tecnologica, in un ambiente sociale sempre più standardizzato e prevedibile, anche se in molti sono ancora convinti che “diverso è bello”. Peccato che quel “diverso”, sovente, sia stato studiato a tavolino.
Conclusioni
Sulla scia di questi concetti e ragionando sulla posizione delle persone oggetto di sorveglianza, per esempio, impiegata per individuare i soggetti a rischio tra gli aspiranti clienti di un istituto di credito, il sociologo Zygmunt Bauman arriva ad affermare che la sorveglianza può generare “una morte sociale che lascia aperta la possibilità di una resurrezione anch’essa sociale (riabilitazione, restituzione dei diritti). L’esclusione sociale, che è la ragion d’essere del Ban-opticon, equivale sostanzialmente a una sentenza di morte sociale, anche se nella maggior parte dei casi il verdetto prevede una sospensione della pena”.
Tra gli aspetti negativi della sorveglianza e dell’automazione dei trattamenti, poi, possiamo annoverare anche l’adiaforizzazione, ossia quel processo cognitivo, sovente forzato dall’abitudine e dalla routine, che porta le persone a essere indifferenti agli stimoli e a ciò che accade e, senza dubbio, la sempre più marcata distanza da comportamenti etici, morali e dalla presa di coscienza delle proprie responsabilità.
Addentrarsi oltre in questi argomenti, in questa sede, risulta impossibile; tuttavia è fuori discussione che il problema esista e sia già tra noi da tempo, come dimostrano gli studi condotti dai vari sociologi, psicologi e antropologi citati – e non solo loro –, alcune delle cui riflessioni e teorie sono ben esposte nel libro “Sesto potere: La sorveglianza nella modernità liquida” di Zygmunt Bauman e David Lyon.
A questo punto ci domando: siamo davvero sicuri di poter affermare che stiamo realizzando “bene” gli adempimenti del GDPR?