Attualmente, le aziende si affidano a esperti, sia interni che esterni, per interpretare e applicare le leggi sulla privacy, un compito complesso e dispendioso in termini di tempo per società che offrono servizi in costante evoluzione: in tal senso, l’impiego di sistemi di intelligenza artificiale a supporto della compliance potrebbe fornire un contributo utile per far sì che le aziende siano in grado di automatizzare alcuni processi di conformità.
Indice degli argomenti
L’intelligenza artificiale a supporto della compliance: lo scenario
È vero, infatti, che una violazione della privacy (e in particolare un data breach) è tecnicamente difficile da rilevare in tempo reale per qualsiasi azienda. Tale azione diverrà ancora più complicata in futuro considerando che la quantità di dati presenti in rete aumenterà in modo esponenziale. Il nostro mondo sta infatti subendo una sorta di “Big Bang” dell’informazione, in cui l’universo dei dati raddoppia ogni due anni.
I cosiddetti big data sono comunemente descritti tramite le tre “V”: varietà, velocità e volume. Maggiore quantità di dati rendono l’analisi più potente e la varietà permette nuove interpretazioni e previsioni; la velocità facilita la condivisione in tempo reale, pur sottendendo una problematica di overload informativo.
I flussi di dati generati da device come telefoni cellulari e altri dispositivi connessi alla rete espandono il volume, la varietà e la velocità delle informazioni relative a ogni aspetto della nostra vita e mettono la privacy sotto i riflettori rendendola una problematica globale.
L’intelligenza artificiale a supporto della compliance: le criticità
Al momento, tuttavia, l’impiego dell’intelligenza artificiale in ambito compliance presenta ancora diversi limiti.
Gli algoritmi non sono attualmente in grado di elaborare la “flessibilità semantica” impiegata nella stesura dei regolamenti. Le leggi vengono infatti spesso redatte in termini generali o vaghi per consentire la possibilità di modifiche future.
Una macchina, invece, ha bisogno di istruzioni specifiche per comprendere un testo; un modo per agevolare la comprensione e la contestualizzazione corretta di concetti vaghi o astratti potrebbe essere quello di costruire delle ontologie adeguate.
Di conseguenza, per impiegare sistemi di intelligenza artificiale a supporto della compliance normativa, sarebbe necessario sviluppare ontologie ben definite, per garantire che vengano correttamente interpretate quando, ad esempio, i dati privati di un cittadino vengono analizzati o condivisi.
Sarà quindi indispensabile che l’algoritmo impiegato sia in grado di identificare i cosiddetti “termini dell’arte”, cioè parole o frasi che hanno definizioni precise all’interno di una legge. Esse aiuterebbero a identificare il campo di applicazione del regolamento.
In secondo luogo, l’algoritmo dovrà essere in grado di comprendere le regole deontiche, cioè quelle che comprendono frasi che descrivono i doveri o gli obblighi prescritti da una legge.
Sebbene possa sembrare semplice, tale compito nasconde una difficoltà intrinseca: alcune regole si applicano a tutti i soggetti, in modo uniforme e in tutte le condizioni; altre invece possono applicarsi parzialmente, a un solo ente o in base a specifiche condizioni.
L’algoritmo dovrà essere in grado di distinguere le singole casistiche, tramite la combinazione corretta delle ontologie associabili agli specifici casi.
Infine, ma non meno importante, l’algoritmo dovrà essere in grado di comprendere i riferimenti incrociati che spesso vengono utilizzati nei testi di carattere legale per fare riferimento al testo di un’altra sezione della legge o di una diversa norma.
Nuovi sviluppi nell’uso dell’intelligenza artificiale
Una volta che l’intelligenza artificiale sarà in grado di interpretare rapidamente i lunghi e complessi testi relativi alle politiche sulla privacy, sarà possibile automatizzare molte attività di compliance che oggi vengono svolte manualmente, ma un tale scenario richiederà a sua volta un mutamento nel paradigma della regolamentazione della stessa intelligenza artificiale.
Un passo importante in tal senso è stato compiuto dall’Unione Europee con la nomina, nel giugno 2018, di un pool di esperti indipendenti, in seguito alla quale è stata avviata una fase pilota per garantire la possibilità di applicazione degli “orientamenti etici per lo sviluppo e l’utilizzo dell’intelligenza artificiale”; un percorso che è proseguito con la pubblicazione, il 19 febbraio 2020, di un White Paper nel quale si sottolinea come i sistemi di IA dovranno essere “conformi alle norme europee”, requisito essenziale per “costruire fiducia” nell’intelligenza artificiale, istituendo regole chiare, specialmente per quelle applicazioni definite “ad alto rischio”, come i sistemi di riconoscimento facciale.