Lo sviluppo di sistemi automatizzati non è privo di sfide e nel prossimo futuro il machine learning e l’analisi dei dati saranno oggetto di controlli più attenti, poiché verrà messa in discussione la loro stessa imparzialità e correttezza per evitare che si verifichino le cosiddette distorsioni intrinseche che potrebbero causare errori non previsti negli algoritmi.
D’altronde, in un mondo in continua evoluzione tra digital transformation, dispositivi omni-connessi e forza lavoro remota semi-permanente, mantenere i dati critici e le persone sempre al sicuro è una grandissima sfida. Così grande che non può essere affrontata senza l’implementazione del machine learning e dell’automazione.
Per comprendere al meglio i rischi ai quali è esposta un’azienda è necessario capire prima di tutto quali sono i dati critici da proteggere e come si muovono tali dati. Tutto ciò è possibile solo raccogliendo grandi quantità di metadata, attraverso la telemetria di tali dati e le interazioni con essi per poi analizzare il tutto e tradurre i risultati in un’ottica basata sul rischio.
Indice degli argomenti
Algoritmi che sbagliano: le distorsioni intrinseche del machine learning
Quest’estate abbiamo assistito a incidenti da prima pagina: ad esempio, nel Regno Unito, dove il Governo ha deciso di lasciare che gli algoritmi determinassero i risultati degli esami degli studenti. La distorsione intrinseca di questo particolare algoritmo, però, ha portato a riduzioni significative dei voti, ingiustamente falsati per le aree a basso reddito, senza tenere conto delle competenze degli insegnanti. Ciò ha provocato un’imbarazzante inversione di marcia, in cui le persone hanno finito per battere le macchine negli esami di valutazione.
Questa non è la prima volta che vengono criticati algoritmi e sistemi di machine learning basati su set di dati distorti. Si è sentito parlare del chatbot Tay di Microsoft e anche di software di riconoscimento facciale che hanno identificano erroneamente membri del pubblico come criminali.
Alcuni sbagli possono avere un peso enorme e cambiare la vita delle persone (come ad esempio quello successo agli studenti o a persone che richiedono un credito) altri, invece, avranno sicuramente un impatto minore, come l’invio di un buono spesa al cliente sbagliato.
La sicurezza informatica e gli errori degli algoritmi
Un buon numero di sistemi di sicurezza informatica utilizza il machine learning per decidere se un’azione è appropriata (a basso rischio) per un determinato utente o sistema.
Questi sistemi di machine learning devono essere testati su quantità di dati sufficientemente grandi e devono essere valutati attentamente per inclinazione e accuratezza.
Se vengono commessi degli errori, il sistema applicherà i controlli in maniera sbagliata e si sperimenteranno situazioni di blocco, come l’errata interruzione del trasferimento di un documento critico per l’azienda o un responsabile delle vendite incapace di condividere proposte con un potenziale cliente.
Inoltre, se i controlli sono troppo lenti, i dati possono trapelare in maniera errata, causando violazioni dannose e costose.
Trovare il giusto equilibrio
Per costruire sistemi informatici che aiutano a identificare gli utenti rischiosi e prevenire azioni dannose, i dati che analizziamo provengono per la maggior parte dall’analisi delle attività di un utente.
Vale la pena anticipare che il monitoraggio dell’attività degli utenti deve essere effettuato in modo appropriato, nel pieno rispetto della privacy delle persone e delle linee guida etiche.
Per creare “un’immagine” virtuale degli utenti è necessario tenere traccia delle azioni di accesso e disconnessione, nonché monitorare quali file aprono, modificano e condividono.
Questi dati vengono estratti da sistemi di sicurezza come proxy web, firewall di rete, protezione degli endpoint e soluzioni di prevenzione contro la perdita di dati. Sulla base delle informazioni raccolte, vengono calcolati i punteggi di rischio e i sistemi di sicurezza a loro volta segnalano comportamenti inappropriati e applicano le politiche di sicurezza adeguate.
Quando si intraprende questa analisi o, di fatto, qualsiasi analisi che utilizza sistemi di machine learning o algoritmi per prendere decisioni automatizzate che hanno un impatto sulla vita delle persone, è fondamentale utilizzare una combinazione di algoritmi e intelligenza umana.
Senza tenere conto dell’intuizione, del contesto e della psicologia umana, si corre il rischio di creare algoritmi che sono essi stessi di parte o prendono decisioni basate su dati imperfetti o distorti, come discusso sopra.
Oltre a tener conto dell’esperienza umana, o in altre parole, modellare la conoscenza degli esperti, per creare il corretto algoritmo sono altrettanto importanti i giusti dati di addestramento e i giusti dati che alimentano l’analisi in tempo reale.
Ma cosa sono i dati “giusti”? I dati “giusti” sono spesso determinati dal problema stesso, da come è costruito l’algoritmo e se sono presenti circuiti di rinforzo o anche, se è possibile, il coinvolgimento esplicito di esperti.
I dati giusti significano la giusta quantità, il giusto set di addestramento, le giuste posizioni di campionamento, la giusta fiducia nei dati, la giusta tempestività e via dicendo.
Il problema più grande con i “dati giusti” è che è quasi impossibile definire quale bias potrebbe essere presente finché non si osserva un risultato falso ed è potenzialmente troppo tardi, è stato causato un danno.
Conclusioni
L’utilizzo del machine learning e degli algoritmi nella vita di tutti i giorni è ancora agli inizi, ma il numero di applicazioni ad essi legato cresce a un ritmo sorprendente.
Nel 2021, bisogna aspettarsi che ulteriori applicazioni falliscano a causa di distorsioni intrinseche e della mancanza di supervisione e controllo da parte di esperti degli algoritmi.
Non bisogna, inoltre, dimenticare che la maggior parte degli algoritmi di machine learning supervisionati agisce come una scatola nera, rendendo la verifica impossibile o incredibilmente difficile.
Ciò non significa che tutti gli algoritmi siano destinati al fallimento: la buona notizia, infatti, è che tutte queste distorsioni vengono ora discusse e analizzate in gruppi aperti, insieme all’efficacia degli algoritmi.
Speriamo di continuare a sviluppare algoritmi modellati su input dati dagli esperti del settore.
Il futuro del machine learning si prospetta davvero roseo, perché l’unico limite nella loro applicazione è dato dalla nostra immaginazione.