Di intelligenza artificiale si parla fin dagli Anni 50, ma per decenni i risultati ottenuti in questo campo non sono mai stati soddisfacenti, tanto da far pensare che questa interessante tecnologia non funzionasse. L’errore di fondo è sempre stato quello di voler creare una macchina in grado di pensare come un essere umano, il che è tuttora troppo difficile. Un errore indotto anche dall’esigenza di far conciliare i concetti di intelligenza artificiale e sicurezza.
Se non fosse che, grazie allo sviluppo sostenuto delle tecniche di machine learning potremmo essere in grado di invertire la rotta. Il machine learning, infatti, cerca tendenze, legami causa-effetto, correlazioni nascoste: in poche parole, è in grado di elaborare dati. E oggi, grazie ai big data e al concetto di big data analysis, di dati da elaborare ne abbiamo davvero tanti. Secondo l’autorevole parere di Kenneth Cukier, Senior Editor Digital Products dell’Economist, “l’espressione big data è la polarizzazione delle tecniche di machine learning: far lavorare i computer su enormi volumi di dati per scoprire legami e tendenze che gli uomini non possono vedere”.
Quando si parla di intelligenza artificiale, però, si tende a prefigurare anche scenari cupi. Esiste per fortuna un numero limitato di campi applicativi in cui l’attuale intelligenza artificiale può configurarsi come lesiva nei confronti dell’uomo. In particolare si possono individuare due specifici settori in cui la minaccia arriva ad essere letale: le armi autonome e la guida autonoma.
Come illustrato approfonditamente nell’articolo Se l’Intelligenza Artificiale uccide: un’etica per auto e armi autonome di AgendaDigitale, in entrambi i casi si tratta di estendere in sofisticazione dei comparti tecnologici che già nelle loro forme tradizionali conducono ad un drammatico sacrificio di vite umane. Intenzionalmente, nel caso degli armamenti, come spiacevole effetto collaterale per i trasporti. La transizione verso la totale autonomia implica però un salto concettuale delicato, nello spostamento della responsabilità morale di uccidere esseri umani, da altri esseri umani a macchine.
Un aiuto, in questo senso, potrebbe venire da un progetto di scatola nera dell’AI alla quale sta lavorando IBM: il servizio aiuterebbe le aziende e le organizzazioni a indagare e gestire via cloud i sistemi di intelligenza artificiale per stanare gli errori di programmazione e svelare i perché delle decisioni prese dalle macchine.
Un’idea, quella di IBM approfondita nell’articolo La scatola nera dell’AI: Ibm stana gli errori e svela i perché delle decisioni pubblicato su CorCom, che potrebbe fornire uno strumento automatizzato nonché nuovi servizi di consulenza per aiutare le società a progettare processi aziendali e interfacce uomo-intelligenza artificiale, riducendo al minimo l’impatto di eventuali errori sul processo decisionale.