Che cos’è l’Explainable AI (XAI)?
Man mano che si espande e diventa sempre più complesso, il campo dell'intelligenza artificiale diventa sempre più complicato e meno comprensibile. Ma questo non smorza l’immenso interesse che suscita la ricerca dietro l’intelligenza artificiale, soprattutto considerando i successi rivoluzionari che ha ottenuto, in particolare nell’apprendimento automatico. Sviluppare l’intelligenza artificiale, al punto da mettere i programmi nelle condizioni di apprendere in modo indipendente e trovare soluzioni a problemi complessi, la rende una delle aree di ricerca più importanti nonostante la crescente complessità. Con la complessità cresce anche l’importanza della trasparenza per rendere il processo decisionale e i risultati ottenuti dall’intelligenza artificiale il più comprensibile possibile.
È qui che entra in gioco l’Explainable Artificial Intelligence (XAI): gli utenti vogliono e devono capire come funziona l’IA di un programma e come devono essere valutati i risultati ottenuti, altrimenti i calcoli digitali effettuati non potranno mai guadagnare la fiducia dell’utente. La trasparenza creata dall’Explainable AI è quindi di enorme importanza per l’accettazione dell’intelligenza artificiale. Cosa si cela esattamente dietro questo approccio?
- Siti web in tempo record
- Soluzioni IA per il tuo business
- Risparmio di tempo e risultati eccellenti
Che cos’è l’Explainable Artificial Intelligence (XAI)?
Explainable Artificial Intelligence significa letteralmente “intelligenza artificiale spiegabile”. Il termine è un neologismo che viene utilizzato nella ricerca e nelle argomentazioni sull’apprendimento automatico dal 2004. Ad oggi non esiste una definizione generalmente riconosciuta dell’Explainable AI. Il programma XAI della DARPA (Defense Advanced Research Projects Agency) definisce i requisiti degli obiettivi dell’intelligenza artificiale spiegabile:
Deve generare modelli spiegabili senza dover fare a meno delle elevate prestazioni di apprendimento. Inoltre deve mettere gli utenti futuri nelle condizioni di poter comprendere la generazione emergente di partner artificialmente intelligenti, di fidarsi in misura adeguata e di relazionarsi e lavorare con loro in modo efficiente.
Per Explainable AI (XAI) si intende il principio di rendere il funzionamento di un’intelligenza artificiale e i suoi risultati comprensibili per l’utente, il più possibile.
Qual è l’obiettivo della XAI?
L’intelligenza artificiale da tempo non è solo di interesse per ricercatori e scienziati. Ormai è diventata parte integrante della vita quotidiana, per cui diventa sempre più importante rendere la modularità dell’intelligenza artificiale comprensibile non solo ai progettisti e agli utenti diretti, ma soprattutto ai responsabili decisionali al fine di creare fiducia nella tecnologia.
Alcune aziende hanno già fatto i primi passi in questa direzione: nel 2017, Nvidia ha pubblicato un articolo sul suo sito web nel blog degli sviluppatori intitolato “Explaining How a Deep Neural Network Trained with End-to-End Learning Steers a car”. In questo articolo, quattro sviluppatori spiegano come la loro intelligenza artificiale impara la guida autonoma. L’azienda descrive in modo trasparente i suoi risultati di ricerca e utilizza diversi esempi facilmente comprensibili per mostrare il modo in cui l’intelligenza artificiale impara a eseguire determinati compiti.
Nello stesso anno Accenture ha pubblicato la guida “Responsible AI: Why we need Explainable AI”, in cui il fornitore di servizi tecnologici affronta argomenti come l’etica e la fiducia in relazione alle macchine (soprattutto nell’ambito della guida autonoma).
Quali metodi include l’Explainable AI?
Esistono diversi metodi o approcci per creare trasparenza e comprensione dell’intelligenza artificiale. Nei seguenti paragrafi abbiamo riassunto quelli principali:
La tecnologia LRP (Layer-wise Relevance Propagation, letteralmente “trasferimento della rilevanza livello per livello”) è stata descritta per la prima volta nel 2015. Si tratta di una tecnica per determinare le caratteristiche dei vettori in ingresso che influenzano maggiormente l’output di una rete neurale.
Il Counterfactual Method (“metodo controfattuale”) descrive il modo in cui gli input di dati (testi, immagini, grafici, ecc.) vengono modificati in modo mirato dopo aver ottenuto un risultato. In seguito si determina in che misura il risultato dell’output è stato cambiato.
Il Local Interpretable Model-Agnostic Explanations (LIME) è un metodo che ha l’obiettivo di spiegare il comportamento di ogni classificatore della macchina e il relativo output. Lo scopo è rendere i dati e le procedure decisionali comprensibili agli utenti non esperti in materia.
La razionalizzazione è una procedura utilizzata specificamente nei robot basati sull’IA. La macchina è progettata in modo tale da poter spiegare autonomamente le proprie azioni.
Dove e quando viene utilizzata l’Explainable Artificial Intelligence?
La trasparenza nell’uso dell’intelligenza artificiale assume un ruolo sempre più importante, soprattutto considerando la sua ormai ampia diffusione in molti ambiti, specialmente in alcuni settori industriali e dei servizi. A questo proposito assume una rilevanza particolare l’accountability.
Esistono una serie di campi di applicazione o settori particolarmente rilevanti:
- La progettazione di antenne
- Il trading ad alta frequenza (trading algoritmico)
- La diagnostica medica
- La guida autonoma
- L’imaging di reti neurali
- L’addestramento di strategie militari
Chiunque abbia mai usato l’assistente di parcheggio conosce la sensazione di scetticismo e ansia del primo utilizzo che si trasforma in puro stupore quando vediamo la macchina parcheggiata. Come utente, si vorrebbe quindi sapere com’è possibile che un’auto si parcheggi da sola ed è perfettamente comprensibile che, soprattutto nei settori summenzionati, vi sia un particolare interesse per la trasparenza e la comprensione del funzionamento dell’intelligenza artificiale.
Google Explainable AI
Anche Google ha riconosciuto il crescente livello di accountability: dato che il colosso di Internet è molto attivo nel campo dell’intelligenza artificiale e la utilizza anche per il suo motore di ricerca e in diverse altre aree, l’azienda è intenzionata a rendere i programmi più intellegibili. Con gli elementi di Google Explainable AI, dal 2019 è possibile creare modelli di apprendimento automatico integrativi e interpretabili. L’utilizzo della suite è gratuito per i primi 12 mesi.
Il pacchetto include, tra le altre cose, il cosiddetto strumento What-If, che consente di visualizzare il comportamento di un modello. Le previsioni di questo strumento possono essere regolate in base alle proprie esigenze. Grazie alle varie demo e all’interfaccia grafica, è possibile esaminare i vari modelli di apprendimento automatico senza dover scrivere grandi porzioni di codice. A tal fine, Google offre diversi strumenti pronti all’uso: oltre a uno strumento per la stima dell’età o la classificazione dei fiori, esiste anche una funzione che valuta vari ritratti. Qui, le immagini sono suddivise a seconda che la persona raffigurata sorrida o meno. Il modulo specifica anche vari parametri per le caratteristiche dei volti. Ad esempio, è possibile selezionare le immagini a seconda che la persona porti la barba o una frangetta.
Anche altre aziende sfruttano le tecnologie offerte da Google Explainable AI. L’emittente televisiva Sky utilizza lo strumento What-If per la propria piattaforma IA per fornire spiegazioni comprensibili e garantire un’analisi migliore dei dati.