Di Luca Sambucci
Ho letto di recente un interessante studio di Telecom Paris sulla explainability, la spiegabilità dell’intelligenza artificiale, che prende di petto il problema e propone criteri per identificare il giusto livello di spiegabilità a seconda dell’ambito di applicazione.
Infatti aggiungere trasparenza e spiegabilità ai sistemi AI è spesso costoso, e non tutti i sistemi hanno bisogno dello stesso livello di trasparenza. Per fare un esempio, in un sistema di guida autonoma si dovrà porre molta più attenzione alla spiegabilità delle decisioni rispetto a un sistema per la raccomandazione dei film.
I criteri contestuali identificati dallo studio sono quattro:
- le persone che dovranno beneficiare delle spiegazioni: ad es. il pubblico, oppure un ente regolatore?
- l’importanza e l’impatto dell’algoritmo: eseguirà operazioni vitali come guidare un’auto, oppure superficiali/cosmetiche come raccomandare canzoni?
- il framework legale di riferimento, ad esempio nell’Unione Europea abbiamo il GDPR da rispettare
- fattori operativi che identificano la reale necessità di rendere l’algoritmo spiegabile: lo si deve fare per ottenere una certificazione, oppure per aumentare la fiducia degli utenti?
Un ulteriore apprezzamento al fatto che lo studio sia stato condotto con un approccio multi-disciplinare. È possibile scaricarlo qui (in pdf) e leggere la presentazione a questo link.
Abbiamo stipulato un accordo con l’autore, Luca Sambucci, per la diffusione dei suoi articoli. L’articolo originale si trova al seguente link: Notizie.ai
DONA ORA E GRAZIE PER IL TUO SOSTEGNO: ANCHE 1 EURO PUÒ FARE LA DIFFERENZA PER UN GIORNALISMO INDIPENDENTE E DEONTOLOGICAMENTE SANO
Gli Scomunicati è una testata giornalistica fondata nel 2006 dalla giornalista Emilia Urso Anfuso, totalmente autofinanziata. Non riceve proventi pubblici.
Lascia un commento