Copenhagen: l’AI usata dal 112 presenta diversi problemi etici

Copenhagen: l’AI usata dal 112 presenta diversi problemi etici

Di Luca Sambucci

Da quasi un anno gli operatori del numero di emergenza a Copenhagen, il 112, possono contare su un sistema AI che riconosce autonomamente i segnali correlati a una situazione di arresto cardiaco, analizzando le chiamate e i modelli di conversazione. Il sistema è stato progettato, addestrato e testato utilizzando l’archivio dei file audio delle chiamate fornite dai servizi medici di emergenza di Copenaghen registrate durante il 2014.

Un recente studio però ha condotto un’autovalutazione etica del sistema basata sulle linee guida Trustworthy AI emanate dal gruppo di esperti della Commissione Europea, trovando ben dieci problemi di tipo etico, dall’interazione fra sistema AI e operatore umano (non è chiaro chi debba prendere la decisione), al bias nei dataset (vi è una forte presenza di certe categorie, diminuendo così l’efficacia per altre categorie di persone), passando per la scarsa trasparenza e spiegabilità.

Non di poco conto anche la mancanza di elementi che provino un aumento delle percentuali di successo, considerando che l’aggiunta di un qualsiasi sistema deve essere giustificata da un qualche tipo di miglioramento. Cosa che al momento non è possibile dimostrare.

Per approfondire: Paper: How to use the EU’s Trustworthy AI Guidelines in Practice

***Grazie a un accordo stretto con l’autore, divulghiamo su questa testata giornalistica alcuni suoi articoli. Il pezzo originale è pubblicato sul sito: Notizie.ai

DONA ORA E GRAZIE PER IL TUO SOSTEGNO: ANCHE 1 EURO PUÒ FARE LA DIFFERENZA PER UN GIORNALISMO INDIPENDENTE E DEONTOLOGICAMENTE SANO

Gli Scomunicati è una testata giornalistica fondata nel 2006 dalla giornalista Emilia Urso Anfuso, totalmente autofinanziata. Non riceve proventi pubblici.

Lascia un commento

Your email address will not be published.