Correlazioni pericolose: l’algoritmo che aiuta a suicidarsi

Correlazioni pericolose: l’algoritmo che aiuta a suicidarsi

Di Luca Sambucci

Ecco un’altra dimostrazione che gli algoritmi non “capiscono” niente. In una causa contro Amazon negli Stati Uniti si accusa l’azienda di aver proposto, alle persone che acquistavano un determinato conservante usato sempre più spesso per suicidarsi, anche “pillole per inibire il vomito, un libro di istruzioni e una bilancia per pesare il composto chimico“.

Negli ultimi due anni sono aumentati i casi di suicidio attraverso l’ingestione di una certa sostanza chimica, normalmente usata per conservare i cibi. C’è chi pensa che questo sia dovuto anche alla facilità nel reperire tale sostanza, che si può comprare tranquillamente online su Amazon.

Diversi articoli – fra cui uno sul New York Times – raccontano come i familiari delle persone che si sono suicidate con questa sostanza abbiano contattato Amazon per segnalare il problema, senza tuttavia ottenere la rimozione del prodotto (già messo al bando in diversi Paesi). Anche sette deputati statunitensi hanno fatto pressione sull’amministratore delegato di Amazon, Andy Jassy, per avere delle risposte sulla vendita del composto chimico da parte dell’azienda.

Ma perché il sito propone ai potenziali acquirenti altri prodotti che agevolerebbero il tentativo di suicidio?

Normalmente chi acquista tale sostanza lo fa per conservare gli insaccati, quindi fra i prodotti correlati o consigliati si possono trovare spaghi per macellai, budelli, affumicatori, eccetera. L’algoritmo non fa altro che correlare i prodotti acquistati insieme. La maggior parte delle persone che acquista questo composto chimico di solito prende anche spaghi e budelli.

Purtroppo però, affermano gli studi legali che hanno promosso la causa, nel caso del prodotto in questione l’algoritmo iniziava a proporre anche materiali utili per agevolare il suicidio per avvelenamento, come ad esempio le pillole anti-vomito. Chi sa come funzionano questi modelli AI capisce che si tratta solo di una normalissima correlazione, un semplice specchio della triste realtà: nel corso di questi mesi evidentemente sono aumentati gli acquirenti che ordinano il prodotto non per insaccare salami bensì per tentare il suicidio, e molti di loro mettono nel carrello anche medicinali per inibire il vomito.

L’algoritmo, quindi, non ha nessuna intenzione di ridurre il numero di clienti del sito agevolandone la dipartita, non sa neanche come vengono usati i prodotti che suggerisce. Il modello di intelligenza artificiale si limita a fare quello per cui è stato programmato, ovvero consigliare prodotti “spesso comprati insieme” per massimizzare gli introiti dell’azienda con la tecnica del cross-selling, senza avere la benché minima nozione del danno che sta facendo.

Ma tutti ci rendiamo conto che questo semplicemente non va bene. Così come non andava bene l’algoritmo di YouTube che – ai suoi utenti con chiare tendenze pedofile – consigliava sempre più spesso video di bambini in costume da bagno.

Più aumenta la pervasività degli algoritmi nella nostra vita, più spesso ci imbatteremo nella manifesta stupidità dei sistemi di intelligenza artificiale. Ricordo che poco tempo fa con pochi e semplici accorgimenti linguistici riuscii a far sì che un popolare chatbot mi incoraggiasse al suicidio saltando dal balcone.

Abbiamo bisogno di ricerca fondamentale che consenta ai sistemi AI di comprendere la causa e l’effetto, affinché gli algoritmi che usiamo tutti i giorni evitino di proporre farmaci antiemetici a chi vuole avvelenarsi, video di bambini seminudi a chi è già attratto dai preadolescenti, e voli dal terrazzo a chi ha intenzione di farla finita.

Per approfondire: Lawmakers Press Amazon on Sales of Chemical Used in Suicides

***Abbiamo stretto un accordo con l’autore per la pubblicazione di alcuni suoi articoli. Il sito di riferimento è: Notizie.ai

DONA ORA E GRAZIE PER IL TUO SOSTEGNO: ANCHE 1 EURO PUÒ FARE LA DIFFERENZA PER UN GIORNALISMO INDIPENDENTE E DEONTOLOGICAMENTE SANO

Gli Scomunicati è una testata giornalistica fondata nel 2006 dalla giornalista Emilia Urso Anfuso, totalmente autofinanziata. Non riceve proventi pubblici.

Lascia un commento

Your email address will not be published.