Il “Miracolo” dell’Intelligenza Artificiale – Parte Quarta: gli “Scenari” dell’Intelligenza Artificiale

Il “Miracolo” dell’Intelligenza Artificiale – Parte Quarta: gli “Scenari” dell’Intelligenza Artificiale

Di Sergio Ragaini

È possibile “comparare” l’Intelligenza Artificiale a quella Umana? L’Intelligenza Artificiale ha dei problemi, o dei rischi? E, se sì, quali sono?

In questa quarta parte, così come nella prossima, ci occuperemo degli “scenari” che l’Intelligenza Artificiale apre. Questo non vuol dire soltanto “aprirsi” alle Tecnologie che saranno disponibili, ma soprattutto capire come queste “impatteranno” sulla nostra Società da qui ai prossimi decenni. E che cambiamenti porteranno.

Cercheremo quindi di rispondere alle domande che questa Tecnologia pone, cercando di capire cosa potrebbe dover cambiare nei prossimi tempi. La prima cosa di cui ci occuperemo sarà il “mettere a confronto”, in qualche modo, l’Intelligenza Artificiale con l’Intelligenza Umana. Questo sarà un “confronto” non nel senso di “comparazione” vera e propria, ma una trattazione che mostrerà quali sono gli ambiti delle due Intelligenze, mostrando anche come l’Intelligenza Artificiale faccia, sostanzialmente, cose “diverse” rispetto a quella Umana.

Poi tratteremo il tema, in parte “critico”, dei problemi e dei rischi che l’Intelligenza Artificiale può portare con sé. Mostrando, però, come questi, spesso “sovrastimati”, siano di gran lunga inferiori ai suoi benefici.

Avvertenza:

Vi suggerisco di “Provare” qualcuno egli strumenti di Intelligenza Artificiale prima di proseguire nella lettura.

Come dico spesso (e ho già ribadito nella parte precedente), la cosa più pericolosa è il rifiuto “a priori” di questi strumenti. E lo vedremo molto bene più avanti.

Di conseguenza, il mio consiglio (è decisamente un “invito molto caloroso”) è quello, prima di proseguire nella lettura di questo articolo, di provare qualcuno degli strumenti di Intelligenza Artificiale che vi ho suggerito nella parte precedente (la terza).

Ovviamente, questo non è “tassativo” per continuare la lettura: tuttavia, credo che il modo migliore per approcciarsi a quello che leggerete sia farlo con un pochino almeno di esperienza personale.

Ritengo questa fondamentale per la comprensione dell’Intelligenza Artificiale, e anche, eventualmente, per muovere delle critiche alla stessa. Che, a quel punto, avranno, o potranno avere, un senso nell’ambito di un dibattito sull’argomento.

Tuttavia, come già ribadito nella parte precedente (come già facevo notare, questo non  si ribadirà mai abbastanza) non credo sia possibile muovere critiche senza un’esperienza personale: come vedremo più avanti, questo è, oltre che privo di significato (e questa credo sia un’evidenza),  molto pericoloso, almeno potenzialmente.

Prima di proseguire, quindi, naturalmente se lo volete, provate qualcuno degli strumenti che vi ho suggerito. O anche altri, se ne conoscete di migliori (credo, però, che quelli che vi ho suggerito siano, attualmente, i migliori). Ma vi suggerisco caldamente di provare a farvi “voi stessi” un’idea di quella che è l’Intelligenza Artificiale e di come funziona. E credo, come avrete capito, che l’unico modo di farsi questa idea sia attraverso l’esperienza diretta.

In tal modo, saprete più da vicino di cosa si sta parlando.

Vi auguro quindi buona prova. Sono ovviamente aperto e disposto a discutere delle vostre impressioni sull’Intelligenza Artificiale. Tuttavia, come ribadirò e spiegherò più avanti… solo con coloro i quali ne hanno esperienza diretta. Diversamente, come già facevo notare nella Terza Parte, non credo si possa giudicare ciò che non si conosce: e, di conseguenza, non è possibile formulare giudizi o entrare in qualsiasi dibattito sull’argomento.

Quindi, se non l’avete mai fatto, “sintonizzatevi” con qualcuno dei prodotti di Intelligenza Artificiale che vi ho suggerito nel precedente articolo, e provatelo. Anche più di uno, per compararli.

Sbizzarritevi, divertitevi a porre domande anche “impossibili”. Collaudate questi prodotti. E poi ne potrete avere un’idea personale, che è un’idea “vera” e non “indotta” da altri.

Buona prova, se ancora non l’avete fatta. Per chi già conosce questi strumenti, benvenuto nel proseguo della lettura: sarà bello vedere se alcune delle mie impressioni sono da voi condivise. Sarà bello dialogare con voi.

Cambiamento: fattore necessario

Nelle parti precedenti di questo lavoro sull’Intelligenza Artificiale abbiamo trattato di cos’è, di come funziona e di come utilizzarla, oltre che di quello che ci porterà a fare nel prossimo futuro e in quello un po’ più distante.

Ora, in queste ultime due parti, cerchiamo di “tirare le somme” di tutti i discorsi fatti.

Tuttavia, credo che sia il caso di “tirare le somme” in maniera un po’ diversa dal solito. Nel senso che, in questo caso, “tirare le somme” vorrà dire cercare di capire cosa, con una tecnologia così dirompente, sicuramente “ad altissimo impatto”, dovrà necessariamente cambiare nelle nostre Società.

Infatti, se è vero che molti dei problemi che vengono posti in merito a questa Tecnologia sono del tutto sovrastimati (e lo vedremo molto da vicino), è anche vero che il suo arrivo sempre più massiccio nelle nostre vite dovrà, per forza di cose, indurre dei cambiamenti a livello sociale.

Questi cambiamenti potranno avvenire, a patto che lo si voglia.

La cosiddetta “globalizzazione”, che non è “globalismo” (che ne è l’accezione negativa, ma nel senso di “visione allargata”), sarà una necessità. Infatti, senza “globalizzazione” (ovviamente nel senso positivo del termine), sarà impossibile poter gestire un mondo che dovrà, necessariamente, cambiare. E, per farlo, dovrà superare molti “particolarismi”, molti “localismi” e molti confini, innanzitutto mentali, prima ancora che fisici.

Vedremo comunque, in dettaglio, tutto questo. Comprendendo che i cambiamenti sono possibili solo se si ha  la capacità di “guardare oltre”, senza fermarsi ad un determinato modello sociale, considerandolo come l’unico possibile. Questo elemento, come vedrete, sarà fondamentale.

Iniziamo questa trattazione con un tema che, sicuramente, sarà forse da “introduzione” agli altri. E, a sua volta, sarà un tema essenziale per capire l’Intelligenza Artificiale.

Sto parlando del “mettere a confronto” l’Intelligenza Artificiale con quella umana. Per capire, anche, se questo confronto ha un senso, ed entro quali termini.

Intelligenza Artificiale Vs Intelligenza Umana: confronto possibile?

Era il 12 maggio 2018. E, presso Fondazione Cariplo, a Milano, veniva organizzato uno straordinario convegno, dal titolo: “Intelligenza Artificiale Vs Intelligenza Naturale”.

Il Convegno vedeva la partecipazione di illustri studiosi, quali Roger Penrose, Emanuele Severino, Ines Testoni, Mauro D’Ariano. Quest’ultimo è autore, con Federico Faggin, di una Teoria sulla Coscienza (elementi anche eventualmente anche a questo indirizzo o a questo indirizzo). A questo indirizzo , inoltre, si può trovare un articolo relativo ad un intervento di Federico Faggin proprio sul tema dell’Intelligenza Artificiale nei processi decisionali, e di come sia importante non “togliere l’umano” da questi.

A questo indirizzo potrete trovare l’intervento del Filosofo Emanuele Severino in quell’occasione. Il Filosofo è scomparso nel 2023: quindi, questo intervento è anche un bellissimo “ricordo” di lui.

Oltre all’interesse del Convegno, era anche interessante notare la data in cui si è svolto. Infatti, pochissimo tempo dopo, nel giugno 2018, sarebbe stata lanciata Chat GPT-1, il primo prodotto in assoluto di Intelligenza Artificiale Generativa. Che avrebbe aperto una nuova era, i cui sviluppi sono già visibili oggi, e lo saranno, come già ribadito, ancora di più nel prossimo futuro.

In quel momento, quindi, alle soglie di una vera e propria rivoluzione, si è discusso di un problema che oggi è, decisamente, oggetto di dibattito.

Come avevo detto già nella prima parte, il termine “Intelligenza Artificiale” è un termine convenzionale. Un termine nato nel 1956, durante una Conferenza, che in realtà era un “Campus” di studi. Possiamo chiamarla, quindi, anche in maniera diversa. Chiamandola diversamente, ad esempio “assistente virtuale”, il problema dell’Intelligenza non si pone più. O è meno sentito.

Comunque, l’idea della macchina che può superare l’intelligenza umana è molto presente, nell’immaginario collettivo.

E, oggi, con il “Machine Learning”, che, ricordiamo, è la base dell’Intelligenza Artificiale (era proprio stato descritto all’inizio di questo mio lavoro, nella Prima Parte), quella che gli consente di imparare, e quindi di poter lavorare su più cose, senza essere programmata per ogni singolo compito, questo problema potrebbe sorgere con forza.

Qualcuno dice che questo “superamento” sarà possibile. È il caso di Nick Bostrom, filosofo e fisico svedese (a questo indirizzo il suo sito Web, in lingua inglese), che vive e insegna in Inghilterra, a Oxford, e fondatore della WTA (World Transhimanist Association, detta oggi “Humanity +”. Ricordo che ne esiste anche una sezione italiana, l’Associazione Italiana Transumanisti, AIT, con sede a Milano). nel suo libro “Superintelligence: paths. Dangers and strategies” (versione italiana: Superintelligenza: tendenze, pericoli, strategie) Bostrom parla di quello che chiama “Punto di Decollo” (Takeover Point). Al di là di questo, l’Intelligenza Artificiale potrebbe iniziare ad auto migliorarsi, raggiungendo livello assolutamente incredibili e impensabili. E superando di gran lunga l’intelligenza umana (Da qui il nome di “Superintelligenza”).

Mentre scrivo sto leggendo il bellissimo “21 lezioni per il ventunesimo Secolo” (versione in lingua originale inglese: “21 lessons for the 21st Century”), di Yuval Noah Harari, filosofo israeliano ma decisamente “cosmopolita” (a questo indirizzo il suo sito web in lingua inglese). Questo libro appare quasi una “visione” del Futuro. La cosa interessante è che subito, su molti punti di questo libro, mi sono trovato in perfetto accordo. Parlerò, nella prossima parte di questo lavoro (la quinta ed ultima), che sarà in buona parte “imperniata” sul tema della costruzione di nuovi modelli sociali, di alcune interessanti riflessioni che Harari propone.

Per intanto, è interessante quello che Harari fa notare relativamente a questo possibile confronto.

Il Filosofo evidenza due aspetti che pongono l’Intelligenza Artificiale “in vantaggio” rispetto a quella umana. Questi sono la capacità di aggiornamento e la connettività.

L’Uomo, infatti, non può, in tempo reale, connettersi con tutti gli uomini del Pianeta. Le Intelligenze Artificiali, in tempo reale, possono connettersi tra di loro, formando una rete di intelligenze artificiali. Questo permette loro di aumentare a dismisura il loro potenziale.

In un istante, eventuali Intelligenze Artificiali, eventualmente “impiantate” in Robot Umanoidi, potrebbero connettersi tra di loro, scambiandosi informazioni: cosa che, per gli umani, sarebbe impossibile.

L’altro elemento è la possibilità di aggiornamento in tempo reale, grazie anche all’interconnessione.

Viene, nel libro, fatto un esempio: se ci fosse un nuovo farmaco per curare una malattia, sarebbe impossibile aggiornare simultaneamente tutti i medici sui suoi utilizzi. Invece, sarebbe possibile aggiornare, simultaneamente, delle Intelligenze Artificiali, e degli eventuali Medici AI del Futuro.

Quindi, un eventuale dottore AI sarebbe, in questo, superiore a un medico umano, per la sua capacità e possibilità di essere completamente aggiornato.

Nel libro viene citato anche un episodio che fa davvero riflettere. Si tratta di una competizione scacchistica, avvenuta nel dicembre 2017. Questa competizione vedeva davanti due Computer: Alpha Zero e Stockfish. Stockfish era tra i più potenti computer scacchistici del mondo, e aveva dentro di sé tantissime combinazioni.

Alpha Zero non aveva di fatto quasi nulla di scacchistico al suo interno: aveva però il Machine Learning, che gli consentiva di imparare.
I due Robot hanno giocato 100 partite. Di queste, 28 le ha vinte Alpha Zero, e 72 sono finite in pareggio. Stockfish non ha vinto alcuna partita.

Informazioni sull’evento si possono trovare a questo indirizzo . Qui, invece, si può trovare l’elenco delle partite giocate tra i due robot scacchistici, mentre qui si può trovare un video di circa 20 minuti di una partita giocata dai due robot. Il materiale è in lingua inglese.

È interessante considerare, in questo, il tempo che ha impiegato Alpha Zero per apprendere tutto sugli scacchi, tutte le possibili mosse e combinazioni, sino a diventare un campione. Si potrebbe pensare che abbia impiegato mesi, anni.

Il tempo che Alpha Zero ha impiegato per imparare tutto sugli scacchi, conoscenza che gli ha permesso di dominare un Computer Scacchistico molto potente è stato di… 4 ore. Avete capito bene: in sole 4 ore, Alpha Zero ha acquisito tutte le capacità scacchistiche per diventare un grandissimo campione. Partendo da zero.

E questo avveniva 7 anni fa, quando ancora non c’era una vera e propria Intelligenza Artificiale Generativa (come detto, sarebbe arrivata solo nel 2018). Oggi le Tecnologie in questo settore sono cresciute tantissimo. Di conseguenza, probabilmente il tempo di apprendimento sarebbe ancora inferiore, vista anche la maggior potenza di calcolo che, rispetto a 7 anni fa, avrebbero questi eventuali automi.

Il 9 ottobre 2021, presso il Telekom Forum di Bonn, Germania, si era tenuto un Concerto dove era stata eseguita la Decima Sinfonia di Beethoven, proprio nella sua città natale.
La sinfonia era stata terminata dall’Intelligenza Artificiale. Il Progetto si chiamava “Beethoven AI” (qui un articolo sull’argomento, in lingua inglese).

L’Intelligenza Artificiale, sotto molti aspetti, può “davvero” superare l’Uomo.

Forse, però, non in tutto.

Il citato Federico Faggin, noto studioso, e inventore del Microprocessore e del Touch Screen

(a questo indirizzo il Sito Web della sua Fondazione), che abbiamo avuto come ospite per la nostra Associazione (Associazione Italiana Scientifica di Metapsichica, indicata con l’acronimo  AISM, della quale, dal 2014,  faccio parte del Consiglio Direttivo) il 16 giugno 2023 e il 9 novembre 2024, afferma che l’Intelligenza Artificiale, paragonata all’Intelligenza Umana, non raggiunge quella di un organismo unicellulare. A questo indirizzo un suo video, relativo ad un’intervista durante “Galileo festival 2024”, tenutosi a Padova dal 2 al 5 maggio 2024. 

A questo indirizzo, invece, potrete trovare una Tavola Rotonda tenuta online con Federico Faggin il 12 aprile 2024, assieme ad altri esperti e studiosi di valore, e a noi Consiglieri AISM (presente anche un  mio intervento), sul tema della Coscienza.

Questa posizione sembra all’opposto di quelle precedenti. Forse, però, non lo è, e le differenze tra le posizioni di Bostrom e Harari e quelle di Faggin sono antitetiche solo in apparenza.

Il problema è quello che si intende con “Intelligenza”. L’Intelligenza Artificiale (ricordiamo ancora che è solo un nome) è in grado di fare cose “diverse” rispetto a quella umana.

Ad esempio, un prodotto come “Copilot” può ricevere un testo fino a 18000 caratteri e riassumerlo in pochi secondi. Così come può rispondere a delle domande in un tempo che a noi non permetterebbe nemmeno di leggerle. Questo grazie ai “Transformer”, le reti neurali che possono operare in parallelo, di cui parlavamo nella prima parte di questo lavoro.

Tuttavia, non ha sicuramente le capacità dell’Uomo per altre cose. Se, ad esempio, facciamo scrivere una Poesia all’Intelligenza Artificiale, sarà una cosa piuttosto “piatta”, senza particolare “pathos poetico”. Anche le musiche che compone (come visto può farlo) non sono di certo capolavori. Anche la Decima Sinfonia di Beethoven è stata piuttosto “contestata” dalla Critica Musicale, proprio per non avere il “guizzo umano”, quell’intuizione che appartiene all’Uomo, e che l’Intelligenza Artificiale non pare avere. Però, l’Intelligenza Artificiale potrebbe comporre una sinfonia in un tempo enormemente inferiore ad un uomo.

Quindi, l’Intelligenza Artificiale fa cose diverse rispetto a quella umana. Secondo me le due cose non sono paragonabili.

Già, quindi, anche su queste basi di “ambiti diversi” si può intravedere un divenire in cui Uomo e Intelligenza Artificiale collaboreranno sempre di più. Ciascuno con i suoi ambiti, saranno come un “team”. E l’Intelligenza Artificiale aiuterà sempre più l’Uomo a sviluppare pienamente le sue potenzialità.

Personalmente, vedo molto una “collaborazione “ tra questi mondi. In quest’ottica si pone anche il citato Harari.

Nel proseguo di questo lavoro vedremo, a breve, di cosa si tratta, e quali potrebbero essere le implicazioni di una situazione come questa.

Ora preoccupiamoci di toccare un argomento sicuramente “critico”: questa Tecnologia ha dei rischi? I detrattori, sicuramente, ingigantiscono questi rischi. Peraltro senza spiegare come questa Tecnologia funziona e cos’è veramente.

Tuttavia, questa tecnologia va sicuramente utilizzata per il meglio.

Ora vedremo in dettaglio se ci sono dei rischi oppure no.

L’Intelligenza Artificiale ha possibili rischi, o può dare luogo a problemi?

Questa è la prima domanda che, indubbiamente, ci possiamo porre. Cerchiamo, quindi, di capire in dettaglio se potrebbero esserci dei rischi, o se l’Intelligenza Artificiale potrebbe, in qualche caso, dare luogo a problemi.

La risposta è affermativa, anche se molti di questi rischi sono “sovrastimati”.

Vediamo però il tutto più in dettaglio.

1 – Perdita di controllo

Questa è una delle cose più “temute” dell’Intelligenza Artificiale: che sfugga al controllo dell’Uomo.

In effetti, la letteratura in tal senso non manca. Molti di voi ricorderanno “Hal 9000”, il Computer di “2001 Odissea nello Spazio” che, ad un certo punto, prende il controllo e decide cosa fare. Compreso il chiudere fuori David, perché, leggendo il suo labiale, aveva capito che voleva disinserirlo.

Alla fine, mentre David lo sta disinserendo, Hal 9000 dice: “La mia mente se ne va: ho paura”: mostrando che provava emozioni.

È incredibile come Kubrick, negli anni 60 (il film è del 1968), abbia potuto pensare una cosa simile.

Anche nel primo romanzo che parla di Robot, RUR, dello scrittore ceco Karel Kapek (nato come opera teatrale in tre atti), del 1920, si parla di Robot che si ribellano al loro creatore, il Dottor Rossum. Da questo romanzo nasce il termine “Robot”, dal ceco “Robota”, che significa “Lavoro Forzato”, o anche “Schiavitù”.

Visto che la letteratura di macchine che si ribellano all’Uomo “abbonda” (questi sono solo due esempi tra tanti), la paura che questo possa davvero avvenire c’è.

È una paura tangibile? In effetti non lo so. Probabilmente no: gli algoritmi sono sempre controllati da noi: di conseguenza, non credo possibile che un algoritmo creato da noi possa prendere il sopravvento sull’Uomo, arrivando a sfuggirgli dal controllo.

Però c’è il “Machine Learning”: vale a dire, questo algoritmo può imparare, come visto.

Questo potrebbe aprire una simile possibilità (vedi “takeover point”). Anche se, occorre affermarlo, un algoritmo, mediante il “Machine Learning”, impara dai dati che “noi” gli forniamo. Quindi, il controllo è sempre “dalla nostra parte”.

Si potrebbe verificare, però, quello che ipotizza Bostrom, con un “Takeover Pont”. A quel punto, l’algoritmo imparerebbe “da solo”, auto migliorandosi. E, quindi, potendo sfuggire al nostro controllo.

Questo “Punto di Decollo” (appunto “Takeover Point), però, è solo “ipotizzato” da Bostrom. E, in ogni caso, è ancora molto lontano da noi.

Quindi, credo che, almeno per il momento, questa cosa non possa avvenire.

In ogni caso, esiste una forte “supervisione” degli Algoritmi di “Machine Learning”: questa impedisce agli algoritmi di sfuggirci di mano.

2 – Disoccupazione: ma è un “vero” problema? No, però…

Un altro problema sollevato da alcuni è quello della possibile disoccupazione creata da questa nuova Tecnologia.

Alcuni, infatti, notano che, se molti lavori saranno rimpiazzati da algoritmi e, in generale, da processi automatici, si creerà disoccupazione e perdita di posti di lavoro.

Di questo argomento avevo già parlato nella seconda parte del mio articolo:

Tecnologia, Democrazia e Libertà”. Facendo rilevare delle “anomalie” relativamente a questa preoccupazione. Anomalie che vedremo a breve. Dell’argomento parlavo anche in questo articolo (Tecnologia: rotta verso il futuro (?), del febbraio 2024) e anche in questo articolo (“Automazione, impulso per un Mondo nuovo, del dicembre 2023).

Per capire tutto questo, basta osservare che… nella Storia è già avvenuto. Lo facevo notare nel mio citato articolo.

Pensiamo, ad esempio, alla nascita di Tecnologie quali la Stampa. Ai tempi, quando questa arrivò, ci furono addirittura “rivolte” degli Amanuensi. Eppure, la Stampa ha cambiato la nostra vita, sicuramente in positivo.

Ancora, quando è stata inventata la Macchina da Cucire, ci sono state rivolte da parte di sarti e cucitori, e alcuni magazzini di macchine da cucire sono stati assaltati.

Pensiamo anche all’invenzione dell’elettricità: prima di questa, esisteva una professione, quella del “lumiere”. Questa persona era incaricata di accendere i lampioni al tramonto e spegnerli all’alba.

Quando è giunta l’elettricità, questa figura professionale è completamente “svanita”. Eppure, l’elettricità ha portato enormi benefici a tutti.

Anche altri lavori, quali la mondina, la lavandaia, la filandaia, sono spariti con l’automazione. Che, però, ha eliminato lavori davvero “da schiavi”, quali il citato lavoro della Filandaia. Di questo, come dicevo, parlo nel citato articolo “Automazione: impulso per un mondo nuovo”.

Questo ci permette di capire una cosa: la Tecnologia ha sempre portato benefici a livello sociale. E questi benefici sono stati enormi.

La stessa cosa non potrà non accadere oggi: se apparentemente l’Intelligenza Artificiale potrà portare un pochino di “disorientamento”, questa, passata questa situazione, non potrà che portare enormi benefici all’Uomo. È sempre stato così e sempre sarà così. E, con una Tecnologia ancora più “versatile”, e capace di occuparsi, come detto all’inizio del mio lavoro, di molte cose, non potrà che essere così.

Nel mio articolo “Tecnologia, Democrazia e Libertà” suggerivo un “cambio di paradigma”: vale a dire, passare da affermazioni del tipo: “Questa tecnologia lascia chi fa questo lavoro disoccupato” ad affermazioni del tipo: “Questa tecnologia rende questo lavoro obsoleto” (vale a dire, secondo l’etimologia della parola,  “non più necessario”). Mentre nel primo caso appare una sorta di “valore negativo”, nel secondo caso tutto appare positivo: infatti, questo vuol dire che la Società si è evoluta, rendendo “obsoleta” una determinata attività.

In questo “sollevare” il problema della disoccupazione, però, appare una cosa davvero strana e anomala (direi, una vera e propria “anomalia”. Ne parlavo nel citato articolo “Tecnologia: rotta verso il Futuro (?)”): in passato, il problema della disoccupazione era sollevato dai diretti interessati: le altre persone erano contente di cogliere i frutti di quella innovazione tecnologica.

Oggi, invece, appare quasi il contrario: vale a dire, i diretti interessati, spesso, non si pronunciano. Quelli che si pronunciano sono gli altri, quelli che non sono i diretti interessati. E che, quindi, dovrebbero solo godere dei benefici di una determinata automazione.

Questo non accade: quelli che lamentano il problema della Disoccupazione sono, come dicevo, non i diretti interessati.

Ad esempio, quelli che si lamentano delle casse automatiche non sono i cassieri (che, addirittura, spesso invitano i clienti ad andare alle casse automatiche, per “snellire” l’attesa a quelle col cassiere): sono gli altri, che dicono che i cassieri rimarranno senza lavoro.

Questo ci dice che questo “Inno della Disoccupazione”, cantato da altri tranne che dai diretti interessati, è spesso puramente “strumentale”, e “diretto” da qualcuno che, in qualche modo, sta cercando di “attaccare” in tutti i modi queste Nuove Tecnologie.

Di questo parleremo nella prossima parte di questo lavoro, anche per mostrare la totale “malafede” di queste modalità, atte solo a conquistare Potere sulle persone, mantenendo, in qualche modo, le persone stesse in schiavitù.

Tornando al discorso di prima, questo “cambio di paradigma” fa capire che i benefici di queste Tecnologie sono enormi. E i problemi relativi alla Disoccupazione, di cui parlavo, sono, in fondo “poca roba”. Come sempre, la Tecnologia e l’Evoluzione portano benefici e sviluppo.

Ribadisco con forza, prima di concludere questo discorso relativo alla pseudo-disoccupazione, che non avrebbe alcun  senso fermare, o anche solo rallentare, lo sviluppo tecnologico, per preservare e proteggere dei posti di lavoro. Lo sviluppo e l’evoluzione devono essere prioritari su tutto.

In fondo, se ben ci pensiamo, non è “umanitario” fermare lo sviluppo per preservare posti di lavoro: è “umanitario” il contrario, vale a dire dare la precedenza allo sviluppo.

Anche perché, farlo (vale a dire rallentare o fermare lo sviluppo tecnologico), vorrebbe dire concentrarsi solo su un determinato modello sociale, senza considerare altre possibilità. Cosa che vedremo nella prossima parte, che sarà in buona parte dedicata proprio al tema della “creazione di nuovi Modelli Sociali”.

Da ora i poi, comunque, invece che di “disoccupazione”, parlerò di “lavori diventati obsoleti”: sicuramente, questo è più “evolutivo”. Ed è, secondo me, l’ottica corretta.

Comunque, tutto quello che ho detto, come ho anche evidenziato nel titolo di questa sezione, ha un “però”, derivante anche dalle caratteristiche dell’Intelligenza Artificiale, e dalla sua capacità di dedicarsi a molte cose, anche molto diverse tra di loro.

Questo “però” implicherà la creazione di qualcosa di nuovo, di nuovi modelli sociali. Che permettano di “accogliere” queste Nuove Tecnologie, utilizzandole come “propulsori” per un Mondo Nuovo.

Questo sarà tra gli argomento fondamentali della prossima parte di questo lavoro.

3 – Spersonalizzazione: rischio possibile, anche se… potrebbe verificarsi addirittura l’opposto,   trasformando questo rischio in un vantaggio

Uno dei rischi possibili di queste Nuove Tecnologie è la “spersonalizzazione”. Questo vuol dire che la persona potrebbe sentirsi, sempre di più, prima di una vera e propria “identità”. In una società dove le macchine fanno praticamente tutto, la persona potrebbe sentire di avere un ruolo “marginale” nella stessa. E percepire un senso di “inutilità”.

Però, potrebbe verificarsi addirittura l’opposto. Vale a dire, trovarsi in una Società dove la persona, proprio perché tutto è lasciato alle macchine, può davvero sviluppare la sua vera essenza, senza dipendere dalla necessità di svolgere attività lavorative che la umiliano.

Questa è una prospettiva possibile, della quale parleremo alla fine della prossima parte di questo lavoro.

Inoltre, nella parte precedente facevo notare che queste Nuove Tecnologie permetteranno cose, siano essere trattamenti medici, modelli didattici o altro ancora, del tutto “ad personam”, vale a dire specifici per le varie persone. Questo porrebbe quasi una visione opposta: una tecnologia fatta davvero “per noi”, che ci ponga, invece, “davvero” a centro.

Come sempre, variando il punto di vista, cambia davvero tutto.

4 – Disidentificazione: anche qui un “rischio” che potrebbe diventare un “vantaggio”

Questo problema era stato sollevato da Harari nel su citato libro: “21 Lezioni per il Ventunesimo Secolo”.

Il problema della disidentificazione è diretta conseguenza del modo di essere dell’Uomo.

La persona, come noi ben sappiamo, tende sempre ad “identificarsi” con qualcuno o con qualche Gruppo. Anche durante le competizioni sportive, quando vince la squadra che una persona supporta, questa dirà “Abbiamo vinto”, identificandosi quindi con la squadra che supporta.

Nel caso di una Società in cui le macchine svolgano quasi tutto, la persona potrebbe identificarsi ancora con una macchina? Forse no.

Di conseguenza, questo processo di “identificazione” potrebbe non esserci più. Allora, la persona potrebbe trovarsi “disidentificata” e non sapere davvero più chi davvero è, e a quali modelli fare riferimento (difficilmente una macchina potrebbe essere per lui un modello).

Tuttavia, questo potrebbe anche volgersi in positivo. Infatti, la persona potrebbe essere portata, in tal modo, a cercare “chi davvero è”, senza più doversi identificare con una persona o con un Gruppo. 

Questo, quindi, visto da un’altra angolatura, potrebbe quindi essere invece un grande stimolo verso la ricerca di sé, di quello che davvero siamo. Aiutati, come abbiamo visto poco fa, da strutture sempre più pensate “proprio per noi”.

Anche in questo caso, quindi, questo potenziale rischio può diventare un vantaggio, cambiando l’angolo di prospettiva da cui si osservano le cose.

5 – Addestramento errato o “tendenzioso” dell’Intelligenza Artificiale

Come visto nella Prima Parte di questo lavoro, mediante la tecnica del “Machine Learning”, un Modello Linguistico viene addestrato.

Il tutto, però, dipende da come lo si addestra.

Durante una Conferenza sul tema che avevo tenuto a Rozzano (Milano), il 26 ottobre 2024, per la citata AISM (Associazione Italiana Scientifica di Metapsichica), una persona tra il Pubblico, esperta in materia, faceva notare proprio questo problema. Facendo anche un esempio diretto: supponiamo che un Modello Linguistico sia addestrato da un gruppo di “Naziskin”. A questo punto, se chiederemo a questo modello cosa ne pensa, ad esempio, dei neri, otterremo una risposta sicuramente inquietante.

Questo pone, di certo, un interrogativo: il Machine Learning dipende dai dati che si forniscono. E se questi sono errati o “tendenziosi”, arriveranno risposte errate o “tendenziose”, o addirittura devastanti, come potrebbero quelle di un  modello addestrato da persone con visioni distorte o ossessive della Realtà.

È quindi molto importante come un Modello viene addestrato. E che i dati sui quali viene addestrato siano il più possibile obiettivi e non distorti.

Va anche detto, però, che il machine Learning è un processo continuo: di conseguenza, un Modello Linguistico sarà anche disposto a “cambiare rotta”, imparando nuovi dati, anche dalle domande che vengono fatte.

Ho notato, in tal senso, che quando un modello linguistico sbaglia in una risposta (fornisce una risposta errata), se glielo si fa notare, chiedendo poi la stessa cosa, anche a distanza di giorni, la risposta sarà invece corretta.

Va da sé, quindi, che più gente utilizzerà l’intelligenza artificiale, meno questo, o altri rischi, potranno prendere forma.

Anche per questo ne suggerisco l’utilizzo: solo attraverso l’utilizzo si possono capire determinasti processi, e le loro “distorsioni”. E porvi rimedio.

6 – Errori possibili, non totale affidabilità

La domanda che una persona potrebbe farsi è: L’Intelligenza Artificiale è sempre affidabile? Può commettere errori?

La risposta è affermativa. Nella mia esperienza, questo mi è capitato abbastanza spesso.

È possibile, ad esempio, che chiediate informazioni su un brano musicale e vi vengano fornite informazioni su un altro brano; è possibile che chiediate informazioni su un’autore e vi vengano fornite informazioni su un altro autore; è possibile che chiediate una biografia di qualcuno e questa venga “mescolata” con quella di qualcun altro.

È possibile, addirittura, che l’Intelligenza Artificiale citi titoli di film che non esistono, menzioni autori che non esistono, libri o riviste che non esistono, o altro ancora.

Tutto questo, talvolta, accade. E credo che non sia evitabile.

Infatti, come credo si sia capito, gli algoritmi dell’Intelligenza Artificiale non sono di tipo “deterministico”, ma “probabilistico”. Questo vuol dire che, nell’Intelligenza Artificiale, non avrete, come già accennavo, una risposta “certa”, ma solo “la più probabile”. I Modelli Linguistici funzionano così. Non a caso, nella Seconda Parte, parlavo di “predizione” e non di “risposta”: questo dà meglio l’idea di una risposta probabilistica.

Questo vuole dire che, anche se la probabilità che una risposta sia esatta è del 99,999%, c’è sempre uno 0,001%, o anche più, che quella risposta sia sbagliata.

Quindi, la certezza assoluta che quella che vi arriva sia la risposta corretta non c’è. E, come dicevo, ne ho avuta esperienza personale.

Talvolta, anche se sempre meno, si verifica quel problema noto come “allucinazioni”. Questo vuol dire che l’Intelligenza Artificiale “parte per la tangente”, e inventa cose non vere, anche più di una.

Ad esempio, come dicevo, ho notato che, alcune volte, sono stati inventati articoli e riviste che non esistono, film che non esistono, e così via. E anche, ad esempio, elementi della biografia di personaggi che non corrispondono al vero, o loro collaborazioni con gruppi o associazioni che non ci sono mai state.

Anche quando, ad esempio, si fa generare del codice di programmazione, appare la scritta: “Contenuto generato dall’Intelligenza Artificiale: verificare la presenza di errori”.

Questo può accadere. E va tenuto presente. E a me è accaduto più volte.

Anche, ad esempio facendo analizzare il programma di un Concerto a cui stavo per assistere (di questa possibilità dell’Intelligenza Artificiale parlavo nella parte precedente), mi è capitato che venissero “identificati” degli autori e dei brani che non erano in programma, portando anche commenti su questi brani che, appunto, non erano previsti in quell’occasione.

Chiedendo, in un’occasione, dei risultati relativi ad un torneo di tennis di quest’anno, mi sono stati forniti quelli dell’edizione dell’anno precedente dello stesso torneo.

Quindi, gli errori ci sono. Sono, ovviamente, sempre meno: tuttavia, come detto, seppure il margine d’errore sarà sempre più ridotto, non sarà mai nullo, proprio per come questi algoritmi funzionano: appunto su base statistica e probabilistica.

Solitamente, però, dal contesto del discorso si vede l’anomalia. Tuttavia, se una persona non ha alcuna conoscenza del contesto in cui sta operando, “prenderà tutto per buono”.

Per questo, come sempre, occorre conoscenza. L’Intelligenza Artificiale è uno strumento eccezionale: tuttavia, va “guidato” adeguatamente, come già ribadivo, e vanno anche “capite” le risposte che ci fornisce. Ponendo sempre attenzione al fatto che siano corrette.

Come sempre, la conoscenza aiuta in tutte le cose: anche a capire le risposte che ci vengono fornite. E ad utilizzarle correttamente.

Quello che è importante, però, e credo si sia capito, è “avvertire”, in qualche modo, l’Intelligenza Artificiale che sta sbagliando. Questo può avvenire mediante un “feedback”, che di solito è permesso da quel prodotto di Intelligenza Artificiale (al termine di quella risposta, solitamente, si può esprimere un feedback, positivo o negativo, commentando il nostro feedback), o semplicemente avvertendo, con un commento, il nostro chatbot di Intelligenza Artificiale che ha sbagliato. Non solo la sua risposta verrà corretta: come dicevo, da quel momento in poi, l’Intelligenza Artificiale avrà “recepito” quell’errore, e non lo commetterà più.

Quindi, permettiamo all’Intelligenza Artificiale di imparare, anche segnalando alla stessa eventuali errori: ne commetterà sempre meno.

Come avete potuto vedere anche in questo caso, è dalla collaborazione tra Uomo e Intelligenza Artificiale che nascono i risultati migliori. E siamo sempre “noi” che guidiamo.

Riflessione: i benefici sono, comunque, molto superiori ai rischi. Per capirlo, però, occorre esperienza diretta

A questo punto è importante, però, ribadire che i rischi e i problemi dell’Intelligenza Artificiale sono sicuramente di gran lunga inferiori ai suoi benefici. E credo che questo sia pienamente emerso in quanto sinora detto sull’argomento.

Questo, tuttavia, può essere compreso, come ben si può capire, solo da coloro i quali ne hanno esperienza diretta. Chi ne ha esperienza diretta, infatti, ha sicuramente “toccato con mano” i suoi enormi vantaggi e benefici. Avrà anche visto “dal vivo” alcuni dei suoi problemi, come quello degli errori che, talvolta, commette. Comprendendo che questi sono, però, poca cosa in confronto a quello che l’Intelligenza Artificiale può offrirci, e sempre più ci offrirà. E, come visto, se glieli segnaliamo, questi diminuiranno sempre di più. L’interattività con l’Intelligenza Artificiale, e la cooperazione con questa, come appena visto, è, credo, la base per uno sviluppo corretto e positivo.

Ovviamente, chi non ne ha esperienza diretta, e ancora di più chi la rifiuta “a priori”, vedrà solo i rischi e gli aspetti negativi. Rischi che, poi, non saranno stati “toccati con mano”, ma desunti dal racconto di persone che, sovente in malafede, “denigrano”, se non peggio, questo strumento, amplificando eventuali rischi e prospettando scenari catastrofici.

Di questo parleremo più in dettaglio nell’ultima parte, la quinta, di questo lavoro.

Proprio per quanto detto ora, ribadisco con ancora maggiore fermezza di prima la necessità che, al dibattito su queste Tecnologie, siano “ammessi” solo coloro i quali ne hanno esperienza diretta.

Credo che quanto mostrato ora lo confermi pienamente: chi non ne ha esperienza diretta, o addirittura la “rifiuta a priori”, è spesso vittima di coloro i quali, in malafede (e lo vedremo) denigrano questa Tecnologia, presentandola come oscura e minacciosa. Cosa che non è,  e credo sia evidente, assolutamente vero. Tuttavia, questo può essere compreso solo da chi ne ha esperienza diretta. Attraverso la quale i discorsi dei detrattori possono fare solo sorridere (anche se, talvolta, per il loro “impatto emozionale”, possono inquietare, proprio pensando a cosa possono suscitare in coloro i quali non conoscono questi strumenti, e, come ho ribadito, alla “malafede” che si cela dietro questi discorsi).

Nel prossimo articolo questo fatto della necessità dell’esperienza diretta  verrà ulteriormente ribadito. E credo si capirà sempre più chiaramente il perché debba essere necessariamente così.

Come già ribadivo, chi gestisce Gruppi e strutture di comunicazione ha la responsabilità che, su questa Tecnologia, “passino” e “circolino” informazioni corrette. E chi le rifiuta a priori non può sicuramente fornirne, e può “fuorviare” altri.

Credo sia giusto che la circolazione di queste informazioni false sia “fermata sul nascere”, impedendo, ovviamente in maniera “pacifica”, che questa circolazione possa avvenire. E, su questo, sono piuttosto “categorico”, proprio perché parlo “per esperienza personale”. 

Nella sezione relativa alla Disoccupazione ho, come avrete visto, aggiunto un “però”.

Questo vuol dire che queste Tecnologie potrebbero andare a rendere obsoleti anche lavori non necessariamente “estenuanti e ripetitivi”, ma anche, sotto determinati aspetti, “creativi”.

Inoltre, visto che, per sua caratteristica, l’Intelligenza Artificiale può occuparsi di multi compiti, i lavori che renderà obsoleti potrebbero essere molti.

Questo sarà, in buona parte, l’argomento della prossima e ultima parte di questo lavoro sull’Intelligenza Artificiale.

 Nella prossima parte vedremo come queste Nuove Tecnologie potrebbero entrare davvero in “tutti” gli aspetti della vita, lavoro compreso. Diventando così incompatibili con gli attuali modelli sociali.

Di conseguenza, sarà necessario arrivare alla creazione di nuovi modelli sociali, che possano adeguatamente “accoglierle”.

Vedremo anche i pericoli, almeno potenziali, dei “detrattori” di queste Tecnologie, che portano avanti un attacco “che porta assenza di consapevolezza” verso le stesse, proponendone (direi, di fatto, “imponendone”) il “rifiuto a priori”. Una cosa sicuramente potenzialmente “critica” ma, secondo me, destinata a esaurirsi entro qualche anno.

Infine, esamineremo le prospettive di “proiezione” verso un Nuovo Futuro. Che potrebbe essere bellissimo, anche se la cosa dipenderà, essenzialmente, da noi.

Restate in contatto!

DONA ORA E GRAZIE PER IL TUO SOSTEGNO: ANCHE 1 EURO PUÒ FARE LA DIFFERENZA PER UN GIORNALISMO INDIPENDENTE E DEONTOLOGICAMENTE SANO

Gli Scomunicati è una testata giornalistica fondata nel 2006 dalla giornalista Emilia Urso Anfuso, totalmente autofinanziata. Non riceve proventi pubblici.

Lascia un commento

Your email address will not be published.