AlphaCode e Copilot: aiuto in più o mela avvelenata?

AlphaCode e Copilot: aiuto in più o mela avvelenata?

Di Luca Sambucci

Dopo aver imparato a scrivere, l’intelligenza artificiale ora sta imparando a programmare. L’anno scorso abbiamo visto la nascita di GitHub Copilot, un sistema AI basato sul modello linguistico GPT-3 di OpenAI. Qualche settimana fa l’inglese DeepMind ha rilasciato AlphaCode, un altro modello AI in grado di scrivere codice, riuscendo a posizionarsi a metà classifica in una competizione per programmatori. Quale sarò il futuro di questi sistemi? Oggi ancora non riescono a rimpiazzare gli sviluppatori in carne e ossa, ma la strada sembra tracciata e nei prossimi anni potremmo assistere a problemi di impiego anche per quella che ancora oggi viene considerata la professione del futuro.

I problemi dei grandi modelli linguistici

I grandi modelli linguistici (LLM, large language models) come GPT-3 stanno rivoluzionando l’interazione fra esseri umani e macchine, consentendo a queste ultime di comprendere gli ordini e le intenzioni delle persone. Gli esempi sono molti e li abbiamo già affrontati in numerosi articoli su questo sito, basterebbe pensare ai chatbot o ai comandi vocali impartiti agli assistenti digitali.

Uno dei problemi di molti LLM, tuttavia, è quello di restituire con precisione risultati esatti di una certa operazione, come possiamo vedere nei seguenti esempi creati appositamente per questo articolo (le risposte del LLM sono evidenziate in verde).

***abbiamo stipulato un accordo con l’autore per la divulgazione di alcuni suoi articoli e interviste estrapolati sal suo sito: Notizie.ai

*Immagine di copertina dal sito Notizie.ai

DONA ORA E GRAZIE PER IL TUO SOSTEGNO: ANCHE 1 EURO PUÒ FARE LA DIFFERENZA PER UN GIORNALISMO INDIPENDENTE E DEONTOLOGICAMENTE SANO

Gli Scomunicati è una testata giornalistica fondata nel 2006 dalla giornalista Emilia Urso Anfuso, totalmente autofinanziata. Non riceve proventi pubblici.

Lascia un commento

Your email address will not be published.