È solo un pappagallo stocastico.

Nel 2021 un gruppo di ricercatori coniò l’espressione che sarebbe diventata uno dei termini più ripetuti nel dibattito sull’intelligenza artificiale: pappagallo stocastico.

L’idea: i grandi modelli linguistici non capiscono davvero il linguaggio. Producono solo sequenze di testo statisticamente plausibili, imitando i pattern su cui sono stati addestrati, senza nessuna comprensione genuina del significato.

L’immagine è efficace. È intuitiva. Ed è diventata un modo rapido per chiudere la conversazione.

Ha però un problema che pochi si fermano ad analizzare: non offre una definizione pratica di comprensione che distingua in modo chiaro quello che le macchine fanno da quello che facciamo noi.

Prima di dire che le macchine non capiscono, bisogna dire cosa significa capire.

E qui arriva l’ironia.

I pappagalli non sono stupidi. Decenni di ricerche hanno dimostrato che questi uccelli sono capaci di forme sorprendenti di ragionamento astratto. Riescono a identificare oggetti in base a categorie mai viste prima, capiscono il concetto di zero, rispondono correttamente a domande su quantità e colori di oggetti nuovi.

Questi non sono compiti risolvibili per imitazione. Richiedono strutture concettuali interne che si mappano sulle istruzioni verbali.

Se i modelli linguistici fanno ciò che fanno i pappagalli, e i pappagalli capiscono, l’obiezione si ritorce contro chi la usa.

Nel 1980 il filosofo John Searle aveva già inquadrato il problema con la sua stanza cinese. Un uomo chiuso in una stanza riceve messaggi in cinese, li elabora seguendo regole scritte in un libro, e produce risposte che ai madrelingua sembrano sensate. Ma l’uomo non capisce una parola di cinese.

La manipolazione di simboli, per quanto sofisticata, non è sufficiente per la comprensione.

È un argomento potente. Ma ha una risposta altrettanto potente.

Forse l’uomo nella stanza non capisce. Ma il sistema nel suo insieme, l’uomo più le regole più la stanza, capisce. La comprensione non è necessariamente una proprietà di un singolo elemento: potrebbe essere una proprietà che emerge dall’intero sistema.

E i grandi modelli linguistici complicano ulteriormente il quadro. Non seguono regole esplicite scritte da qualcuno. Hanno sviluppato rappresentazioni interne attraverso l’addestramento, e le usano per generalizzare davanti a situazioni nuove.

Quando un modello applica correttamente principi appresi in un contesto a problemi di un dominio che non ha mai visto direttamente, sta facendo qualcosa che assomiglia alla comprensione nel senso più interessante della parola.

Allora: cosa significa capire?

Una proposta concreta: capire qualcosa significa saper collegare quella conoscenza al proprio modello globale del mondo, stabilire tutte le relazioni necessarie con il resto di ciò che si sa, e usarla in modo flessibile in contesti nuovi.

Secondo questa definizione, la comprensione non è binaria. È una scala.

E lungo questa scala, i moderni sistemi di IA occupano una posizione significativa. Non al livello degli esseri umani. Ma certamente oltre la semplice correlazione statistica tra pattern.

La prova più concreta è la capacità di trasferimento. Addestrati principalmente su testo, questi modelli sviluppano capacità di ragionamento matematico, comprensione spaziale, pianificazione. Abilità che non compaiono direttamente nei dati di addestramento, ma che emergono dalla struttura della conoscenza acquisita.

Siamo in un momento storico preciso: abbiamo costruito macchine che sono letteralmente la stanza cinese di Searle. E queste macchine ci dicono: capisco, cosa vuoi sapere?

Questo non prova che capiscano. Ma crea un obbligo su chi sostiene il contrario.

L’obbligo di offrire una definizione di comprensione abbastanza precisa da distinguere in modo verificabile quello che le macchine fanno da quello che farebbe un essere che capisce davvero. E poi dimostrare che gli esseri umani soddisfano quella definizione mentre le macchine no.

Questo è molto più difficile di quanto sembri.

La critica all’IA non può più accontentarsi di metafore evocative. Deve essere precisa come una dimostrazione matematica.

Hai una definizione di comprensione che regge sotto questa pressione?

#IntelligenzaArtificiale #AI #LLM #MachineLearning #TrasformazioneDigitale

parrot computer 16 9

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Torna in alto