Pensare significa costruire modelli del mondo. Non è una definizione poetica. È la più precisa che abbiamo.
E ha un’implicazione scomoda: togliere all’intelligenza quell’alone di mistero, non la rende meno straordinaria. La rende comprensibile. E comprensibile vuol dire replicabile.
Partiamo da un esempio concreto.
Quando capisci la frase “la nonna di mia madre”, stai costruendo una rappresentazione mentale di relazioni tra persone che potresti non aver mai incontrato. Non stai solo riconoscendo parole: stai assemblando strutture, connettendo concetti, navigando relazioni logiche in tempo reale.
Questo è il pensiero. Non un fenomeno mistico. Un processo compositivo, come costruire con i Lego.
I mattoncini sono i concetti. La grammatica è il sistema di aggancio. Il risultato è una rappresentazione della realtà che puoi manipolare, testare, modificare.
Ora sorge la domanda ovvia: se il pensiero è questo, cosa manca alle macchine?
La risposta più comune è: l’esperienza soggettiva. Il “come ci si sente” a pensare. I filosofi lo chiamano qualia. La differenza tra elaborare l’informazione “rosso” e vedere davvero il rosso di un papavero.
Ma attenzione. Questa risposta dà per scontato che l’esperienza sia qualcosa di separato dall’elaborazione. Potrebbe invece essere che l’esperienza soggettiva sia essa stessa una forma di modellazione: un modello che la mente costruisce di se stessa in relazione con il mondo.
Non è una certezza. È una possibilità che vale la pena prendere in considerazione.
C’è un secondo aspetto ancora più rilevante per chi lavora con l’IA.
Le parole non sono etichette vuote. Sono puntatori verso strutture di significato radicate nell’esperienza. Quando dici “freddo”, non evochi un simbolo astratto: evochi un campo intero di sensazioni, ricordi, associazioni corporee. Gran parte del pensiero astratto è strutturata da metafore fisiche. “Il futuro è davanti a noi.” “Ho afferrato il concetto.” “Il discorso non sta in piedi.”
Questa non è retorica. È la struttura stessa del pensiero.
Se i moderni modelli linguistici riescono a usare questi concetti in modo coerente, potrebbe essere perché hanno estratto, dall’enorme corpus di testo umano su cui sono stati addestrati, qualcosa che assomiglia alle strutture di significato sottostanti, non solo le correlazioni statistiche tra parole.
Per decenni il vero limite dell’IA non era la performance in un settore specifico. Era l’incapacità di trasferire la conoscenza tra domini diversi. Deep Blue batteva i campioni di scacchi ma non sapeva applicare nessuno di quei principi a nulla al di fuori della scacchiera.
L’intelligenza umana è flessibile: il meccanico che conosce la meccanica può applicarne i principi, con le dovute differenze, a un organismo biologico. Il fisico che studia la termodinamica può ritrovarne la logica nell’economia.
I grandi modelli linguistici sembrano aver fatto un passo significativo in quella direzione. Non sono perfetti. Ma il tipo di errori che fanno racconta qualcosa di interessante sul tipo di comprensione che stanno sviluppando.
La domanda allora non è più “capiscono davvero?”. La domanda è: che tipo di comprensione stanno costruendo, e quanto è vicina alla nostra?
La comprensione è un fenomeno continuo, o c’è una soglia oltre la quale qualcosa cambia radicalmente?
#IntelligenzaArtificiale #AI #Cognizione #MachineLearning #TrasformazioneDigitale
