Le allucinazioni dell'AI sono davvero errori da correggere?
Quando ChatGPT inventa un libro che non esiste o racconta un evento mai accaduto, la nostra reazione immediata è pensare che abbia sbagliato. Ma cosa succederebbe se scoprissimo che quelle allucinazioni non sono bug da sistemare, ma caratteristiche strutturali inevitabili di come funzionano i modelli linguistici?
In questa puntata analizziamo un paper straordinario uscito dall'Università di Yale, firmato da Luciano Floridi, uno dei filosofi più influenti nel dibattito sull'intelligenza artificiale. Usando la matematica della teoria delle categorie, Floridi dimostra perché le allucinazioni sono inevitabili e cosa ci rivelano sulla vera natura dell'AI.
Il cuore del problema sta nel radicamento simbolico: i modelli linguistici operano esclusivamente con contenuti, con ombre della realtà create da esseri umani, mai con il mondo diretto. Anche quando analizzano immagini, processano solo pixel e correlazioni, non l'esperienza di accarezzare un cane o sentirlo abbaiare. Come dice il paper: ereditare non è possedere. L'AI manipola i frutti del radicamento umano senza possedere l'albero.
Ma c'è una seconda parte ancora più affascinante: questo paper, senza saperlo, conferma matematicamente qualcosa che Federico Faggin sostiene da anni sulla coscienza. Mentre Floridi lascia uno spiraglio teorico alla possibilità che l'AI possa un giorno sviluppare coscienza attraverso la complessità, Faggin lo chiude definitivamente. Nel suo modello CIF (Coscienza, Informazione, Fisico), la coscienza è una proprietà quantistica fondamentale, irriducibile, che non può emergere da computazione classica. Il più non può venire dal meno.
La distinzione è ontologica: i computer operano su fisica classica e deterministica, la coscienza richiede stati quantistici puri, non clonabili e intrinsecamente privati. Una cellula è fatta di materia quantistica dinamica, un computer di materia classica permanente.
Questa puntata ti offre una prospettiva completamente nuova su cosa significa davvero intelligenza artificiale e perché la strada verso una coscienza sintetica potrebbe essere matematicamente impossibile, non solo tecnologicamente lontana.
Ascolta questa puntata se vuoi capire:
Perché le allucinazioni dell'AI sono inevitabili secondo la matematica
Cosa significa davvero che l'AI non ha radicamento nel mondo
Come il paper di Floridi conferma (senza volerlo) le tesi di Faggin
Perché la coscienza potrebbe essere irriducibile alla computazione
Buon ascolto e buona riflessione. Se questa puntata ti ha fatto pensare, condividila con chi sta cercando di capire davvero cosa sono le intelligenze artificiali al di là dell'hype.
00:00:00 Introduzione: le allucinazioni di ChatGPT
00:00:30 Sigla del podcast
00:00:42 Perché le allucinazioni nascondono qualcosa di più profondo
00:01:00 Il paper di Luciano Floridi da Yale
00:01:42 Ascoltiamo cosa dice Notebook LM
00:02:35 Il concetto di allucinazione nell'AI
00:04:10 La teoria delle categorie applicata all'AI
00:08:15 Il problema del radicamento simbolico
00:12:30 Contenuto vs mondo: la distinzione fondamentale
00:17:29 I modelli multimodali e il limite dell'esperienza
00:19:00 Ereditare non è possedere
00:27:05 Il confronto con Federico Faggin
00:28:00 La coscienza come proprietà quantistica
00:31:00 Riflessioni finali sul paper
Diventa un supporter di questo podcast:
https://www.spreaker.com/podcast/la-mia-vita-spaziale--2578955/support.
© Andrea Brugnoli – Tutti i diritti riservati.