Utilizziamo i cookie per generare statistiche e migliorare la vostra esperienza su questo sito web. Potete consentire l'uso di questi cookie cliccando su "Accetta tutto" o rifiutarli cliccando su "Rifiuta tutto". È possibile modificare le impostazioni dei cookie facendo clic su "Impostazioni".

Dentro la macchina dell'hype

Una prospettiva da insider su come viene fatta la salsiccia.

Scritto da
Alaa
2 giugno 2025
Allucinazioni
GenerativeAI

Apripista

 

L'IA generativa non manca di far parlare di sé, con gli esperti di marketing che parlano dei Large Language Models (LLM) come di "motori di ragionamento" e "macchine pensanti". Ma la verità? Questi modelli sono stati antropomorfizzati, cioè commercializzati in modo da assomigliare al pensiero umano e diventare così relazionabili. In questo articolo, demistifichiamo alcuni termini che sono diventati di uso comune nelle discussioni incentrate sugli LLM.

Ragionare per Momenti

Le GPT non "ragionano", ma generano. Una parola alla volta. Ogni uscita crea una traccia che alimenta la successiva. Il risultato è una sorta di slancio linguistico: una traccia di testo che dà origine a un'altra traccia e a un'altra ancora. Da lontano, sembra un ragionamento. Ma da vicino, è un linguaggio che predice altro linguaggio. In realtà, dobbiamo ancora definire e modellare ciò che comporta un "vero" ragionamento all'interno degli elementi costitutivi della tecnologia generativa.

I ricercatori hanno persino esteso questa illusione sollecitando il modello con frasi come "aspetta..." proprio prima che si fermi. Questa piccola esitazione spinge il modello a continuare il "pensiero", allungando un po' di più la traccia. Non perché "ha pensato di nuovo", ma perché il suggerimento lo ha spinto a tornare sui binari della generazione.

Detto questo, dobbiamo dare credito a ciò che è dovuto. Questi approcci hanno migliorato le prestazioni in diversi benchmark, anche se con un maggiore consumo energetico, e sono risultati di innegabile valore.

Allucinazioni: Una caratteristica, non un fallimento

Quando un modello inventa con sicurezza qualcosa, non sta mentendo: sta campionando. Non c'è un fact-checker interno, ma solo una continuazione plausibile, basata sulle probabilità, di sequenze di parole. Chiamarla "allucinazione" lo fa sembrare accidentale, ma non lo è. È un risultato atteso, inserito nella metodologia intrinseca di costruzione di questi modelli.

L'individuazione e la mitigazione delle "allucinazioni" è un'area di ricerca attiva, con sforzi significativi in corso per migliorare l'affidabilità del modello e la base fattuale.

Più vicino: Allontanarsi dalla teatralità di "AGI" e Co.

Gli esperti di marketing amano affibbiare a questi strumenti etichette non ben definite (si pensi all'Intelligenza Generale Artificiale), ma questi termini non fanno altro che allungare il significato di ciò che i modelli effettivamente fanno. I LLM sono algoritmi sofisticati che comprimono enormi quantità di dati internet; sono generatori di testo guidati dai dati. Mitologizzare questi sistemi può solo portare a un uso improprio e a una perdita di fiducia da parte degli utenti.  

La magia avviene quando smettiamo di credere a tattiche di vendita esagerate e iniziamo a capire - e a progettare - le utilità esplicite che questi modelli possono offrire.