Perché l’AI ragiona meglio quando prima verifica e poi risponde: il metodo Verification‑First spiegato semplice
- ilminimo

- 31 gen
- Tempo di lettura: 4 min
Parlare di intelligenza artificiale in modo semplice è difficile.
Non perché serva un dottorato, ma perché dietro strumenti come ChatGPT o altri modelli avanzati ci sono meccanismi complessi, invisibili e spesso fraintesi.
Eppure credo sia fondamentale fare divulgazione chiara: l’AI è potentissima, ma non è perfetta. E soprattutto: possiamo farla ragionare meglio con tecniche sorprendentemente semplici.
Una di queste tecniche si chiama Verification‑First (VF), ed è stata proposta da due ricercatori della Tsinghua University, Shiguang Wu e Quanming Yao, in un lavoro che sta attirando molta attenzione.
In questo articolo la spiego in modo accessibile a tutti, anche a chi parte da zero.
Cos’è un LLM (Large Language Model) — spiegato semplice
Un LLM è un modello di intelligenza artificiale che:
legge testo
lo interpreta
e genera la frase successiva più probabile
Non “pensa” come un umano. Non “capisce” davvero.
Non ha un modello del mondo come il nostro.
È un gigantesco sistema statistico che completa frasi.
Eppure, grazie alla sua scala, riesce a fare cose che sembrano ragionamento.
Cos’è un token
Quando un LLM legge o scrive testo, non lavora con parole intere, ma con token.
Un token è un pezzetto di testo, ad esempio:
“ciao” → 1 token
“intelligenza” → 3 token
“ragionamento” → 3 token
“2025” → 1 token
Più token generi, più costa la risposta (in tempo e denaro).
Per questo è importante trovare tecniche che migliorano il ragionamento senza aumentare troppo i token.
Cos’è il Chain‑of‑Thought (CoT)
È un modo di istruire l’AI dicendo:
“Pensa passo per passo.”
Serve a farle esplicitare il ragionamento invece di dare una risposta diretta.
Funziona, ma non sempre. A volte l’AI:
inventa passaggi falsi
segue un ragionamento sbagliato ma coerente
si “incarta” su problemi semplici
Ed è qui che entra in gioco il metodo Verification‑First.
L’idea di Verification‑First (VF)
Il metodo VF è stato introdotto da Wu e Yao (2025) e si basa su un’idea sorprendentemente semplice:
Prima dai all’AI una risposta qualsiasi. Poi chiedile di verificare se è corretta. Solo dopo le chiedi di risolvere il problema.
La risposta iniziale può essere:
casuale
sbagliata
triviale
anche completamente assurda
Non importa.
Quello che importa è attivare la modalità “critica” del modello.
Perché funziona così bene?
1. Verificare è più facile che inventare
Per un LLM (e per un umano):
controllare se una risposta è corretta
è più semplice che generarla da zero
La verifica attiva un ragionamento “al contrario”, più strutturato e meno soggetto a errori.
L’AI diventa più critica
Quando l’AI deve verificare una risposta “di qualcun altro”, smette di seguire il suo flusso autoregressivo e diventa più attenta.
È come dirle:
“Non fidarti della prima cosa che ti viene in mente.”
Questo riduce:
errori logici
allucinazioni
risposte affrettate
La verifica fornisce indizi utili
Anche se la risposta iniziale è sbagliata, il processo di verifica:
riduce lo spazio di ricerca
fa emergere relazioni logiche
aiuta a costruire un ragionamento più solido
Esempi semplici e intuitivi
Esempio 1 — Il bat e la palla
Domanda: Un bat e una palla costano 1.10€. Il bat costa 1€ più della palla. Quanto costa la palla?
❌ Metodo normale (CoT)
Molti modelli rispondono: 0.10€ (sbagliato).
✔️ Metodo VF
Diamo una risposta casuale: 1€
L’AI verifica:
Se la palla costa 1€, il bat costa 2€.
Totale = 3€, non 1.10€.
Quindi è sbagliato.
Risolvo correttamente: 0.05€.
Esempio 2 — Quanti mesi hanno 28 giorni?
Domanda semplice ma trabocchetto.
❌ Metodo normale
Risposta tipica: 1.
✔️ Metodo VF
Diamo una risposta casuale: 1
L’AI verifica:
“Se fosse 1, significherebbe che solo un mese ha il giorno 28.”
“Ma tutti i mesi hanno un 28.”
Risposta corretta: 12.
Esempio 3 — Coding
Domanda: “Scrivi una funzione che calcola la differenza massima tra i valori di ogni coppia in una lista di tuple.”
❌ Metodo normale
L’AI spesso calcola la differenza tra il massimo e il minimo globale → sbagliato.
✔️ Metodo VF
Diamo un codice sbagliato e chiediamo di verificarlo.
L’AI:
trova l’errore
spiega perché
genera la versione corretta
Costi e benefici
Costi
VF richiede:
circa il 20–50% di token in più rispetto al CoT
nessun addestramento
nessuna configurazione
nessuna conoscenza tecnica
È un costo minimo rispetto ai metodi di test‑time scaling che moltiplicano i token per 10x o 20x.
Benefici
meno errori logici
meno allucinazioni
ragionamenti più solidi
migliore performance in matematica, coding, agenti
funziona anche con modelli piccoli
funziona anche con modelli commerciali chiusi
non richiede esempi né prompt complessi
Perché è importante parlarne
Viviamo in un momento storico in cui l’AI entra in:
finanza
medicina
legale
ingegneria
automazione
educazione
E in questi contesti non basta che l’AI sia eloquente. Deve essere affidabile.
Il metodo Verification‑First è un modo semplice per:
ridurre errori
aumentare la robustezza
migliorare la qualità del ragionamento
senza costi elevati
E soprattutto dimostra una cosa fondamentale:
L’AI è potente, ma non infallibile. E possiamo guidarla a ragionare meglio.
Conclusione
La scoperta di Wu e Yao è importante perché mostra che non serve un modello più grande per ottenere un ragionamento migliore. Serve un modo migliore di parlare con il modello.
E questo, oggi, è alla portata di tutti.
Presto un articolo dove parliamo di AI e finanza.
Non solo come l’intelligenza artificiale sta cambiando il modo di investire, ma anche cosa guardare — con criterio — in un’azienda che sviluppa AI, se si vuole valutarla come investimento.
Pro, contro, metriche da studiare e hype da evitare.
Perché capire l’AI è già un investimento in sé.



Commenti