top of page

Perché l’AI ragiona meglio quando prima verifica e poi risponde: il metodo Verification‑First spiegato semplice

Parlare di intelligenza artificiale in modo semplice è difficile.

Non perché serva un dottorato, ma perché dietro strumenti come ChatGPT o altri modelli avanzati ci sono meccanismi complessi, invisibili e spesso fraintesi.

Eppure credo sia fondamentale fare divulgazione chiara: l’AI è potentissima, ma non è perfetta. E soprattutto: possiamo farla ragionare meglio con tecniche sorprendentemente semplici.

Una di queste tecniche si chiama Verification‑First (VF), ed è stata proposta da due ricercatori della Tsinghua University, Shiguang Wu e Quanming Yao, in un lavoro che sta attirando molta attenzione.

In questo articolo la spiego in modo accessibile a tutti, anche a chi parte da zero.


Cos’è un LLM (Large Language Model) — spiegato semplice

Un LLM è un modello di intelligenza artificiale che:

  • legge testo

  • lo interpreta

  • e genera la frase successiva più probabile


Non “pensa” come un umano. Non “capisce” davvero.

Non ha un modello del mondo come il nostro.

È un gigantesco sistema statistico che completa frasi.

Eppure, grazie alla sua scala, riesce a fare cose che sembrano ragionamento.


Cos’è un token

Quando un LLM legge o scrive testo, non lavora con parole intere, ma con token.

Un token è un pezzetto di testo, ad esempio:

  • “ciao” → 1 token

  • “intelligenza” → 3 token

  • “ragionamento” → 3 token

  • “2025” → 1 token


Più token generi, più costa la risposta (in tempo e denaro).

Per questo è importante trovare tecniche che migliorano il ragionamento senza aumentare troppo i token.


Cos’è il Chain‑of‑Thought (CoT)

È un modo di istruire l’AI dicendo:

“Pensa passo per passo.”

Serve a farle esplicitare il ragionamento invece di dare una risposta diretta.

Funziona, ma non sempre. A volte l’AI:

  • inventa passaggi falsi

  • segue un ragionamento sbagliato ma coerente

  • si “incarta” su problemi semplici


Ed è qui che entra in gioco il metodo Verification‑First.


L’idea di Verification‑First (VF)

Il metodo VF è stato introdotto da Wu e Yao (2025) e si basa su un’idea sorprendentemente semplice:

Prima dai all’AI una risposta qualsiasi. Poi chiedile di verificare se è corretta. Solo dopo le chiedi di risolvere il problema.

La risposta iniziale può essere:

  • casuale

  • sbagliata

  • triviale

  • anche completamente assurda


Non importa.

Quello che importa è attivare la modalità “critica” del modello.


Perché funziona così bene?

1. Verificare è più facile che inventare

Per un LLM (e per un umano):

  • controllare se una risposta è corretta

  • è più semplice che generarla da zero


La verifica attiva un ragionamento “al contrario”, più strutturato e meno soggetto a errori.


L’AI diventa più critica

Quando l’AI deve verificare una risposta “di qualcun altro”, smette di seguire il suo flusso autoregressivo e diventa più attenta.

È come dirle:

“Non fidarti della prima cosa che ti viene in mente.”

Questo riduce:

  • errori logici

  • allucinazioni

  • risposte affrettate


La verifica fornisce indizi utili

Anche se la risposta iniziale è sbagliata, il processo di verifica:

  • riduce lo spazio di ricerca

  • fa emergere relazioni logiche

  • aiuta a costruire un ragionamento più solido


Esempi semplici e intuitivi

Esempio 1 — Il bat e la palla

Domanda: Un bat e una palla costano 1.10€. Il bat costa 1€ più della palla. Quanto costa la palla?

❌ Metodo normale (CoT)

Molti modelli rispondono: 0.10€ (sbagliato).

✔️ Metodo VF

Diamo una risposta casuale: 1€

L’AI verifica:

  • Se la palla costa 1€, il bat costa 2€.

  • Totale = 3€, non 1.10€.

  • Quindi è sbagliato.

  • Risolvo correttamente: 0.05€.


Esempio 2 — Quanti mesi hanno 28 giorni?

Domanda semplice ma trabocchetto.

❌ Metodo normale

Risposta tipica: 1.

✔️ Metodo VF

Diamo una risposta casuale: 1

L’AI verifica:

  • “Se fosse 1, significherebbe che solo un mese ha il giorno 28.”

  • “Ma tutti i mesi hanno un 28.”

  • Risposta corretta: 12.


Esempio 3 — Coding

Domanda: “Scrivi una funzione che calcola la differenza massima tra i valori di ogni coppia in una lista di tuple.”

❌ Metodo normale

L’AI spesso calcola la differenza tra il massimo e il minimo globale → sbagliato.

✔️ Metodo VF

Diamo un codice sbagliato e chiediamo di verificarlo.

L’AI:

  • trova l’errore

  • spiega perché

  • genera la versione corretta


Costi e benefici

Costi

VF richiede:

  • circa il 20–50% di token in più rispetto al CoT

  • nessun addestramento

  • nessuna configurazione

  • nessuna conoscenza tecnica

È un costo minimo rispetto ai metodi di test‑time scaling che moltiplicano i token per 10x o 20x.


Benefici

  • meno errori logici

  • meno allucinazioni

  • ragionamenti più solidi

  • migliore performance in matematica, coding, agenti

  • funziona anche con modelli piccoli

  • funziona anche con modelli commerciali chiusi

  • non richiede esempi né prompt complessi


Perché è importante parlarne

Viviamo in un momento storico in cui l’AI entra in:

  • finanza

  • medicina

  • legale

  • ingegneria

  • automazione

  • educazione


E in questi contesti non basta che l’AI sia eloquente. Deve essere affidabile.

Il metodo Verification‑First è un modo semplice per:

  • ridurre errori

  • aumentare la robustezza

  • migliorare la qualità del ragionamento

  • senza costi elevati


E soprattutto dimostra una cosa fondamentale:

L’AI è potente, ma non infallibile. E possiamo guidarla a ragionare meglio.

Conclusione

La scoperta di Wu e Yao è importante perché mostra che non serve un modello più grande per ottenere un ragionamento migliore. Serve un modo migliore di parlare con il modello.

E questo, oggi, è alla portata di tutti.


Presto un articolo dove parliamo di AI e finanza.  

Non solo come l’intelligenza artificiale sta cambiando il modo di investire, ma anche cosa guardare — con criterio — in un’azienda che sviluppa AI, se si vuole valutarla come investimento.

Pro, contro, metriche da studiare e hype da evitare.

Perché capire l’AI è già un investimento in sé.

 
 
 

Commenti


bottom of page