Questa guida descrive la pratica della peer-review tra modelli: usare una seconda istanza — dello stesso modello o di uno diverso — per revisionare l'output della prima. Non per sostituire il tuo giudizio, ma per alzare la qualità della bozza prima che arrivi a te.
Ogni modello ha punti ciechi — argomenti o errori che tende a non notare nei propri output. Un secondo modello legge senza il bias di conferma del primo, e trova quello che il primo si era perso.
La regola pratica è semplice:
→ Hai già un'ipotesi sul problema: stesso modello
→ Vuoi scoprire problemi che non hai ancora immaginato: cambia modello
La tabella seguente ti aiuta a scegliere caso per caso:
| Cosa vuoi controllare | Combinazione consigliata | Perché funziona |
|---|---|---|
| Errori di contenuto disciplinare | 🔁 Stesso modello, nuova conv. | Risposta rapida, stesso lessico. Funziona quando sai già dove guardare. |
| Chiarezza del testo per gli studenti | Claude + Gemini | Gemini è più attento alla leggibilità e alla struttura logica espositiva. |
| Casi limite e situazioni inattese (BES, domanda fuori traccia, caso ambiguo) | Claude + GPT-4 | GPT-4 esplora scenari al bordo che il primo modello non ha considerato. |
| Coerenza interna su un progetto lungo (UDA intera, percorso multi-settimana) | ⚡ Stessa istanza con contesto | Portare il contesto a un secondo modello introduce dispersione. |
| Scelte pedagogiche discutibili | 🔀 Modello diverso | Il modello che ha prodotto l'output tende a difenderlo. Un altro lo valuta senza attaccamento. |
La peer-review AI non sa come reagisce una classe reale a un materiale. Il test sul campo è insostituibile. Nessun modello sostituisce la verifica con gli studenti reali.
Il problema principale non è quale modello usare per la review — è come trasferisci il contesto da una conversazione all'altra. Un secondo modello valuta quello che gli dai: se il briefing è vago, la review sarà inutile.
Il prompt di handoff è il messaggio con cui apri la conversazione con il secondo modello. Non è una richiesta generica: deve contenere tutto il contesto necessario perché il revisore possa lavorare senza fare domande. Più è preciso, più la review sarà utile. Il template qui sotto copre tutti i campi essenziali — adattalo al tuo caso prima di usarlo.
Se non dici "non riscrivere", il secondo modello tenderà a produrre una versione alternativa. Tu vuoi una diagnosi, non una sostituzione.
- Disciplina e classe di riferimento
- Obiettivo specifico del materiale
- Cosa vuoi che il revisore controlli
- Il vincolo "non riscrivere"
- Il materiale completo, non un estratto
- Dare il materiale senza contesto
- Chiedere "cosa ne pensi?" senza criteri
- Spiegare che è stato generato da un'IA
- Chiedere una revisione e una riscrittura insieme
- Incollare solo una parte del materiale
Perché non dire che è stato generato da un'IA? Perché vuoi uno sguardo neutro, non una difesa dell'output precedente. Il secondo modello non deve sapere da dove viene il materiale — questo è intenzionale.
Hai generato una verifica e vuoi controllare che le domande siano davvero di livelli diversi.
Apri una nuova conversazione con lo stesso modello. Non incollare la verifica subito: prima dai il contesto (disciplina, classe, obiettivi della UDA), poi chiedi di valutare solo la gradazione tra livelli.
Usa un modello diverso da quello che ha generato la scheda. Nel prompt aggiungi la simulazione del punto di vista dello studente:
Chiedi al secondo modello di simulare uno studente in difficoltà — non solo dove le istruzioni sono ambigue, ma quale domanda farebbe un ragazzo che si blocca al passo 3.
Vuoi sapere se i descrittori della rubrica sono davvero applicabili in modo univoco. Usa il test del docente supplente:
È uno degli strumenti più utili per smascherare descrittori apparentemente precisi che in realtà non lo sono. Se un supplente non può applicare il criterio senza conoscere il docente titolare, il criterio non è oggettivo.
Stai cercando una conferma, non una critica reale. Se hai già deciso che il materiale è buono e vuoi solo sentirti dire di sì, la peer-review AI ti darà quello che vuoi — e non ti sarà utile. La peer-review ha senso solo quando sei genuinamente disposto a ricevere feedback negativi e ad agire su di essi.
- Il materiale sarà usato con molti studenti e un errore ha alto impatto
- Hai dubbi specifici che sai già articolare nel prompt di handoff
- Stai progettando qualcosa di nuovo che non hai mai testato in classe
- Il materiale riguarda argomenti valutativi o sensibili
- Non hai tempo per leggere e integrare il feedback ricevuto
- Il materiale è una bozza esplorativa che modificherai comunque
- Il contesto è così lungo da non poterlo trasferire senza perdere informazioni cruciali
- Stai cercando una conferma, non una critica reale
Peer-review → revisione → nuova peer-review → nuova revisione. Il perfezionismo assistito dall'IA può diventare una trappola. Stabilisci in anticipo quante iterazioni fare — di solito una è sufficiente.
Prima di aprire la seconda conversazione, spunta ogni voce. Se non riesci a spuntarle tutte, la review probabilmente non ti darà risultati utili — è meglio fermarsi e chiarire prima cosa stai cercando.