Tutto quello che prof e scuole non
hanno capito dell’Invalsi
“È assolutamente opportuno e auspicabile che all’interno del
Paese si sviluppi un ampio dibattito sulle prove che permetta di dare
spazio a diversi punti di vista, sia sul piano culturale sia su quello
più propriamente tecnico” (Le caratteristiche tecniche delle prove
Invalsi 2011). Con queste parole l’Invalsi dichiara la sua volontà di
interloquire a tutto campo non solo con la realtà della scuola ma anche
con il complesso della società, sapendo bene che recentemente
personalità di spicco della cultura e dei media si sono assunte la
responsabilità di intervenire, spesso in maniera critica,
sull’operazione “rilevazione degli apprendimenti”.
La rilevazione Invalsi infatti non è un fatto tecnico interno ad un
istituto “specializzato in test”, ma riguarda tutta la nazione, quello
che in essa viene considerato importante e da presidiare: il bene
tutelato dalla scuola non è solo un pacchetto di nozioni e abilità,
bensì un’idea antropologicamente fondata dell’uomo adulto, con cui
anche le misurazioni tecniche devono avere un rapporto di coerenza. Fa
bene il rapporto a richiamare innanzitutto i limiti delle prove, che
non possono dare informazioni che non sono predisposte a dare: bisogna
evitare “un’attribuzione eccessiva di significato alle prove stesse,
quando invece all’interno dei quadri di riferimento è già
esplicitamente dichiarato che, per loro natura, le prove standardizzate
non possono, né devono, essere intese come uno strumento utile per
tutti gli scopi di misurazione e di valutazione”. Certamente però
quello che viene misurato viene reso oggetto di un’attenzione specifica
e quindi merita la vigilanza critica della società intera.
Riconoscendo nel dibattito seguito alle prove un tratto positivo, il
Rapporto tecnico intende “dare le ragioni” del proprio operato,
prendendo in esame anche alcune critiche specifiche. Una delle critiche
frequenti alle prove, per esempio, è stata la difficoltà di alcuni
quesiti, ritenute del tutto inaccessibili. Su questo punto viene
precisato quanto da tempo chi si occupa di prove standardizzate va
dicendo nelle più diverse occasioni, cioè che una delle differenze fra
una prova di profitto svolta in classe e le prove standardizzate a
carattere nazionale o sovranazionale è il range molto ampio di
difficoltà dei quesiti.
“Le prove standardizzate ... sono costruite avendo a riferimento
l’intera popolazione scolastica ... e quindi è assolutamente comune che
vi siano alcuni particolari quesiti di difficoltà troppo elevata per la
quasi totalità degli allievi di una determinata classe, poiché non è
detto che particolari livelli molto elevati di competenza siano
necessariamente presenti in tutte le classi, mentre lo sono certamente
a livello di popolazione”. Lo scopo delle prove è anche quello di
individuare le eccellenze a livello della nazione.
Un’altra critica frequente è quella sui distrattori: la risposta giusta
o “non c’è nel testo”, oppure non è univoca. Sul primo punto il
Rapporto tecnico chiarisce che la comprensione dei testi, per come è
presentata nel Quadro di riferimento, “è molto più ampia di quella di
una semplice individuazione di informazioni esplicitamente date nel
testo e dunque in alcuni casi la risposta giusta deve essere
individuata attraverso processi di ragionamento che vanno al di là di
quanto il testo dice alla lettera e che possono anche implicare, oltre
che l’enciclopedia personale dello studente-lettore, una comparazione
delle alternative proposte fino a identificare quella più corretta”.
Sul secondo viene segnalato un elemento anche di natura tecnica, cioè
che tutte le quattro alternative di risposta “per ‘funzionare’...
debbono esser abbastanza plausibili da attrarre le scelte di una parte
degli alunni, quelli, in pratica, che padroneggiano di meno l’abilità
(o costrutto latente) che la prova intende misurare. Se la risposta
giusta venisse, a qualunque livello di abilità, sempre preferita
rispetto ai distrattori, questa sarebbe un’indicazione molto forte -
secondo le regole che presiedono alla costruzione di domande a scelta
multipla - che i distrattori non funzionano e che vanno riformulati o
sostituiti”. Del resto si ricorda che i test vengono tutti pretestati,
e il caso di risposte date a caso, per mancanza di univocità della
risposta corretta, emergerebbero dall’analisi statistica.
Le argomentazioni, e anche una serie di dati tecnici che le supportano,
sono a disposizione per entrare in un dibattito di fatto nuovo per
l’Italia. Non abbiamo una grande tradizione di strumenti statistici di
misurazione degli apprendimenti, l’analisi classica degli item solo da
poco è stata aggiornata con metodologie più adeguate (IRT), che
peraltro erano presenti a livello Ocse da moltissimi anni, ma importate
pionieristicamente solo nei primi anni del 2000 in Lombardia. Di fatto
l’Invalsi percorre anch’esso una strada di progressivo miglioramento:
le tecniche di cheating necessarie per fornire dati nazionali depurati
dei comportamenti opportunistici sono state affinate nel tempo, il
Quadro di riferimento è almeno alla terza edizione e viene aggiornato e
reso sempre più coerente, i rapporti diventano più espliciti e
leggibili per chi vuole impegnarsi nella loro lettura. Del resto anche
la scuola “migliora”: cala il numero delle risposte omesse (soprattutto
nelle domande aperte), in molte regioni si ridimensiona il fenomeno dei
comportamenti opportunistici (copiature).
Registro nel Rapporto nazionale sugli esiti delle prove alcuni punti
nuovi: non bastano solo gli esiti in termini di percentuali di risposte
corrette (i dati cosiddetti grezzi), ma sono necessari anche quelli che
tengono conto del livello di difficoltà. “Per comprendere a fondo
l’informazione didattica che si può trarre dall’esito di una o più
domande è necessario, in primo luogo, valutare la difficoltà del
quesito. Una percentuale elevata di risposte corrette non è di per sé
né un’indicazione positiva né negativa. Innanzitutto, è importante
comprendere se la domanda oggetto d’interesse è facile o difficile in
senso propriamente psicometrico (p. 144 del Rapporto nazionale). Questo
pone il problema dell’agganciamento reciproco dei test, che è cruciale
per la possibilità di misurare non solo lo stato degli apprendimenti
delle scuole, ma la variabilità da un anno all’altro (Capitolo II) e in
prospettiva il valore aggiunto fra l’inizio e la fine del ciclo che
ogni scuola è in grado di offrire ai propri studenti.
Se un appunto si può muovere, non all’Invalsi ma al settore-scuola in
quanto tale, è la scarsissima opera di diffusione dei contenuti e dei
metodi di lavoro dell’Invalsi fra i diretti interessati. I Rapporti
sono fondamentali, ma non molti li conoscono; i Quadri di riferimento
chiariscono già molti aspetti che fanno obiezione ai docenti, ma molti
degli insegnanti non li hanno mai letti. A parte l’opera svolta nelle
famose quattro regioni dell’Obiettivo convergenza, dove team di
formatori sono stati mandati a tutti gli insegnanti coinvolti nelle
rilevazioni Pisa (nel 2008) e a tutti i docenti del primo ciclo
coinvolti in quelle dell’Invalsi (2010-11), non si è registrata
un’operazione analoga per le altre Regioni, anche per mancanza di fondi.
La conseguenza è che da un lato aleggia una certa approssimazione sul
perché si fanno queste prove, ma soprattutto è ancora scarsa
l’efficacia delle informazioni ottenute dalle misurazioni ai fini del
miglioramento per il sistema in quanto tale e all’interno delle scuole
singole, dove c’è ancora molto fai-da-te e molta incertezza. Segnalo
che l’Irre Lombardia (a furia di ex non si sa come chiamarla: Nucleo
Territoriale ex-Ansas ex-Irre Lombardia) ha in programma per il periodo
autunnale un approfondimento di questi temi (quadri di riferimento,
rapporto nazionale, dati di scuola, rapporto interno di scuola), nella
speranza di dare agli insegnanti elementi utili non tanto alla
normalizzazione dell’operazione-prove, quanto alla coscienza critica e
vigile sulla loro utilità.
Lo scopo delle misurazioni è di fare cosa culturalmente utile, e non di
assuefare il sistema alle prove. “Se - come certamente l’Invalsi
auspica - si vuole evitare che si inducano nella scuola fenomeni non
desiderabili di addestramento alle prove standardizzate” (cosa peraltro
inutile perché esse volutamente sono “molto varie da un anno all’altro,
sia rispetto ai contenuti sia alle modalità con le quali i quesiti sono
formulati”) è necessario lavorare sugli aspetti e i processi e sui
livelli di difficoltà. Non è l’addestramento al test la chiave di
volta, ma l’approfondimento di che cosa significa comprendere un testo
e interagire con esso: su questo versante oggettivamente all’estero
hanno lavorato più di noi, con gli studi sui poor readers, sui processi
cognitivi di recupero delle informazioni e sulla memoria a medio e
lungo termine, sulle inferenze e gli impliciti, sul grado di difficoltà
di diverse formulazione delle domande ecc.: aspetti su cui la totalità
degli insegnanti di italiano dovrebbero essere meglio informati.
Daniela Notarbartolo
(Docente di ruolo nei licei, passata alla ricerca educativa. Dal 2005
lavora presso l'ex-IRRE Lombardia, dove si occupa prevalentemente di
didattica della grammatica e di valutazione. Ha svolto consulenze per
il MIUR e collabora con l'INVALSI)
redazione_at_aetnanet.org