La competenza di scrittura nella prima prova dell’esame di Stato

La ricerca condotta sulle prove di italiano della maturità suggerisce prospettive e indicazioni utili per condividere standard valutativi, migliorare esiti e correggere errori ricorrenti.

La ricerca condotta sulle prove di italiano della maturità suggerisce prospettive e indicazioni utili per condividere standard valutativi, migliorare esiti e correggere errori ricorrenti. Parola d’ordine: sinergia tra le discipline. Dal numero 8 de La ricerca.

Sergio Castellitto in ‘O professore, miniserie TV, 2008

Nelle più recenti ipotesi di revisione degli esami di Stato conclusivi del ciclo di studio secondario di secondo grado (cfr. DDL del 17/03/2015 all’art. 21) non sembra essere prevista una modifica della prima prova scritta. Può però rivelarsi utile riprendere il filo di un ragionamento sulla valutazione della competenza di scrittura della prima prova scritta di italiano (e in parte anche della seconda prova di matematica nell’elemento di intersezione costituto dalla capacità di ragionamento) con l’intento di una più ampia possibile condivisione degli standard valutativi e di razionalizzare il sistema di valutazione degli studenti.
Il presente contributo si articola in tre paragrafi:
– una breve sintesi della ricerca condotta dall’INVALSI nell’ambito della rilevazione degli apprendimenti degli studenti a conclusione dei percorsi dell’istruzione secondaria superiore, utilizzando le prove scritte di italiano e matematica degli esami di Stato;
– la presentazione degli strumenti utilizzati: la Scheda di valutazione e la Scheda di rilevazione degli errori ricorrenti nella produzione scritta;
– le prospettive di approfondimento in direzione dell’analisi delle competenze logiche e argomentative, sulla base delle ricerche, nazionali e internazionali, e dei materiali disponibili.

La ricerca

La prima prova dell’esame di Stato (la “Prova d’Italiano”) prevede, com’è noto, la redazione di quattro tipologie diverse di elaborati. Questa modalità, introdotta ormai da più di un decennio, ha messo in maggior risalto un fattore di criticità preesistente: «la mancanza di una solida tradizione di metodi di valutazione sufficientemente oggettivi. La diversità strutturale e formale degli elaborati prodotti dai candidati ha reso, infatti, più evidente la necessità di individuare criteri e parametri valutativi analitici, riferiti a indicatori e descrittori basilari e “trasversali”, perché si ottenesse anche un effetto unificante nelle procedure di valutazione attuate da soggetti diversi, isolati o in gruppo, all’interno di una stessa commissione esaminatrice».1.

La ricerca condotta dall’INVALSI sulle prove dell’esame di Stato è la prima e a oggi l’unica realizzata a livello nazionale con l’intento specifico di effettuare una «valutazione dei livelli di apprendimento degli studenti a conclusione dei percorsi dell’istruzione secondaria superiore, utilizzando le prove scritte degli esami di Stato» (Art. 2 della Legge n.1 dell’11/01/2007). Si tratta di una indagine complessa, che ha considerato gli elaborati prodotti dagli studenti nelle sessioni 2007 (prima fase), 2009 (seconda fase) e 2010 (terza fase), approfondendo e affinando nel suo percorso diversi aspetti della valutazione.

Nell’ambito della prima fase, l’attività si è concentrata su: i) l’analisi della capacità di scrittura degli studenti alla fine del percorso di studi secondario; ii) l’elaborazione e la validazione di idonei strumenti valutativi; iii) la produzione di dati sulla variabilità delle valutazioni attribuite da correttori diversi ad una stessa prova. Questo terzo aspetto ha fornito elementi di riflessione e un significativo passo in avanti a vantaggio di una maggiore oggettività nella valutazione di una prova complessa quale quella di italiano.

La capacità di scrittura è stata declinata in relazione alla tipologia di prova scelta dai singoli studenti, al tipo di istituto frequentato, alla padronanza della lingua italiana – articolata in quattro competenze: testuale, grammaticale, lessicale e semantica, ideativa.

Gli strumenti elaborati per uniformare i criteri di correzione delle prove e rendere trasparenti le valutazioni attribuite sono stati il Quadro di riferimento e la Scheda di valutazione, appositamente predisposti in collaborazione con l’Accademia della Crusca.2

L’attività di (ri)correzione, effettuata dai correttori esterni3, è stata realizzata sulle prove raccolte tramite un campionamento casuale semplice di studenti appartenenti alla popolazione dell’ultimo anno della scuola secondaria di II grado. Contestualmente alla raccolta degli elaborati, è stata acquisita una scheda informativa relativa ad alcuni dati di sfondo: il profilo dello studente (genere, cittadinanza, anno di nascita ecc.); il curricolo scolastico (eventuali ritardi e/o abbreviazioni del percorso scolastico); i voti della prima, seconda e terza prova; l’esito finale dell’esame; il voto conseguito nel I quadrimestre in italiano e matematica (le materie oggetto della ricerca).

Sono stati condotti, e successivamente sottoposti ad analisi, quattro interventi di valutazione: la valutazione della commissione di esame (che tiene conto del percorso dello studente reale che sta valutando4) e tre ulteriori valutazioni di correttori esterni su prove anonime anche riguardo a tipologia di scuola e provenienza geografica. Delle tre valutazioni esterne, una è stata effettuata sulla base della Scheda di valutazione appositamente predisposta, che costituiva un elemento unificante nell’articolazione del giudizio, mentre per le altre due i correttori erano liberi nella scelta dei criteri.

Dall’analisi del complesso dei dati relativi alla valutazione è emerso un significativo divario tra le votazioni attribuite dai due diversi tipi di valutatori – esterni e interni – soprattutto nell’area della soglia della sufficienza e in quella della soglia dell’eccellenza (si tratta di dati ampiamente resi pubblici).

Non è possibile trovare gli abbellimenti stilistici senza concepire ed esprimere un pensiero, né comunicare un pensiero chiaramente senza la luce delle parole. (Cicerone, De oratore)Il risultato complessivo della (ri)correzione della seconda fase, ossia degli elaborati di italiano campionati nella sessione di esame di Stato dell’anno 2009, ha messo in luce la scarsa padronanza dell’uso scritto della lingua italiana nei ragazzi al termine della scuola superiore. In tutte le quattro fondamentali competenze in cui si struttura la padronanza della lingua italiana si è infatti registrato un voto medio inferiore alla sufficienza (il rapporto di ricerca è disponibile sul sito dell’INVALSI).

La terza fase dell’indagine si è concentrata, in particolare, sull’analisi degli errori più diffusi nell’uso della lingua italiana. Il campione degli elaborati dell’esame di Stato 2010 è stato corretto non più al fine della valutazione del testo prodotto, ma della rilevazione degli errori più diffusi, con l’ausilio di uno strumento appositamente costruito: la Scheda di rilevazione degli errori ricorrenti nella produzione scritta5.

L’analisi ha prodotto una casistica degli errori ricorrenti nella produzione scritta, in uscita dalla scuola secondaria di secondo grado a livello testuale, grammaticale, lessicale e ideativo: l’area nella quale viene rilevata la percentuale maggiore di errori è quella ideativa (oltre il 50% di errori), con presenza di errori rilevanti in tutti i descrittori dell’area su oltre il 25% delle prove codificate, e in particolare nei descrittori «Consistenza e precisione di informazione e dati, assenza di affermazioni a vario titolo imprecise» (nell’80,2% delle prove) e «Rielaborazione delle informazioni, assenza di affermazioni estemporanee o non mediate» (nell’82% delle prove). Di entità inferiore, ma non meno significativa, la presenza di errori rilevata tramite il descrittore «Organizzazione degli argomenti intorno ad un’idea di fondo, presenza e sviluppo di un’idea di fondo» (nel 57,6% delle prove) e tramite il descrittore «Scelta di argomenti pertinenti, presenza di riferimenti adeguati e funzionali al discorso» (nel 46,2% delle prove)6.

I risultati dello studio dunque, come afferma Luca Serianni nella sua riflessione densa di spunti operativi sugli esiti della rilevazione, «permettono di sfatare alcuni pregiudizi e di richiamare l’attenzione sulle carenze effettive: un’operazione indispensabile per mettere in atto interventi mirati»7.

Gli strumenti di valutazione

Gli strumenti di valutazione utilizzati nell’ambito della ricerca sono stati realizzati e validati in collaborazione tra scuola, ricerca e accademia.

La Scheda di valutazione, parte integrante del Quadro di riferimento della ricerca8 e unica per tutte le tipologie di prove, si suddivide in tre parti: i) attribuzione di un valore a ciascuno dei diversi descrittori che compongono le singole competenze linguistiche; ii) attribuzione di un punteggio per singola competenza; iii) attribuzione di un punteggio alla prova nel suo insieme.

Il vantaggio della scheda è permettere di valutare in modo puntuale e analitico la padronanza linguistica, mirando i diversi livelli: quello dei singoli descrittori costitutivi della «padronanza della lingua», quello delle quattro competenze linguistiche e quello dell’elaborato nel suo complesso. Attraverso le riletture dell’elaborato necessarie a rispondere alle diverse forme di valutazione presenti nelle tre parti della scheda, è possibile arrivare alla formulazione di un giudizio che da un lato tenga conto degli elementi analitici – il valore attribuito ai singoli descrittori – e, dall’altro, assegni un punteggio a ciascuna competenza e un voto all’elaborato nel suo complesso, evitando che quest’ultimo risulti dalla media dei punteggi assegnati a ciascuna competenza.

La Scheda di rilevazione degli errori ricorrenti (Documento 2) è un approfondimento della scheda precedente e si articola secondo le quattro competenze linguistiche già definite, al cui interno sono collocati i descrittori specifici di ciascuna competenza, raggruppati per macroambito.

Nella riflessione su argomentazione e scrittura, a margine della rilevazione del 2009, Dario Corno partiva dalla considerazione che la capacità di argomentare è riscontrabile «in facoltà propriamente cognitive di cui la principale è la capacità ideativa predisposta nel reperire, valutare, organizzare ed elaborare le idee che si presentano nel testo»9. Pertanto concludeva asserendo che il curricolo di scrittura avrebbe dovuto mostrare una maggiore attenzione a far ragionare gli studenti sugli schemi linguistici (analisi del periodo) e sugli schemi cognitivi (costruzione di modelli argomentativi). L’indagine ha mostrato infatti come la competenza ideativa presenti il grado maggiore di criticità nella produzione scritta in uscita dal percorso scolastico e ha confermato la difficoltà degli studenti italiani nella gerarchizzazione delle idee e nella padronanza delle tecniche argomentative.

Questa carenza, peraltro, emerge anche da altri dati empirici sul percorso scolastico, che forniscono elementi a supporto della necessità di avviare la costruzione di un curricolo verticale per lo sviluppo delle capacità logiche e argomentative, a partire dalla scuola dell’infanzia.

Dall’analisi dei risultati 2011 emerge un peggioramento dei risultati degli studenti nel corso degli anni e nel passaggio dalla scuola primaria alla scuola secondaria. Per il primo ciclo, gli esiti delle rilevazione IEA-PIRLS 2011 sulle competenza di lettura evidenziano, per l’Italia, una difficoltà maggiore rispetto ad altri paese OCSE nel dominio cognitivo «fare inferenze semplici»10. A questo corrisponde, nella rilevazione TIMSS 2011, al quarto anno di scolarità, una difficoltà in matematica e una ancora più netta difficoltà in scienze, nella capacità di ragionamento. Inoltre nelle rilevazioni TIMSS sia per il quarto sia per l’ottavo anno «sembra emergere una certa debolezza degli studenti italiani nel processo cognitivo di ragionamento»11. Tale tendenza, come viene sottolineato nel rapporto12, costituisce un dato di attenzione che, se confermato nelle rilevazioni future, rende necessaria una riflessione didattico-metodologica.

Dall’analisi dei risultati 2011 delle rilevazioni internazionali sembra emergere inoltre un peggioramento dei risultati degli studenti nel corso degli anni e nel passaggio dalla scuola primaria alla scuola secondaria. Al quarto anno di scolarità gli studenti italiani si collocano al di sopra della media internazionale, mentre all’ottavo ottengono un punteggio intorno alla media.13

Proprio nella direzione della costruzione di un curricolo verticale per un’educazione argomentativa di base, possono essere utilizzate le indicazioni – riportate nei documenti istituzionali e nei materiali resi pubblici delle ricerche nazionali e internazionali – su contenuti (il che cosa) e su obiettivi e contesti di apprendimento (il come). Tali indicazioni per la costruzione di un curricolo permetterebbero di avviare una riflessione condivisa e, conseguentemente, di sperimentare percorsi operativi di ricerca-azione che abbiano le caratteristiche della verticalità e della gradualità, a partire dalla scuola dell’infanzia14.

Va aggiunto, per chiarezza, che per il primo ciclo le indicazioni per la costruzione di un curricolo verticale sull’argomentazione di base sono più organiche e puntuali e forniscono materiale agli insegnanti e alle scuole per avviare interventi mirati e coerenti anche su base nazionale, mentre man mano che si sale le indicazioni sono meno dettagliate e non seguono una linea di continuità. Per il secondo biennio e per l’ultimo anno spetterebbe alle scuole un intervento di progettazione corposo e complesso, in quanto sono attualmente pochi gli elementi disponibili ai fini dell’elaborazione di un curricolo verticale.

Cosa dicono i compiti di matematica

In questa ottica è auspicabile inoltre una collaborazione tra le discipline, in particolare tra italiano e matematica. Un lavoro di ricerca in questo ambito è stato avviato contestualmente alla terza fase della ricerca citata, i cui risultati sono stati resi pubblici nel 2012. Con uno schema parallelo a quello usato per i compiti di italiano (in qualche caso traducendo i medesimi indicatori) si è cercato di rilevare come le capacità logico-argomentative si esplicitano attraverso: la costruzione di un discorso matematico; l’organizzazione delle idee; l’utilizzo delle informazioni e la loro rielaborazione mediante gli strumenti specifici del linguaggio della matematica15.

Ne è scaturito un risultato non inatteso, come scrive Giorgio Bolondi: «I compiti di italiano ci dicono che i ragazzi non riescono a usare la lingua italiana per collegare, saldare, ordinare le idee e le esperienze; con una dinamica assolutamente parallela, i compiti di matematica ci dicono che non riescono a usare il linguaggio matematico (e il linguaggio naturale) per collegare, ordinare le informazioni e i risultati parziali, costruire una argomentazione; verificare i propri risultati»16. Come per l’italiano, le carenze emerse dalla rilevazione sulle seconde prove di matematica mettono in risalto carenze non superficiali ma stratificate e di lunga durata nella scuola italiana: «una difficoltà trasversale di organizzazione del pensiero, comune al discorso linguistico e a quello matematico». Tutto questo, scrive ancora Bolondi, suggerisce piste di lavoro per gli insegnanti e una proposta peraltro non rivoluzionaria: che docenti di diverse discipline lavorino in sinergia, per esempio sul lessico scientifico o nella stesura di testi in attività di laboratorio.

In questa prospettiva la Scheda di rilevazione degli errori ricorrenti può fornire indicazioni specifiche in ambito didattico per realizzare esercizi mirati di scrittura, funzionali alle singole esigenze didattiche e rispondenti alle carenze individuate. A questo riguardo si può fare riferimento alle indicazioni e alle ampie esemplificazioni disponibili sulla scrittura e l’argomentazione17.

NOTE
1 Cfr. F. Sabatini, Quadro di riferimento p. 1.
2 Hanno supportato metodologicamente la ricerca e contribuito alla definizione delle linee guida e degli strumenti di valutazione, per l’italiano, l’Accademia della Crusca, e per la matematica, l’UMI (Unione Matematica Italiana).
3 Nell’indagine sono denominati «correttori interni» i docenti della commissione d’esame e «correttori esterni» i docenti selezionati dall’INVALSI tra i docenti di scuola secondaria con esperienza di esami di Stato, provenienti da tutti gli indirizzi di scuola e da tutte le aree geografiche, formati in appositi seminari.
4 Per la sessione 2007 il commissario interno era il docente di italiano della classe.
5 L’indagine è stata realizzata nell’ambito di una collaborazione tra INVALSI e Università La Sapienza di Roma, con la consulenza scientifica del professor L. Serianni.
6 Cfr. C. di Chiacchio e P. Giangiacomo, Gli esiti della ricerca. Risultati delle analisi descrittive, nel Rapporto disponibile sul sito dell’INVALSI.
7 Cfr. L. Serianni, Quali sono i punti dolenti dell’italiano scritto a scuola?, ib., pp. 37-42.
8 Il Quadro di riferimento dell’indagine è stato redatto nel 2007 e rivisto nel 2009 sotto la guida dell’Accademia della Crusca. Si tratta di un piccolo manuale, quasi un prontuario di linguistica italiana, che mira a stabilire criteri di giudizio sulla “norma” e a chiarire la validità di taluni limiti all’accettabilità di vari usi linguistici.
9 Le citazioni sono tratte da Argomentazione e scrittura. Cenni per un’analisi dei dati di valutazione che accompagna l’analisi della Rilevazione degli apprendimenti. Prove scritte di Italiano e Matematica, a.s. 2008-2009, disponibile sul sito dell’INVALSI.
10 11 12 13 Cfr. Indagini IEA 2011 PIRLS e TIMSS: i risultati degli studenti italiani in lettura, matematica e scienze, sito INVALSI, pp. 153-154; 165; 168.
14 cfr. L. Grossi, Per un curricolo verticale sull’argomentazione: tra ricerca, evidenze empiriche e documenti istituzionali, di prossima pubblicazione su Insegnareonline, rivista CIDI.
15 Cfr. Elementi della prova di matematica per l’analisi delle competenze linguistiche.
16 G. Bolondi, Invalsi: l’italiano manda in crisi anche la matematica, sul sito Il sussidiario.
17 L. Serianni, Leggere scrivere argomentare, Laterza, Bari 2013.

Contatti

Loescher Editore
Via Vittorio Amedeo II, 18 – 10121 Torino

laricerca@loescher.it
info.laricerca@loescher.it