Quando si discute dei problemi portati dall’intelligenza artificiale nella scuola e nell’università, si tende a descrivere la situazione come una sorta di invasione, come se la tecnologia fosse piombata su un sistema solido e funzionante, destabilizzandolo dall’esterno. Ma la verità è che la rivoluzione digitale era annunciata da decenni. La scuola e l’università avevano tutto il tempo per aggiornare metodi, strumenti e finalità. Non lo hanno fatto, o lo hanno fatto solo in superficie. Ed è (anche) per questo che oggi l’IA è percepita come una minaccia.
L’educazione digitale
Prendiamo la scuola. Da anni si proclama l’importanza del “pensiero critico”, della “didattica attiva”, dell’“educazione digitale”, ma molto spesso queste parole rimangono a livello di slogan. Se davvero la scuola avesse preso sul serio il cambiamento tecnologico, avrebbe già modificato il modo di valutare e costruire competenze. Avrebbe già ridotto il peso delle prove ripetitive e facilmente automatizzabili. Avrebbe già sviluppato modalità di verifica in cui non basta produrre un testo corretto, ma serve mostrare processi, argomentazioni, capacità critica e di collegamento. Con approcci del genere, l’esistenza di un modello di linguaggio come ChatGPT non metterebbe in crisi l’intero sistema.
Il problema è che, per troppo tempo, la trasformazione digitale è stata trattata come un’aggiunta, non come un cambiamento strutturale. Un laboratorio informatico in più, qualche tablet, qualche piattaforma: interventi cosmetici che non modificano l’impianto culturale della scuola. E infatti, quando arriva l’IA, quello stesso impianto va in difficoltà. Perché era basato su pratiche che la tecnologia automatizza con facilità.
E l’università?
Lo stesso discorso vale per l’università. La pressione sulle pubblicazioni, il tempo limitato, la tendenza a trattare la tesi come un documento da consegnare e non come un percorso formativo avrebbero dovuto già da tempo far riflettere. Se l’università avesse investito davvero sulla qualità del pensiero, sulla comunicazione scientifica come parte integrante del metodo, l’IA non avrebbe il potere di sostituire passaggi interi del lavoro accademico senza che nessuno se ne accorga. Se oggi accade, non è perché la tecnologia è troppo avanzata, ma perché il sistema ha lasciato che certe parti del processo diventassero puramente formali.
E questo riguarda tutti, non solo i ministeri. Anche molti docenti, a tutti i livelli, hanno dato per scontato che il mondo digitale fosse un contorno. Hanno continuato a proporre compiti e verifiche che funzionavano trent’anni fa, senza interrogarsi su come gli studenti fossero cambiati, su come fosse cambiata la disponibilità di informazioni, su come fosse cambiato il modo di apprendere. Se l’arrivo dell’IA li coglie impreparati, è perché l’aggiornamento non è mai stato pensato come qualcosa da analizzare continuamente in modo critico, ma come qualcosa da delegare a linee guida, circolari e piani nazionali che raramente incidono davvero.
In questo senso, l’IA non è la causa della crisi: è il fattore che rende impossibile ignorarla. Mostra che molti strumenti educativi erano rimasti fermi mentre il mondo avanzava. Mostra che la scuola e l’università parlavano di futuro senza davvero prepararsi al futuro. Mostra che, probabilmente, non c’era stata una reale attenzione all’innovazione.
Cosa fare?
Il punto, allora, non è difendersi dall’IA. È usare questa occasione per ripensare la formazione in modo più serio e più profondo. Passare da un modello centrato sull’esecuzione a uno centrato sulla comprensione. Dare valore al tempo necessario per ragionare, non solo per consegnare. Progettare percorsi in cui la tecnologia non sia una minaccia, ma uno strumento avanzato dentro un quadro di competenze solide.
Se la scuola e l’università avessero intrapreso questa strada già vent’anni fa, oggi l’IA non sarebbe percepita come un rischio. Sarebbe un tassello naturale dell’evoluzione. Il fatto che non sia così è il segnale più chiaro che il sistema educativo ha rimandato troppo a lungo una trasformazione che era inevitabile. E che ora è costretto, finalmente, a compierla davvero.
Se c’è un aspetto che l’arrivo dell’IA rende evidente, è che non basta aggiornare qualche strumento: serve ripensare l’intero modo in cui intendiamo la formazione. Perché il problema non è “insegnare a usare l’IA”, ma costruire un contesto in cui usarla non sostituisca il pensiero, ma lo amplifichi. E questo richiede tempo, competenze e una visione chiara di ciò che la scuola e l’università dovrebbero essere.
Un sistema educativo solido non teme la tecnologia perché la sua forza non dipende dal voto delle verifiche o dal controllo sugli studenti, ma dalla qualità delle domande, dalla profondità degli argomenti e dal modo in cui si impara a ragionare. Se lo studente è messo nelle condizioni di comprendere davvero, la scorciatoia perde valore. Non perché sia vietata, ma perché non serve più.
Un declino durato anni
Ma per arrivarci bisogna riconoscere che negli ultimi decenni la scuola e l’università hanno spesso lavorato in emergenza continua: programmi compressi, classi sovraffollate, strumenti diseguali, carichi burocratici sempre più pesanti. In un contesto così, è comprensibile che molti docenti abbiano fatto fatica ad aggiornarsi. Il problema è che questa fatica è diventata la normalità. E quando la normalità è già fragile, una tecnologia che cambia le carte in tavola fa emergere tutto.
Ormai abbiamo capito che la rivoluzione digitale non è solo una questione tecnologica, ma un cambiamento nei modi di apprendere e nella velocità con cui circolano le informazioni, e la scuola avrebbe dovuto interrogarsi seriamente su questo già dall’alba di internet, chiedendosi come rendere più solida la capacità di interpretare, selezionare e capire davvero ciò che si legge. Perché il punto cruciale è dare agli studenti gli strumenti per non farsi travolgere da qualunque contenuto.
Nello stesso modo, l’università avrebbe dovuto riconoscere prima che il modello basato sulla proliferazione dei paper e sulla competizione bibliometrica stava erodendo il tempo necessario per pensare. Se scrivere un articolo diventa soprattutto un obbligo da soddisfare entro una scadenza, è ovvio che un modello di linguaggio appare come un aiuto in un senso estremamente superficiale. Non perché la ricerca sia diventata superficiale, ma perché a essere diventato superficiale è il modo di misurarla.
Un ripensamento profondo
È interessante che l’IA venga percepita come una minaccia soprattutto nei contesti in cui l’apprendimento è stato ridotto a produzione. Dove la tesi è un documento da consegnare, dove il compito è un form da riempire, dove la relazione scientifica è un requisito per accedere a un finanziamento, la tecnologia può sostituire facilmente alcune parti del processo. Ma se il cuore della formazione fosse rimasto ciò che dovrebbe essere, cioè, come già detto, comprensione, analisi, creatività, confronto, ecc. allora l’IA non avrebbe questa capacità di “ingannare il sistema”.
La soluzione non può essere pensare a nuove barriere, nuovi blocchi, nuovi controlli. Sono misure reattive, che funzionano solo sul breve periodo e spesso peggiorano la situazione. Il cambiamento vero deve venire da un ripensamento profondo del modo in cui costruiamo percorsi educativi: meno dipendenza da compiti prevedibili, più importanza data al dialogo, al ragionamento, all’analisi critica, al collegamento tra ambiti e saperi diversi. In un percorso così, la tecnologia ha un posto naturale, non intrusivo. Diventa un mezzo, non una scorciatoia.
Un’occasione preziosa
Sembra paradossale, ma in un certo senso l’IA può essere l’occasione migliore che il sistema educativo abbia avuto da anni. Essa costringe a rimettere al centro ciò che conta davvero. Non si può più dare per scontato che basti assegnare un compito per verificare una competenza; non si può più fingere che produrre molti articoli equivalga a fare buona ricerca; non si può più sostenere che la digitalizzazione consista nel dare un tablet a ogni studente.
La tecnologia sta accelerando tutto, e questo accelera anche le contraddizioni. Ma proprio per questo può diventare il momento in cui la scuola e l’università si chiedono finalmente che cosa vogliono essere.
Se c’è un messaggio che l’IA ci sta dando, suo malgrado, è proprio questo: non possiamo più permetterci un’educazione che si limita a trasmettere informazioni. Quelle, ormai, sono ovunque e sono praticamente gratuite. Il valore è nella capacità di comprenderle, valutarle, criticarle e usarle in modo consapevole. Insomma, collegarle fra loro e inserirle in una sorta di “rete”. Se la scuola e l’università sapranno costruire questo, allora l’IA non sarà un problema, ma una risorsa. E soprattutto non ci coglierà più impreparati.
Imparare dal passato
Quando guardiamo con un minimo di distanza temporale le grandi innovazioni del passato, ci accorgiamo che ogni volta la reazione iniziale è stata sorprendentemente simile: si è temuto che una nuova tecnologia avrebbe distrutto competenze, corrotto pratiche consolidate e degradato la qualità del lavoro umano o reso superfluo un certo tipo di formazione. Oggi molte di quelle discussioni ci sembrano quasi banali, ma all’epoca erano prese molto sul serio. E questo dovrebbe farci riflettere sulle nostre reazioni attuali nei confronti dell’intelligenza artificiale.
Pensiamo al passaggio dalla scrittura manuale alla macchina da scrivere. Per molti insegnanti e professionisti dell’epoca fu vissuto come un tradimento dell’atto stesso di scrivere. La calligrafia era considerata parte della formazione, uno specchio della disciplina personale, un esercizio mentale utilissimo. Delegare la scrittura a un dispositivo meccanico sembrava rischioso, quasi diseducativo. C’era il timore che, se “chiunque” poteva produrre testi leggibili e ordinati, si sarebbe perso il valore del processo. Oggi ci sembra ovvio che quel timore fosse sproporzionato: la macchina da scrivere non ha tolto valore alla scrittura; ha tolto valore solo a un aspetto che non era essenziale, cioè la fatica materiale, permettendo di concentrarsi sul contenuto.
Lo stesso discorso si è ripetuto con le calcolatrici. All’inizio erano vietate in molte scuole perché considerate “pericolose”: l’idea era che avrebbero distrutto la capacità di calcolo mentale, e che gli studenti non avrebbero più compreso l’aritmetica. In realtà ciò che è emerso, negli anni, è che la calcolatrice non crea ignoranza: amplifica quella che c’è già. Se uno studente sa cosa sta facendo, la calcolatrice accelera il procedimento; se non lo sa, la macchina magari lo nasconde per un po’, ma non cambia la sostanza. Il vero problema non era la calcolatrice, ma il modo in cui la matematica veniva insegnata: troppo spesso come esecuzione meccanica, poco come comprensione strutturale.
E ancora prima, la rivoluzione industriale: macchine che sostituivano lavori manuali, persone convinte che la perdita della fatica avrebbe significato la perdita del valore. Con il senno di poi, sappiamo che il valore non era nella fatica, ma nella competenza. Quando una tecnologia elimina uno sforzo puramente meccanico, libera spazio, almeno potenzialmente, per qualcosa di più alto. Il problema è che questo “potenzialmente” non si realizza da solo: serve un sistema educativo capace di guidare quella transizione e non di subirla.
La tecnologia contro la fatica
Il punto centrale, in tutte queste storie, è sempre lo stesso: quando una tecnologia riduce la fatica materiale o cognitiva, mette in crisi un’idea troppo rigida di cosa significhi “imparare”. Si ha paura che se viene tolta la parte più difficile, venga tolto il valore. Ma non è mai così. Ciò che viene meno è la parte che poteva, anzi doveva, essere automatizzata: ciò che resta, cioè il nucleo concettuale (la capacità di interpretare, progettare, collegare), è e deve rimanere il vero obiettivo della formazione.
Guardando queste vicende oggi, molte paure ci sembrano ingenue. È quasi evidente che un ingegnere non diventa più competente perché fa le radici quadrate a mano. È evidente che uno scrittore non perde profondità passando dalla penna alla tastiera. È evidente che la comprensione non coincide con la fatica.
Ed è probabile che fra qualche decennio guarderemo alle discussioni attuali sull’intelligenza artificiale con lo stesso sguardo, stupiti di quanto ci sembrassero minacciose cose che poi si sono rivelate normali. Non perché l’IA sia innocua, ma perché la nostra reazione è stata costruita da un sistema educativo che si è lasciato sorprendere, quando avrebbe potuto essere già maturo e preparato.
Se la scuola e l’università avessero fatto il lavoro che dovevano fare sin dall’inizio della rivoluzione digitale, oggi l’IA non sostituirebbe nulla di significativo. Automatizzerebbe solo quello che non era mai stato significativo: le parti ripetitive, le procedure standard, i testi progettati più per essere valutabili che per essere utili.
Ogni innovazione del passato ha dimostrato che quando una tecnologia elimina la fatica il sistema deve decidere se salire di livello o restare fermo. Le istituzioni formano il futuro, ma solo se accettano di essere loro per prime a cambiare. E questa volta non abbiamo più il lusso di rimandare: l’IA è veloce, e il ritmo della scuola non lo è. Se non allineiamo questi due tempi, non sarà la tecnologia a travolgerci: saremo noi a non esserci preparati, di nuovo, quando potevamo farlo.
Il livello umano
Se guardiamo con attenzione, le tecnologie che hanno sostituito parti della nostra fatica hanno sempre prodotto lo stesso risultato: hanno spostato in avanti il confine di ciò che consideriamo davvero umano. Dopo ogni innovazione, alcune abilità diventano meno centrali, altre diventano fondamentali. Ma questo passaggio non è mai naturale, bisogna costruirlo.
Per capire quanto la mancanza di preparazione pesi in questo senso, basta osservare quali lavori e quali competenze resistono davvero all’automazione. Tutto ciò che richiede creatività (reale, non simulata), giudizio, capacità di costruire significato, interpretare, immaginare scenari, porre domande nuove, tutto questo rimane essenziale. Questa è la radice del problema: l’IA oggi riesce a sostituire parti della scuola perché la scuola ha continuato a insistere sulle parti più facili da sostituire. Se per anni si è confusa la fatica con l’apprendimento, è inevitabile che una tecnologia capace di togliere la fatica sembri togliere anche l’apprendimento. Ma non è così: sta solo eliminando la parte meno significativa del processo, o almento quella che dovrebbe esserlo.
