,

L’IA distruggerà la scuola?

Ormai è diventato impossibile ignorarlo: le intelligenze artificiali generative sono ovunque. Infatti non parliamo di un mezzo utilizzato solo dalle grandi aziende tecnologiche, ma di strumenti che usiamo in molti per scrivere mail, riassunti, documenti di lavoro, per sistemare tabelle di dati, o anche semplicemente per riordinare le idee. E quando dico “usiamo”, non mi riferisco solo agli “smanettoni”, ma in generale a chi lavora negli uffici pubblici, nelle aziende private in genere, ai liberi professionisti, e sì, anche a chi opera nelle scuole. È una tecnologia che è scivolata nel quotidiano perché taglia via un pezzo di lavoro che nessuno rimpiange, cioè quello ripetitivo, quello che richiede tempo senza dare in cambio vera comprensione o soddisfazione legata a una creatività di qualche tipo. Usarla è un automatismo naturale, lo stesso a cui abbiamo assistito quando i fogli di calcolo hanno sostituito interi pomeriggi di contabilità fatta a mano.

E la scuola?

Poi si entra nelle aule scolastiche, e all’improvviso sembra di cambiare universo. Qui la narrazione si ribalta: l’IA smette di essere un normale strumento di lavoro e diventa un problema, un rischio, qualcosa da evitare il più possibile. E spesso agli studenti viene detto solo “non usatela”, senza altre spiegazioni. Una frase che, da sola, non insegna nulla. È un po’ come dire “non usate Internet” a inizio anni Duemila: una richiesta impossibile da rispettare e che non prepara a nulla, men che meno al futuro. Perché il punto non è l’esistenza dell’IA, ma la maturità con cui la usiamo.

E qui bisogna essere molto chiari: gli insegnanti non sono affatto fermi. Tanti ci provano, eccome. Ci sono professori che spiegano come verificare le risposte dell’IA, come riconoscere gli errori, come usarla come supporto per la comprensione invece che scorciatoia per copiare. Lo fanno con grande impegno, spesso per conto loro, senza linee guida chiare e senza una formazione strutturata. Il problema non sono loro: il problema è che manca un progetto educativo condiviso e integrato che dica esplicitamente che queste tecnologie fanno ormai parte dell’ambiente culturale in cui gli studenti vivono e vivranno.

L’IA ormai è ovunque

Si apre qui una delle contraddizioni più grandi. La scuola forma le persone che poi entreranno nel mondo del lavoro, un mondo in cui l’IA sarà usata quotidianamente. Non è una vaga ipotesi profetica, perché sta già succedendo. La maggior parte dei lavori che coinvolgono testi, procedure più o meno standard, modulistica, raccolta dati, documentazione, utilizzerà in modo massiccio questi strumenti. E allora che senso ha preparare gli studenti ignorando lo strumento che dovranno usare una volta usciti da scuola? È come insegnare a un meccanico a lavorare senza attrezzi perché “la fatica forgia il carattere”, mentre fuori tutti i colleghi li usano da anni.

Le fatiche non sono tutte uguali

Il punto infatti non è “usare o non usare l’IA”, ma capire quando è utile usarla e quando no. Perché ci sono fatiche che fanno crescere davvero, come quella per comprendere un concetto, o per ragionare su un problema. Queste sono le fatiche che costruiscono una mente capace di affrontare il mondo. Nessuna IA potrà mai sostituire queste parti, e non deve farlo. Ma esistono anche fatiche che non aggiungono nulla: riscrivere dieci volte la stessa frase per renderla più fluida, fare esercizi meccanici che servono solo ad abituarsi a un certo tipo di formato, ripetere informazioni che si dimenticano il giorno dopo perché non hanno un vero significato, cioè una rete che le lega ad altri concetti ed informazioni. E oggi il mondo del lavoro queste fatiche le ha già delegate.

La scuola, però, spesso tratta queste due categorie come se fossero equivalenti. Valuta tutto allo stesso modo: il compito che misura la comprensione profonda e quello che misura soltanto la resistenza alla noia. E questo crea una distorsione evidente, perché quando le verifiche premiano la parte ripetitiva, quella che nella realtà verrà sistematicamente automatizzata, allora è normale che lo studente percepisca la scuola come un luogo sganciato dal resto del mondo. Gli si chiede di fare a mano ciò che fuori non farebbe più nessuno. E non perché farlo a mano aiuti davvero a capire, ma perché è un modo semplice per controllare se ha “fatto i compiti”.

Se vogliamo davvero educare le persone a usare questi strumenti in modo intelligente, dobbiamo anche cambiare ciò che misuriamo. Se una verifica chiede di produrre un testo perfetto in poco tempo, è ovvio che lo studente pensa subito di usare un modello di linguaggio, perché quella richiesta non misura la comprensione, misura la capacità tecnica di produrre un output in uno stile preciso. È un tipo di fatica che nella vita reale verrebbe delegata senza nessun dilemma morale. Ma se invece la verifica chiede di spiegare un concetto, di collegare idee, di interpretare un errore o di confrontare più metodi o approcci, allora sì che stiamo misurando qualcosa che l’IA non può fare al posto dello studente. Ammesso che chi deve valutare tale compito sia in grado di organizzare una prova sensata, come un’interrogazione orale in presenza.

In questo senso, il cuore della questione non è tecnologico, ma educativo. La scuola dovrebbe essere il posto in cui si impara a decidere qual è la fatica giusta. Quella che costruisce, quella che lascia un segno nella forma mentis. E dovrebbe essere anche il luogo in cui si impara a delegare la fatica “inutile”, quella che non insegna di fatto quasi nulla. L’IA, in questo quadro specifico, non è evidentemente più un nemico, ma uno strumento che ci obbliga a ripensare quali parti del nostro lavoro hanno valore e quali no. E questo è un tipo di riflessione che, paradossalmente, può rendere la scuola più umana, non meno.

La cosa più ironica è che l’IA viene già usata dentro la scuola, solo che non lo si ammette apertamente. La usano le segreterie per preparare comunicazioni e documenti, la usano alcuni docenti per scrivere circolari o linee guida, o addirittura prove di verifica, e in alcuni casi anche per correggerle. La usano gli uffici amministrativi. E va benissimo. Ma allora perché gli studenti dovrebbero vivere in una bolla isolata, dove tutto ciò che fuori è normale diventa improvvisamente proibito? È una distanza finta, artificiale, che non prepara alla realtà: la nasconde.

E alla fine il punto è questo: non dobbiamo scegliere tra la fatica e l’intelligenza artificiale. Dobbiamo scegliere la fatica giusta, quella che costruisce competenze vere, e dobbiamo insegnare a usare gli strumenti come parte integrante di quel percorso. Se la scuola riuscirà a fare questa distinzione, allora non solo non verrà “superata” dalla tecnologia, ma diventerà il posto migliore in cui imparare a conviverci. Perché la tecnologia passerà, cambierà, si evolverà. Ma la capacità di ragionare, scegliere, capire e dare senso alle cose è ancora un lavoro umano.

Una replica a “L’IA distruggerà la scuola?”

  1. Buongiorno,

    Sono un insegnante A028 (matematica e scienze) in un CPIA (scuola media pubblica per adulti-accogliamo anche minorenni > 16 anni) ancora attivo nella ricerca scientifica. Le idee espresse mi trovano d’accordo in linea di massima. Tuttavia la “fatica giusta” **quando fatta scuola** è proprio quella che come dici tu “cambia la persona”. Va bene spiegare come usare l’IA e soprattutto come operare un prompting corretto (considero un corretto uso del prompting, la vera chiave educativa per tutti non solo per gli studenti quando si usa una IA), ma quando usata da adolescenti, o peggio pre-adolescenti, impegnati in verifiche scolastiche è come dare un macchina a guida autonoma a chi non ha la patente di guida: è molto probabile che arrivi a destinazione ma molto meno che abbia capito in che modo. Credo quindi che la gradualità sia tutto; probabilmente è meglio riservare l’educazione all’IA nelle scuole al 4 o 5 anno delle superiori.

    Distinti saluti

    Paolo Piras.

    "Mi piace"

Lascia un commento