Negli ultimi mesi Anthropic ha pubblicato due report molto interessanti (qui e qui) che ci aiutano a capire come l’intelligenza artificiale stia entrando nei contesti educativi: da un lato viene analizzato l’uso da parte degli studenti universitari, dall’altro quello dei docenti. Insieme, queste due ricerche offrono uno spaccato prezioso di come AI e didattica si stiano ridefinendo reciprocamente.
L’analisi di oltre 500.000 conversazioni studentesche, rese anonime, tra utenti e Claude.ai mostra che l’IA non viene usata solo per compiti “meccanici”, anzi, ma anche e soprattutto per attività di ordine superiore secondo la tassonomia di Bloom.
Gli studenti STEM, in particolare quelli di Informatica, sono i primi ad adottare gli strumenti AI come Claude. I laureati in Informatica rappresentano solo il 5,4% dei laureati statunitensi, ma costituiscono il 36,8% delle conversazioni degli studenti su Claude.ai. Le Scienze Naturali e la Matematica mostrano anche una sovrarappresentazione (15,2% delle conversazioni contro il 9,2% dei laureati). Al contrario, gli studenti di Economia, Professioni Sanitarie e Scienze Umanistiche mostrano tassi di adozione inferiori rispetto ai loro numeri di iscrizione, suggerendo un'integrazione più lenta dell'IA nei loro flussi di lavoro accademici. In ogni caso non sorprende che i primi utilizzatori di Claude siano gli studenti STEM, in particolare informatici e matematici, mentre in ambito umanistico e sanitario l’adozione è più lenta.
I ricercatori hanno identificato quattro modelli di interazione, ciascuno presente in circa la stessa misura (23-29% delle conversazioni):
- risoluzione diretta dei problemi: l'utente cerca una soluzione o una spiegazione rapida.
- creazione diretta di output: l'utente mira a produrre output più lunghi (es. saggi).
- risoluzione collaborativa dei problemi: l'utente dialoga attivamente con l'IA per risolvere problemi.
- creazione collaborativa di output: l'utente si impegna in un dialogo per creare contenuti.
Quasi la metà (circa il 47%) delle conversazioni sono state delle conversazioni"dirette", sollevando interrogativi sull'integrità accademica e lo sviluppo delle competenze. Esempi preoccupanti includono richieste come "fornire risposte a domande a scelta multipla sull'apprendimento automatico" e "riscrivere testi di marketing e aziendali per evitare il rilevamento del plagio".
Facendo riferimento alla tassonomia di Bloom, le due funzioni prevalenti nelle conversazioni analizzate sono:
- creare (39,8%): progettare materiali di studio, scrivere testi, generare domande d’esame.
- analizzare (30,2%): scomporre concetti, risolvere problemi complessi, fare debug di codice.
Questa dinamica apre ad opportunità (pensiamo all’apprendimento attivo con spiegazioni passo passo), ma solleva anche interrogativi cruciali: quanto gli studenti rischiano di delegare competenze critiche all’IA? E come ridefinire valutazioni e politiche anti-plagio in un contesto in cui un saggio ben scritto o un problema complesso possono essere risolti in pochi secondi?
Sul fronte dei professori universitari, Anthropic ha analizzato 74.000 conversazioni di docenti e intervistato 22 membri della Northeastern University. Emergono usi diversificati:
- curriculum e materiali didattici (57%): i docenti conversano con Claude per progettare programmi, creare simulazioni e giochi educativi, sviluppare strumenti interattivi con Claude Artifacts.
- ricerca accademica (13%): le interazioni con Claude sono servite per ottere supporto alla scrittura e all’analisi.
- valutazione degli studenti (7%): le conversazioni hanno avuto come scopo la valutazione degli studenti in parte automatizzata, ma qui restano forti resistenze etiche e di qualità.
Una scoperta significativa è l'uso della funzione Artifacts di Claude per creare materiali didattici interattivi e funzionali. Esempi includono giochi educativi interattivi, strumenti di valutazione (es. quiz HTML con feedback automatico, rubriche di valutazione), dashboard di visualizzazione dati e strumenti di apprendimento specifici per materia (es. giochi di stechiometria chimica). Come ha affermato un docente: "Ciò che era proibitivamente costoso (in termini di tempo) da fare [prima] ora diventa possibile. Simulazioni personalizzate, illustrazioni, esperimenti interattivi. Wow. Molto più coinvolgente per gli studenti."
Gli educatori bilanciano l'aumento dell'IA (uso collaborativo) e l'automazione (delega completa dei compiti). Nel primo caso rientrano compiti che richiedono un contesto significativo, creatività o interazione diretta con gli studenti, come l'insegnamento universitario e l'istruzione in aula (77,4% aumento), la scrittura di proposte di ricerca (70,0%) e la consulenza accademica (67,5%). "È la conversazione con l'LLM che è preziosa, non la prima risposta. Questo è anche ciò che cerco di insegnare agli studenti. Usalo come partner di pensiero, non come sostituto del pensiero." Vedono una delega quasi totale invece compiti amministrativi di routine, come la gestione delle finanze delle istituzioni educative (65,0% automazione), la gestione delle iscrizioni (44,7%) e il mantenimento dei registri degli studenti e la valutazione delle prestazioni accademiche (48,9%).
Nonostante la valutazione degli studenti sia il terzo uso più comune dell'IA tra gli educatori (7% delle conversazioni), è anche il secondo compito più "automation-heavy", con il 48,9% delle conversazioni legate alla valutazione che mostrano modelli di automazione. Ciò contrasta con il parere dei docenti intervistati, che l'hanno considerata l'area in cui l'IA era meno efficace e hanno espresso preoccupazioni etiche. "Eticamente e praticamente, sono molto diffidente nell'usare [strumenti AI] per valutare o consigliare gli studenti in qualsiasi modo... eticamente, gli studenti non pagano la retta per il tempo dell'LLM, pagano per il mio tempo. È mio obbligo morale fare un buon lavoro (con l'assistenza, forse, degli LLM)."
Non mancano le tensioni. Molti professori stanno ripensando radicalmente valutazioni e consegne: se un compito può essere svolto da un’IA, forse non è più un buon compito. Un docente ha dichiarato: "L'IA mi sta costringendo a cambiare totalmente il modo in cui insegno. Sto spendendo molti sforzi per capire come affrontare il problema del carico cognitivo." Le competenze di valutazione dei contenuti generati dall'IA stanno diventando cruciali. Molti educatori stanno ridisegnando i compiti per renderli meno suscettibili all'IA. "Se Claude o uno strumento AI simile può completare un compito, non mi preoccupo che gli studenti copino; mi preoccupo che non stiamo facendo il nostro lavoro di educatori."
Mettendo insieme i due report, vediamo una doppia dinamica: gli studenti usano Claude per accelerare e arricchire il loro studio, ma rischiano di cadere nella dipendenza cognitiva; i docenti sperimentano l’IA come strumento di creatività e gestione, ma sono chiamati a ridefinire il senso stesso di valutazione e apprendimento. Entrambi i fronti condividono una sfida: non sostituire, ma trasformare. L’IA diventa davvero un alleato educativo quando non si limita a fornire risposte, ma stimola nuove domande e permette a studenti e insegnanti di concentrare tempo ed energie sulle dimensioni più autentiche e formative del processo di apprendimento.

