[06] AI Literacy tra Simboli, Spiegabilità e Pensiero Critico
Un'esplorazione approfondita sull'AI Literacy: come alfabeti digitali, pensiero critico e spiegabilità plasmano le nuove competenze fondamentali nell'era dell'intelligenza artificiale. Sandra e Valentino commentano spunti tratti dal capitolo di Chiara Panciroli, con esempi concreti e riflessioni sulle sfide educative.
Chapter 1
Dalle Origini dei Simboli all'Alfabetizzazione AI
Sandra Catellani
Ciao a tutti e bentornati a “Didattica delle New Literacies”! Io sono Sandra Catellani, e come sempre sono qui con Valentino Curreri. Oggi ci addentriamo in un capitolo davvero centrale del libro di Pier Cesare Rivoltella e Chiara Panciroli, “AI Literacy: alfabeti, pensiero critico, spiegabilità”, scritto proprio da Chiara Panciroli e pubblicato da Mondadori Università nel 2025.
Valentino Curreri
Ciao Sandra, ciao a tutti! Sì, oggi parliamo di AI Literacy, ma partendo da molto lontano, cioè dalle prime forme simboliche dell’umanità. Mi ha colpito come Panciroli sottolinei che la vera rivoluzione non sia stata la ruota o la spada, ma la capacità di rappresentare concetti attraverso simboli. Quei primi segni sulle rocce, 75.000 anni fa, sono stati il primo passo verso la condivisione della conoscenza.
Sandra Catellani
Esatto, e questa evoluzione dei simboli, degli alfabeti, è sempre stata legata al bisogno umano di appartenere a una comunità, come diceva anche Maslow. Oggi, però, con le tecnologie digitali, il concetto di alfabetizzazione si è ampliato tantissimo. Valentino, secondo te, come stanno cambiando le nuove tecnologie il nostro modo di intendere l’alfabetizzazione?
Valentino Curreri
Guarda, secondo me la tecnologia ha proprio stravolto il concetto. Non basta più saper leggere e scrivere: ora bisogna saper decifrare codici, immagini, dati, algoritmi... E come abbiamo già discusso in una puntata precedente, la literacy oggi è sempre più polialfabetizzazione. L’AI Literacy, di cui parla Panciroli, è un tassello fondamentale di questa evoluzione.
Chapter 2
Definizione e Dimensioni dell’AI Literacy
Sandra Catellani
Entriamo allora nel cuore del capitolo: che cos’è questa AI Literacy? Panciroli, riprendendo anche Yi (2021), la definisce come la capacità di comprendere, utilizzare e interagire criticamente con l’Intelligenza Artificiale. Non è solo una questione tecnica, ma anche sociale e culturale.
Valentino Curreri
Sì, e il framework che propone distingue tre sottoaree: quella funzionale, cioè le competenze di base come lettura, scrittura, calcolo; quella sociale, che riguarda il pensiero critico e la comprensione del contesto; e quella tecnica, cioè la conoscenza dei media e delle tecnologie. Devo dire che quando ho dovuto preparare un nuovo corso universitario sull’AI, mi sono reso conto di quanto fosse necessario aggiornare le mie competenze in tutte e tre queste aree. Non bastava saper spiegare come funziona un algoritmo: serviva anche capire le implicazioni sociali e saperle trasmettere agli studenti.
Sandra Catellani
Ecco, questa è una cosa che spesso si sottovaluta. L’AI Literacy non è solo per gli informatici, ma per tutti. E come dice anche Long e Magerko, è la capacità di valutare criticamente, utilizzare e comunicare con l’IA. C’è una forte connessione con la Data Literacy, perché senza capire i dati, non si può davvero capire l’AI.
Chapter 3
Pensiero Critico e Metacognizione nell’AI Literacy
Valentino Curreri
Un aspetto che mi ha colpito molto è l’importanza del pensiero critico e della metacognizione. Panciroli insiste sul fatto che non basta proteggere i propri dati, cioè avere abilità passive, ma bisogna anche saper usare l’AI in modo creativo, quindi sviluppare abilità attive. La metacognizione, cioè la capacità di riflettere sul proprio pensiero, è fondamentale per anticipare i cambiamenti e imparare in modo autonomo.
Sandra Catellani
Sì, e qui mi viene da chiederti: quali strategie possiamo adottare, secondo te, per promuovere davvero il pensiero critico tra studenti e cittadini? Perché spesso si parla di pensiero critico, ma poi nella pratica…
Valentino Curreri
Eh, bella domanda. Io credo che servano attività che mettano le persone di fronte a problemi reali, dove devono analizzare dati, discutere, magari anche sbagliare e riflettere sugli errori. Lavorare su casi concreti, come abbiamo visto anche nella robotica educativa di cui parlavamo qualche episodio fa, aiuta a sviluppare questa consapevolezza. E poi, fondamentale, è insegnare a riconoscere i bias, sia nei dati che negli algoritmi.
Sandra Catellani
Sono d’accordo. E aggiungerei che serve anche un ambiente che favorisca il dialogo e la collaborazione, perché il pensiero critico si costruisce insieme, non da soli.
Chapter 4
L’Etica dell’AI e la Critical Data Literacy
Sandra Catellani
A proposito di consapevolezza, il capitolo dedica molto spazio alla Critical Data Literacy. Cioè, la capacità di leggere, interpretare e valutare dati e algoritmi, ma anche di riconoscere il potere che hanno le grandi aziende tech nella raccolta e nell’uso dei dati.
Valentino Curreri
Sì, qui si entra in un terreno delicato. Spiranec, Kos e George parlano di Critical Data Literacy come la capacità di interrogarsi sulle origini, sugli usi e sugli impatti dei dati. Non basta saper usare Excel, insomma. Bisogna capire chi controlla i dati, come vengono usati, quali sono le implicazioni etiche e sociali.
Sandra Catellani
Guarda, mi viene in mente il dibattito che c’è stato qualche tempo fa sulla raccolta dati nei social network scolastici. Molti genitori non avevano idea di quante informazioni venissero raccolte e come potessero essere usate. È un esempio perfetto di quanto sia urgente sviluppare una Critical Data Literacy diffusa.
Valentino Curreri
Assolutamente. E come dice Panciroli, solo integrando AI Literacy e Critical Data Literacy possiamo davvero emanciparci dalle logiche economiche e politiche che stanno dietro la datificazione della società.
Chapter 5
Spiegabilità e Fiducia: il ruolo dell’XAI
Valentino Curreri
Un altro tema chiave del capitolo è la spiegabilità dell’AI, la cosiddetta XAI. Oggi si parla tanto di black box, cioè di sistemi che prendono decisioni ma nessuno sa bene come. La XAI serve proprio a rendere trasparenti questi processi, per costruire fiducia e responsabilità, sia a livello educativo che sociale.
Sandra Catellani
Sì, e la spiegabilità non è solo una questione tecnica. È anche una questione di agentività, come dice Panciroli: cioè, dare a studenti, insegnanti e genitori gli strumenti per capire e decidere consapevolmente se e come usare l’AI. Ma ti chiedo: secondo te, l’utente medio può davvero comprendere le scelte di un algoritmo?
Valentino Curreri
Mah, non è facile. Alcuni modelli, come gli alberi decisionali, sono abbastanza trasparenti, ma altri, tipo le reti neurali profonde o i Large Language Models, sono molto più complessi. Però credo che si possa lavorare su strumenti di visualizzazione, simulazioni, spiegazioni interattive… Non tutti diventeranno esperti, ma almeno si può dare una base per capire quando fidarsi e quando no.
Sandra Catellani
Ecco, e qui entra in gioco anche la formazione degli insegnanti, che devono essere in grado di spiegare questi concetti e di scegliere quando e come usare l’AI in classe.
Chapter 6
Normative e AI Act: L’Europa tra Regole e Sperimentazione
Sandra Catellani
Parlando di responsabilità, non possiamo non citare il quadro normativo europeo. L’AI Act, proposto dalla Commissione Europea nel 2021, introduce regole precise per l’uso dell’AI, soprattutto per i sistemi ad alto rischio. Prevede requisiti di trasparenza, controlli umani, valutazioni di conformità… e anche sanzioni, se non si rispettano le regole.
Valentino Curreri
Sì, e introduce anche le cosiddette sandbox regolamentari, cioè spazi di sperimentazione dove aziende e autorità possono testare nuove soluzioni in modo controllato. Recentemente, parlando con alcuni colleghi, è emersa proprio la necessità di una formazione continua per i docenti: le regole cambiano, le tecnologie evolvono, e non si può pensare che la formazione sia una tantum. Bisogna aggiornarsi costantemente, anche per capire come applicare queste normative nella didattica.
Sandra Catellani
E qui l’Europa sta cercando di trovare un equilibrio tra tutela dei cittadini e promozione dell’innovazione. Non è semplice, ma è fondamentale per costruire un ecosistema di AI affidabile e in linea con i valori democratici.
Chapter 7
LLM e un Futuro Umanocentrico per l’AI
Valentino Curreri
Arriviamo così ai Large Language Models, come GPT, che sono ormai ovunque. Sono modelli basati su reti neurali profonde, addestrati su miliardi di dati, e sono in grado di generare testi, rispondere a domande, tradurre… Ma pongono anche enormi sfide etiche, dai bias al consumo di risorse.
Sandra Catellani
Sì, e qui il capitolo di Panciroli è molto chiaro: per affrontare queste sfide serve sviluppare non solo competenze tecniche, ma anche etiche e sociali. L’AI deve essere human-centered, cioè centrata sull’uomo, e migliorare grazie all’input umano. Solo così possiamo progettare un’educazione inclusiva e continua, come chiedono anche le strategie europee.
Valentino Curreri
Esatto. E questo significa ripensare i curricoli, offrire percorsi formativi che si aggiornano costantemente, e garantire che tutti, anche le ragazze e le giovani donne, abbiano accesso alle competenze digitali avanzate. È una sfida enorme, ma anche un’opportunità per costruire una società più consapevole e giusta.
Sandra Catellani
E con questa riflessione chiudiamo la puntata di oggi. Grazie a tutti per averci seguito in questo viaggio tra simboli, pensiero critico e spiegabilità dell’AI, sempre guidati dal capitolo di Chiara Panciroli. Valentino, grazie come sempre per le tue idee e la tua passione.
Valentino Curreri
Grazie a te Sandra, e grazie a chi ci ascolta. Continuate a seguirci, perché il viaggio nelle New Literacies non è certo finito qui!
Sandra Catellani
Alla prossima puntata di “Didattica delle New Literacies”! Un saluto da Sandra Catellani…
Valentino Curreri
…e da Valentino Curreri. Ciao a tutti!
