Intervista a Elisabetta Gola, professoressa ordinaria di Filosofia e teorie dei linguaggi presso l’Università di Cagliari

foto di Elisabetta Gola

Dall'AI ACT a progetti che cercano di coniugare il tema dell'inclusione con il digitale, questi alcuni dei temi su cui ci siamo confrontati insieme a Elisabetta Gola. La docente è stata, fra le tante cose, anche protagonista di un importante iniziativa dedicata all'educazione digitale.

L'AI Act entrerà in vigore in tutte le sue parti nel 2027. Ti sei occupata dell’analisi del testo da un punto di vista di genere. Quali sono le principali evidenze emerse? 

L’AI Act, primo quadro normativo globale che regola l'utilizzo dell'intelligenza artificiale nell'Unione Europea, si basa sul principio della proporzionalità della sanzione del controllo rispetto al rischio dei sistemi artificiali: più alto è il rischio di un sistema, maggiore è la sanzione prevista.
Tra i rischi inclusi nell’AI Act ci sono anche quelli legati alle discriminazioni: infatti è stata rilevata la possibilità che i sistemi artificiali possano mettere in atto decisioni discriminatorie. 
Questo può riguardare gli usi linguistici, per esempio nel caso delle intelligenze artificiali generative (come ChatGPT, Gemini, etc.) che, in quanto addestrate su basi di conoscenza generate dagli umani contengono stereotipi o espressioni discriminatorie, che vengono pertanto riprodotte. Questo si è visto chiaramente nel caso degli stereotipi di genere o legati alle razze.
Ma situazioni di grave rischio discriminatorio sono anche quelle relative ai processi di “decision making”: uno dei casi considerati dall’AI Act, per fare un esempio, riguarda i sistemi che potrebbero distribuire le cure mediche o più in generale assistenza e supporto. Diversamente da un operatore umano, l’AI potrebbe applicare i criteri in modo strettamente logico, senza poter tenere conto del contesto, di casi specifici, o anche di ambiguità e inganni. Per cui, per non essere esposti a sanzioni, gli enti che adottano sistemi automatici che sfruttano sistemi di intelligenza artificiale per questi scopi dovranno controllare che non si verifichino iniquità, anche involontarie, dato che le AI non hanno intenzioni di per sé discriminatorie, ma possono restituire output che invece lo sono. 

Una prima riflessione sul linguaggio. Come sta cambiando, secondo te, il modo in cui comunichiamo nell’era digitale?

Il linguaggio evolve e si adatta alle esigenze comunicative: abbiamo visto i nostri testi ridursi di lunghezza con gli SMS; abbreviarsi con caratteri “speciali”, come la X per il “per”, l’asterisco per il neutro, etc.; arricchirsi di emoj ed emoticon per rendere i messaggi meno freddi; riempirsi di hashtag e menzioni per essere letti e trovati. Scriviamo di più, ma in modo diverso: facciamo più fatica a produrre testi lunghi, testi scritti “da zero”, testi accurati. La scuola e l’università sono i luoghi dove impariamo con processi formali a scrivere in modo adeguato testi funzionali ai vari obiettivi: tesine, tesi, testi argomentativi, ecc.. stiamo invece acquisendo informalmente abitudini di scrittura indotti dalle metriche delle piattaforme: passiamo da un canale all’altro con sufficiente disinvoltura e adattandoci al tono di voce di Instagram, ai messaggi sincretici di reel e storie che mettono insieme scrittura, immagini e suoni, all’ermetismo colloquiale di whatsapp, ecc...
Quello che sembra di notare come paradossale effetto della diffusione della tecnologia, e secondo me destinato ad aumentare ancora, è tuttavia il ritorno al messaggio vocale nell’era della comunicazione digitale. Dal 2017 audiolibri, podcast e contenuti vocali hanno infatti cominciato un’ascesa che sinora ha visto una curva positiva costante.
Con l’AI, che rende sempre più difficile stabilire l’autenticità dei testi scritti, ritengo che questo fenomeno diventerà ancora più rilevante e conoscerà un'ulteriore spinta alla sua diffusione.

Quanto incidono semantica cognitiva e metafore concettuali  sul design dei sistemi di intelligenza artificiale, dai chatbot agli assistenti vocali? 
Ci racconteresti qualche progetto su cui stai lavorando in questo ambito?

La semantica cognitiva e le metafore in particolare evidenziano, fra le molte ipotesi teoriche, prospettive e tematiche di studio, che i processi di comprensione del significato sono inferiti e filtrati in modo vincolato alle nostre possibilità e competenze “mentali”. La comunicazione non è, cioè, un processo di codifica e decodifica che si basa sulla condivisione di una lingua comune, ma chiama in causa molto di più. Il linguaggio è la condizione necessaria per poter condividere un segno (anzi un significante, la parte percepibile - udibile o visibile - del segno) che è un indizio sulla cui base il destinatario (ri)costruisce il significato inteso. In questo percorso tanti aspetti possono aiutare o ostacolare il processo di comprensione. L’IA, ma ancor prima le piattaforme social e interattive, ha migliorato negli ultimi anni la velocità e la pertinenza delle comunicazioni mediate dalla tecnologia, grazie alla costante profilazione cui veniamo sottoposti. Per cui riceviamo i messaggi che ci interessano, ci appaiono le pubblicità che hanno più probabilità di portare a un acquisto, entriamo in contatto con persone con interessi più affini ai nostri ecc... Tutto questo rende più probabile la correttezza della comprensione. Su questo "confidano" anche i chatbot, che vengono addestrati immaginando utenti-tipo con i quali condurre un discorso fluido e corretto su temi pertinenti a una certa area. Questo però significa anche fare ricorso a molta conoscenza di sfondo, implicita, intrisa di tutti gli stereotipi e le scorciatoie che inseriamo nei testi da cui le macchine apprendono.
Per un recente progetto addestreremo proprio un IA generativa a produrre video che raccontino testi di narrativa per ragazzi, con l’obiettivo di far apprezzare le storie dei testi classici e meno classici alle ultime generazioni, e stimolare indirettamente l’interesse per la lettura, rivitalizzando il media “libro” come strumento di crescita.

Lavorare sul linguaggio significa anche interrogarsi su come raccontiamo l’innovazione. Secondo te, come si può comunicare l’innovazione digitale in modo semplice, inclusivo e coinvolgente, senza semplificare troppo?

Mi chiedo spesso come e cosa dovremmo raccontare alle persone e soprattutto alle generazioni più giovani l’innovazione digitale. Si parla di media education, digital literacy, per riferirsi all’urgenza di mettere tutti e tutte in grado di non “rimanere indietro”, di evitare di subire il “digital divide”, una discriminazione analoga all’analfabetismo di un tempo. Ma quale “alfabeto” dovremmo “trasmettere”? La sola competenza tecnica non è sufficiente, e comunque non sempre è posseduta dai nativi digitali, che magari maneggiano alla perfezione uno smartphone, ma non conoscono nemmeno l’organizzazione di base (il concetto di cartella, per fare esempio) di un computer. Altri aspetti riguardano la gestione comunicativa nelle piattaforme, che deve tener conto anche di competenze trasversali e delle peculiarità della comunicazione multiculturale.
Con l’IA si pone un’ulteriore esigenza: far capire cosa c’è dietro l’automazione, per evitare di farsi fuorviare dall’idea comune di “intelligenza” e affidarsi in modo consapevole alle decisioni e informazioni ricavata da un’IA generativa. Uno dei modi che ritengo più utili, anche se non il più semplice, è introdurre a scuola il coding, utilizzando strumenti di programmazione intuitiva come Scratch. Il personale docente del primo ciclo è stato formate negli ultimi anni su questo e i bambini e le bambine rispondono volentieri alle attività di programmazione perché creative e perché restituiscono un feedback immediato in termini di risultato. Il coding mostra i principi di automazione, svela i principi che sono alla base del funzionamento algoritmico dei processi computazionali e nello stesso tempo contribuisce a sviluppare abilità logiche nelle persone. Il coding è pensato per essere proposto sin dai primi cicli delle scuole e insieme alla children philosophy e alla media education potrebbe predisporre le nuove generazioni a muoversi nei nuovi ecosistemi digitali con consapevolezza, competenza e capacità critica.


Edvance, Il progetto di alta formazione sull’educazione digitale che avete appena lanciato, si propone di ridurre il divario di competenze digitali e promuovere un accesso consapevole alle tecnologie. Secondo te, in che modo l’educazione digitale può contribuire a costruire una cittadinanza critica e responsabile, capace di abitare il mondo digitale non solo come utenti, ma come protagonisti consapevoli dei processi culturali e sociali in atto?

Edvance propone formazione gratuita online ad accesso libero (MOOC) sulle competenze digitali e trasversali. Questo permette di allargare potenzialmente il numero di persone che, qualsiasi sia il loro ambito di studio o professionale, possono acquisire conoscenze e sviluppare consapevolezza su come reperire, comprendere, valutare e gestire le informazioni, nonché su quanto sia opportuno fidarsene. Tutto questo è indispensabile in un mondo dove l’informazione arriva in quantità sempre maggiori e in modo sempre più disintermediato e diretto. Questo può sembrare un vantaggio, ma espone invece al rischio alla saturazione, al calo di attenzione e alla trappola della distrazione. E con i software di IA anche alla difficoltà di distinguere le notizie vere da quelle verosimili. Perciò l’educazione digitale è indispensabile.

Dal tuo punto di vista, quali sono le attenzioni etiche più urgenti quando si progettano strumenti e piattaforme digitali che mediano la comunicazione?

Questo è uno dei temi più delicati e a mio avviso di più difficile traduzione in algoritmi. C’è chi, come Paolo Benanti, propone di inserire delle regole etiche (Algoretica) che tengano i sistemi artificiali sotto controllo. Asimov ci ha mostrato nelle sue riflessioni (oggi non più tanto fantascientifiche) quanto questo possa però essere difficilmente applicabile. Come si può programmare una macchina a capire quando le sue azioni possono recare danno all’umanità? O come decidere tra l’autodifesa o un mancato intervento che può danneggiare l’umanità?
Più pragmaticamente una richiesta che viene fatta da più parti è che ci sia trasparenza da parte delle software house sul codice e sui dati. Naturalmente, siccome questo entra in conflitto con la riservatezza necessaria a proteggersi dalla concorrenza, l’appello sinora non è stato accolto. Il gruppo di lavoro dell’AI Act ha messo in evidenza anche questo.

Sappiamo che sei coinvolta o sei stata coinvolta in progetti che promuovono l’inclusione attraverso il digitale. 
Come il digitale/tecnologia ha rappresentato un vero strumento di accesso e partecipazione per chi rischia di essere escluso?
Ti andrebbe di citarci altri progetti digitali in cui hai contributo e che hanno generato un impatto positivo?

La tecnologia non rappresenta di per sé uno strumento di inclusione, dipende da come lo si usa e il progetto “OLTRE, contronarrazioni dai margini al centro” lo ha mostrato bene. Ci ha fatto capire che non basta pubblicare nei social buoni contenuti, tecnicamente ben fatti, per coinvolgere le persone in una comunità di interesse o interessarle a un tema sociale. Il progetto ha cominciato a funzionare quando, modificando anche in parte le strategie di partenza, le nuove generazioni di cittadini europei, figli e figlie di persone di origine o religione musulmana, hanno potuto esprimersi in prima persona, produrre da sé i contenuti da pubblicare, entrare a tutti gli effetti nel processo di comunicazione come mittenti, non come destinatari. A quel punto i profili social hanno cominciato ad essere frequentati, a creare engagement, ad essere “credibili” .
L’ecosistema digitale, da internet interattivo ai social media, ha favorito l’instaurarsi di una comunicazione sempre più relazionale, in cui il destinatario della comunicazione non è più un target da colpire, ma un pubblico con cui dialogare. Ma perché questo avvenga in uno scenario orientato all’inclusione, ci dovrebbero essere pari opportunità tecnologiche e culturali, che molte ricerche - soprattutto riferite alla scuola- mostrano essere un obiettivo ancora distante.