Il 19 febbraio 2026, alla biblioteca Calvairate, si è tenuto il primo dei tre incontri del ciclo AI al bivio: bias, cultura, diritti organizzato da N.i.n.a. e dalla nostra Fondazione dal titolo Origine e natura dell’intelligenza artificiale, dati & datificazione della vita, problemi connessi. Hanno contribuito alla conversazione moderata da Francesco Samorè, Giovanna Mascheroni, docente di Teoria dei Media dell’università Cattolica di Milano, e Giulia Sodano di Period think thank (data feminism in action).
Fondazione Bassetti aveva già incontrato N.i.n.a. in occasione del ciclo di incontri Le conseguenze dell’AI organizzato dall’associazione milanese nel 2024. L’obiettivo era quello di portare all’attenzione di un pubblico ampio, l’impatto dell’intelligenza artificiale sulle nostre esistenze, dal lavoro alla sostenibilità ambientale, dalla circolazione delle informazioni alla nascita di nuove disuguaglianze, fino alle trasformazioni che coinvolgono la trasmissione del sapere e pratiche di creatività. Il nuovo trittico di dibattiti a cui la nostra Fondazione partecipa direttamente, e che ha preso il via il 19 febbraio, in coerenza con la missione iniziale, si dà appuntamento in tre biblioteche della città. Non un luogo indifferente al tema della conoscenza se, come fa notare Francesco Samorè: «La diffusione delle intelligenze artificiali chiama in causa anche le modalità civiche e democratiche con cui si condivide e organizza il “sapere”». Samorè cita Wikipedia e l’alternativa voluta da Elon Musk, Grokipedia @xAI, come esempio di una sorta di guerra delle enciclopedie che è anche una guerra tra poteri (si ricordi a questo proposito Riccardo Fedriga su DoppioZero). E suggerisce un’analogia tra le conseguenze sugli equilibri delle istituzioni e la diffusione del sapere in Europa causata dall’invenzione dei caratteri mobili di Gutenberg intorno al 1450, e ciò a cui assistiamo oggi con l’avvento dell’intelligenza artificiale «che applica un trattamento al sapere tale per cui le società non rimangono uguali».

I dati, come la tecnologia, non sono mai neutrali
A dibattere sul tema ci sono Giovanna Mascheroni, docente di Sociologia dei processi culturali e comunicativi all’università Cattolica di Milano, e Giulia Sudano di Period Think Tank, associazione bolognese che si occupa di femminismo dei dati. Perché nel “trattamento del sapere” che ci riservano le intelligenze artificiali, il cuore sta – anche – nel modo in cui si raccolgono e si impiegano i dati raccolti. Mascheroni racconta di un esperimento in cui, chiedendo a ChatGPT di assumere il ruolo di giornalista politico favorevole o meno a Ultima Generazione, si voleva ragionare su come media e discorsi pubblici raccontavano le pratiche di mobilitazione dei nuovi movimenti ecologisti: «Ciò che abbiamo rilevato è, da una parte, un uso strumentale degli esempi storici, dall’altra una tendenza a dare ragione all’interlocutore, rinforzando in questo modo i suoi eventuali bias cognitivi. In altre parole, se è vero che l’intelligenza artificiale si basa sui dati, non è altrettanto trasparente il modo in cui lavora su di essi. Anzi, riproducendo bias, li amplifica limitando in un certo senso la conoscenza. Il tono amichevole con cui si presenta e offre risposte alle nostre domande, costruisce quella che si chiama fiducia parasociale, un legame appunto basato sulla fiducia, e non per esempio sull’autorevolezza di un’enciclopedia, ancorché si tratti di un chatbot».
Ma cosa succede quando i dati non ci sono? Se “misurare è conoscere”, anche non essere compresi nei dati, nelle misurazioni, non raccogliere informazioni su fenomeni o minoranze, produce disuguaglianze. «I dati, come la tecnologia, non sono mai neutrali». È questo l’assunto da cui parte Giulia Sudano. «Ma servono anche dati che restituiscano la complessità delle singole vite e delle nostre interazioni: essere donna, madre, o single, è diverso che essere donna, disabile, con un diverso orientamento sessuale. I dati dovrebbero cogliere l’intersezione di questi fattori. Come Period Think Tank lavoriamo con i Comuni per raccogliere e utilizzare i dati in modo disaggregato e intersezionale al fine di scegliere le politiche pubbliche più efficaci». Il caso dell’algoritmo di Amazon che nel 2018 discriminava tutte le donne nella selezione di una posizione lavorativa, o il caso del sistema Syri, che in Olanda ha causato un vero e proprio scandalo legato all’assegnazione dei sussidi sociali, sono esempi concreti di come l’uso improprio, poco trasparente e parziale dei dati, produca nuove disuguaglianze e amplifichi le vecchie. «Senza contare che questi sistemi di intelligenza artificiale si basano solo su dati di una certa parte del mondo, quella occidentale, escludendo di fatto un pezzo di mondo. Una conoscenza quindi che non può essere che parziale».

il concetto di cittadinanza è cambiato. Oggi siamo cittadini digitali, anche se non tutti abbiamo gli strumenti o le possibilità per partecipare a questa nuova dimensione
Un tentativo pionieristico e tutto italiano di dare una risposta al bisogno di dati equi è rappresentato dal Gemello Digitale di Bologna, una copia digitale della città che, attraverso la raccolta e l’analisi in tempo reale dei dati, permette di analizzare consumi energetici, mobilità e mezzi di trasporto, condizioni atmosferiche, servizi, e potenzialmente anche aspetti sociali e relazionali, per capire come migliorarsi. «Costruire una città digitale civica vuol dire però non solo raccogliere dati sulla cittadinanza, ma coinvolgerla nel costruire il gemello e il suo funzionamento», dice Sudano. Ed è ancora l’Università di Bologna a coordinare il consorzio del progetto Aequitas, che si propone di affrontare le manifestazioni di pregiudizio e ingiustizia delle intelligenze artificiali: all’interno di un ambiente di test e sperimentazione, i sistemi di intelligenza artificiale vengono valutati dal punto di vista dell’equità per poi fornire strategie di mitigazione e riparazione.
«È un esempio di come un’istituzione cerchi di innovare sé stessa sapendo che se oggi tu non accumuli dati in forma nuova, non li utilizzi e non cerchi di fare le politiche sulla loro base, queste saranno difficilmente efficaci», dice Samorè. «Ma è anche il segno che il concetto di cittadinanza è cambiato. Oggi siamo cittadini digitali, anche se non tutti abbiamo gli strumenti o le possibilità per partecipare a questa nuova dimensione. Un’ulteriore conferma di come si debba parlare di responsabilità nell’innovazione quando una nuova tecnologia si diffonde nella società».
L’approfondimento continuerà il 19 marzo alla biblioteca di Baggio. Segnaliamo che N.i.n.a. accompagna questo ciclo di incontri con tre iniziative: la pubblicazione di una rivista, primo numero a maggio, dal titolo Nuove Macchine Celibi, in cui si cercherà di politicizzare il dibattito ricostruendo il pensiero di destra/estrema destra che sta dietro al progresso rapidissimo dell’intelligenza artificiale e cercando di attuare delle contromisure; la nascita di un Sindacato Universale Digitale che sensibilizzi le persone sul carattere estrattivo della raccolta dei nostri dati sui cui si creano grandi ricchezze; e un festival, dall’8 al 10 maggio, con ospiti internazionali, talk, workshop, e una mostra su tutto ciò che, in diverse forme, si può definire incomputabile, ovvero su ciò che la macchina non può calcolare.














