In occasione di questa intervista per Fondazione Giannino Bassetti, impegnata da più di trent’anni nella promozione di un’innovazione responsabile e aperta al dialogo tra saperi, Riccardo Fedriga incontra Davide Picca e Alberto Romele, autori di Intelligenze artificiali, una biografia intellettuale (Fandango, 2025) e studiosi che da tempo riflettono sul rapporto tra intelligenza artificiale, società e filosofia. L’obiettivo è esplorare, attraverso le loro voci, le sfide e le opportunità che l’innovazione tecnologica pone oggi alla responsabilità individuale e collettiva, al rapporto tra sapere e potere, e alla definizione stessa di umanità.
RF. Fondazione Bassetti insiste da sempre sulla necessità di un’innovazione responsabile, capace di tenere insieme sapere e potere per il bene comune. Dal tuo punto di vista di studioso e sviluppatore di tecnologie, quali sono oggi le principali sfide tecniche ed etiche che l’intelligenza artificiale pone alla società civile, e come possiamo affrontarle in modo che la tecnologia sia davvero al servizio dell’umano e non viceversa?
DP. Oggi l’intelligenza artificiale ci costringe a ripensare radicalmente il rapporto tra tecnica, potere e responsabilità. Nel libro sottolineiamo come le nuove IA, soprattutto quelle generative, non siano semplici strumenti neutri, ma veri e propri attori che ridefiniscono le condizioni della nostra convivenza e della nostra capacità di agire nel mondo. La loro opacità e la logica dei “black box” mettono in crisi la nostra tradizionale fiducia nella trasparenza e nella controllabilità della tecnica: non sappiamo più davvero “come” e “perché” una decisione viene presa, e questo sposta il baricentro del potere verso chi possiede e gestisce questi sistemi. Inoltre, l’IA rischia di rafforzare dinamiche di esclusione e di concentrazione del sapere e del potere, se non viene pensata e governata in modo critico e responsabile. Il vero nodo, allora, non è solo tecnico, ma profondamente politico e culturale: chi decide i fini dell’innovazione? Chi ne beneficia e chi ne resta escluso? Per questo credo che la responsabilità non possa essere delegata solo agli esperti, ma debba diventare una pratica diffusa, che coinvolge sviluppatori, istituzioni, cittadini e comunità.
Solo promuovendo una cultura della responsabilità condivisa, capace di interrogarsi sui fini e non solo sui mezzi, possiamo sperare che l’innovazione tecnologica sia davvero al servizio dell’umano. Questo significa, come suggeriamo nel libro, aprire spazi di partecipazione, deliberazione e confronto, dove la tecnica sia costantemente messa alla prova dal dialogo con i valori, i bisogni e le aspettative della società.
RF. Alberto, nel vostro libro si riflette molto sul rischio di ridurre l’intelligenza – umana e artificiale – a una questione di calcolo e logica, trascurando dimensioni come la metis, la saggezza pratica e la responsabilità. In che modo la filosofia può aiutarci a recuperare queste dimensioni e a promuovere un’innovazione che sia davvero “responsabile”, come auspicato da Fondazione Bassetti?
AR. Un’innovazione davvero responsabile è quella che favorisce la fioritura umana, sia a livello individuale che collettivo. Io e Davide siamo convinti che questa fioritura non possa nascere dallo stato attuale delle intelligenze artificiali, che si presentano come strumenti “lisci”, estremamente accondiscendenti alle nostre richieste. Certo, è giusto preoccuparsi delle allucinazioni o dei contenuti offensivi, ma non bisogna dimenticare che anche l’eccesso di consenso può essere un rischio. Per questo, nel nostro libro proponiamo l’idea di un’attitudine agonistica. Riprendendo la filosofa politica Chantal Mouffe, l’agonismo non è guerra né distruzione dell’altro: è il riconoscimento dell’altro come avversario legittimo, come interlocutore che ci costringe a pensare e a confrontarci. Mouffe lo pone al centro della democrazia; noi crediamo che debba stare anche al cuore dell’individuo – che non è mai isolato, ma sempre in relazione. Applicato all’intelligenza artificiale, questo concetto ha due implicazioni. Da un lato, ci invita a coltivare un atteggiamento agonistico nei confronti delle tecnologie: non prenderle come neutre o scontate, ma come occasioni di dibattito e contestazione. Dall’altro, ci spinge a immaginare macchine agonistiche, capaci cioè di restituire visioni divergenti del mondo, di stimolare dissenso invece che appiattire il confronto. In questo senso, la vera responsabilità è includere i cittadini nei processi di innovazione, anche coloro che vivono e pensano diversamente da noi. Le tecnologie di IA non dovrebbero solo semplificare, rassicurare o accelerare: dovrebbero creare spazio per la pluralità, il conflitto produttivo e il dibattito critico.
RF. Nel vostro libro emerge spesso la tensione tra la dimensione tecnica dell’IA e le sue ricadute sociali e culturali. In che modo pensate che la progettazione e la governance delle nuove tecnologie possano essere orientate a una maggiore responsabilità, coinvolgendo cittadini, istituzioni e stakeholder, come auspicato anche da Fondazione Bassetti nei suoi progetti di partecipazione e deliberazione pubblica?
DP. L’IA, per la sua natura generativa e pervasiva, agisce come un “attore collettivo” che trasforma non solo i processi produttivi, ma anche le forme della nostra vita sociale, culturale e politica. Per questo, la responsabilità nell’innovazione deve diventare una pratica diffusa, che coinvolge la pluralità dei saperi e delle esperienze. La governance delle tecnologie, allora, va ripensata come un processo aperto e agonistico, dove la partecipazione non è solo consultiva ma realmente trasformativa. Significa creare spazi in cui cittadini, istituzioni, comunità e stakeholder possano non solo esprimere opinioni, ma co-determinare le finalità e i limiti dell’innovazione. Nel libro parliamo di “agonismo critico” proprio per sottolineare la necessità di un confronto vivo, anche conflittuale, tra visioni diverse, capace di generare soluzioni più eque e condivise.
In quest’ottica, strumenti come la co-progettazione, le deliberazioni pubbliche e gli audit civici non sono semplici accessori, ma elementi costitutivi di una democrazia tecnologica. Solo così possiamo evitare che l’innovazione diventi un nuovo strumento di esclusione o di concentrazione del potere, e invece orientarla verso fini che rispecchino i valori, i bisogni e le aspirazioni della società. In questo senso, il lavoro di Fondazione Bassetti è un esempio concreto di come sia possibile promuovere una governance responsabile, inclusiva e realmente partecipata dell’innovazione.
RF. Una delle istanze centrali di Fondazione Bassetti è il rapporto tra sapere e potere nell’innovazione. Dal punto di vista filosofico, come possiamo evitare che l’IA e le tecnologie digitali diventino strumenti di dominio di pochi, e invece favorire processi di democratizzazione e inclusione, anche alla luce delle riflessioni che proponete nel libro?
AR. Le tecnologie di IA sono già dominio di pochi. È un fatto paradossale: se pensiamo a infrastrutture come le ferrovie, l’energia o lo spazio, per lungo tempo sono state progettate e governate da istituzioni pubbliche. Oggi, invece, l’IA è nelle mani di grandi piattaforme private, e questo spostamento non è neutro. Per riequilibrare questa asimmetria serve un approccio agonistico: non consenso passivo, ma confronto, dissenso, pluralità. Il dibattito pubblico, al contrario, è spesso anestetizzato: si discute di coscienza delle macchine, ma poco di ciò che accade qui e ora. In Francia, ad esempio, il governo ha annunciato l’introduzione di strumenti di IA a supporto degli insegnanti, una scelta che solleva interrogativi importanti sul ruolo della tecnologia nei processi educativi. In Italia, il Parlamento ha appena approvato una legge nazionale sull’intelligenza artificiale, con regole su trasparenza, supervisione e protezione dei minori, ma anche con alcuni punti controversi rispetto al futuro regolamento europeo, come osservato per esempio da Amnesty International. Queste sono le questioni decisive: non se l’IA “pensi” o meno, ma chi la produce, chi la controlla, con quali obiettivi. La vera responsabilità sta nel riportare i cittadini dentro i processi di innovazione e fare dell’IA un terreno di democrazia, e non di dominio.
RF. Viviamo in un’epoca in cui la convergenza tra saperi è sempre più necessaria per non soccombere alla competizione globale. Davide, quali strategie concrete vedi possibili per promuovere una cooperazione tra discipline tecniche e umanistiche, e come questa alleanza può contribuire a formare innovatori responsabili, capaci di affrontare le sfide dell’IA in modo critico e consapevole?
DP. La cooperazione tra discipline tecniche e umanistiche non è più un’opzione, ma una necessità. Le sfide poste dall’IA, dalla comprensione dei suoi limiti alla valutazione dei suoi impatti sociali, richiedono competenze che nessuna disciplina, da sola, può offrire. Per questo, credo sia fondamentale promuovere percorsi formativi e progettuali realmente interdisciplinari, in cui ingegneri, filosofi, sociologi, giuristi e altri esperti lavorino insieme fin dalle prime fasi di sviluppo delle tecnologie. Strategie concrete possono essere, ad esempio, la creazione di laboratori di innovazione aperti, la promozione di corsi universitari e master che integrino saperi tecnici e umanistici, o la realizzazione di progetti di ricerca-azione che coinvolgano attivamente le comunità. Solo così possiamo formare innovatori responsabili, capaci di interrogarsi non solo sul “come” ma anche sul “perché” e sul “per chi” innovare. In questo senso, la convergenza tra saperi è la chiave per un’innovazione che sia davvero al servizio della società e delle sue sfide più urgenti.
RF. Nel libro si parla spesso di agonismo critico e di pluralità di voci come antidoto alla narrazione unica e conformista delle tecnologie. Come può la filosofia, oggi, contribuire a costruire spazi di dialogo e confronto responsabile, in linea con l’approccio partecipativo e deliberativo promosso da Fondazione Bassetti?
DP. La filosofia, oggi, ha un compito fondamentale: non penetra la scatola nera dei modelli di IA da un punto di vista tecnico – non è questo il suo mestiere – ma lo fa da un punto di vista sociale e culturale. Lo fa attraverso l’archeologia dei concetti, l’analisi dei miti che strutturano i nostri immaginari, la critica delle forme di dominio e dello sfruttamento delle risorse. In questo senso, la filosofia ci mostra che l’IA è molto più di un insieme di oggetti tecnici: è un fenomeno complesso che coinvolge linguaggi, istituzioni, economie e forme di vita. Purtroppo, quando si parla di filosofia dell’IA, vengono subito in mente discorsi sulla singolarità o sulla macchina senziente. A mio avviso questa è una cattiva filosofia dell’IA, perché sposta l’attenzione su scenari ipotetici, a volte apocalittici, che non aiutano a capire i problemi concreti che viviamo. Una filosofia dell’IA all’altezza del presente deve invece creare distanziazione critica rispetto alle fascinazioni e alle paure più immediate, e soprattutto stimolare dibattiti plurali. Nel nostro libro insistiamo appunto sull’idea di agonismo: la pluralità di voci, la possibilità di confronto e di dissenso come antidoto alle narrazioni uniche e conformiste delle tecnologie. Non si tratta di rifiutare l’IA, ma di aprire spazi di partecipazione, di immaginare usi diversi, di promuovere forme di innovazione che siano veramente responsabili. È questa, credo, la funzione più importante della filosofia oggi: non chiudere il discorso sull’IA in poche formule rassicuranti o eccessivamente preoccupanti, ma restituirlo alla società come campo di conflitto e di creatività.
Riccardo Fedriga insegna Storia delle idee e Teorie e pratiche della lettura e scrittura all’Università di Bologna. I suoi studi esplorano il rapporto tra conoscenza, concetti e oggetti, analizzando come le idee si trasmettano nel tempo e tra le culture. Il suo lavoro si concentra sulla competenza culturale e le trasformazioni dei concetti nella storia, tra filosofia e modelli enciclopedici di trasmissione del sapere. Advisor della Fondazione Giannino Bassetti e direttore scientifico della Fondazione Umberto Eco, è tra i curatori degli inventari delle biblioteche e dei riscontri dell’archivio di Umberto Eco (con cui ha pubblicato La filosofia e le sue storie per Laterza nel 2014). Il suo ultimo libro è Willing and Understanding (Brill, 2023).
Davide Picca è docente e ricercatore in Digital Humanities e Intelligenza Artificiale all’Università di Losanna. La sua attività si concentra sull’incontro fra linguaggio, semiotica e AI, con l’idea che i modelli linguistici non siano semplici macchine di calcolo, ma veri e propri strumenti per interpretare la cultura e il pensiero.Nel corso della sua carriera è stato Visiting Professor all’Università di Torino e alla Sorbonne di Parigi, e attualmente è Research Fellow al metaLAB della Harvard University, dove studia il rapporto tra tecnologie digitali e saperi umanistici. È inoltre membro scientifico della Fondazione Umberto Eco, dove coordina gli aspetti legati alla tecnologia e all’intelligenza artificiale, con l’obiettivo di valorizzare archivi, biblioteche e collezioni attraverso strumenti digitali avanzati. Ha numerose pubblicazioni scientifiche all’attivo e ha recentemente pubblicato per la Fandango Libri una monografia divulgativa dal titolo : ChatGPT e intelligenze artificiali. Una biografia intellettuale (Con Alberto Romele, Fandango, 2025).
Alberto Romele è professore associato di comunicazione e media presso l’ICM (Institut de la Communication et des Médias) dell’Università Sorbonne Nouvelle. Con una formazione in filosofia e in etica della tecnologia, fa parte del comitato editoriale della rivista Philosophy & Technology (Springer) e del board della Society for Philosophy and Technology (SPT). Le sue ricerche riguardano l’ermeneutica digitale, gli immaginari dell’intelligenza artificiale e l’uso delle immagini popolari nella comunicazione della scienza e della tecnologia. È autore di quattro monografie: ChatGPT e le intelligenze artificiali (con Davide Picca, Fandango, 2025), Digital Habitus (Routledge, 2024), Digital Hermeneutics (Routledge, 2019) e L’esperienza del verbum in corde (Mimesis, 2013).














