La presentazione del Rapporto PoliS Lombardia 2025 Intelligenza Artificiale per la sostenibilità ha ospitato una tavola rotonda moderata da Fulvio Matone, Direttore generale di PoliS Lombardia, dal titolo Senza confini? Le istituzioni alla sfida dell’IA a cui hanno partecipato Piero Bassetti, presidente della nostra Fondazione, Simone Abbiati, esperto di LLM Solutions & Enablement, Stefania Bandini, docente di informatica, e Davide Picca, docente di Digital Humanities all’Università di Losanna. Di seguito, una sintesi del dialogo, il video, il podcast e qualche immagine.
La tavola rotonda ospitata da PoliS Lombardia prende spunto dalle recenti riflessioni del presidente Bassetti sul tema dell’intelligenza artificiale. Accanto a lui, Stefania Bandini, Simone Abbiati e Davide Picca, esperti del tema da diverse prospettive e soprattutto capaci di intrecciarlo con questioni transculturali e territoriali, forti di una formazione che unisce saperi umanistici e scientifici.
Come afferma Stefania Bandini nel suo intervento iniziale, infatti: «L’intelligenza artificiale è una disciplina che ha molteplici applicazioni, tantissime tecnologie, tantissimi modelli non sempre noti al grande pubblico. Noi viviamo da tempo a contatto con l’intelligenza artificiale, per lo più nascosta attraverso tantissimi strumenti e device, e ci stiamo abituando, come è successo per tutte le rivoluzioni tecnologiche che hanno accompagnato la storia dell’umanità. La grande differenza sta nel coinvolgimento empatico-cognitivo che si genera quando ci viene offerta la possibilità di dialogare con un artefatto in linguaggio naturale: è quanto succede con l’intelligenza artificiale generativa. Si tratta di un processo che trascende i dettagli tecnologici o la semplicità dell’interazione. Tutti noi, a contatto con una macchina che in realtà genera significato in modo del tutto probabilistico, attraversiamo un ciclo che prevede prima una fase di curiosità, poi di sfida, quindi di un uso più consapevole e, si spera, utile a quello che facciamo. Ci stupiamo di quanto questa intelligenza artificiale generativa possa fare in modo eccellente, proprio come avremmo voluto scrivere o fare noi se avessimo avuto più tempo. Il tema è quindi quello di addestrarsi, di formarsi, perché sarà difficile trarre vantaggio da questa tecnologia se imposta dall’alto o dalle consuetudini».
Si occupa proprio di formazione a livello aziendale, nell’ambito di sistemi di intelligenza artificiale, Simone Abbiati, che dal mondo della linguistica e della semiotica si è avventurato nella linguistica computazionale. «Ogni giorno mi occupo di cosa possa significare formare impiegati o clienti che utilizzano questi sistemi. Da una parte c’è la formazione tecnica: gli ingegneri che devono imparare a implementare questi software o trasferire il loro know-how a un altro team. Dall’altra, c’è la formazione non tecnica destinata a chi questi sistemi li utilizzerà. In entrambi i casi, bisogna considerare la velocità con cui i software vengono implementati e cambiano, tale che rischia di depotenziare la dimensione etica se questa non procede allo stesso ritmo.
Un esempio tratto dalla mia esperienza riguarda la possibilità, per le funzioni di business, di dialogare in linguaggio naturale con il codice e con le repository. Questo significa che anche le funzioni di business possono interrogare il sistema in modo molto diretto. In pratica, posso chiedere una strategia di prodotto relativa a una parte del mio software formulando la domanda in linguaggio naturale, più o meno come farei con un collega, ma rivolgendomi direttamente al codice sorgente. L’aspetto di formazione qui emerge chiaramente: nel momento in cui questi modelli appaiono empatici, nasce il rischio di pensare che ciò che il sistema restituisce sia necessariamente vero. Ma non è sempre così. Serve quindi una preparazione tecnica minima che permetta di valutare quando un output è coerente e quando invece non lo è rispetto al risultato che stiamo cercando.
Un ultimo punto riguarda una dimensione più ampia. Più sociale, epistemologica, per alcuni persino ontologica e filosofica, e che riguarda cosa significhi interfacciarsi ogni giorno con un sistema capace di automatizzare una parte della propria funzione lavorativa. È diventato virale poche settimane fa un articolo di Matt Shumer che si chiede cosa rimanga dell’intelligenza umana quando una parte significativa del lavoro viene automatizzata. C’è sempre un momento in cui un lavoratore si rende conto che alcune delle attività che svolge possono o potranno essere sostituite. A quel punto la domanda diventa: qual è il mio apporto? Certo sarà difficile sostituire l’intelligenza umana, ma la riflessione sulla parte che “rimane” all’essere umano esiste e non possiamo ignorarla. Shumer la quantifica intorno al 20 per cento: un 20 per cento residuo di attività in cui il contributo umano resta decisivo».
La riflessione su una nuova forma di umanesimo torna quindi centrale anche per l’intelligenza artificiale. Ne parla Davide Picca, che richiama i suoi studi di filosofia delle scienze e di epistemologia, seguiti da quelli in psicologia cognitiva e informatica e metodi matematici. «L’essere umano deve assumersi le proprie responsabilità rispetto all’avanzamento della tecnologia. Quando si parla di intelligenza artificiale, per esempio, si evocano spesso bias insiti nella macchina, in quanto insiti nell’uomo. C’è uno studio di ricerca del consorzio europeo guidato dall’Università di Losanna, di cui fanno parte anche istituti come il Max Planck e l’Harvard University, per cercare di definire una nuova proposta metodologica. Quando si parla dell’intelligenza artificiale si usa infatti un linguaggio che proviene dalla psicologia. È un bias storico: l’intelligenza artificiale è stata principalmente inventata da neurobiologi, psicologi e informatici che hanno portato un loro vocabolario. Il nome “intelligenza” conduce a espressioni sbagliate come: “la macchina pensa”, “la macchina allucina”, “la macchina ragiona”. È attribuendo questi significati che siamo portati a guardare la macchina con occhi e filtri che non le sono propri. Perché l’intelligenza artificiale è tutto tranne che una macchina psicologica. L’intelligenza artificiale è una macchina comunicativa, che non pensa e non allucina. Ecco perché da un punto di vista accademico, la ricerca vuole spostare lo studio dell’intelligenza artificiale dai metodi della psicologia ai metodi della semiotica, che è la disciplina che studia la comunicazione (si legga a questo proposito Comunicazione artificiale. Quando il dialogo è con un algoritmo. Elena Esposito).
È facile capire che una macchina comunicativa perde il suo aggancio con il reale. Per “lei”, dire che in sala c’è un asino che vola è vero quanto dire che siamo un gruppo di esseri umani riuniti qui a discutere. Al contrario della macchina psicologica, non possiede le altre forme di intelligenza – emotiva, sensoriale, motoria – che, insieme, definiscono la nostra realtà. La macchina comunicativa costruisce la sua identità a partire dai possibili significati che ha incontrato nei testi letti miliardi e miliardi di volte. In altre parole, ricostruisce l’intera panoplia delle possibili forme della significazione umana. Se riflettiamo sull’etimologia — come diceva Heidegger, per cui “l’etimologia è la casa dell’essere” — vediamo che “significare” vuol dire letteralmente dare un segno alle cose. Ed è esattamente questo che fa la macchina.
Guardare queste macchine non solo attraverso la lente della psicologia apre in definitiva a nuove possibilità di indagine, consente di raffinare i nostri metodi di riflessione e analisi. Il modo in cui osserviamo il mondo dipende sempre dagli strumenti che utilizziamo. Con quelli della semiotica e dei processi comunicativi possiamo osservare fenomeni interessanti anche per l’uomo, sviluppare un pensiero critico maggiore, anche di fronte alle allucinazioni della macchina, per aprirci a nuovi significati. E l’intelligenza artificiale, letta con gli strumenti disciplinari adeguati, apre a nuovi significati che l’uomo deve assumersi come responsabilità».
La chiusura del dialogo è di Piero Bassetti. «Benché si tratti di una sofisticazione necessaria, finora la politica sembrerebbe lasciar fuori, quasi ritenere superflua, ogni riflessione sull’intelligenza artificiale. Tornare in Regione Lombardia e constatare invece che il tema è all’ordine del giorno non solo mi fa piacere, ma mi fa dire che questo è un incontro politico molto avanzato.
Il potere dispone di un’enorme conoscenza della realtà di cui deve decidere come disporre. Si tratta di un problema che ci riporta al dêmos, in greco “popolo”: in democrazia l’elettore compie delle scelte avendo capito le scelte che fa. Ma fino a che punto questo discorso vale quando si tratta di compiere scelte sull’uso di un’innovazione come l’intelligenza artificiale su cui si riflette poco anche dentro le istituzioni?
Come emerge con chiarezza dal rapporto presentato oggi, la Lombardia sembra aver accettato la sfida dell’intelligenza artificiale. Ma è pur vero che i risultati brillanti, il successo del governo della Regione dipendono anche da ciò che la gente ha capito ed è in grado di capire. E ciò ci pone di fronte a diverse responsabilità. La prima consiste nel capire “ciò che è possibile capire”. La seconda, è chiedersi se si può migliorare la nostra democrazia aumentando la nostra intelligenza con l’intelligenza artificiale. Perdendo il controllo della scienza, il rischio è infatti di arretrare anche sul fronte democratico.
In sintesi, la sfida di ogni Regione è passare dall’essere istituzione efficiente a essere istituzione creativa. Perché l’intelligenza artificiale può certo rendere ciascun settore più efficiente, ma solo l’immaginazione istituzionale, capace di un nuovo modo di maneggiare il sapere, può renderla funzionale al dêmos. E non è l’aumento di tecnica che rende “più umano” l’umano; è l’umano più esigente che rende più umana la tecnica. L’auspicio è che ci siano governanti che facciano uso di strumenti adeguati alla modernità, che non si compiacciano del “non sapere” diffuso, ma facciano in modo che il dêmos partecipi alla trasformazione in atto, alle opportunità di scelta.
Le Regioni furono pensate per rendere più efficiente lo Stato centralistico, e il potere più vicino alla collettività. Oggi che l’intelligenza artificiale ha cambiato le categorie organizzative del pianeta – spazio, tempo, territorio -, e che sta cambiando anche il linguaggio della politica, il richiamo è quello di stare alla realtà. C’è bisogno di un’agenda politica che abitui società e istituzioni a esercitare una capacità critica sul potere potenziato dalle intelligenze artificiali, così da preservare gerarchie di responsabilità senza appiattire la partecipazione. La stessa specializzazione dei saperi non deve diventare un ostacolo alla partecipazione.
Dobbiamo perciò immaginare forme nuove di democrazia che accettino la sfida delle nuove tecnologie. Immaginare un nuovo regionalismo, un regionalismo europeo che si collochi in linea con le potenzialità dell’intelligenza artificiale, con la miniera di data-center sparsi nella macroregione del Nord Italia. Per fare ciò occorre una nuova generazione di dirigenti e amministratore pubblici, e in questo senso Fondazione Bassetti sta lavorando alla creazione di una Schola, un luogo di elaborazione e di scambio intellettuale sul tema dell’innovazione responsabile su cui ci esercitiamo da più di trent’anni».














