Fabio Grigenti è professore di Storia della filosofia moderna e contemporanea all’Università di Padova. Si occupa di filosofia della tecnica e della tecnologia, della mente e intelligenza artificiale. Tra i suoi lavori più recenti, Mente, cervello, intelligenza artificiale (con Eddy Carli, Mylab, 2019) e Le Macchine e il Pensiero (Orthotes, 2021). Con lui, per i Dialoghi su Responsabilità e Intelligenza Artificiale, abbiamo parlato, in un rapporto sempre più stretto tra uomo e macchina, conoscenza “naturale” e “artificiale”, della connessione tra l’attività umana innovatrice e regolatrice e la ragione storica e filosofica.
- Con l’AiAct l’Unione Europea ha voluto, prima al mondo, darsi un regolamento sull’utilizzo dell’intelligenza artificiale. C’è una ragione storica e filosofica legata a scienza e tecnica in cui possiamo spiegare questa spinta regolatoria?
Più d’una. A cominciare dalla natura stessa dell’Unione Europea, che si fonda su una forte tensione alla protezione dei diritti umani verso ogni tentativo di ferita dell’Umano. Venendo da una storia che ha visto, in nome della scienza, dare prova di esperimenti terrificanti in completa violazione dei diritti e libertà individuali, l’Europa è consapevole dei rischi associati a scienza e tecnica. Ma i “cromosomi culturali” di questa spinta regolatrice si rintracciano nella culla stessa dell’Europa: la grecità, basti pensare ai miti fondativi di Platone, a come incatena Prometeo, era sospettosa del progresso dell’Uomo. Al di là della percezione di una paura diffusa sui temi del lavoro, dell’informazione, dei diritti e della salute, noi restiamo i figli di Kant per cui nulla può essere fatto se non per l’Uomo, fine e non mezzo, e anche in questa fase scegliamo, diversamente da Cina e Stati Uniti, di proteggere libertà individuale e autodeterminazione.
Noi restiamo i figli di Kant per cui nulla può essere fatto se non per l’Uomo, fine e non mezzo, e anche in questa fase scegliamo, diversamente da Cina e Stati Uniti, di proteggere libertà individuale e autodeterminazione.
- La potenza dell’AI sta nella sua capacità di manipolare un’enorme quantità di dati. Secondo Statista, se nel 2022 la quantità di dati creata, acquisita, usata, è stata di circa 97 zettabyte (1 zettabyte equivale a 1 triliardo di byte), entro il 2025 arriverà a 181 zb. I dati non dormono mai e noi ne produciamo (fonte Domo), ogni minuto 5,9 milioni con ricerche su Google, 231 milioni con mail inviate, e 1,7 milioni con contenuti condivisi su Facebook. Dati nostri, che abbiamo elargito più o meno consapevolmente a piattaforme che lavorano secondo una logica estrattiva e classificatoria, che per altro rafforza stereotipi e amplifica l’iniquità. Come si possono proteggere a queste condizioni libertà individuale e autodeterminazione?
L’AiAct interviene soprattutto per la tutela di dati più sensibili, e per rendere trasparente il doppio livello che si nasconde dietro questa logica: dobbiamo sapere che ogni volta che noi inseriamo qualcosa in Rete, che siano dati o immagini, questi saranno utilizzati per agire su di noi; dobbiamo sapere che in un certo senso noi stiamo sempre addestrando l’intelligenza artificiale. Esiste poi un avvertimento affinché i dati forniti non escano dall’ambito per cui sono stati richiesti, affinché non si crei un gestore unico dei dati, cosa che succede negli Usa: un modo per evitare una manipolazione di dati che vada contro la libera determinazione. Non meno importante però, è lavorare sulla nostra cultura del dato. Non dobbiamo essere così ligi a fornirli: imparare a essere abili, talvolta neppure rigidamente veritieri, pur di entrare in una procedura -si pensi ai siti di incontri-; esercitare una sorta di prudenza etica rispondendo strettamente solo con i dati richiesti. Al di là delle regole, questa logica estrattiva può essere disinnescata grazie ai nostri comportamenti, invece, quasi per “dovere digitale”, pur di varcare quella soglia, rinunciamo a parte di noi; così succede che di fronte alla macchina ci offriamo, e non riusciamo a sottrarci a un’esposizione ormai continua.
- Alcuni dati sembrano più sensibili di altri. Il Parlamento e Consiglio dell’Unione Europea hanno avviato nel 2022 l’European Health Data Space che si propone di regolare l’accesso ai dati sanitari all’interno della UE (parte della strategia europea dei dati mira a rendere l’UE un leader in una società basata sui dati). L’accordo, che dovrà essere formalizzato dal Parlamento Europeo, oltre a prevedere l’accesso ai propri dati sanitari in ogni Paese dell’Unione, dovrebbe anche definire la possibilità di riutilizzare gli stessi per finalità di ricerca scientifica. Pare ci sia un antagonismo tra diritto a innovare, e diritto alla salute e alla privacy…
Si direbbe che siamo in antinomia di regole. La raccolta di dati sanitari è da considerarsi come un intervento sul nostro corpo e come tale necessita di un consenso informato anche su come questi dati potrebbero essere trasformati e manipolati per ampliare i data set e creare dati sintetici (data augmentation). È interessante notare come questa considerazione implica che noi assumiamo già che l’intelligenza artificiale possa produrre conoscenza indipendentemente dagli esseri umani. L’elemento di artificio legato al conoscere è un salto enorme dal punto di vista epistemologico. Viene da chiedersi: di chi sono i dati sintetici? Credo sia necessario definire un nuovo statuto giuridico per i grandi gestori di dati, che in fondo sono simili alle banche che gestiscono il nostro denaro, e mettere a punto un patto di equilibrio tra miglioramento della salute e vulnerabilità della privacy.
La raccolta di dati sanitari è da considerarsi come un intervento sul nostro corpo e come tale necessita di un consenso informato anche su come questi dati potrebbero essere trasformati e manipolati per ampliare i data set e creare dati sintetici.
- Ma può esistere una norma che “assicuri” l’etica?
L’etica innanzi tutto non è assoluta: dipende da uno specifico modello sociale, dal contesto culturale e dallo schema di valori in cui si sviluppa. Basti pensare all’Asia la cui l’etica incarna non la protezione di un soggetto dotato di diritti, bensì quella di una comunità. La stessa Unione Europea ha cambiato atteggiamento dal 2019, quando faceva riferimento a raccomandazioni di natura etica in nome di fiducia, spiegabilità e responsabilità individuale, per passare a un AiAct che avrà effetti giuridici, con norme che vietano espressamente alcune pratiche. La verità è che siamo di fronte a un paradigma tecnico-scientifico non ancora esaurito. I risultati odierni saranno superati e questo è un limite per ogni regolamentazione etica. È in gioco una trasformazione globale delle nostre capacità cognitive. L’intelligenza artificiale è in grado di sostituire e reclutare capacità umane quando esse sono molto ben definite, ma non è abile quando si tratta di capacità più complesse che mettono in moto diverse aree celebrali. Paradossalmente, le funzioni cognitive legate alle elaborazioni di dati sono più in “pericolo” di quelle che combinano pensiero e manualità. Dobbiamo allora inventarci modalità di cogestione delle procedure per produrre effetti di maggior valore. Ripensare che cosa è la conoscenza. È davvero un fatto solo umano? O c’è una conoscenza ibrida, trascendentale, che tiene insieme noi e le macchine?
Gli umani sono esseri storici, teniamo un'anagrafe, conoscere i nostri padri è fondamentale per l’identità. Invece la tecnica ci sta trasformando da esseri storici in esseri del presente totale.
- Lei insiste sulla necessità di inserire nel nostro bagaglio di conoscenza la storia della tecnologia e la filosofia della scienza. Crede forse che sarebbe utile per comprendere il nostro rapporto con quella macchina del pensiero che è l’AI? Ci aiuterebbe a costruire regole più efficaci?
Se osserviamo dibattito pubblico, l’intelligenza artificiale è vissuta come una sorta di innovazione assoluta, una rivoluzione radicale. In vero anch’essa ha una storia come tutte le tecnologie. La conoscenza della storia relativizza e aiuta a concepire ogni innovazione come il prodotto di scelte politiche e industriali. Non avremmo avuto l’intelligenza artificiale se negli anni Novanta quella degli algoritmi non fosse diventata un’industria, industria legata a forti interessi economici, che però potrebbero anche cambiare, visto che è sempre la storia della tecnologia a essere costellata di forti spinte all’innovazione e, parallelamente, di abbandono delle stesse. In via più generale, penso però che oggi si sia perso il senso storico. Con il cambiamento dei sistemi formativi, tutte le “Storie” sono state messe ai margini. La pervasività della tecnologia e dell’atteggiamento scientifico, che concentra l’attenzione della conoscenza sull’ultima teoria, “presentifica” ogni cosa. Le nostre stesse strategie conoscitive sono dominate dal presente della Rete, una struttura in cui tutto è compresente e sembra non avere storia. Eppure, gli umani sono esseri storici, teniamo un’anagrafe, conoscere i nostri padri è fondamentale per l’identità. Invece la tecnica ci sta trasformando da esseri storici in esseri del presente totale.