Allieva di Umberto Eco e Niklas Luhmann, Elena Esposito, protagonista di questa intervista per i Dialoghi su responsabilità e intelligenza artificiale, è professore ordinario di Sociologia dei processi culturali e comunicativi presso le Università di Bielefeld (Germania) e Bologna. Con il suo Comunicazione Artificiale. Come gli algoritmi producono intelligenza sociale edito da Egea (in versione inglese in open access qui) ha offerto una lettura alternativa a come pensiamo e affrontiamo i cambiamenti innescati dall’intelligenza artificiale. Di recente pubblicazione per la editrice tedesca Residenz, anche Kommunikation mit unverständlichen Maschinen (Comunicazione con macchine incomprensibili).
- Il suo sguardo sull’intelligenza artificiale è innovativo, a cominciare dal non opporre l’intelligenza degli esseri umani a quella delle macchine. Tuttavia, scrivendo che “le macchine non vogliono e soprattutto non hanno bisogno di essere intelligenti” pur riuscendo ugualmente a raggiungere gli obiettivi affidati, sembra mettere in crisi la qualità umana dell’essere intelligenti. Mi permetta una provocazione: dobbiamo considerare la nostra intelligenza superflua?
Sono timori che nascono da un confronto, quello tra l’intelligenza artificiale e umana, che personalmente considero fuori luogo. Si tratta di un parallelismo prima di tutto non realistico. L’intelligenza umana non è affatto superata, quello che sta succedendo è che alcune macchine stanno imparando a fare cose in modo diverso e talvolta migliore di noi. Da millenni, per esempio, noi affidiamo la nostra memoria ai libri, dando per scontato che nessuno di noi possa memorizzare tutti i testi in essi contenuti, ma non per questo abbiamo innescato una competizione, né ci inquieta che un supporto esterno possa potenziare una nostra capacità cognitiva. Ma c’è un altro aspetto. Ho sempre trovato piuttosto curioso che per le macchine si parli di riprodurre l’intelligenza umana quando noi per primi non abbiamo una definizione condivisa dell’intelligenza. Più le ricerche progrediscono, per altro, più appare chiaro che esistono tanti tipi di intelligenza.
- Veniamo alla comunicazione, cominciando con darne una definizione…
In termini molto semplici, potremmo dire che la comunicazione è una distribuzione sociale delle informazioni. Tramite la comunicazione, io ricevo informazioni con una particolare caratteristica: so che qualcuno me le ha volute trasmettere. Io posso avere l’informazione del bel tempo guardando fuori dalla finestra, ma se l’informazione arriva da mia figlia, anche il contenuto cambia: “so” di più, “so” della sua volontà di condividerlo… cosa che ha effetti su tutta la nostra vita sociale. Ovviamente la comunicazione cambia nel tempo, basti pensare alle cosiddette tecnologie della comunicazione: il mondo si è trasformato da quando possiamo comunicare non solo con persone vicino a noi, ma anche con persone che stanno in un altro spazio o in un altro tempo, conosciute o anonime…
- E ora sta succedendo con le macchine “intelligenti”… Lei scrive che “se le macchine contribuiscono all’intelligenza sociale, non è perché hanno imparato a pensare come noi, ma perché abbiamo imparato a comunicare con loro”.
Facciamo un esempio molto concreto e pensiamo al prompt engineering che aiuta l’AI generativa a comprendere meglio i quesiti, visto che output di qualità dipendono da istruzioni di qualità. Per farlo in modo efficace, non c’è bisogno di capire come funziona la macchina – considerando anche che i recenti algoritmi sono “opachi”, cioè non si può comprendere come raggiungono i loro risultati. Ma non c’è bisogno di capire come il programma gestisce dati o individua pattern… Il prompt engineer, se mai, esplicita bene le sue premesse, divide la domanda in tante questioni differenti per far lavorare meglio la macchina, crea set di istruzioni precisi… In sostanza, risolve un problema che è comunicativo, non cognitivo. Questo significa che noi dobbiamo imparare a comunicare con un interlocutore particolare che non è un essere umano, trovare strutture comunicative efficaci per ottenere i risultati che ci interessano, non comprendere la loro “intelligenza”. Il che non implica che la comunicazione artificiale sia simile o sovrapponibile alla nostra. Quando comunico con una macchina mi preoccupo di cose differenti, non mi preoccupo di essere empatico, di non essere offensivo… perché la macchina non è evidentemente un alter ego.
dobbiamo imparare a comunicare con un interlocutore particolare che non è un essere umano (...) abbiamo a che fare con un interlocutore che non è intelligente
- Questo vale anche per gli agenti AI, ovvero i sistemi di intelligenza artificiale in grado di operare autonomamente, prendendo decisioni informate e svolgendo compiti complessi con minimo intervento umano?
Il problema fondamentale per questi sistemi è il cosiddetto misalignment, cioè la possibilità che perseguano obiettivi non intenzionali. In altre parole, la macchina ci ubbidisce, ma poiché non ragiona come noi e non comprende quello che rielabora, potrebbe raggiungere gli obiettivi in modo diverso da quello che vorremmo. Elaborare i dati in modo da produrre un risultato significa capire quello che si deve fare, non quello che viene chiesto. Tutte le innovazioni che la ricerca sta introducendo, i vincoli, i controlli dei bias, rispondono proprio a questo problema: abbiamo a che fare con un interlocutore che non è intelligente. Sgombrato il campo da questo timore, e mettendo al centro i problemi comunicativi, che sono molti e importanti, potremmo forse riuscire a guidare le macchine verso quello che realmente vogliamo.
- A proposito di allineamento. Durante un’intervista con Debora Spar della Harvard Business School, Sam Altman ha insistito sul fatto che la capacità di allineare un sistema di AI per comportarsi in un modo corretto può aiutare a creare un’intelligenza artificiale positiva per l’umanità, invitando a usare l’AI per sondare l’opinione pubblica. Sulla consultazione dei cittadini tramite l’intelligenza artificiale c’è un intenso dibattito (si veda per esempio il lavoro di Helene Landermore di Yale), con la promessa che l’intelligenza artificiale generativa aiuti a informarsi e comunicare consapevolmente le proprie decisioni anche su questioni pubbliche. Torna quindi centrale la questione di imparare una comunicazione che tenga conto che dall’altra parte non c’è un essere umano ma un algoritmo, cosa che ha e avrà a che fare anche con la qualità della nostra democrazia.
È probabile che noi “impareremo” a comunicare con le macchine, ma è altrettanto probabile che saranno le macchine a spiegarsi meglio ai cittadini. Ci sono sempre più progetti che vanno in questa direzione. Tutta la branca di ricerca che riguarda l’eXplainable AI (XAI) cerca di risolvere il fatto che queste macchine hanno un’incomprensibilità radicale che nessuna macchina prima aveva avuto. Le macchine governate da sistemi di intelligenza artificiale sono opache per gli stessi programmatori che le hanno progettate proprio per il modo in cui funzionano, in cui lavorano su varie dimensioni… Con la XAI si sta cercando di progettare sistemi che consentano di fornire agli interlocutori delle indicazioni per noi comprensibili sui fattori da cui dipendono le loro decisioni, in modo da poterle criticare, gestire e reagire. In definitiva, saranno le macchine a spiegarsi con noi, e quando questo succederà, anche la questione di come questa nostra comunicazione con l’algoritmo agisce sulle nostre decisioni, cambierà.
È probabile che noi impareremo a comunicare con le macchine, ma è altrettanto probabile che saranno le macchine a spiegarsi meglio
- Per ora, informazione e comunicazione viaggiano sui social media, come le cronache politiche di ogni giorno dimostrano. E gli algoritmi di intelligenza artificiale incorporati si sono rivelati fondamentali per gestire e indirizzare dati e contenuti, e anche per diffondere grazie ai bot informazioni fuorvianti. Che ne è e che ne sarà allora della comunicazione che inizialmente abbiamo definito come “distribuzione sociale delle informazioni”?
Innanzi tutto, penso che intelligenza artificiale e social media siano due questioni che si intrecciano, ma che concettualmente andrebbero tenute separate. In molti casi, la questione “social media” è un “semplice” problema di regolazione della diffusione dei contenuti, mentre gli algoritmi di intelligenza artificiale producono essi stessi dei contenuti. I social media in sé, che precedono l’irruzione dell’AI generativa, sono però un modo diverso per strutturare la nostra comunicazione pubblica, e sicuramente stanno costituendo una minaccia per le nostre democrazie. La stessa democrazia americana, fondata nel 1700, non regge più a un mondo che non ha più un’opinione pubblica, bensì uno spazio pubblico che non è strutturato dai mass media, ma dai social media che lavorano in modo completamente differente.
- Il risultato che è che il confine tra ciò che è umano e non lo è, tra il vero o il falso, diventa sempre più labile. Uno studio pubblicato su Science Advance mostra come un modello di intelligenza artificiale GPT-3 produce una disinformazione più convincente rispetto a quella prodotta da un essere umano. Così c’è chi pensa, come il filosofo Daniel Dennett, che per le entità non umane si dovrebbe considerare la possibilità di applicare le stesse regole applicate al denaro falso… lei mi pare offra un altro approccio, che considera il nostro rapporto con la letteratura.
Personalmente, credo sia fondamentale sapere come vengono e verranno utilizzati i nostri dati, meno sapere se l’interlocutore sia un bot o no. Si dà per scontato che siano le macchine a “mentire”, quando ricordo che, come sosteneva Umberto Eco, noi ci distinguiamo in quanto esseri umani perché utilizziamo il linguaggio, che consente proprio di mentire. Certo, se c’è finzione in un libro, un romanzo, un film, o qualsiasi produzione umana, dobbiamo dichiararlo obbligatoriamente: è una regola che ci siamo dati e, considerato che il panorama sta cambiando, sarà utile adeguarci, ma ciò non è necessariamente legato all’intelligenza artificiale. Vede, il dibattito sulla perdita di capacità nel distinguere il vero dal falso si è verificato anche a inizio Ottocento con la diffusione dei romanzi. Ci è voluto un po’ di tempo per capire che quella seconda realtà, narrativamente così ben strutturata, anche se non esisteva non era una bugia. Abbastanza rapidamente però, le persone hanno cominciato a sviluppare un’abilità molto più raffinata nel tenere distinti regimi di realtà differenti. Si parla di osservazione di secondo ordine, un’acquisizione fondamentale per la civiltà moderna e il suo progresso nella scienza e nella società. Ancora non sappiamo se la nuova forma del deepfake porterà a una discriminazione tra forme di non realtà ancora più elaborata, ma quello che è certo è che l’esperienza della finzione ha cambiato il nostro modo di rapportarci con la realtà. Noi sappiamo cosa vuol dire essere innamorati prima di innamorarci perché lo abbiamo letto nei libri, se le dico che Sherlock Holmes è francese, lei mi risponde che è falso, anche se non è mai esistito…. Cito di nuovo Eco: chi nella sua vita non ha avuto esperienza di finzione, dal punto di vista comunicativo è un analfabeta.
Ciascuno di noi è chiuso in una bolla, un mondo mediatico costruito per noi da chi raccoglie e rielabora i dati sul nostro orientamento, le nostre preferenze o inclinazioni. In realtà siamo così estremamente passivi e abbiamo perso anche uno spazio che, per dirla con Jürgen Habermas, costituiva la base per una pubblica opinione.
- Questo tipo di spazio pubblico ha portato, lei sostiene, alla fine della comunicazione di massa, visto che le tecniche di profilazione costruiscono di fatto una comunicazione personalizzata. Con quali conseguenze?
Quando all’inizio degli anni Duemila è cominciata la personalizzazione dei media, c’era molto entusiasmo per la possibilità di dare agli individui una loro autonomia per sviluppare attivamente la propria personalità. Vent’anni dopo, possiamo dire che le cose sono molto più complicate. Ciascuno di noi è chiuso in una bolla, un mondo mediatico costruito per noi da chi raccoglie e rielabora i dati sul nostro orientamento, le nostre preferenze o inclinazioni. In realtà siamo così estremamente passivi e abbiamo perso anche uno spazio che, per dirla con Jürgen Habermas, costituiva la base per una pubblica opinione. I mass media saranno stati anche massificati, ma avevano creato uno spazio comune condiviso in cui confrontarsi. In inglese si parla di Known-Unknowns, ovvero la condizione per cui, essendo esposti a media diversi e diversificati, siamo consapevoli di non sapere, e di Known-Knowns, in altre parole una zona di confort in cui io mi confronto solo con cose che so e con persone come me: è la bolla. Ma da Platone in poi, conosciamo il valore di “sapere di non sapere”, e un sistema comunicativo così strutturalmente personalizzato è un fenomeno nuovo da affrontare con strumenti nuovi, che ancora non abbiamo. Ecco perché dico che, nella comunicazione web, il problema non è tanto la gestione della conoscenza, quanto la gestione della non conoscenza.