Di recente pubblicazione all’interno della collana “Contemporanea” della bolognese “Il Mulino”, La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano di Nello Cristianini restituisce al lettore, attraverso uno stile asciutto e sorvegliato, lo stato dell’arte circa gli sviluppi dell’Intelligenza Artificiale nell’ambito della computazione linguistica e, in particolar modo, dei sistemi automatici di raccomandazione.
Sposando appieno lo spirito della collana in cui s’inserisce, il titolo condensa in circa duecento pagine ciò che di essenziale c’è da sapere intorno alle logiche di funzionamento delle tecnologie comunemente adottate dalle piattaforme per filtrare e selezionare informazioni e contenuti. La pubblicazione, prima monografia in lingua italiana del docente universitario, attualmente titolare del corso in Intelligenza Artificiale presso l’Università di Bath, è perciò impreziosita, in prima battuta, dalla sua apprezzabile accessibilità. Di facile comprensione anche per un lettore non esperto, la sua rigorosa sintesi scientifica dimostra infatti di essere una concreta e autorevole alternativa a quell’opinionistica poco informata e sensazionalista che spesso predomina nella pubblicistica e nel dibattito pubblico intorno all’IA. Non solo: la panoramica analitica delineata da La scorciatoia presta particolare attenzione proprio a quelle applicazioni di machine learning di cui gran parte del pubblico – per quanto forse, talvolta, inavvertitamente – fa uso quotidiano. Per queste ragioni l’opera, pur collocandosi in un orizzonte teorico, contribuisce fattivamente ad una prima alfabetizzazione mediale dei propri lettori.
La chiave interpretativa scelta dall’autore per spiegare come si sia potuti arrivare ai recenti e significativi successi dell’apprendimento automatico è, come riportato già nel titolo, quella della ‘scorciatoia’. Secondo Cristianini, la storia ingegneristica del settore sarebbe, infatti, stata scandita dal succedersi di fruttuose strategie di evitamento dei rompicapi computazionali che i ricercatori si trovavano, via via, a dover risolvere. In linea con quanto sostenuto da altri esperti prestatisi alla divulgazione – pensiamo, in particolare, a Pedro Domingo e al suo fortunatissimo The Master Algorithm (2015)[1] – l’autore suggerisce che le attuali applicazioni di machine learning non siano dunque il prodotto lineare degli assetti di ricerca che caratterizzavano l’IA degli esordi. Al contrario, lo scenario contemporaneo sarebbe piuttosto il frutto di un progressivo e oggi definitivo ridimensionamento del tradizionale paradigma dei cosiddetti ‘sistemi esperti’. Nei suoi primi decenni, infatti, il settore era dominato da quella che oggi definiamo concezione “forte” dell’IA, in virtù della quale, in sintesi, la programmazione di sistemi intelligenti s’imponeva di riprodurre, per simulazione, le modalità di apprendimento e ragionamento tipiche della cognizione e dei processi decisionali umani[2]. A tal fine, si riteneva fosse necessario “alimentare” le macchine immettendovi un flusso costante di conoscenze, provocando così un’esponenziale (e infausta) crescita del numero e della varietà di regole matematiche attraverso cui istruire i sistemi affinché fossero in grado di rappresentare in modo corretto e accurato gli scenari di volta in volta generati dalle conoscenze in ingresso.
Diversamente, spiega Cristianini, la paradossale circostanza messa in evidenza dal sottotitolo dell’opera, per la quale, cioè, le macchine sarebbero “diventate intelligenti senza pensare in modo umano”, è dovuta alla loro sbalorditiva capacità di trarre beneficio da correlazioni e da parametri di valutazione che derivano, almeno in parte, dalle loro stesse elaborazioni. Gli odierni sistemi sono infatti in grado di migliorare ricorsivamente le proprie performance predittive tramite l’individuazione, all’interno dei propri dataset, di criteri e corrispondenze inaspettati, che ai loro stessi programmatori potrebbero apparire irrilevanti, se non, persino, irrazionali, come nell’esemplare caso della mossa numero 37 di AlphaGo[3]. Com’è evidente, tale autonomia e tale specificità di ragionamento non trovano conforto nelle nostre concezioni antropocentriche dell’intelligenza – da cui si discostano, invece, in misura significativa – e ciò spinge l’autore a dedicare il primissimo capitolo della monografia al tentativo di ridefinirne il concetto. L’esito del procedimento è una generalizzazione di sapore evoluzionistico, in seno alla quale l’intelligenza è interpretata in termini di efficacia delle strategie decisionali adottate, vale a dire della capacità di un certo agente o sistema “di comportarsi in modo efficace in situazioni nuove”[4]. L’operazione, più che come una ridefinizione filosoficamente rigorosa, si presenta piuttosto come un escamotage concettuale che, in modo curiosamente simile alle fruttuose scorciatoie raccontate nel corso dell’opera, riesce in ogni caso appieno nel proprio intento de-antropizzante. Con la felice conseguenza di strappare gli agenti artificiali alla fallacia antropomorfica implicitamente diffusa in molte narrazioni comuni, le quali tendono, infatti, ad attribuire a queste tecnologie capacità intellettive che pertengono, fino a prova contraria, esclusivamente alla specie umana[5].
Da tale presupposto di fondo muovono, quindi, le proposte analitiche dell’autore, che si suddividono fra considerazioni più spiccatamente tecniche e storiche, concentrate nella prima sezione del testo, e le riflessioni di carattere più generale successivamente dedicate alle funzioni svolte dagli agenti di raccomandazione rispetto alla sfera pubblica digitale, nonché nei confronti della società. La ricostruzione di Cristianini amalgama, perciò, il racconto di importanti novità ingegneristiche, come lo sfruttamento del filtraggio collaborativo implicito nella gestione delle caselle di posta elettronica (1992), con la rassegna delle rivoluzionarie intuizioni metodologiche di scienziati quali Vladimir Vapnik (1936-) o Frederick Jelinek (1932-2010). Così facendo Cristianini offre al proprio lettore una sintesi privilegiata di quelle che sono state le principali tappe grazie alle quali i ricercatori hanno scoperto come progettare sistemi intelligenti senza più “tentare di risolvere un problema generale come l’intelligenza o il linguaggio”[6]. In seno a questa nuova impostazione metodologica si è capito, fra le altre cose, che la disponibilità di grandi masse di dati sommata all’elaborazione di modelli non-teorici (ma statisticamente raffinati) relativi a quegli stessi dati costituiscono, di fatto, due fattori sufficienti alla generazione di predizioni ottimali. E questa nuova consapevolezza ha portato a importanti innovazioni anche sul piano epistemologico, per le quali il primato della causa è stato obliato da quello della probabilità e la potenza predittiva è andata sostituendosi all’accuratezza esplicativa. Se è vero, infatti, che i contemporanei sistemi predittivi raggiungono risultati estremamente soddisfacenti, essi lo fanno purtuttavia per mezzo di meccanismi e logiche non sempre chiaramente comprensibili dall’esterno – nemmeno da parte dei loro programmatori.
L’opacità delle procedure decisionali di questi sistemi si rivela in tutta la propria ambiguità non appena si considerino gli effetti indesiderati – e indesiderabili – che derivano dal loro utilizzo estensivo, testimoniati da una piuttosto variegata serie di fenomeni, che si estende dalle “spintarelle” comportamentali indotte dai sistemi di raccomandazione delle piattaforme[7] fino ai più noti scandali legati alle cosiddette “discriminazioni predittive”[8]. In ultima battuta, secondo l’autore sarebbero proprio le scorciatoie che hanno concesso al machine learning di fiorire e collezionare i suoi attuali e importanti successi ad essere le principali responsabili della nostra attuale impossibilità di valutare in modo scientifico e rigoroso quale sia l’effettivo grado di affidabilità, equità e sicurezza delle applicazioni di Intelligenza Artificiale. Tale condizione non consente agli utenti di conoscere “quali possano essere i motivi dietro un comportamento dell’agente, o […] le possibili conseguenze di usarlo”[9] né, agli scienziati, di accertare la pericolosità etica e sociale del suo impiego e risulta ancor più aggravata dall’assenza di ispezionabilità degli algoritmi, vale a dire dalla loro totale indisponibilità a qualsiasi forma di verifica da parte di agenzie terze o ricercatori indipendenti.
Tuttavia, la regolamentazione dell’IA non dovrebbe, in conclusione, essere considerata alla stregua di un ideale utopico, dal momento che “convivere in sicurezza con questa tecnologia”[10] è una richiesta non soltanto eticamente urgente ma anche irrinunciabile e tecnicamente esaudibile (per quanto “[c]i vorrà molto tempo per imparare […] quali rimedi funzionano”[11]). Non saranno sufficienti, in questa direzione, le competenze degli informatici – assicura il docente. Al contrario, la “prossima grande sfida – e avventura – per l’IA […] richiederà una comprensione molto più profonda dell’interfaccia tra le scienze sociali, quelle umane e quelle naturali”[12]: una comprensione che sembra potrà essere perseguita, come lo stesso Cristianini ha sostenuto altrove, solo grazie al contributo corale di “filosofi, artisti, umanisti, imprenditori, scienziati, politici, cittadini…”.
[1] Disponibile in traduzione italiana nelle due edizioni curate da Bollati Boringhieri: cfr. Domingos, Pedro, L’algoritmo definitivo. La macchina che impara da sola e il futuro del nostro mondo, Torino: Bollati Boringhieri, rispettivamente: 2016 (1° ed.) e 2020 (2° ed.).
[2] Sulla distinzione tra IA ‘forte’ e IA ‘debole’ rinviamo, per la sua chiarezza espositiva e la sua completezza, al seguente intervento di Giulio Destri: Intelligenza Umana versus Capacità Artificiale… Chi vince? Chi perde? (link consultato a dicembre 2023).
[3] Questo il nome dell’algoritmo learner lanciato nel 2016 da DeepMind (Google) e addestrato per giocare a Go. La mossa in questione, lanciata da AlphaGo nel corso di una partita contro il campione coreano Lee Sedol, fu inizialmente considerata un clamoroso errore da parte dei suoi programmatori (e dal suo avversario), laddove successive analisi post-partita dimostrarono, viceversa, che fu propria tale mossa a porre le basi per la vittoria finale dell’algoritmo sul suo sfidante umano (cfr. Cristianini 2023, pp. 70-72).
[4] Ivi, p. 13.
[5] Come sostenuto da anni da Luciano Floridi, specialmente in merito alla cosiddetta capacità di “semanticizzazione” della realtà (cfr. Id., «Semantic Capital: Its Nature, Value, and Curation», Philosophy & Technology 31, fasc. 4 [dicembre 2018], pp. 481– 497).
[6] Cristianini 2023, p. 50.
[7] Si vedano, su questo, gli studi di economia comportamentale riportati e discussi dall’autore nei capitoli 6 e 7.
[8] Tra questi, l’autore ricorda in particolare il noto caso del software usato da Amazon per la selezione del personale, che si scoprì penalizzare fortemente i curriculum delle candidate di genere femminile, e quello del controverso sistema multi-agente COMPAS, impiegato tuttora in diverse giurisdizioni americane per stimare la pericolosità sociale degli individui, il quale, secondo un’indagine di ProPublica, assegnerebbe di default punteggi più alti (e quindi peggiori) alle persone nere.
[9] Ivi, p. 197.
[10] Ivi, p. 187.
[11] Ivi, p. 200.
[12] Ivi, p. 187.