Logo della Fondazione Giannino Bassetti

FONDAZIONE GIANNINO BASSETTI

L'innovazione è la capacità di realizzare l'improbabile

Intestazione stampa

Focus

Temi in evidenza, a cura della Redazione

Home > Focus > Gli algoritmi nelle nostre vite, la potenza del calcolo tra rischi monopolistici e opportunità democratiche.

Gli algoritmi nelle nostre vite, la potenza del calcolo tra rischi monopolistici e opportunità democratiche.

di Anna Pellizzone [1], 1 Giugno 2018

In occasione della pubblicazione del libro di Michele Mezza "Algoritmi di libertà" (Donzelli, 2018), Fondazione Giannino Bassetti ha avuto il piacere di ospitare lo scorso 24 aprile 2018 il dialogo "Gli algoritmi nelle nostre vite, la potenza del calcolo tra rischi monopolistici e opportunità democratiche". Alla discussione - moderata da Francesco Samorè - hanno preso parte, oltre all'autore, anche Piero Bassetti, Giulio Giorello, Alfonso Scarano, Marco Vitale, Giampaolo Azzoni, Toni Muzi Falcone, Silvia Figini, Alessandro Venturi.

Di seguito proponiamo i video del dibattito e una sintesi degli interventi, che propongono un ragionamento sulla pervasività dell'algoritmo nelle nostre vite e nell'organizzazione della nostra società da prospettive disciplinari differenti, tra cui quella statistica, finanziaria, giuridica e politica.

In questa pagina rendiamo disponibili:

  • Le riprese integrali dell'evento, a cura di Fondazione Bassetti, suddivise in 4 parti, corredate di sintesi.
    Parte 1. Introduzione di Francesco Samorè e Alfonso Scarano. Interventi di Piero Bassetti e Marco Vitale. (36'36")
    Parte 2. Interventi di Toni Muzi Falconi, Silvia Figini e Alessandro Venturi. (33'46")
    Parte 3. Interventi di Giampaolo Azzoni e Giulio Giorello. (24'23")
    Parte 4. Interventi di Michele Mezza e Marco Vitale. (31'23")
  • Le fotografie dell'evento.


Parte 1. Introduzione di Francesco Samorè e Alfonso Scarano.
Interventi di Piero Bassetti e Marco Vitale.



Alfonso Scarano, ingegnere e analista finanziario, racconta la propria esperienza di analista finanziario, sottolineando il fatto che gli algoritmi ci sono sempre stati e sono antichi come la nostra civiltà, ma che la novità è che a mano a mano hanno preso sempre più spazio. Partendo dalla sua esperienza di studente che lo ha portato ad analizzare i segnali magnetotellurici, Scarano sottolinea come all'inizio del suo ingresso nell'ambito finanziario la sua prima relazione sia stata di stupore davanti alla semplicità della matematica con cui si stimavano il valore di aziende e prodotti finanziari, poi diventata più complessa anche in questo ambito. Scarano ha quindi citato Federico Caffè: «al posto degli uomini abbiamo sostituito i numeri e alla compassione nei confronti delle sofferenze umane abbiamo sostituito l'assillo dei riequilibri contabili». L'intuizione è che anche se noi possiamo numerizzare tutto, quello che ci rimane è l'umanità, che è difficile da trasmettere alle macchine, anche se c'è qualcuno che ci sta provando.
Secondo Scarano, uno degli algoritmi che più ci dovrebbe fare riflettere è quello del rating del merito creditizio, che l'analista descrive come caratterizzato da un elevato livello di discrezionalità e, quindi, pericoloso. Nel caso di standard&poors, ad esempio, il merito è basato su 5 parametri e, dice l'analista finanziario, "con un colpo qua e un colpo là" si possono spostare i risultati e la ricchezza. A preoccupare Scarano è anche l'oligopolio delle società di rating e la concentrazione di potere algoritmico e di dati così grossa. Ma chi è al centro di potere o dello sviluppo che crea potere che nasce dal connubio di algoritmi trasformati in sistemi di saperi esperti con una certa capacità di elaborazione di adattatività autonoma e la grande massa di dati che può essere registrata ovunque su larga scala? Sono degli oligopolisti internazionali, la cui pervasività secondo Scarano è preoccupante.

Piero Bassetti esordisce con una riflessione sul rapporto tra tecnica e libertà. Una delle domande che si pone la Fondazione è proprio questa: se l'innovazione è la realizzazione dell'improbabile, come si riesce a fare dell'innovazione un oggetto di politica accettabilmente responsabile se per definizione ha un contenuto di inconoscibilità, quindi di rischio, quindi di ignoto, quindi di discrezionalità? Il libro di Mezza, dice Bassetti, è interessante proprio perché ci dice che l'algoritmo non è inconoscibile. Quello sul quale stiamo giocando è che per la sua complessità e potenza, ma non inconoscibilità, è usato in termini di magia. Una dimensione, quella magica, che in mano al potere può essere usata in termini di violazione della libertà o al limite di suo potenziamento. Ma l'algoritmo, ha spiegato Bassetti, può paradossalmente consentire un maggior controllo dell'innovazione e rendere meno ignota la prospettiva dell'innovazione. Il tema della libertà con l'algoritmo appare quindi in un modo radicalmente diverso, perché in modo nascosto l'algoritmo potrebbe svolgere un ruolo di chiarezza, così come di oscurità. La questione è bivalente perché un potere che usa l'algoritmo può diventare un potere misterioso, e quindi irresponsabile, ma un sistema di potere che fosse obbligato a usare una forma di algoritmo conoscibile viene vincolato. La problematica politica non è il controllo responsabile dell'innovazione, ma il controllo responsabile della potenza dello strumento che è messo in mano al potere, o all'impotenza.
Non è una novità. È la potenza di calcolo che immersa nell'algoritmo introduce un nuovo elemento di controllo politico, e secondo di funzionamento della democrazia. E le elezioni del 4 marzo sono un segnale molto preciso del fatto che la quantità delle informazioni intacca la qualità delle informazioni. E se il parlamento diventa non il luogo dei prescelti per governare ma il luogo delle persone scelte per ripetere l'urlo è chiaro che il problema della rappresentività e della democrazia va preso in carico seriamente.

Marco Vitale nel suo intervento parte una riflessione sulle ragioni che ci portano ad avere paura di tecnologie potenzialmente liberatorie e la paura dell'ignoto è certamente uno dei motori di questi timori. Vitale cita quindi Gian Carlo Rota: (1991) «questo straordinario sviluppo della tecnologie e delle comunicazioni come un araldo proclama una nuova era di civiltà e annuncia una profonda trasformazione. Se si volesse cercare un caprio espiatorio a cui attribuire la colpevole paternità di questa nuova era, lo si potrà trovare nella figura del matematico. Infatti le conquiste più pure del pensiero matematico, le teorie che per la loro bellezza intrinseca sono spesso accantonate, perché ingiustamente considerate inutili, sono proprio quelle che trovano nell'ingegneria le più sensazionali applicazioni». Queste tecnologie, continua Rota, «ci aiuteranno a riconquistare la dignità di attività che forse possono sembrare perdute. Verrà il giorno in cui la mastodontica scienza degli sterminati laboratori e dei costosissimi acceleratori, la scienza che ha aperto questa nuova epoca uscirà di scena con un garbato inchino, avendo assolto la propria missione di rinnovata libertà per l'impresa individuale». Vitale, sottolinea quindi attraverso le parole di Rota come «l'impetuoso sviluppo scientifico e tecnologico che stiamo tratteggiando influenzerà prepotentemente anche la vita politica» e cita la statistica dei grandi campioni e il metodo Bootstrap come strumenti per un preciso controllo del «comportamento di massa», una cosa non sempre bene accetta delle manovre elettorali. Infatti «l'informatizzazione delle strategie elettorali e dei sondaggi di opinione, l'utilizzo super mirato della posta la manipolazione di stretti elettorali permettono di ottenere successo alle elezioni con un confidence level vicino al 95% e ad un costo relativamente basso. Certo possiamo chiederci cosa ne sarà della democrazia in questa epoca di vincitori prescelti». Secondo Vitale, lo strapotere economico finanziario che si sta generando legittima la paura, ma non per gli algoritmi, ma perché la democrazia si sta squagliando. E non si quaglia per gli algoritmi, ma per mancanza di pensiero, per mancanza di visione politica per mancanza di visione sociale. Perché come diceva Luois Brandeis, giudice della Corte Suprema Statunitense: «possiamo avere una democrazia oppure una ricchezza concentrata nelle mani di pochi, ma non possiamo avere entrambe».

Parte 2. Interventi di Toni Muzi Falconi, Silvia Figini, Alessandro Venturi.



Toni Muzi Falconi, esperto di relazioni pubbliche, ha sottolineato come il tema dell'innovazione e della libertà sia molto vicino al tema del negoziato sociale, della negoziazione del conflitto.
La domanda che pone Toni Muzi Falconi è quella che riguarda la persuasione politica e riguarda la possibilità che gli algoritmi programmino loro stessi. Cosa succederà in questo caso? Questo già avvenuto? Secondo l'esperto, fino a quando siamo noi a sbagliare, gli errori possono essere catastrofici e hanno impatti spaventosi, ma sono sempre errori umani. Ma cosa succede se gli errori sono commessi da non umani? Proprio qualche mese fa è stato pubblicato, in seguito a un Forum tenutosi a Oslo, il "Global Capability Framework for PR and Comms", nella quale è contenuta un'indagine che ha coinvolto 5 milioni di professionisti del settore, chiedendo loro quale sarà l'impatto dell'intelligenza artificiale sulle loro attività nei prossimi 5 anni. Secondo l'indagine, il 40% delle azioni che al momento sono svolte dagli esperti di relazioni pubbliche saranno sostituite dall'intelligenza artificiale. Secondo Toni Muzi Falcone, il nodo centrale riguarda l'autogoverno dell'algoritmo, perché se è vero che questo punto è già stato raggiunto, parlare di democrazia, parlare di rapporti interni nelle imprese e nelle organizzazioni, non ha più senso.

Silvia Figini, professoressa associata all'Università di Pavia, arricchisce la discussione portando la sua esperienza di statistica e spiega che ricorriamo all'algoritmo, quando siamo incerti, quando dobbiamo gestire delle misure sulle quali non abbiamo certezze e vogliamo mitigare dei rischi. Ma è importante capire che l'algoritmo ha senso solo se immerso nella teoria su come governare l'incertezza, che non gestiamo con l'algoritmo, ma con teoria delle decisioni quindi della probabilità, già studiata dai grandi in passato.
Quindi oggi gli algoritmi e la modellista possono avere senso solo se vengono in qualche modo innestati in un discorso teorico e metodologico, tenendo presente che abbiamo sempre due vie: una via determinista, che implica che quando vogliamo ad esempio considerare il numero di eventi di interesse su un totale di casi possibile, lavoriamo soltanto su dei dati che abbiamo osservato, quindi ci limitiamo semplicemente a sinterizzarli. Quando invece vogliamo spingerci più avanti - e possiamo spingerci più avanti, perché da un lato abbiamo la teoria, ma la devo conoscere, e dall'altro lato abbiamo avuto un progresso tecnologico che oggi ci consente di estrarre tantissimi dati. È questo punto che possiamo spingerci a qualcosa di più sofisticato, a ragionare non solo in senso deterministico, ma in modo stocastico e quindi estrarre da grandi moli di dati informazioni che non sono note a priori.
La nostra sintesi sarà efficace e informativa, solo se noi siamo in grado di andare ad integrare la conoscenza dell'esperto. Ci sono algoritmi altrimenti che macinano tantissimi dati senza essere però intelligenti, perché l'intelligenza è la capacità di integrare il dato con l'opinione dell'esperto. L'algoritmo da solo non è intelligente, deve essere in qualche modo istruito e soprattutto letto dall'esperto del settore, quindi dalla persona che ha competenza. Deve anche essere regolamentato, per esempio nei rischi finanziario alcuni algoritmi sono vietati (come le reti neurali). L'algoritmo deve rispondere a dei requisiti e non deve essere una scatola nera.

Ed è proprio in merito alla questione dell'algoritmo in relazione alla norma e all'assetto della società di cui parla Alessandro Venturi nel suo intervento, partendo da una riflessione di María Zambraro «Se tutti noi facciamo parte del popolo perché mai si presenta il problema di come parlare del popolo al popolo?». Io credo che in questa frase stia la questione del regime democratico, dell'ordinamento anche che una società dà a sé stessa. Il rischio è sempre quello di creare due opposte fazioni, quelli che osannano e vedono nella tecnologia nell'algoritmo la panacea di tutti i mali e quelli che vi si oppongono. Ed è proprio del binomio autorità e libertà che parla anche un vecchio saggio di Feliciano Benvenuti, da cui discende una riflessione sull'assetto democratico e normativo, sui pubblici poteri e sulle istituzioni, che quando si parla di algoritmo diventa estremamente attuale, anche in termini di evoluzione dello stato e dell'amministrazione. Infatti, spiega Venturi citando Benvenuti, riconoscere ai cittadini e alle persone il potere di partecipare all'esercizio di quelle funzioni che tradizionalmente appartengono al monopolio del potere pubblico - e forse gli algoritmi consentono questo - rendere quindi i cittadini parte di un rapporto paritario con il sistema pubblico e, ancora, la partecipazione diretta non alle istituzioni, come oggi da più parti si sente dire, ma all'esercizio di quelle funzioni che erano l'oggetto precipuo dei pubblici dei pubblici poteri e dell'amministrazione, tutto questo apre una grandissima prospettiva in cui si prende atto di una trasformazione sostanziale di quella che è la forma del nostro Stato.
Ma quali sono le conseguenze che derivano da questa trasformazione?
L'idea di Benvenuti è che da uno stato persona, mono-detentore di tutte le funzioni pubbliche, si avvia un rapporto collaborativo con tutti i cittadini, che in qualche modo compartecipano e condividono anche le responsabilità dell'organizzazione pubblica. In questo, Venturi vede anche la possibilità di emancipazione e di recupero di una dimensione della rappresentanza.

Parte 3. Interventi di Giampaolo Azzoni, Giulio Giorello.



Gianpaolo Azzoni sottolinea l'attualità del tema della "governamentalità algoritmica", secondo cui gli algoritmi vengono spesso considerati come succedanei di molte decisioni. Uno degli esempi più diretti della questione proviene dal mondo del cricket: quando piove, si interrompono le partite e il risultato viene oggi stabilito sulla base di un algoritmo che definisce il vincitore a partire dall'andamento della partita sospesa e da partire analoghe disputate in passato. Questo approccio ha moltissimi ambiti di applicazione, non ultimo, nel diritto, il noto caso del calcolo del rischio di recidiva affidato dallo Stato del Wisconsin proprio ad un algoritmo.
È evidente che siamo di fronte a qualcosa di enorme rilevanza dal punto di vista non solo politico e giuridico, ma anche sociale, culturale e anche sanitario. Secondo Azzoni, la parola chiave è "profilazione". Questi algoritmi presuppongono delle classi di individui, costantemente in evoluzione, anche in medicina. Basti pensare alla medicina personalizzata e alla medicina sempre più legata alla prevenzione, e alla predittività, che ha come oggetto il malato potenziale, con evidenti impatti, ad esempio, dal punto di vista delle assicurazioni.
Siamo, ribadisce Azzoni, nell'era della profilazione, che richiede la possibilità di introdurre un correttivo, un elemento umano. Non a caso, il GDPR introduce all'articolo 22 un diritto inedito nel panorama dei diritti: il diritto all'intervento umano. Come si configuri poi questo intervento non è chiaro - se in modo ad esempio correttivo o valutativo - ma certamente da un punto di vista simbolico è qualcosa di importante.

Esiste però anche una sezione della matematica che algoritmica non è, ricorda Giulio Giorello, che ci permette di capire come l'algoritmo non sia onnipotente e sia anche prezioso. Quando Thomas Hobbes diceva che il pensiero non è altro che calcolo aveva chiara l'idea di poter ridurre a calcoli, ad algoritmi, a procedure, qualunque forma di disputa intellettuale. Alcune cose, però, non sono calcolabili per linea di principio. Come tenere insieme questi due aspetti? Il punto di fondo, secondo Giorello, è il senso critico. Se la calcolabilità diventa puramente tecnicità, il problema diventa un problema di preoccupazione democratica e libertaria. La mancanza di senso critico è oggi là dove dilaga un enorme e orribile problema politico. Il pericolo non sono gli algoritmi in quanto tali, ma l'uso degli algoritmi, la gestione, la non trasparenza. Karl Marx sottolineava come per l'efficienza delle macchine a vapore non sia tanto rilevante il tempo che dal singolo operaio viene impiegato a produrre, quanto la relazione tra macchine e stato di conoscenza scientifica con cui la macchina è stata prodotta, con cui verrà migliorata e i tempi in cui verrà applicata a sempre nuovi problemi.

Parte 4. Interventi di Michele Mezza, Marco Vitale.



L'autore del libro, Michele Mezza, interviene sottolineando la potenza emancipatrice e libertaria della disponibilità del calcolo citando Adriano Olivetti: «l'elettronica non solo ha reso possibile l'impiego dell'energia atomica e l'inizio dell'era spaziale, ma attraverso la moltiplicazione e sempre più complessi ed esatti apparati di automazione sta avviando l'uomo verso una nuova condizione di libertà e di conquiste». Secondo Mezza, questa fu la più grande intuizione del dopoguerra.
È un caso che oggi le isobare del potere siano omogenee su tutto il globo? Che manchino in tutto il mondo istituzione riconosciute, partiti popolari, leadership prestigiose e assetti sociali stabili? Qualcosa è successo e se Baumann diceva lavoro di massa, consumi di massa, media di massa, da un certo punto di vista oggi c'è il lavoro individuale, i consumi sono personalizzati e i media on demand. Secondo Mezza, l'algoritmo spacca la dimensione civile del potere nel pianeta. I cittadini pretendono e richiedono strumenti per partecipare. I malati prima di rivolgersi al medico si consultano nelle comunità online di malati, acquisendo un'autonomia prima impensabile. E proprio perché siamo di fronte a una grande opportunità, questa va civilizzata, non, sostiene Mezza, attraverso norme dello stato, ma attraverso un «processo sociale permanente di negoziazione continua e di interferenza sociale sui modelli di elaborazione della scienza», perché «chi pensa di fare lo scienziato per conto suo, lo fa a spese sue».
L'algoritmo secondo l'autore è un «processo sociale», l'unico nella storia del sapere che «è inconsapevolmente eseguibile, ma la civiltà inizia quando quell'avverbio diventa "consapevolmente"».
Citando Bassetti, Mezza affronta il tema del sincronismo della pubblica opinione, la conoscenza dei processi psicologici dell'altro e la possibilità di confutazione. E afferma che l'algoritmo è uno spazio pubblico, con un potere talmente squilibrante, come la sanità, la pubblica istruzione e l'informazione, che non può soggiacere alla discrezione dello statuto proprietario, così come il database su cui è basato.
Secondo Mezza attorno alla potenza di calcolo si apre una battaglia «tra tanti uomini e pochi uomini, e non tra uomini e macchine, tra calcolanti e calcolati, tra proprietari e utenti» e le forze in campo sono da un lato i proprietari e dall'altro gli stati. Servirebbero, conclude il giornalistica, una negoziazione sociale e un conflitto, come è avvenuto quando è stata introdotta la catena di montaggio.

A chiudere la discussione, l'intervento di Marco Vitale, che cita una risposta del generale Giap alla domanda un giornalista francese che gli chiedeva come avrebbe fatto a sostenere e vincere la guerra contro gli USA. «Gli americani perderanno e sa perché? Perché fanno la guerra con l'aritmetica. Interrogano i loro computer, fanno somme e sottrazioni e su quelle agiscono. Ma qui (nella giungla) l'aritmetica non è valida: se lo fosse ci avrebbero già sterminato».


LE FOTOGRAFIE



-----------

Mostra/Nascondi i link citati nell'articolo

Link citati nell'articolo:

  1. 1] /schedabiografica/Anna Pellizzone
CC Creative Commons - some rights reserved.
Gli algoritmi nella nostre vite, la potenza del calcolo tra rischi monopolistici e opportunità democratiche.
Articoli di: 

Anna Pellizzone

Articoli
Ricerca per:
Ricerca nei video:

- Iscriviti alla mailing list - Informativa Cookies -

RSS Feed  Valid XHTML  Diritti d'autore - Creative Commons Gruppo Fondazione Giannino Bassetti in Facebook Gruppo Fondazione Giannino Bassetti in Linkedin Segui la Fondazione Giannino Bassetti in twitter

p.i. 12520270153