Logo della Fondazione Giannino Bassetti

FONDAZIONE GIANNINO BASSETTI

L'innovazione è la capacità di realizzare l'improbabile

Intestazione stampa

Focus

Temi in evidenza, a cura della Redazione

Home > Focus > I figli dell'algoritmo. Recensione del libro di Veronica Barassi.

I figli dell'algoritmo. Recensione del libro di Veronica Barassi.

di Margherita Mattioni [1], 5 Maggio 2022

I figli dell'algoritmo è il primo volume che Veronica Barassi, studiosa di antropologia sociale e docente presso la Scuola di scienze umane e sociali dell'Università di San Gallo in Svizzera, pubblica in lingua italiana. Già autrice di Activism on the Web: Everyday Struggles Against Digital Capitalism (Routledge, 2015) e Child, Data, Citizen: How Tech Companies are profiling Us from before Birth (MIT Press, 2020), Barassi da tempo si occupa di intelligenza artificiale, profilazione e privacy nell'era del Web delle piattaforme, incentrando la propria ricerca sull'impatto socio-politico dell'utilizzo delle tecnologie digitali. Questo suo ultimo contributo, che si colloca esplicitamente all'interno del paradigma analitico del capitalismo della sorveglianza, inaugurato in anni recenti da Shoshana Zuboff (1) (1951 -), intende prendere in esame le possibili conseguenze antropologiche e democratiche dell'analisi predittiva svolta dai servizi delle Big Tech sui bambini attraverso la massiccia e sistematica raccolta dei loro dati personali. Il presupposto di fondo, dunque, è quello per cui "per la prima volta nella storia dell'uomo [...] stiamo creando una generazione di cittadini che vengono datificati fin dalla nascita" (2). Fin dal loro concepimento, per mezzo delle applicazioni di monitoraggio della salute delle donne in gravidanza, questi ultimi sono infatti tracciati in qualsiasi ambito della propria esistenza, dall'ambiente domestico, grazie ai dispositivi IoT sviluppati dall'ingegneria domotica o agli smart device utilizzati dai genitori per il controllo da remoto delle attività e degli spostamenti dei figli, all'istruzione, con le piattaforme di e-learning per la didattica a distanza e i software per l'apprendimento mirato e personalizzato.

In questo scritto di carattere divulgativo ma corredato da una bibliografia ampia, interdisciplinare e aggiornata, Barassi ha scelto di affiancare lo studio preliminare delle privacy policies e delle domande di brevetto di decine fra social networks, app di monitoraggio della salute, hub domestici e piattaforme di e-learning ai risultati di un'indagine etnografica di tipo qualitativo sull'approccio dei genitori nei confronti della sorveglianza digitale dei figli e, soprattutto, della cessione dei loro dati personali alle grandi corporazioni digitali. Ciò che emerge con chiarezza dalle interviste raccolte dalla ricercatrice non è più semplicemente la diffusa predisposizione delle persone ad un atteggiamento di "rassegnazione digitale", già documentata da Nora Draper e Joseph Turow (3). Quasi sempre, infatti, i genitori, pur essendo consapevoli dei rischi e dei danni che potrebbero infliggere a sé e ai propri figli condividendo le loro informazioni personali senza avere un controllo sulle modalità o le finalità del loro futuro trattamento, finiscono per barattare la propria privacy e quella dei propri figli per poter usufruire di servizi gratuiti e ben funzionanti. Dunque a testimoniare (ancora una volta) la vittoria dello ius algoritmi sulla possibilità di libera scelta e di autodeterminazione dei singoli e delle famiglie è, per Barassi, soprattutto il crescente fenomeno di "partecipazione digitale forzata", dovuto alla digitalizzazione, fra le altre, della didattica e dei servizi della pubblica amministrazione - venuto, peraltro, per ovvi motivi necessariamente a rafforzarsi a seguito dello scoppio della pandemia da Covid-19 (4). Questo orientamento generale presenta secondo la studiosa un profilo altamente problematico. Ciò non soltanto per quanto concerne la rilevazione di frequenti errori, distorsioni e discriminazioni a carico dell'analisi predittiva operata dagli strumenti di intelligenza artificiale impiegati dai grandi intermediari digitali per l'analisi e la rivendita dei dati personali dei propri utenti. A fronte, infatti, degli enormi investimenti sostenuti dai colossi digitali nei campi della salute e dell'istruzione e, nondimeno, dei numerosi accordi che i primi stanno siglando negli ultimi anni con i governi di molti Stati, anche Europei, Barassi ci invita dunque a riflettere sulle molteplici criticità che si originano dal fatto che al giorno d'oggi stia scemando ogni sostanziale differenza fra i dati personali dei soggetti intesi come consumatori e i dati dei cittadini. Tanto più dal momento che un recente rapporto della NATO, pubblicato nel 2021, dimostrerebbe che i casi di violazione dei principi sanciti dai regolamenti di protezione della privacy individuale (e familiare) attualmente vigenti, come in Europa il GDPR (General Data Protection Regulation) o negli Stati Uniti il COPPA (Children's Online Privacy Act), sono tutt'altro che rari.

L'idea che sia necessario riconcettualizzare la nostra tradizionale nozione di 'privacy' a favore di un'esplorazione dei legami vigenti fra le procedure di datificazione degli individui, i predictive privacy harms - vale a dire, le differenti tipologie di danni e abusi subiti (silenziosamente) dagli individui e dalle famiglie a causa dei bias algoritmici (5) - e la giustizia sociale costituisce certamente la tesi principale dell'opera (6). L'aspetto più innovativo e originale della proposta di Barassi risiede, però, nella scelta di applicare tale prospettiva d'analisi all'ambito familiare, circostanza che consente alla studiosa di dimostrare sapientemente come l'urgenza di superare una concezione prettamente individualista della privacy sia una questione al contempo teorica e pratica. Questo non soltanto perché le tecnologie predittive amplificano indiscriminatamente (e perlopiù involontariamente) le disuguaglianze sociali, finendo per rendere ancora più vulnerabili le categorie di persone che, per etnia, reddito, condizione sociale, genere, orientamento sessuale o condizioni psico-fisiche sono di per sé svantaggiate rispetto ad altre, ma anche perché "la profilazione è per definizione una pratica di correlazione di dati che serve a formare un giudizio" (7). Ciò comporta infatti che, poiché le nuove generazioni di bambini sono datificate fin prima dalla propria nascita, allora "[i] dati sul loro conto che vengono raccolti oggi, domani saranno probabilmente elaboratori da molteplici sistemi di intelligenza artificiale e potranno influenzare le loro opportunità di vita in molti modi: quando cercheranno un impiego, o stipuleranno una polizza assicurativa, o affitteranno una casa o accenderanno un mutuo" (8). In altri termini, per quanto la profilazione sia "un fenomeno sociale, antropologico e personale che è sempre esistito e che coinvolge tutti, ben oltre il mondo digitale" (9), è certamente innegabile che la sua versione digitale, e in particolare algoritmica, costituisca un'inquietante forma di "efficientazione" e diffusione capillare dei meccanismi societari di controllo e classificazione.
Obiettivo condiviso della comunità accademica e della classe governante dovrebbe dunque essere quello di elaborare una strategia efficace per costringere le grandi piattaforme a lavorare su un design più inclusivo e meno invasivo per risolvere il problema democratico che sorge dall'accettazione passiva di queste plurime forme di automazione dell'ineguaglianza.

Le argomentazioni dell'autrice, che in quest'opera combina sapientemente le proprie riflessioni personali e le proprie preoccupazioni di madre con il portato della più recente letteratura scientifica della ricerca umanistica sui temi del digitale e delle tecnologie computazionali, risultano pertanto non soltanto ricche e rigorose ma anche estremamente efficaci, se non altro per quanto concerne quello che credo sia l'intento primario del testo. Vale a dire, non tanto stimolare nei singoli lettori una riflessione critica sulle proprie abitudini digitali ma anche e soprattutto spingerci, in qualità di membri di una stessa società, a partecipare attivamente all'ideazione di un decorso eticamente preferibile dell'innovazione tecnologica. Ancora una volta, è il ricorso all'antropologia e, in particolare, al pensiero di David Graeber (1961-2021) che conduce Barassi a concludere che un'intelligenza artificiale finalizzata al controllo degli individui costituisce di per sé un fallimento delle promesse del progresso tecnologico, perché produce quella che lo stesso Graeber definirebbe una tecnologia burocratica, utile solamente a "rafforzare gli imperativi burocratici", invece che una tecnologia poetica, cioè quel tipo di strumento che "realizza fantasie impossibili" (10). Per dirlo con le stesse parole di Barassi: "[...] le tecnologie che stiamo costruendo ci offrono comprensioni semplificate e riduzionistiche dei nostri comportamenti, e si basano su una lunga storia di diseguaglianza e pregiudizio scientifico. [...] se vogliamo risolvere il problema dello sfruttamento dei dati dei bambini e sperare in un futuro meno distopico dobbiamo agire ora. E non come individui, ma come società. [...] Ciò di cui abbiamo bisogno [...] è una classe dirigente consapevole che l'uso dell'intelligenza artificiale per la profilazione dei cittadini non è una gara, ma una scelta politica che avrà un impatto fondamentale sul futuro della democrazia e dei nostri bambini" (11).


I FIGLI DELL'ALGORITMO. SORVEGLIATI, TRACCIATI, PROFILATI DALLA NASCITA [2] di Veronica Barassi
Luiss University Press, Novembre 2021.


--------------------

Note:

1. L'opera di riferimento in tal senso è certamente la monografia The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power (2019), uscita in Italia per i tipi di Luiss University Press nello stesso anno.

2. Barassi, V., "L'errore umano dell'intelligenza artificiale: ecco perché dobbiamo imparare a conviverci", Agenda Digitale, 31/05/2021, disponibile a questo indirizzo [3] (consultato in data 01/12/2021).

3. Cfr. Draper, N.A. e Turow, J., "The Corporate Cultivation of Digital Resignation [4]", New Media & Society, 21, 8, 2019, pp. 1824-1839

4. Sul tema si veda anche Barassi, V., "Datafied Citizens in the Age of Coerced Digital Participation [5]", Sociological Research Online, XXIV, 3, Sept. 2019, pp. 414-429.

5. Crawford, K., e Schultz, J., "Big Data and Due Process: Toward a Framework to Redress Predictive Privacy Harms [6]", Boston College Law Review, 55, I, 2014.

6. Sul tema della cosiddetta "giustizia dei dati" si rimanda, fra gli altri, a Dencik, L., Hintz, A., Cable, J., "Towards data justice? The ambiguity of anti-surveillance resistance in political activism [7]", Big Data & Society, 3, 2, December 2016.

7. Barassi 2021, p. 104.

8. Ivi, p. 150.

9. Ibidem.

10. Cfr. ivi, pp. 148-149.

11. Ivi, pp. 150-151.

--------------------

Mostra/Nascondi i link citati nell'articolo

Link citati nell'articolo:

  1. 1] /schedabiografica/Margherita Mattioni
  2. 2] https://luissuniversitypress.it/pubblicazioni/i-figli-dellalgoritmo/
  3. 3] https://www.agendadigitale.eu/cultura-digitale/lerrore-umano-dellintelligenza-artificiale-ecco-perche-dobbiamo-imparare-a-conviverci/
  4. 4] https://journals.sagepub.com/doi/10.1177/1461444819833331
  5. 5] https://journals.sagepub.com/doi/full/10.1177/1360780419857734
  6. 6] https://lawdigitalcommons.bc.edu/bclr/vol55/iss1/4
  7. 7] https://journals.sagepub.com/doi/full/10.1177/2053951716679678
CC Creative Commons - some rights reserved.
I figli dell'algoritmo. Recensione del libro di Veronica Barassi.
Articoli di: 

Margherita Mattioni

Articoli
Ricerca per:
Ricerca nei video:

- Iscriviti alla mailing list - Informativa Cookies - Privacy Policy -

RSS Feed  Valid XHTML  Diritti d'autore - Creative Commons Gruppo Fondazione Giannino Bassetti in Facebook Gruppo Fondazione Giannino Bassetti in Linkedin Segui la Fondazione Giannino Bassetti in twitter

p.i. 12520270153