L’analisi di quanto emerso dal recente report realizzato dalla NGO statunitense TechTonic Justice, potrebbe dare luogo a reazioni preoccupate, perché il dossier evidenzia i rischi che corriamo delegando all’intelligenza artificiale i processi decisionali in settori delicati.
Vi si legge infatti di assicurazioni sanitarie negate, e così anche l’assistenza domiciliare necessaria per evitare le strutture di cura. Niente agevolazioni per l’accesso a trattamenti e farmaci vitali e a programmi di assistenza nutrizionale supplementare, anzi, accuse di illeciti, ingiuste ma frustranti.
Sussidi contro la disoccupazione? No, sospetti e controlli ne ritardano o negano l’erogazione, come per quelli legati agli affitti agevolati. Probabilità di abbandono scolastico che con disinvoltura etichettano bambini come falliti, rischio di violenze domestiche valutato con tanta statistica e poco contesto, traduzioni di servizi e norme pubbliche grossolane, che penalizzano chi non parla bene la lingua ufficiale.
Insomma, dal rapporto di TechTonic Justice – se letto con le lenti della responsabilità nell’innovazione – emerge materiale per ragionare su cosa siamo ancora in tempo a fare. E siamo ancora in tempo, soprattutto in Italia.
Tempo da adesso
Stregati dall’idea di poter semplificare e snellire “il sistema”, qualsiasi esso sia, investiamo energie, fondi, tempo sull’evoluzione unicamente tecnologica dell’Intelligenza artificiale. Monitoriamo il susseguirsi di versioni dei suoi modelli, affamati di scoprirne performance e nuove funzionalità. E intanto, fin dalle origini, una serie crescente di automatismi e algoritmi sono stati innescati, si sono evoluti anch’essi, silenziosamente, sono oramai consolidati. E sembrano a danno alle comunità a basso reddito.
Di fronte ai numeri del report di TechTonic Justice che riguardano dinamiche e persone oltreoceano, non possiamo raccontarci che denuncino ingiustizie confinate altrove. Potrebbero arrivare anche noi e non siamo condannati a subirle. Prima che l’Intelligenza Artificiale, qualsiasi livello di sofisticazione tecnica raggiunga, diventi un modo legittimo per prendere decisioni fondamentali sulle persone e società emarginate, serve riflettere e anche agire.
Errori, divieti di accesso e misteri dell’AI
Da questo utile primo sforzo per spiegare e quantificare in modo esaustivo la portata dei processi decisionali basati sull’AI tra le persone a basso reddito, sembra che negli Stati Uniti, tutti i 92 milioni di persone a basso reddito (reddito è inferiore al 200% della soglia di povertà federale) negli ultimi vent’anni abbia subito “ampi danni sistemici”. Non è tutto iniziato con l’AI, nessun sarebbe così ingenuo dal crederlo o dal volerlo far credere. La forza moltiplicatrice di questa tecnologia, però, unita alla sua accelerazione di adozione ed evoluzione, le hanno permesso di ampliare le disuguaglianze esistenti in modo estremamente rapido e silenzioso. Non solo: il salto è quantico. Si passa oltre la portata dei singoli decisori, e ci si rischia di trovare con strumenti di efficienza amministrativa trasformati in ‘armi di oppressione burocratica’.
Le numerose dinamiche denunciate nel report si possono raggruppare in tre ampie categorie.
- Errori: quando per determinare l’idoneità dei cittadini all’ottenimento dei benefici, i sistemi AI basano le proprie decisioni su dati obsoleti o inesatti, portando alla perdita di assistenza per milioni di persone, anche per l’assenza di una verifica umana preventiva.
- Disparità nell’accesso ai servizi: quando i sistemi AI penalizzano le minoranze, discriminandole automaticamente nei processi di selezione per l’accesso ai programmi pubblici.
- Mancanza di trasparenza: quando i sistemi AI restano sono “scatole nere”, quindi risulta difficile e non immediato contestarne le decisioni errate.
Tutte e tre le forme di ingiustizia emerse, non sono nuove al genere umano e l’AI non può prendersene la colpa. Il suo contributo è in accelerazione. Questa tecnologia le ha portate su scale prima non realizzabili, implementando nel quotidiano complessità tecnologiche non a tutti comprensibili, nemmeno a molti politici e decisori. E anche gli avvocati, per difendersene, mancano, e “quelli bravi”, hanno costi che solo chi è esente da discriminazioni può permettersi. Nel frattempo, la legge non riesce a rincorrere tutto ciò, e l’AI fornisce un mantello di razionalità ingiustificata alle azioni che intensificano o perpetuano le ingiustizie. Una presunta razionalità, una apparente obiettività che permette, a chi desidera, di giustificare azioni ai danni di persone a basso reddito.
L’AI non è l’origine dei problemi ma un nuovo fattore amplificante che sfida gli attuali meccanismi politici, di mercato e legali di responsabilità. Noi possiamo a sua volta sfidarla, ma come?
L’AI non è l’origine dei problemi ma un nuovo fattore amplificante che sfida gli attuali meccanismi politici, di mercato e legali di responsabilità. Noi possiamo a sua volta sfidarla, ma come?
Ricette per un’AI “dalla parte degli ultimi”
Ciò che serve è un intervento su duplice piano. Legislativo e sociale. A regalare qualche spunto è il report stesso. Suggerisce, per esempio, di rafforzare i movimenti locali per la giustizia attraverso la formazione e di offrire assistenza strategica che li supportino concretamente. Immagina la creazione di una solida capacità di un’advocacy integrata e multidimensionale tra le comunità a basso reddito e i loro alleati, per opporsi in tempo utile ai danni legati all’AI mal utilizzata. Preme per collegare le persone a basso reddito e i loro alleati tra loro e al discorso politico sull’AI, creando sintesi comprensibili e attuabili delle idee politiche attuabili in difesa delle comunità più colpite. Una virtuosa alleanza potrebbe essere anche quella con i giornalisti e le piattaforme mediatiche, perché forse solo unendo le voci si potrebbero ottenere leggi che regolamentino l’uso dell’AI sempre meglio e pretendere trasparenza dai fornitori che sviluppano e vendono l’AI.
La regina delle best practices, che poi riassume in un solo magico termine la gran parte degli spunti precedenti, è la partecipazione. L’obiettivo di chi vuole cambiare le cose, dovrebbe essere infatti proprio quello di incorporare meccanismi formali per una partecipazione significativa delle comunità interessate e dei loro alleati. Lo si può fare, e Fondazione Bassetti ha accumulato notevole esperienza in merito.
Questo ci permetterebbe davvero di non opporci “donchisciottescamente” alla già avvenuta integrazione dell’AI nei processi pubblici, e di impiegare meglio le forze sviluppandone una visione positiva.