6 ' di lettura
Salva pagina in PDF

La digitalizzazione dei servizi pubblici, e di welfare in particolare, offre grandi opportunità. Nasconde però anche grandi insidie, soprattutto per le persone più deboli.

Eppure le questioni problematiche sono molto meno indagate dei vantaggi possibili, sia perché la pandemia ha fatto percepire il passaggio al digitale come ineluttabile sia perché le conseguenze negative dei processi di digitalizzazione riguardano, appunto, chi è già in difficoltà e ha meno capacità di far sentire la propria voce..

Per questo, sono molto importanti incontri come quello organizzato a Bruxelles da EDRI, un’organizzazione non governativa che si occupa di diritti digitali in Europa.

Solitamente, la digitalizzazione viene associata alla “promessa di semplificare”, “di facilitare” e “di includere chi è lontano”, ha spiegato Clohe Berthelemy di EDRI, introducendo l’incontro “Sistemi digitali di esclusione: accessibilità ed equità nei servizi di interesse pubblico”. “Ma, probabilmente, è vero l’opposto” perché algoritmi e intelligenza artificiale “minano i diritti” e “contribuiscono a cementare le posizioni egemoniche”. 

Il panel si è tenuto nell’ambito del Privacy Camp 2024, l’iniziativa che EDRI organizza ogni anno per ragionare in maniera critica di digitale e diritti in molti settori, tra cui quello dei servizi di welfare.

Homeless: quando la tecnologia esclude 

La prima testimonianza è arrivata da Sergio Pérez Barranco di FEANTSA, la federazione europea che riunisce tutte le organizzazioni che lavorano con le persone senza dimora. Pérez Barranco ha parlato delle barriere che devono affrontare gli homeless ora che “sempre più servizi sono solo digitali o digital by default”. A rendere difficili l’accesso ai servizi sono principalmente i costi dei device (soprattutto smartphone), la connessione ad internet e la sua qualità, ma anche le competenze di chi li deve usare.

“Se queste barriere vengono superate – ha continuato –, arrivano i benefici: più informazioni, migliori contatti con i lavoratori sociali, possibilità di domicilio o lavoro. Se invece le barriere non vengono rimosse, la transizione digitale finisce per escludere ancora di più gli homeless, minando l’uguaglianza nell’accesso ai servizi. È preoccupante”. 

A questo proposito avevamo raccontato, per esempio, il caso del Belgio, ben documentato in un’inchiesta del magazine indipendente Médor. Ma la tendenza è diffusa in tutta Europa.

Niente sportelli e fragili in difficoltà: perché l’esclusione digitale in Belgio interessa anche all’Italia

 

“Le associazioni che fanno parte di FEANTSA – ha aggiunto Pérez Barranco – ci dicono che il lavoro sociale è molto impattato dalla trasformazione digitale”. Le persone homeless che si rivolgono agli operatori sociali sono solitamente poco autonome nell’accedere ai servizi e quindi gli operatori perdono molto tempo a “gestire le pratiche digitali: procurare gli smartphone, seguire procedure e compilare moduli on line”.  A suo parere, bisogna mettere in dubbio la narrativa per cui la tecnologia è sempre buona”.

Nei Paesi Bassi e in Francia lo stanno facendo, approfondendo non tanto l’impatto del digitale sui servizi alle persone, quanto piuttosto sull’erogazione di contributi economici e sulla loro verifica.

Paesi Bassi: controlli che discriminano le minoranze

Il caso dei Paesi Bassi è probabilmente quello che ha avuto una maggiore eco mediatica, che ha portato anche alle dimissioni di un Governo ed è arrivata fin fuori dai confini del Paese. Ne ha parlato Nawal Mustapha, ricercatrice della Vrije Universiteit di Amsterdam, a partire dal controverso programma SyRI (Systeem Risico Indicatie) e dallo scandalo dei sussidi per minori.

Migliaia di persone sono state ‘etichettate come truffatrici dalle autorità fiscali’ in applicazione del controverso “project 1043” predisposto da un team antifrode nell’identificazione massiva di condotte fiscali illecite selezionate sulla base della profilazione dei dati compilati nelle dichiarazioni dei redditi registrate nel sistema SyRI” , da cui trarre “sospetti di frode” tali da giustificare un’ispezione più approfondita” ha spiegato Agenda Digitale in un dettagliato pezzo sulla vicenda.

“A carico dei cittadini, presi di mira e automaticamente inseriti in una specifica lista di controllo, l’onere di dimostrare la correttezza degli adempimenti posti in essere in materia di imposta sul reddito rifiutati per impostazione predefinita, con l’ulteriore aggravante che gli utenti destinatari dell’avvio di un procedimento di accertamento fiscale non sono neanche stati informati tempestivamente”.

Piattaforme digitali di welfare: 10 apprendimenti e 10 domande aperte

Non solo. “Nel programma SyRI – prosegue l’articolo – sono stati ravvisati discutibili profili discriminatori a pregiudizio degli immigrati e delle persone con redditi bassi nell’ambito dei meccanismi di identificazione dei casi sospetti di frode mediante la raccolta di dati governativi provenienti da fascicoli fiscali e previdenziali, archivi catastali, registri contenenti informazioni occupazionali e commerciali, sistemi di immatricolazione di veicoli”.

“Il sistema portava a individuare rischi di frodi più elevate in determinati quartieri, persino indirizzi”, ha sintetizzato nel corso dell’evento al Privacy Camp Mustapha. La ricercatrice ha spiegato come l’algoritmo alla base di SyRI usasse “combinazione di classe e razza” che ha portato ad un impatto sproporzionato sulle minoranze.

L’impatto è stato particolarmente forte nelle frodi legate ai sussidi per i minori. “Lo scandalo ha avuto inizio nel 2012 e il numero di genitori coinvolti potrebbe arrivare a 26.000”, ha scritto la BBC in un articolo del 2021. Migliaia di genitori sono stati etichettati come truffatori per piccoli errori, come la mancanza di firme sui documenti, e sono stati erroneamente costretti a restituire decine di migliaia di euro dati dal governo per compensare il costo dell’assistenza all’infanzia, senza poter fare ricorso contro la decisione.

La tecnologia non è infallibile? Serve più responsabilità umana   

Quando lo scandalo è stato scoperto, il Governo di Mark Rutte si è dimesso, ammettendo gli errori e il fallimento del sistema. In realtà, l’esecutivo guidato dall’esperto leader liberale era già in difficoltà e molti hanno interpretato la scelta più come una mossa tattica che una reale volontà di cambiare le cose, anche perché Rutte è stato confermato Primo Ministro nelle successive elezioni.

Al di là delle conseguenze politiche, però, il caso è emblematico e porta a porsi diverse domande. Su Agenda Digitale, lo studioso di processi di innovazione tecnologica e digitale Angelo Alù si è chiesto se non fossimo “forse di fronte a un passo falso del sistema di automazione algoritmica in controtendenza al mito della infallibilità tecnologica in grado di risolvere i problemi sempre con soluzioni complete, efficaci e corrette?”. 

Per Moustapha la risposta è senza dubbio affermativa. A suo parere, “il caso pone il tema della responsabilità: teoricamente il processo decisionale andrebbe controllato dagli umani, che però si limitano a verificare se il sistema funziona, ma non se ha effetti negativi. I pesi e contrappesi esistenti (check and balances, in inglese) non funzionano”.

L’opacità dell’algoritmo “politico” della Francia

Il caso olandese ha diversi elementi comuni con quello francese, che avevamo già raccontato sulle pagine di Secondo welfare rilanciando un’inchiesta di Le Monde e Lighthouse Reports. Le due realtà giornalistiche hanno rivelato che, per più di un decennio e senza alcuna consultazione pubblica, il CNAF, l’agenzia di sicurezza sociale francese, ha utilizzato un algoritmo di apprendimento automatico su vasta scala nella caccia alle frodi nel campo del welfare, che oggi classifica quasi metà della popolazione francese e segnala in maniera molto più frequente le persone più vulnerabili.

A discutere di questo altro esempio di uso distorto delle tecnologie digitali, nel corso dell’evento del Privacy Camp, è stato Alex, membro dell’organizzazione francese La Quadrature du Net, che ha preferito non presentarsi col suo nome completo proprio per ragioni di privacy.

La Quadrature du Net è un’associazione francese nata nel 2008 che “si interroga sul modo in cui la tecnologia digitale e la società si influenzano reciprocamente”. È solo grazie al lavoro di questa organizzazione che è stata possibile l’inchiesta di di Le Monde e Lighthouse Reports perché sono stati gli attivisti de La Quadrature du Net a ottenere il codice dell’algoritmo usato dalla CNAF.

L’inquisizione digitale in Francia: gli algoritmi contro le frodi nel welfare discriminano i più deboli

Alex, da un lato, ha raccontato sia le battaglie legali combattute dalla sua associazione per ottenere il codice sia alcuni degli aspetti più tecnici del progetto che ha portato a denunciare le modalità d’azione discriminatorie dell’algoritmo. Dall’altro lato, però, ha anche riflettuto sulle motivazioni che spingono i Governi, in Francia come altrove, ad usare questi strumenti tecnologici e a concepirli in questo modo.

L’algoritmo è efficiente nel prendere di mira le persone più povere perché riflette le regole complesse figlie di politiche che considerano queste stesse persone pigre”, ha detto l’attivista riferendosi soprattutto alla norma molto complicata che regola il reddito minimo francese.

A suo parere, “l’idea di fondo [di queste politiche e quindi regole] è che le persone povere sfruttino il sistema di welfare”. In pratica, per Alex, la politica parte dal presupposto che le persone povere compiano delle frodi per avere più sussidi e quindi, di conseguenza, l’algoritmo è programmato per dare a quelle stesse persone povere un punteggio di rischio più elevato. “Di fatto, la CNAF potrebbe rispondere che l’algoritmo è così perché è così la politica”, ha concluso.

Il dibattito italiano

E in Italia? Quale è la situazione? Esistono casi simili? Mentre si ascoltano parlare i relatori e le relatrici del Privacy Camp viene da chiedersi quale sia la situazione nel nostro Paese. A maggior ragione quando Alex ha citato il reddito minimo francese e la mente è subito corsa alle grandi campagne mediatiche degli scorsi anni sulle truffe al Reddito di cittadinanza, lo schema di reddito minimo ora abolito dal Governo Meloni.

“Le decisioni prese in base a calcoli algoritmici in Italia sono molte più di quelle che immaginiamo”, ha scritto sull’Essenziale Donata Columbro. “Da diversi anni – prosegue l’articolo del marzo 2023 – alcune amministrazioni pubbliche affidano ad algoritmi e sistemi automatizzati la gestione di attività che riguardano i cittadini e le cittadine”. 

Gli algoritmi che regolano la Pubblica amministrazione. E quindi il welfare.

Ci sono o ci sono stati casi nel campo dell’istruzione, delle cure per il Covid-19, del riconoscimento facciale usato dalle forze di Polizia e della lotta all’evasione. Il campo del welfare sembra non essere ancora toccato dal fenomeno, come confermano le rilevazioni dell’Osservatorio Amministrazione Automatizzata lanciato da Privacy Network. Eppure, la stessa organizzazione, nel luglio 2022 ha inviato all’INPS una richiesta di accesso riguardo le modalità e i criteri di verifica e accertamento per l’assegnazione del Reddito di cittadinanza. “Riguardo l’utilizzo di processi automatizzati o parzialmente tali – si legge sul sito di Privacy Network , l’Istituto ci ha risposto di non fare uso di ‘particolari algoritmi, né di intelligenza artificiale’ ma di un sistema informatico di cui, al di là della mancanza di vocabolario condiviso, non si esplicita chiaramente il funzionamento”.

“La risposta che abbiamo ricevuto – ha concluso all’epoca l’organizzazione – non può essere considerata soddisfacente”. Il Reddito di Cittadinanza, nel frattempo, non esiste più. Il tema dell’uso di algoritmi e intelligenza artificiale per combattere le frodi ai sussidi di welfare, però, rimane ed è dibattuto, come dimostra un articolo recentemente pubblicato da alcuni esperti su Secondo Welfare. Anche in Italia senza dubbio merita di essere seguito con grande attenzione.

 

 

Foto di copertina: Firmbee.com, Unsplash