“Se sapete che cosa volete nella vita, la tecnologia può aiutarvi a ottenerlo. Ma se non sapete che cosa volete nella vita, sarà fin troppo facile per la tecnologia dare forma alle vostre intenzioni al posto vostro e prendere il controllo sulla vostra vita” scrive Harari nel suo 21 Lezioni per il XX secolo (p. 389). E come si spiegava già in un precedente articolo, anche nel campo della programmazione sociale1 l’adozione delle intelligenze artificiali non è neutra e porta con sé un insieme di dicotomie che vanno individuate, rese visibili, per poi tentare di risolverle.
Il rischio maggiore non è l’uso dell’intelligenza artificiale (di seguito indicata anche come AI, acronimo di Artificial Intelligence, ndr) in sé, ma il suo utilizzo acritico, automatico, come se fosse un nuovo “pensiero unico” applicato anche ai sistemi di welfare. Per questo serve un approccio riflessivo, ibrido, capace di tenere insieme l’innovazione tecnologica e la complessità umana. Perché la giustizia sociale non è un output automatico: è il frutto di scelte, mediazioni, relazioni (Merlo e Bordone 2025). Tutte cose che nessun algoritmo può, da solo, garantire.
La sfida non è più dunque “se” adottare le AI, ma “come” farlo. Governare, non arginare: questa è la nuova priorità.
Per aiutare questo “come” favorendo un buon governo delle intelligenze artificiali in ambito sociale, Percorsi di secondo welfare ospiterà riflessioni che prendano in considerazione proprio quegli aspetti dicotomici che ci fanno paura perché apparentemente irrisolvibili, ma che in realtà chiedono solo di essere guardati per essere affrontati.
Prima di iniziare con la prima dicotomia tra artigianato e industria, una nota: ogni contributo, a partire da da quello che segue, è da considerarsi assolutamente “transitorio” poiché gli “alieni in casa nostra” crescono e si sviluppano continuamente, anche in maniera autonoma, spesso in modo incredibile.
La dicotomica tra artigianato e produzione industriale
L’introduzione delle AI nel mondo del lavoro va oltre la semplice sostituzione delle mansioni umane: trasforma profondamente il modo di lavorare, ridefinendo ruoli e processi svuotando potenzialmente il significato stesso di una attività professionale. Nel settore della programmazione sociale, questo impatto è particolarmente evidente se si considera la crescente diffusione della logica delle “shopping list” e dei “progettifici”. Il rischio è che le AI si inseriscano in questa dinamica, amplificando standardizzazione e burocratizzazione delle proposte e degli interventi, sia nella creazione dei bandi che nella formulazione delle risposte.
Qui possiamo guardare il tema ricorrendo alla citata dicotomia tra artigianato e industria.
L’artigiano “conduce un dialogo tra le pratiche concrete e il pensiero” spiega Sennet (2008, p. 18, p. 47) e il suo metodo di lavoro adotta un approccio circolare ai problemi: “pensare e fare contemporaneamente”, una “metamorfosi circolare, che crea un legame”. Una pratica frequente nel lavoro artigiano è la logica dello “schizzo”, cioè il non conoscere tutti i particolari al momento di cominciare, ma ipotizzare soluzioni come procedimento per impedire ogni prematura chiusura. D’altronde è facile costruire mobili da un filare di pioppi tutti uguali, ma occorre un artigiano raffinato per “estrarre” qualcosa da un ulivo contorto, come spesso si presenta la realtà. Allora il programmatore sociale deve essere un tecnico esperto, un artigiano appunto, in grado di garantire, al meglio della situazione in cui opera, la sequenza e i contenuti di un ciclo teorico in situazioni che raramente si adattano a schemi e previsioni. Cioè si basa su relazioni uniche, capacità empatiche e lettura soggettiva delle situazioni, alla ricerca di soluzioni altamente personalizzate, flessibili e spesso originali, modellate sulle specifiche esigenze di una comunità, gruppo o individuo.
La produzione industriale punta all’efficienza, scalabilità, replicabilità, suggerendo opzioni di programmi e servizi “a catalogo”. In questo senso le AI che identificano pattern complessi utilizzando dati storici si appiattiscono sulla norma statistica e risultano lontane dalla serendipity e dal pensiero laterale a cui sopra si faceva cenno. Per la programmazione sociale questo vuol dire che si concentrano sulle esigenze e le caratteristiche del gruppo più ampio o dominante, trascurando le necessità specifiche di minoranze, fino ad ignorarle e a”sopprimerle”. Per i servizi questo approccio tende a scomporre processi complessi in singoli elementi costitutivi (con tempi e costi definiti). Cioè, frammenta, standardizza, i problemi di un progetto individuale in singole prestazioni (taylorismo sociale), ma evita i temi della “presa in carico” complessiva, della programmazione integrata e tende a implementare soluzioni a “taglia unica” che possono non rispondere adeguatamente alle diverse esigenze2.
Alcuni esempi concreti
Come si può affrontare questa dicotomia tra artigianato e industria in ambito sociale al di là delle grandi potenzialità delle AI?
Partiamo con qualche esempio sulle professioni aiuto, ovvero quelle occupazioni che si concentrano sull’assistenza, il sostegno e il miglioramento del benessere di altre persone, sia a livello fisico che psicologico, educativo o sociale. Nei percorsi di inclusione personalizzati per persone con disabilità complesse le AI, analizzando una vasta gamma di dati (es. interessi della persona, competenze esistenti, reti di supporto, offerte formative e lavorative locali, etc.) potrebbero ignorare interventi che solo la conoscenza e la relazione con i beneficiari possono suggerire. Oppure nella gestione automatica delle domande ai servizi sociali un sistema AI potrebbe processare automaticamente le domande per sussidi abitativi, buoni pasto o altri servizi sociali di base verificando i requisiti grazie al confronto con banche dati esistenti e gli esiti rilevati, indicando chiaramente seapprovare o rifiutare le domande. Un processo efficiente e uniforme per migliaia di utenti, ma che offre poca flessibilità per i casi complessi o eccezionali, che potrebbero richiedere un intervento umano diretto. Oltre alla possibilità di creare situazioni abnormi di discriminazione di minoranze come documentato ad esempio nei Paesi Bassi con il Systeem Risico Indicatie o in Australia, con il sistema Robodept, di cui ha avuto modo di scrivere Paolo Riva sempre su questo sito.
Nella programmazione sociale il rischio è di concentrarsi sulle esigenze e le caratteristiche del gruppo prevalente, trascurando le necessità specifiche di minoranze, fino ad ignorarle e a “sopprimerle”. Ad esempio programmi tarati sulle grandi città occidentali possono non essere adeguati in situazioni differenti (es. piccole città, aree rurali, comunità con caratteristiche socio-economiche diverse). È il caso di occupazione e formazione, in cui percorsi di riqualificazione professionale orientati a settori tecnologici o di servizi avanzati si possono scontrare con economie basate sull’agricoltura, sull’artigianato o su piccole imprese locali. O sistemi di allocazione delle risorse sociosanitarie basati su dati urbani possono trascurare esigenze specifiche delle zone rurali, come la scarsità di infrastrutture o la diversa distribuzione anagrafica3.
E poi programmi che partano dalla cultura dominante possono marginalizzare tradizioni e valori delle minoranze. Come nel caso di programmi volti all’integrazione degli immigrati che potrebbero promuovere forme di assimilazione senza riconoscere il valore del bilinguismo o del mantenimento delle tradizioni culturali d’origine e negare interventi che promuovano l’interculturalità, il dialogo tra culture o il supporto al mantenimento delle identità culturali. O interventi sulla dieta o sullo stile di vita, basati su modelli sanitari occidentali, potrebbero non considerare le abitudini alimentari o le pratiche di cura tradizionali di alcune minoranze, che potrebbero essere altrettanto valide o preferite.4.
O ancora, programmi che basandosi su dati storici identificano gruppi particolari come “meno rispondenti”, per escluderli (cd. “bias algoritmico“). Come nel caso dell’uso della spesa sanitaria storica come criterio principale, in cui le AI hanno scambiato il “minor consumo” di cure dei pazienti neri (dovuto a barriere di accesso, non a miglior salute) per una minore gravità clinica, impedendo a molti di loro l’accesso a programmi terapeutici potenzialmente vitali. O il rischio di recidiva nei detenuti che potrebbe mostrare come questo sia più alto in determinate minoranze, suggerendo di escluderli dai programmi di intervento come è successo con il sistema COMPAS negli USA5.
Tra efficienza ed alienazione
Le AI sono alimentate da algoritmi che disintermediano la relazione umana e riducono la complessità sociale a dimensioni misurabili. Così la distanza tra chi progetta, chi opera sul campo e i beneficiari tende inesorabilmente ad aumentare. I bisogni delle persone si trasformano in dati da elaborare, le storie individuali in profili, i territori in semplici mappe di indicatori, etc., sacrificando la comprensione profonda dei bisogni reali e delle specificità territoriali. I progetti vengono costruiti basandosi su requisiti esterni e griglie prestazionali, privilegiando l’aderenza formale – come il Logical Framework Approach – rispetto all’efficacia sociale sul campo. È qui che il concetto di alienazione, nella sua accezione marxiana, riacquista attualità: il lavoratore perde il controllo sul processo e sul contenuto del proprio operato, diventando un esecutore passivo di procedure dettate da logiche esterne e da sistemi automatizzati.
Da un lato l’esperienza, il sapere specifico e la discrezionalità di programmatori e operatori vengono messi da parte a favore dell’output “oggettivo” delle macchine. Dall’altro lato emerge una alienazione etica e relazionale, che svuota di significato il lavoro sociale, riducendolo a una mera prestazione tecnica anziché a un processo partecipato e trasformativo.
In sintesi, la dicotomia tra lavoro artigianale e produzione industriale riflette la scelta tra dinamiche relazionali, personalizzazione e flessibilità da un lato ed efficienza e scalabilità dall’altro. La sfida per il futuro è trovare un equilibrio, sfruttando i punti di forza di entrambi gli approcci per massimizzare l’impatto sociale.
Per approfondire
- Bibliografia organizzata sulla scheda sulle intelligenze artificiali presente sul sito “Pianificazione, programmazione sociale”, che viene aggiornata costantemente.
- Harari Y.N (2018), 21 Lezioni per il XX secolo, Bompiani.
- Lee S. (2025), Algorithmic Bias in Smart Cities , NumberAnalytic 2025.
- Mao F., Robodebt (2023), Illegal Australian welfare hunt drove people to despair, BBC.
- Medda R., Crepaz K. (2025), Reframing Minority Rights Amid Global Challenges: The Role of AI and Algorithmic Fairness in Promoting Diversity and Inclusion
- Meo M. (2021), L’intelligenza artificiale discrimina, eccome. Ecco perché e come rimediare, Network360.
- Merlo G., Bordone G. (2025), Guida alla programmazione sociale. Teorie, pratiche, contesti, Carocci faber.
- Merlo G (2025), Istruzioni per l’uso delle intelligenze artificiali nella programmazione sociale, Percorsi di secondo welfare.
- Riva P. (2024), Welfare e tecnologia: il lato oscuro della digitalizzazione, Percorsi di secondo welfare.
- Sennet R. (2008), L’uomo artigiano, Feltrinelli.
- Sustainability Directory (2025), How Can Data Bias Affect Ai in Cities?.
- UF CJC (2021), Addressing AI impact on communities of color, Explore University of Florida 2021.
Note
- La programmazione sociale è il processo attraverso cui enti pubblici e organizzazioni del Terzo Settore definiscono obiettivi, priorità e modalità di intervento per rispondere ai bisogni sociali della popolazione, pianificando in modo coordinato risorse, servizi e azioni nel medio-lungo periodo. È uno strumento fondamentale per garantire coerenza, efficacia e sostenibilità alle politiche sociali, favorendo la partecipazione degli attori locali e l’integrazione tra diversi livelli istituzionali. Clicca qui per approfondire.
- Questi temi sono ampiamente sviluppati nel recente volume Guida alla programmazione sociale. Teorie, pratiche, contesti, che ho scritto con Gianfranco Bordone per Carocci faber. Si rimanda in particolare alle pp. 16, 17, 36, 37, 51, 143, 214, 320
- Su questo si veda How Can Data Bias Affect Ai in Cities? e Algorithmic Bias in Smart Cities
- Si veda Reframing Minority Rights Amid Global Challenges: The Role of AI and Algorithmic Fairness in Promoting Diversity and Inclusion
- Su questo tema in generale si consiglia la lettura dell’articolo di Michele Meo L’intelligenza artificiale discrimina, eccome. Ecco perché e come rimediare su Network360.