Le intelligenze artificiali sono strumenti sempre più diffusi in molti settori, inclusi i servizi sanitari, dell’istruzione, inclusione sociale per monitoraggio, diagnosi, apprendimento personalizzato, supporto mirato e così via. Possono essere utilizzati anche per la programmazione sociale? Personalmente le utilizzo professionalmente da un paio di anni: prevalentemente Gemini, Copilot, Perplexity, ChatGTP, Claude, NotebookLM nelle versioni free.
Alla luce di questa esperienza diretta, di seguito alcune cose che ho imparato da utilizzatore finale. Al di là delle innumerevoli questioni che suscitano su molti piani, credo possano essere riflessioni utili a quei professionisti che operano nei servizi sociali, soprattutto con ruoli manageriali.
Faccio notare che si tratta di un racconto “del momento”, in quanto le intelligenze artificiali possono essere visti come “alieni in casa nostra”, che crescono e si sviluppano continuamente, anche in maniera autonoma, spesso in modo incredibile.
Potenzialità e ambiti di utilizzo
Partiamo con identificare ed elencare le possibilità che le intelligenze artificiali offrono a chi opera nell’ambito della programmazione sociali e in che contesto potrebbero possono essere utilizzate.
- Analisi avanzata di grandi quantità di dati che si traduce in sintesi chiare e analisi comparative approfondite, anche svelando correlazioni e pattern altrimenti difficili da discernere.
- Identificazione di fragilità sociali individuando aree geografiche e popolazioni che necessitano interventi anche anticipando bisogni individuali e collettivi, nonché prevedendo l’insorgere di situazioni ed eventi critici.
- Supporto decisionale fornendo analisi, scenari simulati, basati su “evidenze” concrete, sintesi per la programmazione.
- Impostazione di programmi e progetti orientati all’ottimizzazione delle risorse e alla misurabilità dell’efficacia, anche utilizzando il Logical framework e la Work breakdown structure.
- Coinvolgimento dei cittadini attraverso piattaforme online e raccolta di feedback.
- Ricerche mirate online anche visualizzando tendenze sulle informazioni reperite.
- Automazione di compiti ripetitivi e burocratici.
Limitazioni e criticità attuali
A parte la possibilità che vi siano delle manipolazioni intenzionali (es. l’avvelenamento dati, bias algoritmici, ecc.), le intelligenze artificiali presentano alcuni limiti su cui occorre riflettere.
- Omogeneizzazione informativa e bias: derivano dall’uso di approcci che favoriscono la “norma statistica” e le occorrenze più frequenti rispetto alle eccezioni; da una dipendenza dai ranking di posizione e soluzioni già apprese, con il rischio che dati storici possano riflettere bias. Tutto questo può portare ad influenzare la selezione e l’analisi delle informazioni, riflettendo pregiudizi e discriminazioni presenti nella società, specialmente quando si usano variabili legate a caratteristiche sensibili (es, genere, origine, ecc.).
- Opacità e black box: è difficile comprendere appieno come ragionano, spesso non sappiamo come prendono una certa direzione, decisione, rendendo difficile fidarsi ciecamente, individuare errori o comprendere potenziali distorsioni.
- Limitatezza delle fonti: si basano su informazioni web, ignorando la stampa solo cartacea o contenuti “paywall”.
- Mancanza di pensiero “out-of-the-box” (divergente, laterale, serendipità, flessibilità cognitiva, intuizione, capacità emotiva) tipico dell’uomo. In qualche modo tendono a essere “conservative”.
- Allucinazioni: pur di rispondere, a volte inventano informazioni, incluse citazioni false.
Nello specifico possono trovare difficoltà nella pianificazione se non vengono fornite chiaramente le scelte politiche (direzioni strategiche, partecipazione, equità), mentre si trovano più a loro agio nella programmazione (obiettivi misurabili) e nella progettazione esecutiva. Tuttavia il loro approccio è tipicamente sinottico e top-down in quanto si basano su dati e informazioni, piuttosto che su processi partecipativi e democratici, ricerca di consenso. Non solo, l’applicazione rigida di una logica formale può far perdere la visione d’insieme (“paradosso del Titanic”).
In ultimo non dimentichiamo i problemi di privacy in quanto possono raccogliere informazioni personali e sui dati proposti per le analisi.
Note pratiche
Esaminati potenzialità e limiti, occorre ricordare come l’uso delle intelligenze artificiali (anche) per la programmazione sociale richiede un approccio critico e consapevole. Banalmente, non devono sostituire gruppi di lavoro, mentre possono essere molto utili per supportare i processi, mantenendo sempre al centro la dimensione umana e relazionale e la conoscenza del contesto. In questo possono essere di aiuto nel superamento della “sindrome della pagina bianca” fornendo un’analisi o proposta iniziale per avviare la discussione.
Di seguito qualche nota più specifica.
- Usarle per impostare, non risolvere, i problemi;
- Definire prima chiaramente il campo: i problemi da affrontare (es. Albero dei problemi, Obiettivi) in modo da indicare Finalità e Obiettivi degli interventi;
- Saper fare le domande giuste: l’efficacia dipende dalla capacità di formulare query;
- Non fidarsi delle risposte: essere in grado di estrarre informazioni pertinenti e utili, evitando ambiguità, imprecisioni e allucinazioni;
- L’esperienza conta: la comprensione del campo e l’esperienza pratica permettono agli “esperti” di interagire in modo più efficace rispetto ai “principianti” anche affinando domande successive;
- Richiedere trasparenza: chiedere il “perché?”, “su quale base?” delle risposte (metodo Ishikawa) le obbliga a chiarirne i fondamenti;
- Revisione umana: gli output richiedono sempre revisione e correzione da parte del gruppo di progetto, che possiede la visione d’insieme e la conoscenza contestuale;
- Confrontare diverse AI per ottenere punti di vista differenti;
- Verificare citazioni e fonti incrociando sistemi “certificati” per ottenere affidabilità, autorevolezza, obsolescenza, accuratezza, corretta attribuzione.
Raccomandazioni finali
In generale, il consiglio che vorrei esprimere in questa fase è di evitare una dipendenza eccessiva e non lasciare che le intelligenze artificiali diventino l’unico riferimento del lavoro di programmazione, soprattutto quando riguarda l’aspetto decisionale. Una dipendenza eccessiva porta a perdita di competenze e “atrofizzazione” della funzione.
In questo senso appare importante investire su persone e sistema. Per una piena integrazione delle intelligenze artificiali nella programmazione sociale servono infatti investimenti significativi sia sulla formazione delle persone che sul sistema complessivo.
Il consiglio, dunque, è quello di utilizzare le intelligenze artificiali come supporto in processi partecipativi di gruppo: solo un approccio olistico e multidisciplinare, diversità nel team, supervisione umana, attenzione all’etica, basati su dati di qualità e trasparenza, possono garantire imparzialità, equità, rispetto dei diritti di tutti.
Come detto all’inizio, quanto sopra riportato fa riferimento agli apprendimenti fatti fino a questo momento e, vista la continua evoluzione delle intelligenze artificiali, molte potrebbero essere le cose scritte che, anche dopo un breve lasso di tempo, richiederebbero quanto meno una revisione. Per questo invito a consultare la bibliografia organizzata sulla scheda sulle intelligenze artificiali presente sul sito “Pianificazione, programmazione sociale”, che viene aggiornata costantemente.