L’intelligenza artificiale viene spesso percepita come uno strumento neutrale, capace di rappresentare il mondo nella sua interezza. Ma i dati raccontano altro. Una ricerca di Harvard (Which Humans?) mostra che l’IA riflette appena il 15% dell’umanità: tutto il resto è presente solo come eco lontana. ChatGPT, ad esempio, comprende gli americani al 70%, ma scende intorno al 20% con le persone del Sud-Est asiatico. Non è un errore tecnico: è un imprinting culturale precisa.
Il cuore del problema non è la mancanza di dati sulle culture non occidentali. È piuttosto il modo in cui questi dati vengono interpretati, classificati e gerarchizzati. Le civiltà diverse da quella occidentale non sono assenti: semplicemente, non vengono riconosciute come produttori di sapere. Sono presenti nei dataset, ma non partecipano alla costruzione del senso. Le loro voci non vengono ignorate, ma restano senza risonanza.
Questo accade perché la gran parte delle fonti considerate autorevoli proviene dal mondo occidentale. Le altre forme di conoscenza vengono filtrate attraverso criteri occidentali che definiscono ciò che è valido, affidabile o scientifico. Così, molte differenze non vengono escluse: vengono ridimensionate. Si ritrovano relegate a margine, come curiosità culturali più che come strutture fondamentali di pensiero.
L’AI riflette soprattutto il mondo WEIRD: Western, Educated, Industrialized, Rich, Democratic. È una categoria sociologica che evidenzia come gran parte della ricerca, della produzione di contenuti, delle metriche e delle valutazioni provenga da questa minoranza globale. Un’IA costruita in un contesto WEIRD finirà inevitabilmente per restituire risposte WEIRD. È il principio del weird-in → weird-out.
La tecnologia promette di essere universale, ma è un’illusione: non nasce da un equilibrio globale, bensì da un centro culturale dominante. Anche la cosiddetta “generalizzazione” dell’AI, spesso celebrata come capacità di comprendere ciò che non è stato visto in fase di addestramento, si rivela fragile. Generalizzare non significa includere: significa estendere schemi preesistenti. Se gli schemi sono parziali, anche l’estensione sarà parziale.
Come può un modello “includere” davvero se è stato addestrato quasi soltanto con dati provenienti da una parte del mondo? Il risultato non è un’intelligenza universale ma un riflesso viziato, che amplifica la prospettiva di chi ha accesso a infrastrutture, risorse e potere tecnologico.
Rendere l’AI etica significa allora lavorare su più livelli.
In primo luogo bisogna diversificare le fonti includendo lingue, forme narrative, strutture di pensiero e sistemi simbolici non occidentali. Non si tratta di aggiungere dati, ma di riequilibrarne il peso.
In secondo luogo, serve un coinvolgimento attivo delle comunità nella progettazione dei modelli. Saranno loro a indicare cosa rappresenta fedelmente la loro cultura includendo nuove metriche di valutazione, non basate soltanto su benchmark occidentali, ma su criteri regionali, linguistici e culturali.
I limiti della trasparenza dei modelli culturali usati devono essere dichiarati apertamente. Ogni sistema dovrebbe esporre non solo con quali dati è stato addestrato, ma per quali popolazioni è effettivamente affidabile.
L’obiettivo non è costruire una tecnologia neutrale, ma una tecnologia onesta, consapevole della propria posizione nel mondo.
In sostanza, l’AI può diventare un ponte culturale o un filtro culturale. Oggi è più filtro che ponte. E la questione etica centrale non è soltanto tecnica, ma epistemica: a chi stiamo dando voce? E a chi la stiamo togliendo? E perché? Quali sono gli interessi?