Souad Sbai: L’intelligenza artificiale un rischio di discriminazione nei confronti delle donne



Negli ultimi anni, le tecnologie basate sull’intelligenza artificiale (IA) hanno trasformato settori cruciali come sanità, istruzione, finanza e lavoro. Ma dietro le opportunità di innovazione si nasconde una sfida urgente: la possibile perpetuazione — o addirittura l’amplificazione — delle disparità di genere e sociali.

Un caso emblematico è quello dei sistemi automatizzati di selezione del personale. Sempre più aziende ricorrono ad algoritmi per scremare curriculum e profili professionali. Se questi sistemi sono addestrati su dati non rappresentativi — con poche donne, con pochi over 40, con scarsa varietà culturale — il risultato può essere la riproduzione di pregiudizi consolidati. Ciò significa che le donne, chi appartiene a minoranze, chi è meno visibile in ambienti digitali può trovarsi svantaggiato, spesso inconsapevolmente.

In Italia, ad esempio, le donne restano sotto-rappresentate nei ruoli dirigenziali, nei settori STEM (scienza, tecnologia, ingegneria, matematica), e in molte istituzioni dove il potere decisionale è ancora saldamente nelle mani maschili. L’uso indiscriminato dell’IA rischia di cementare queste disuguaglianze, trasformando la promessa di uguaglianza in un rimando permanente.

Per invertire la rotta servono misure concrete:

1. Regolamentazione normativa che imponga obblighi di trasparenza nello sviluppo degli algoritmi, soprattutto per quei sistemi con impatto forte sulla vita delle persone (selezione del personale, giustizia, previdenza, ecc.).


2. Controlli periodici e auditing indipendenti sugli algoritmi, per verificare l’assenza di bias discriminatori e correggerli tempestivamente.


3. Dati di addestramento equilibrati: è essenziale che i dataset includano una rappresentanza significativa di genere, età, background socio-culturale, per evitare che i modelli apprendano solo da una porzione “normata” della realtà.


4. Quote di rappresentanza nei luoghi dove si decide dell’innovazione — aziende tech, enti di ricerca, comitati etici — affinché chi applica o sviluppa l’IA rifletta la diversità della società.


5. Sensibilizzazione e formazione: sviluppatori, dirigenti, responsabili HR devono essere consapevoli dei rischi impliciti dell’IA e delle modalità con cui possono sorgere discriminazioni nascoste.



Non si tratta solo di etica: è anche questione di efficacia. Sistemi imparziali sono più affidabili, più legittimi e possono produrre decisioni migliori, più inclusive. Ignorare il problema significa rischiare che la tecnologia diventi veicolo di disuguaglianza anziché strumento di progresso.

Alma News 24, con questa riflessione di Souad Sbai, chiede un impegno istituzionale e sociale: vigilare, normare, monitorare, ma anche promuovere una cultura che riconosca il valore della diversità come risorsa, non come ostacolo.

Da Luigia Aristodemo

Presidente Associazione DIRE DONNA OGGI Editore Associazione DIRE OGGI 2.0

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *