Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2021  marzo 17 Mercoledì calendario

L’algoritmo è sessista?

Durante la «Giornata della donna» il premier Mario Draghi è stato chiaro nel suo discorso al Senato: il divario di genere in Italia deve essere una priorità e, fra le azioni da intraprendere, c’è quella di colmare la differenza di salario fra uomini e donne. Ma le discriminazioni possono diffondersi e perpetuarsi anche in contesti singolari come le nuove tecnologie, la robotica, la salute o la medicina. 
Nell’evento «Tech Gender Bias», che si terrà sabato 20 marzo alle ore 15 su milanodigitalweek.com, si parlerà dell’impatto che gli algoritmi hanno sulla vita quotidiana e di come si riflettono negativamente sulla parità di genere. Tra gli invitati che dialogheranno con la ricercatrice in etica e politica tecnologica Diletta Huyskes, la professoressa del Mit Catherine D’Ignazio e la regista del film Coded Bias Shalini Kantayya. Si parlerà di come la vita delle donne viene spesso impattata per colpa di errori di calcolo di algoritmi e software e di come i pregiudizi di genere e razza limitano di molto la nostra comprensione. 
Prendiamo per esempio un programma di machine learning che opera ed apprende dai dati forniti. Se quei dati contengono pregiudizi etici, culturali o di genere, il programma non farà altro che rifletterli nel suo comportamento. Le Ai imparano da noi, dal materiale che gli viene fornito e se contiene dei bias, cioè delle distorsioni insite, le Ai non faranno altro che ripetere nelle loro elaborazioni quei biastramandandoli nel futuro e addirittura ampliandoli.
Questo può includere decisioni di assunzione, valutazione degli esami degli studenti, diagnosi mediche, approvazioni di prestiti.
Quindi, poiché l’uso dei dati è sempre più esteso alla sostituzione delle decisioni umane e siccome i programmi di intelligenza artificiale vengono alimentati con i big data che la società produce, questi dati non sono altro che lo specchio delle nostre inclinazioni. 
Quali potrebbero essere le conseguenze della presenza di questi bias in una società sempre più dipendente da sistemi di automazione?
Prendiamo per esempio i software di riconoscimento facciale: quando hanno a che fare con donne di colore sbagliano spesso (35% delle volte) nel riconoscere il genere, rispetto a quando le donne sono di carnagione chiara (0,8%). La logica di molte applicazioni di intelligenza artificiale è, di fatto, difficile da capire: la «spiegabilità» è la vera sfida, soprattutto con algoritmi più complessi. Ciò può rendere i pregiudizi dell’Ai più radicati e difficili da identificare rispetto ai pregiudizi presenti negli esseri umani, che si manifestano nel comportamento quotidiano e nelle interazioni che sono più facilmente osservabili da altri esseri umani.
Quindi, prima di correggere i software forse dovremmo pensare a correggere alcune nostre tendenze a considerare l’uomo bianco, occidentale come modello per l’umanità.