Sicurezza

L’ Intelligenza Artificiale è sessista?


L’intelligenza artificiale deve iniziare ad essere prodotta da un diverso rango di programmatori per prevenire problemi di discriminazione sessista (o sessismo), recentemente World Economic Forum (WEF) ha rilevato un contingente divario di sessi tra gli sviluppatori impiegati nell’industria dell’intelligenza artificiale.

Il divario tra sessi nell’ambito di STEM (Science, Technology, Engineering e Mathematics) è stato un problema da sempre.

L’intelligenza artificiale sta per arrivare ovunque, ed avrà un enorme impatto nella nostra vita lavorativa e quotidiana. È importante rimanere al passo con lo sviluppo di questa nuove tecnologie.

In un report pubblicato lo scorso mese, WEF ha dichiarato:


“The equal contribution of women and men in this process of deep economic and societal transformation is critical. More than ever, societies cannot afford to lose out on the skills, ideas and perspectives of half of humanity to realize the promise of a more prosperous and humancentric future that well-governed innovation and technology can bring.”

“L’equale contributo di donne ed uomini in questo processo di profonda trasformazione economica e sociale è critico. Più che mai, le società non possono permettersi di perdere le idee e prospettive di metá della popolazione per realizzare la promessa di un futuro più prosperoso e umanitario che innovazioni e tecnologie, ben controllate, possono portarci.”

Incredibilmente, lo studio condotto WEF ha trovato che meno di un quarto dei ruoli nell’industria sono correntemente occupati da donne. Per rendere l’idea, il divario tra sessi nel settore AI è in media tre volte più largo che in altre industrie.
“È fondamentale che le persone che creano AI siano rappresentati dell’intera popolazione mondiale”
(Kay Firth-Butterfield, responsabile del dipartimento AI e Machine Learning per WEF).

Possibili conseguenze


Se il pregiudizio visto in questi dati si rispecchierà nei prodotti finali, l’intelligenza artificiale finirà per performare meglio se utilizzata da determinate classe sociali più tosto che da altre, dando loro un vantaggio competitivo. Questo pregiudizio sessista è raramente intenzionale, tuttavia ha già trovato la sua strada nello sviluppo di tecnologie AI.

Un recente test sulle tecnologie di riconoscimento facciale usate da Amazon, diretto da ACLU (American Civil Liberties Union), ha scoperto che il sistema giudicava, erroneamente, persone di colore colore come criminali più spesso di quanto non facesse con altri.

Allo stesso modo, uno studio eseguito nel 2010, ha dimostrato come algoritmi disegnati e testati in Est Asia, sono migliori a riconoscere persone provenienti da quelle medesime parti. Viceversa, algoritmi disegnati in pesi dell’Ovest sono più accurati nel riconoscimento di persone Caucasiche.

È chiaro come affrontare e sconfiggere il sessismo sia diventata una priorità importantissima nel mondo dell’intelligenza artificiale.

Puoi trovare il report originale qui.