In un momento in cui imperversa la polemica sul Deep Learning da parte dei PC, forse non è cosí funzionale e efficiente come si pensava ma si rivela un apprendimento piú superficiale del previsto, Microsoft deve correre ai ripari per evitare accuse di razzismo e misoginia.
Cosa sta succedendo? È presto detto.
Nel deep learning enormi quantità di dati vengono inviate in un sistema che apprende essenzialmente da solo, senza che gli sviluppatori scrivano programmi specifici per l’attività in questione. Ma che succede se i dati sono sbagliati o insufficienti? Semplice: le macchine sbagliano!
È quello che è successo al sistema di riconoscimento di Microsoft, disponibile come Face API attraverso Azure Cognitive Services, che presentava una maggiore percentuale di errore quando si trattava di individuare persone di pelle più scura, e la percentuale aumentava ancora quando i soggetti erano delle donne. A quanto pare il problema dipendeva dall’insufficienza di immagini di persone nere e con carnagione più scura date in posto alla macchina per allenarsi.
A febbraio, un rapporto del Media Lab del MIT, aveva evidenziato che i sistemi di riconoscimento facciale di Microsoft, IBM e Megvii risultavano poco precisi nell’identificare le donne con pelle più scura con un errore che poteva arrivare sino al 35%, ora invece l’intelligenza artificiale di Microsoft è corsa ai ripari e ha migliorato i suoi risultati di ben 20 punti quando si tratta di individuare persone di pelle scura.