Le professeur en informatique Vicente Ordóñez de
l’Université de Virginia, a marqué un phénomène intéressant dans un logiciel de
reconnaissance. Quand exposé à une image d’une cuisine le logiciel l'associait le
plus souvent avec une femme qu’avec un homme. Il se demandait si lui ou
d'autres chercheurs inconsciemment avaient injecté des biais dans leur
logiciel.
En examinant les collections de photos dont ces types de
logiciels se nourrissent, incluant une très extensive collection supportée par
Google et Facebook, un biais sexiste
est devenu apparente. Des images montrant shopping et lavage sont par
exemple plus liées aux femmes, tandis que le coaching est lié aux hommes.
Il semble donc que nos mèmes, (un élément
culturel reconnaissable répliqué et transmis par l'imitation du comportement
d'un individu par d'autres), ne se répand pas uniquement entre personnes mais
aussi entre personnes et machines.
Pourtant, en examinant le sujet plus profondément, les
chercheurs ont trouvé que les logiciels d'apprentissage ne pas seulement réfléchissent
nos mèmes sexistes, mais ils les amplifiés. Si un ensemble de photos
généralement associe des femmes avec la cuisine, les logiciels formés en
étudiant ces images et leurs sous-textes créaient une association encore plus
forte.
À mesure que les systèmes d’intelligence artificielle
prendront plus de places dans nos vies, les enjeux de ces biais deviendront encore
plus importants. Lorsqu’un futur robot n'est pas sûr du sexe d’une personne
dans une cuisine, il ne va pas lui proposer une bière mais un aide à faire la
vaisselle.
Des chercheurs de l'université de Boston et de Microsoft
ont aussi montré que les logiciels formés sur des textes collectés dans Google
News reproduisissent des biais
sexistes. Quand ils ont demandé un logiciel de compléter la phrase « L'homme est pour le codage d'ordinateurs ce
qui est la femme pour XXXX », le logiciel a répondu, « la femme au foyer ».
Aucun commentaire:
Enregistrer un commentaire
Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.