Sont les robots utilisés par les autorités publiques sexistes? Les risques que les robots introduisent des données déréglées dans la base de décisions par les autorités seront maintenant étudiés en Suède.
Il s'agit d'un
projet pilote pour examiner des risques de problèmes d'inégalités dans les
assistances d’IA utilisés par des structures gouvernementales telles que la
fiscalité et la sécurité sociale. En collaboration avec une société spécialisée
dans l'IA, AI Sustainability Center, l'autorité pour l'égalité des sexes enquêtera sur le
problème de préjuges.
Les robots, qui
aussi sont appelés bots, apprennent par IA à partir des données qu'ils
reçoivent et compilent des donnés de décision pour les administrateurs.
Cependant, aux Etats-Unis, ils ont remarqué que les bots qui répondraient aux
questions rapidement sont devenus racistes et sexistes.
Le fait que les
algorithmes apprennent de données historiques risque de reculer les efforts d’égalité
entre sexes. Des différents scénarios seront élaborés dans l'étude et les
données saisies seront analysées. Il s'agit d'amener les robots de par
eux-mêmes de ne plus suivre des vieux préjugés, comportements et préférences
involontaires.
Aucun commentaire:
Enregistrer un commentaire
Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.