Actualités

#Milan 🇮🇹 Quand une intelligence artificielle fait preuve de racisme

Avec ImageNet Roulette, deux chercheurs soulignent des problèmes systĂ©miques entourant le futur de la technologie. […] Jusqu’au  24 fĂ©vrier 2020 Ă  la Fondation Prada de Milan, l’exposition photo « Training Humans » a cependant pour vocation de questionner ces progrès grandissants, et notamment les intelligences artificielles, Ă  travers deux axes : « La façon dont les humains sont reprĂ©sentĂ©s, interprĂ©tĂ©s et codifiĂ©s selon les donnĂ©es d’entraĂ®nement, et comment les systèmes technologiques cultivent, Ă©tiquettent et utilisent ces donnĂ©es.«  […]

Si le projet semble bon enfant au départ – et qu’une certaine excitation peut même être ressentie à l’idée de découvrir comment un ordinateur va vous définir –, les résultats sont loin d’une objectivité binaire et sont gonflés de préjugés. Après quelques essais, on se rend bien vite compte que l’algorithme est, entre autres, raciste.

En effet, ce ne semble pas être une coïncidence que les personnes aux peaux claires se voient affublées de noms et de caractéristiques mélioratives (« psycholinguiste », »millionnaire », « sociologue », « clinicien », « non-fumeuse », etc.) tandis que les individus aux peaux foncées sont tout de go caractérisés de façon péjorative (« orphelin », « personne de classe inférieure ») ou uniquement par rapport à leur couleur de peau (« femme noire », « noir africain »). […]

Konbini via fdesouche

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.