On a lu pour vous cet article du Huffington Post sur les biais sexistes subis et véhiculés par les intelligences artificielles et on vous le conseille fortement.
“Si vous allumez votre iPhone et traitez Siri de ‘salope’, l’assistante numérique vous répondra peut-être: ‘Pas besoin d’être impoli.’ Si vous employez un mot vulgaire pour vous adresser à elle, elle répliquera calmement: ‘On ne parle pas comme ça!’ Mais si vous lui demandez ensuite de prendre un rendez-vous ou d’écrire un SMS, elle s’exécutera sans rechigner, comme si vous n’aviez rien dit de désobligeant.
{"type":"Pave-Haut2-Desktop"}
On sait bien que certaines des applications d’intelligence artificielle (IA) les plus populaires -Siri d’Apple, Alexa d’Amazon et Cortana de Microsoft, entre autres- essuient un feu roulant d’insultes de la part des utilisateurs. Aux États-Unis, ces assistants sont programmés pour prendre une voix féminine par défaut, et obéissent en général à une multitude d’ordres simples. Mais, prisonniers de nos gadgets électroniques, ils n’ont que peu de moyens pour réagir quand les utilisateurs emploient un langage ordurier ou un discours qui relèverait du harcèlement s’il était adressé à une femme réelle.”
Dans un article titré Quand votre iPhone renforce le sexisme, publié sur le Huffington Post américain et traduit par l’édition française, la journaliste Jessica Bateman nous entraîne dans les méandres d’une Silicon Valley ravagée par le sexisme. Elle nous fait ainsi découvrir comment les intelligences artificielles type Siri ou Alexa reproduisent les biais masculins avant d’être elles-mêmes victimes de harcèlement sexuel ou d’attaques sexistes de la part des utilisateurs. Un aperçu d’une discrimination technologique qui contribue à véhiculer stéréotypes de genre et machisme.
À lire le plus vite possible sur le Huffington Post.
{"type":"Banniere-Basse"}