Quand aider rime avec obséquiosité

Les haut-parleurs intelligents ont envahi nos maisons et appartements. Ces enceintes audio ont pour nom Siri ou Alexa et sont des assistantes prêtes à vous aider. L’intelligence artificielle créée par Apple, Google ou Amazon recourt à des stéréotypes spécifiquement liés au sexe. Des recherches entendent montrer qu’une voix de femme est perçue plus agréablement par celui qui recherche de l’aide.

Cependant, quand un dérapage verbal à l’égard de l’appareil donne lieu à une réponse obséquieuse du haut-parleur, même les Nations Unies s’en mêlent, et avec raison: en effet, l’Unesco critique les clichés liés au sexe dont se servent Siri & Co.

Une proportion de femmes plus élevée dans le monde de l’ingénierie à forte dominance masculine pourrait peut-être remédier à ce problème. En attendant, les hommes devraient commencer à comprendre, lentement mais sûrement…

Voir à ce sujet:
https://www.faz.net/aktuell/gesellschaft/menschen/unesco-studie-sprachassistenten-foerdern-geschlechterklischees-16202786.html

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *