Vidéo: Assistants vocaux : un espion dans votre salon ? - Tout compte fait (Novembre 2024)
Demandez quelque chose à votre téléphone, à votre écho ou à votre ordinateur. Ou appelez votre banque et parlez au menu automatisé. J'attendrai.
Quoi que vous ayez demandé, une version synthétique d'une femme vous a probablement répondu, polie et respectueuse, agréable quel que soit le ton ou le sujet.
En effet, Siri, Alexa, Cortana et leurs parents accomplissent ce travail depuis des années, prêts à répondre aux demandes de renseignements sérieuses et à détourner les demandes ridicules. Bien qu'ils manquent de corps, ils incarnent ce à quoi nous pensons lorsque nous imaginons une assistante personnelle: une femme compétente, efficace et fiable. Elle vous amène à des réunions à temps avec des rappels et des instructions, vous fournit du matériel de lecture pour le trajet et vous fournit des informations pertinentes sur le trajet, comme la météo et la circulation. Néanmoins, elle n'est pas en charge.Lorsqu'elles sont effectuées par des humains, ces tâches ont des conséquences sociologiques et psychologiques. On pourrait donc penser qu’utiliser une IA sans émotion en tant qu’assistant personnel effacerait les préoccupations relatives aux stéréotypes de genre dépassés. Mais les entreprises ont à plusieurs reprises lancé ces produits avec des voix féminines et, dans certains cas, des noms. Mais quand nous pouvons seulement voir une femme, même artificielle, dans cette position, nous imposons une culture néfaste.
Néanmoins, les consommateurs attendent une femme sympathique et serviable dans ce scénario et c’est ce que les entreprises leur donnent.
"Nous avons testé de nombreuses voix avec notre programme de bêta interne et nos clients avant de nous lancer et cette voix a été testée au mieux", a déclaré un porte-parole d'Amazon à PCMag.
Un porte-parole de Microsoft a déclaré que Cortana peut techniquement être sans sexe, mais la société s'est immergée dans la recherche sur le genre lors du choix d'une voix et a pesé les avantages d'une voix masculine et d'une voix féminine. "Cependant, pour nos objectifs - construire un assistant utile, solidaire et digne de confiance - une voix féminine était le choix le plus fort", selon Redmond.
Siri d’Apple et Google Assistant offrent actuellement la possibilité de passer à une voix masculine; Siri depuis 2013 et Google depuis octobre. Mais Alexa et Cortana n'ont pas d'équivalent masculin.
Considérez qu'IBM Watson, une IA d'un ordre supérieur, parle avec une voix masculine, car elle travaille aux côtés des médecins pour le traitement du cancer et remporte facilement Jeopardy . Lorsqu’il a choisi la voix de Watson pour Jeopardy , IBM a opté pour une voix sûre et assortie à de courtes phrases définitives. Les deux hommes sont typiques du discours masculin - et selon les recherches, les gens préfèrent entendre une voix de chef à voix masculine -, de sorte que Watson a obtenu une voix masculine.
Les femmes, quant à elles, utilisent plus de pronoms et de mots timides que les hommes, selon le psychologue James W. Pennebaker. L'utilisation de pronoms, en particulier du mot "I", indique un statut social inférieur. Les assistants d'IA sont très enclins à utiliser le "Je", en particulier pour assumer la responsabilité des erreurs. Posez une question à Siri qu'elle ne peut pas traiter et elle dit: "Je ne suis pas sûre de comprendre."
Il est essentiel que nous remettions en cause les stéréotypes sexuels dans nos assistants personnels. Nos interactions avec l'IA enseignent et forment, mais nous sommes également façonnés par ces expériences. C'est pourquoi les parents s'inquiètent d'élever involontairement des enfants impolis quand Alexa n'exige pas de "merci" ou de "merci" pour mener à bien une tâche.
Alors que notre relation avec la technologie entre dans une nouvelle phase d'intimité, il est inquiétant de penser à ce qui se passera lorsque les expériences sexuelles principales de certaines personnes seront avec un robot sexuellement acquiescent. Harceler sexuellement Siri pour une vidéo YouTube peut sembler amusant, mais il est troublant d'entendre à quel point ce langage est similaire à ce que les femmes entendent des harceleurs de rue. La même société s'attend à ce que les deux l'acceptent.
Les humains cherchent à faire correspondre les styles linguistiques dans leurs interactions sociales, ce qui signifie qu'ils essaient de faire correspondre les modèles linguistiques de l'homme - et maintenant de l'IA - avec lequel ils parlent. Mais au moment où l'IA entre dans notre monde physique, le traiter de manière dégradante a des conséquences personnelles et sociales graves. Les sociétés derrière l'IA tirent profit de leur partialité et ce n'est pas le chemin qui mène à une utopie, technologie ou autre.