Table des matières:
- Les assistants d'IA peuvent-ils servir des fins malveillantes?
- Problèmes de confidentialité
- Échecs fonctionnels
Vidéo: Il répond à mes messages mais ne m'écrit jamais : Pourquoi ? (Novembre 2024)
Google a récemment repiqué Duplex pour indiquer explicitement aux hôtes des restaurants et au personnel du salon qu'ils parlent avec l'Assistant Google et qu'ils sont en train d'être enregistrés.
En ajustant Duplex, Google élimine certaines de ces critiques. Mais pourquoi est-il si important que les entreprises fassent preuve de transparence quant à l'identité de leurs agents d'IA?
Les assistants d'IA peuvent-ils servir des fins malveillantes?
"On s'attend de plus en plus à pouvoir interagir avec un chatbot alimenté par une intelligence artificielle lorsque vous envoyez des messages à une entreprise. Mais quand vous entendez réellement un être humain, vous vous attendez généralement à ce que ce soit une personne réelle", déclare Joshua March, PDG de Coversocial.
March dit que nous sommes au début des échanges fréquents d'interlocuteurs significatifs avec l'IA, et les progrès sur le terrain ont créé la crainte que les pirates informatiques exploitent leurs agents à des fins malveillantes.
"Dans le meilleur des cas, les robots d'intelligence artificielle aux intentions malveillantes pourraient offenser les gens", déclare Marcio Avillez, vice-président directeur de Networks at Cujo AI. Mais Marcio ajoute que nous pourrions faire face à des menaces plus graves. Par exemple, l'intelligence artificielle peut apprendre des modèles linguistiques spécifiques, ce qui facilite l'adaptation de la technologie pour manipuler les personnes, imiter les victimes et organiser des attaques de phishing (phishing) et des activités similaires.
De nombreux experts conviennent que la menace est réelle. Dans une chronique pour CIO, Steven Brykman a exposé les différentes manières d’exploiter une technologie telle que la technologie Duplex: "Au moins avec des humains qui appellent des humains, il ya toujours un facteur limitant: un humain ne peut faire qu’autant d’appels par heure et par jour. Les humains doivent être payés, faire des pauses, etc. Mais un chatbot d'IA peut littéralement faire un nombre illimité d'appels à un nombre illimité de personnes de différentes façons!"
À ce stade, nous entendons surtout des spéculations. nous ne savons toujours pas l'étendue et la gravité des menaces qui peuvent survenir avec l'avènement des assistants vocaux. Cependant, de nombreuses attaques potentielles impliquant des assistants vocaux peuvent être désamorcées si la société fournissant la technologie communique explicitement avec les utilisateurs lorsqu’ils interagissent avec un agent d’intelligence artificielle.
Problèmes de confidentialité
Un autre problème lié à l'utilisation de technologies telles que le duplex est le risque potentiel pour la vie privée. Les systèmes basés sur l'IA ont besoin de données utilisateur pour former et améliorer leurs algorithmes, et Duplex ne fait pas exception. Il est très important de savoir comment stocker, sécuriser et utiliser ces données.
De nouvelles réglementations sont en train d'apparaître qui obligent les entreprises à obtenir le consentement explicite des utilisateurs lorsqu'elles souhaitent collecter leurs informations, mais elles ont été principalement conçues pour couvrir les technologies dans lesquelles les utilisateurs initient intentionnellement des interactions. Cela a du sens pour les assistants en intelligence artificielle tels que Siri et Alexa, qui sont activés par l'utilisateur. Mais il n’est pas clair comment les nouvelles règles s’appliqueraient aux assistants d’IA qui s’adressent aux utilisateurs sans être déclenchés.
Dans son article, Brykman insiste sur la nécessité de mettre en place des garde-fous réglementaires, tels que des lois obligeant les entreprises à déclarer la présence d'un agent d'IA - ou une loi stipulant que lorsque vous demandez à un chatbot s'il s'agit d'un chatbot, vous devez dire: "Oui, Je suis un chatbot. " De telles mesures donneraient à l'interlocuteur humain la possibilité de se désengager ou du moins de décider s'il souhaite interagir avec un système d'IA enregistrant sa voix.
Même avec de telles lois, les problèmes de confidentialité ne disparaîtront pas. "Le risque le plus important que je prévois dans l'incarnation actuelle de la technologie est qu'il donnera à Google encore plus de données sur nos vies privées qu'il n'avait pas encore. Jusqu'à présent, ils ne connaissaient que nos communications en ligne; ils auront désormais un aperçu réel de nos conversations dans le monde réel ", déclare Vian Chinner, fondateur et PDG de Xineoh.
Les récents scandales liés à la protection de la vie privée impliquant de grandes entreprises du secteur de la technologie, dans lesquels ils ont utilisé les données des utilisateurs de manière discutable pour leur propre bénéfice, ont créé un sentiment de méfiance quant à la nécessité de leur donner plus de perspectives dans nos vies. "Les gens estiment en général que les grandes entreprises de la Silicon Valley les considèrent comme des stocks plutôt que comme des clients et qu'ils suscitent une grande méfiance à l'égard de presque tout ce qu'ils font, peu importe à quel point cela changera radicalement la vie", a déclaré Chinner.
Échecs fonctionnels
Malgré une voix et un ton naturels et l'utilisation de sons ressemblant à l'homme tels que "mmhm" et "ummm", Duplex ne diffère pas des autres technologies de l'IA contemporaine et souffre des mêmes limitations.
Qu'il s'agisse d'interface vocale ou textuelle, les agents d'intelligence artificielle savent parfaitement résoudre des problèmes spécifiques. C'est pourquoi nous les appelons "l'IA étroite" (par opposition à "l'IA générale" - le type d'intelligence artificielle capable de résoudre des problèmes en général, comme le fait l'esprit humain). Bien que l'IA étroite puisse être exceptionnellement performante dans l'exécution des tâches pour lesquelles elle a été programmée, elle peut échouer de manière spectaculaire lorsqu'elle est confrontée à un scénario qui s'écarte de son domaine problématique.
"Si le consommateur pense s'adresser à un humain, il demandera probablement quelque chose qui ne correspond pas au script normal de l'intelligence artificielle et obtiendra ensuite une réponse frustrante lorsque le bot ne comprend pas", explique la Conversource, Mars.
En revanche, quand une personne sait qu’elle parle à une IA qui a été formée pour réserver des tables dans un restaurant, elle évite d’utiliser un langage qui la confond et la fait se comporter de façon inattendue, en particulier si elle apporte eux un client.
"Les membres du personnel qui reçoivent des appels du Duplex devraient également recevoir une introduction directe indiquant qu'il ne s'agit pas d'une personne réelle. Cela aiderait la communication entre le personnel et AI à être plus conservatrice et plus claire", a déclaré Avillez.
Pour cette raison, jusqu'à ce que (et si) nous développions une intelligence artificielle capable de fonctionner sur un pied d'égalité avec l'intelligence humaine, il est dans l'intérêt des entreprises elles-mêmes de faire preuve de transparence quant à leur utilisation de l'IA.
En fin de journée, la peur des assistants vocaux comme Duplex est due au fait qu'ils sont nouveaux et nous nous habituons encore à les rencontrer dans de nouveaux paramètres et de nouveaux cas d'utilisation. "Au moins, certaines personnes semblent très mal à l'aise à l'idée de parler à un robot sans le savoir. Pour le moment, cette information devrait probablement être divulguée aux contreparties lors de la conversation", a déclaré Chinner.
- AI est (aussi) une force pour le bien AI est (aussi) une force pour le bien
- Quand l'IA brouille la frontière entre la réalité et la fiction Quand l'IA brouille la frontière entre la réalité et la fiction
- L'intelligence artificielle a un problème de biais et c'est notre faute L'intelligence artificielle a un problème de biais et c'est notre faute
Mais à long terme, nous nous habituerons à interagir avec des agents d'intelligence artificielle plus intelligents et plus capables d'exécuter des tâches que l'on pensait auparavant appartenir exclusivement aux opérateurs humains.
"La génération suivante ne s'inquiètera pas du fait qu'ils parlent à une personne ou à un humain lorsqu'ils contactent une entreprise. Ils voudront juste obtenir leur réponse rapidement et facilement, et ils auront grandi en parlant à Alexa. En attendant Tenir pour parler à un humain sera beaucoup plus frustrant que de simplement interagir avec un bot ", déclare la Conversodies de mars.