Accueil Des avis Pourquoi les entreprises de technologie utilisent des humains pour aider ai | ben dickson

Pourquoi les entreprises de technologie utilisent des humains pour aider ai | ben dickson

Table des matières:

Vidéo: 💼 Le travail, c'est fini ! La robotisation : le risque du "chômage technologique" ! (Novembre 2024)

Vidéo: 💼 Le travail, c'est fini ! La robotisation : le risque du "chômage technologique" ! (Novembre 2024)
Anonim

"Andrew Ingram" est un assistant numérique qui analyse vos courriels, donne des idées de planification pour les réunions et rendez-vous dont vous discutez avec vos collègues, configure des tâches et envoie des invitations avec très peu d'assistance. Il utilise les capacités avancées d’intelligence artificielle de X.ai, un nouveau Basé à York démarrage qui se spécialise dans le développement des assistants d'IA. Les problèmes résolus peuvent faire économiser beaucoup de temps et de frustration aux personnes (comme moi) qui ont un emploi du temps compliqué.

Mais selon un article de Wired publié en mai, l'intelligence derrière Andrew Ingram n'est pas totalement artificielle. Il est soutenu par un groupe de 40 Philippins installés dans un bâtiment hautement sécurisé à la périphérie de Manille, qui surveille le comportement de l'IA et prend les choses en main chaque fois que l'assistant rencontre un cas qu'il ne peut pas gérer.

Bien que l’idée que vos courriels soient analysés par de vraies personnes puisse sembler effrayante, elle est devenue une pratique courante chez de nombreuses entreprises qui fournissent des services d’IA à leurs clients. Un article récent paru dans le Wall Street Journal a révélé que plusieurs entreprises laissaient leurs employés consulter et lire les courriels de leurs clients pour créer de nouvelles fonctionnalités et former leur intelligence artificielle à des cas inédits.

Appelée technique du "magicien d'Oz" ou pseudo-IA, la pratique consistant à utiliser silencieusement des humains pour compenser les lacunes des algorithmes d'IA éclaire certains des défis les plus profonds auxquels l'industrie de l'IA est confrontée.

AI n'est pas prêt pour de gros problèmes

La plupart des innovations en matière d'intelligence artificielle de ces dernières années sont des algorithmes d'apprentissage en profondeur et des réseaux de neurones. Les réseaux de neurones profonds sont très efficaces pour classer les informations. Dans de nombreux cas, tels que la reconnaissance vocale et faciale ou l'identification du cancer dans les examens d'IRM et de tomodensitométrie, ils peuvent dépasser les performances humaines.

Mais cela ne signifie pas que l'apprentissage en profondeur et les réseaux de neurones peuvent accomplir toute tâche que les humains peuvent accomplir.

«L’apprentissage en profondeur nous permet de résoudre le problème de perception. C’est un gros problème car la perception de l’IA est limitée depuis sa création il ya plus de 60 ans», déclare Jonathan Mugan, cofondateur et PDG de DeepGrammar. "La résolution du problème de perception a finalement rendu l'IA utile pour des tâches telles que la reconnaissance vocale et la robotique."

Cependant, note Mugan, la perception n'est pas le seul problème. Des luttes profondes en matière d'apprentissage impliquant un raisonnement et une compréhension de sens commun.

"L'apprentissage en profondeur ne nous aide pas avec ce problème", dit-il. "Nous avons fait des progrès en traitement du langage naturel en considérant le langage comme un problème de perception, c’est-à-dire en convertissant les mots et les phrases en vecteurs. Cela nous a permis de mieux représenter le texte pour la classification et la traduction automatique (quand il y a beaucoup de données), mais cela n’aide en rien le raisonnement de sens commun. C’est pourquoi les chatbots ont largement échoué."

L'un des principaux problèmes auxquels sont confrontées toutes les applications d'apprentissage en profondeur est celui de la collecte des bonnes données pour former leurs modèles d'IA. L'effort et les données nécessaires à la formation d'un réseau de neurones pour effectuer une tâche dépendent de l'étendue de l'espace du problème et du niveau de précision requis.

Par exemple, une application de classification d'images telle que l'application Not Hotdog de Silicon Valley de HBO effectue une tâche très étroite et spécifique: elle vous indique si la caméra de votre smartphone affiche un hot-dog ou non. Avec suffisamment d'images de hot-dogs, l'IA de l'application peut exécuter sa fonction très importante avec un niveau de précision élevé. Et même s'il commet une erreur de temps en temps, cela ne fera de mal à personne.

Mais d’autres applications d’IA, comme celle que X.ai est en train de construire, traitent de problèmes beaucoup plus vastes, ce qui signifie qu’elles nécessitent de nombreux exemples de qualité. En outre, leur tolérance aux erreurs est beaucoup plus faible. Il y a une grande différence entre confondre un concombre avec un hot-dog et planifier une réunion d'affaires importante au mauvais moment.

Malheureusement, les données de qualité ne sont pas une marchandise que toutes les entreprises possèdent.

"En règle générale, plus l'IA essaie de résoudre un problème plus général, plus il peut y avoir de cas extrêmes ou de comportements inhabituels. Cela signifie inévitablement que vous avez besoin de beaucoup plus d'exemples de formation pour couvrir tout", déclare le Dr Steve Marsh, CTO chez Geospock. «Les entreprises en démarrage n’ont généralement pas accès à d’énormes quantités de données de formation. Par conséquent, les modèles qu’elles peuvent construire sont des modèles très spécialisés et fragiles, qui ne répondent généralement pas à leurs attentes.»

Une telle richesse d’informations n’est la possession que de grandes entreprises telles que Facebook et Google, qui collectent les données de milliards d’utilisateurs depuis des années. Les petites entreprises doivent débourser des sommes importantes pour obtenir ou créer des données de formation, ce qui retarde le lancement de leurs applications. L'alternative consiste à lancer quand même et commencer à former leur IA à la volée, en utilisant des formateurs humains et des données clients en temps réel, en espérant que l'IA deviendra moins dépendante de l'homme.

Par exemple, Edison Software, une société californienne qui développe des applications de gestion des courriers électroniques, a demandé à ses employés de lire les courriers électroniques de ses clients afin de développer une fonctionnalité de "réponse intelligente", car ils ne disposaient pas de suffisamment de données pour former l'algorithme. Le PDG a déclaré au Wall Street Journal. La création de réponses intelligentes est une tâche vaste et difficile. Même Google, qui a accès aux courriers électroniques de milliards d'utilisateurs, fournit des réponses intelligentes dans des cas très restreints.

Mais utiliser des humains pour entraîner l'IA avec des données d'utilisateur réelles ne se limite pas aux petites entreprises.

En 2015, Facebook a lancé M, un chatbot d'IA capable de comprendre et de répondre à différentes nuances de conversation et d'accomplir de nombreuses tâches. Facebook a mis M à la disposition d'un nombre limité d'utilisateurs en Californie et a mis en place une équipe d'opérateurs humains qui surveilleraient la performance de l'IA et interviendraient pour la corriger lorsqu'elle ne comprendrait pas la demande d'un utilisateur. Le plan initial prévoyait que les opérateurs humains aident à enseigner à l’assistant à réagir aux cas critiques qu’il n’avait pas vus auparavant. Au fil du temps, M pourrait fonctionner sans l'aide des humains.

Un objectif irréalisable?

On ne sait pas exactement combien de temps il faudra à Edison Software, à X.ai et aux autres sociétés qui ont lancé des systèmes "homme à la carte" pour automatiser leur IA. Il y a également un doute sur le fait que les tendances actuelles en matière d'intelligence artificielle puissent jamais atteindre le point d'intervenir dans des domaines plus vastes.

En 2018, Facebook a arrêté M sans que chacun le déploie officiellement. La société n'a pas partagé les détails, mais il est clair qu'il est très difficile de créer un chatbot capable d'engager de vastes conversations. Et mettre M à la disposition de tous les deux milliards d'utilisateurs de Facebook sans le rendre totalement capable de répondre automatiquement à toutes sortes de conversations aurait obligé le géant des médias sociaux à embaucher une énorme équipe humaine pour combler les lacunes de M.

DeepGrammar, Mugan, pense que nous pourrons éventuellement créer une intelligence artificielle capable de résoudre un raisonnement de bon sens, ce que d'autres considèrent comme une intelligence artificielle générale. Mais cela n'arrivera pas de si tôt. "Il n'y a actuellement aucune méthode à l'horizon qui permettra à un ordinateur de comprendre ce qu'un enfant sait", a déclaré Mugan. "Sans cette compréhension de base, les ordinateurs ne pourront pas exécuter de nombreuses tâches 100% du temps."

Pour mettre cela en perspective, les experts d'OpenAI ont récemment développé Dactyl, une main robotique pouvant manipuler des objets. C'est une tâche que tout enfant humain apprend à effectuer inconsciemment dès son plus jeune âge. Mais il a fallu 6144 processeurs et 8 processeurs graphiques Dactyl et une expérience d’environ cent ans pour développer les mêmes compétences. Bien que ce soit un exploit fascinant, il souligne également les différences nettes entre l'IA étroite et le fonctionnement du cerveau humain.

"Nous sommes très loin d'avoir l'intelligence générale artificielle, et il est fort probable que l'AGI sera la combinaison et la coordination de nombreux types différents d'IA étroits ou spécifiques à une application", a déclaré Marsh. "Je pense qu'il y a une tendance à sur-typer les capacités de l'intelligence artificielle pour le moment, mais je vois aussi qu'il est extrêmement utile de faire les premiers pas et de mettre en œuvre les modèles traditionnels d'apprentissage automatique".

Est-ce qu'un autre hiver de l'IA se profile?

En 1984, l’Association américaine de l’intelligence artificielle (rebaptisée par la suite Association pour la promotion de l’intelligence artificielle) a averti le monde des affaires que le battage médiatique et l’enthousiasme suscités par l’IA conduiraient finalement à la déception. Peu de temps après, l'investissement et l'intérêt pour l'IA se sont effondrés, menant à une époque mieux connue sous le nom d '"hiver de l'IA".

Depuis le début des années 2010, l'intérêt et les investissements dans ce domaine ont encore augmenté. Certains experts craignent que si les applications d'intelligence artificielle sous-performent et ne répondent pas aux attentes, un autre hiver d'IA s'ensuivra. Mais les experts à qui nous avons parlé pensent que l'intelligence artificielle est déjà trop intégrée dans nos vies pour en retracer les étapes.

"Je ne pense pas que nous sommes en danger d'un hiver comme celui de l'IA, car elle fournit aujourd'hui une valeur réelle, et pas seulement une valeur hypothétique", a déclaré Mugan. "Cependant, si nous continuons à dire au grand public que les ordinateurs sont intelligents au même titre que les humains, nous risquons un contrecoup. Nous ne reviendrons pas à ne pas utiliser l'apprentissage en profondeur pour la perception, mais le terme 'IA' pourrait être souillé, et nous aurait à l'appeler quelque chose d'autre."

Ce qui est certain, c’est au moins une ère de désillusion qui se présente à nous. Nous sommes sur le point de savoir dans quelle mesure nous pouvons faire confiance aux mélanges actuels d’IA dans différents domaines.

"Ce que j'espère voir, c'est que certaines entreprises sont agréablement surprises par la rapidité avec laquelle elles peuvent fournir une IA pour un service auparavant manuel et coûteux, et que d'autres sociétés vont constater qu'il faut plus de temps que prévu pour collecter suffisamment de données pour devenir financièrement viable ", déclare James Bergstra, cofondateur et directeur de la recherche chez Kindred.ai. "S'il y a trop de ces derniers et pas assez, cela pourrait déclencher un autre hiver d'IA chez les investisseurs."

  • L'intelligence artificielle a un problème de biais et c'est notre faute L'intelligence artificielle a un problème de biais et c'est notre faute
  • Pourquoi enseigner à l'IA de jouer aux jeux est important Pourquoi enseigner à l'IA de jouer aux jeux est important
  • AI offre un potentiel énorme, mais ne se produira pas du jour au lendemain AI offre un potentiel énorme, mais ne se réalisera pas du jour au lendemain

Geospock's Marsh prédit que, même si le financement ne va pas baisser, sa dynamique sera ajustée. Lorsque les investisseurs se rendent compte que la véritable expertise est rare et que seuls ceux qui ont accès aux données pour former les modèles seront différenciés dans l'industrie, il y aura une grande consolidation sur le marché et beaucoup moins de startups obtiendront des financements.

"Pour de nombreuses startups d'IA sans application de marché de niche ou de grandes quantités de données: l'hiver arrive", conclut Marsh.

Pourquoi les entreprises de technologie utilisent des humains pour aider ai | ben dickson