Accueil Des avis L'année de l'évaluation éthique de l'industrie du commerce par intérim

L'année de l'évaluation éthique de l'industrie du commerce par intérim

Table des matières:

Vidéo: Satisfying Video l Kinetic Sand Nail Polish Foot Cutting ASMR #7 Rainbow ToyTocToc (Novembre 2024)

Vidéo: Satisfying Video l Kinetic Sand Nail Polish Foot Cutting ASMR #7 Rainbow ToyTocToc (Novembre 2024)
Anonim

Depuis que les réseaux de neurones profonds ont remporté le concours de reconnaissance d'image le plus important au monde en 2012, tout le monde est enthousiasmé par ce que l'intelligence artificielle pourrait déclencher. Mais dans la course au développement de nouvelles techniques et applications de l'IA, les éventuels impacts négatifs ont été relégués au second plan.

Nous constatons actuellement un changement dans la sensibilisation à l'éthique de l'IA. En 2018, les développeurs d'intelligence artificielle sont devenus plus conscients des ramifications possibles de leurs créations. De nombreux ingénieurs, chercheurs et développeurs ont clairement indiqué qu'ils ne créeraient pas de technologies nuisibles ou dommageables pour la vie d'innocents, et ils détenaient leurs sociétés.

Reconnaissance faciale dans l'application de la loi

Dans le passé, la création d'applications de reconnaissance faciale était ardue, consommait beaucoup de ressources et était source d'erreurs. Mais avec les progrès de la vision par ordinateur - le sous-ensemble de l'intelligence artificielle qui permet aux ordinateurs de reconnaître le contenu des images et de la vidéo -, créer des applications de reconnaissance faciale est devenu beaucoup plus facile et à la portée de tous.

Les grandes entreprises de technologie telles que Microsoft, Amazon et IBM ont commencé à fournir des services en nuage permettant à tout développeur d'intégrer la technologie de reconnaissance faciale à ses logiciels. Cela a permis de déverrouiller de nombreux nouveaux cas d'utilisation et applications dans différents domaines, tels que la protection et l'authentification d'identité, la sécurité de la maison intelligente et la vente au détail. Mais les militants du droit à la vie privée ont exprimé leur inquiétude face au risque d'abus.

En mai 2018, l'American Civil Liberties Union a révélé qu'Amazon commercialisait Rekognition, une technologie d'analyse vidéo en temps réel, auprès des forces de l'ordre et des agences gouvernementales. Selon l'ACLU, la police d'au moins trois États utilisait Reconnaissance pour la reconnaissance faciale dans les flux vidéo de surveillance.

"Avec Rekognition, un gouvernement peut désormais mettre en place un système permettant d'automatiser l'identification et le suivi de quiconque. Si, par exemple, les caméras du corps de la police étaient équipées d'une reconnaissance faciale, les dispositifs destinés à la transparence et à la responsabilisation des agents se transformeraient en machines de surveillance destinées au public ", a prévenu ACLU. "En automatisant la surveillance de masse, des systèmes de reconnaissance faciale tels que Rekognition menacent cette liberté, constituant une menace particulière pour les communautés déjà injustement visées par le climat politique actuel. Une fois que des systèmes de surveillance puissants tels que ceux-ci auront été mis en place et déployés, il sera extrêmement difficile de réparer"

Les employés d’Amazon se sont fait l'écho des préoccupations de l’ACLU. En juin, il a écrit à Jeff Bezos, le PDG de la société, pour lui demander de cesser de vendre Rekognition aux forces de l’ordre. "Notre entreprise ne devrait pas être dans le secteur de la surveillance; nous ne devrions pas être dans le secteur du maintien de l'ordre; nous ne devrions pas avoir pour tâche d'aider ceux qui surveillent et oppriment les populations marginalisées", lit-on dans la lettre.

En octobre, un membre du personnel anonyme d'Amazon a révélé qu'au moins 450 employés avaient signé une autre lettre invitant Bezos et d'autres dirigeants à cesser de vendre la reconnaissance à la police. "Nous ne pouvons pas tirer profit d'un sous-ensemble de clients puissants au détriment de nos communautés; nous ne pouvons éviter nos yeux sur le coût humain de notre entreprise. Nous ne construirons pas en silence de technologie pour opprimer et tuer des personnes, que ce soit dans notre pays ou ailleurs, " Ça disait.

Les retombées du projet d'IA militaire de Google

Alors que Amazon faisait face à cette réaction interne, Google connaissait des difficultés similaires concernant un contrat de développement de l'intelligence artificielle pour l'armée américaine, surnommé Project Maven.

Google aiderait apparemment le département de la Défense à développer une technologie de vision informatique permettant de traiter des images vidéo de drones. La quantité de séquences vidéo enregistrées chaque jour par les drones était trop lourde pour les analystes humains, et le Pentagone voulait automatiser une partie du processus.

Reconnaissant le caractère controversé de la tâche, un porte-parole de Google a précisé qu'il ne fournissait que des API pour TensorFlow, sa plate-forme d'apprentissage automatique, permettant de détecter des objets dans des flux vidéo. Google a également souligné qu'il élaborait des politiques et des garanties pour traiter les aspects éthiques de sa technologie.

Mais Project Maven n’a pas bien accueilli les employés de Google: 3 000 d’entre eux, dont des dizaines d’ingénieurs, ont rapidement signé une lettre ouverte au chef de la direction, Sundar Pichai, appelant à mettre fin au programme.

"Nous pensons que Google ne devrait pas être impliqué dans la guerre", lit-on dans la lettre. Il a demandé à la société "de rédiger, de faire connaître et d'appliquer une politique claire stipulant que ni Google ni ses sous-traitants ne développeront jamais une technologie de guerre".

Les employés de Google ont également averti que leur employeur mettait en péril sa réputation et sa capacité à rivaliser de talents. "Nous ne pouvons pas confier la responsabilité morale de nos technologies à des tiers", ont souligné les Googlers.

Peu de temps après, une pétition signée par 90 universitaires et chercheurs a appelé les dirigeants de Google à mettre fin aux travaux sur les technologies militaires. Les signataires ont averti que les travaux de Google ouvriraient la voie à une "reconnaissance automatisée des cibles et des systèmes d'armes autonomes". Ils ont également averti que, à mesure que la technologie évoluerait, ils ne pourraient plus autoriser les drones autonomes à tuer automatiquement, sans surveillance humaine ni contrôle humain important.

Face aux tensions croissantes, plusieurs employés de Google ont démissionné en signe de protestation.

Comment les leaders techniques ont répondu

Sous la pression, Google a annoncé en juin qu'il ne renouvellerait pas son contrat avec le ministère de la Défense sur le projet Maven après son expiration en 2019.

Dans un article de blog, le PDG Sundar Pichai (photo ci-dessous) a déclaré un ensemble de principes éthiques qui régiraient le développement et la vente de la technologie d’IA. Selon Pichai, la société envisagera désormais des projets qui sont pour le bien de la société dans son ensemble et éviteront le développement de l'IA renforçant les préjugés injustes existants ou nuisant à la sécurité publique.

Pichai a également explicitement déclaré que son entreprise ne travaillerait pas sur des technologies qui violent les normes des droits de l'homme.

Bezos d'Amazon était moins choqué par l'indignation suscitée par la reconnaissance. "Nous allons continuer à soutenir le DoD, et je pense que nous devrions le faire", a déclaré Bezos lors d'une conférence technique à San Francisco en octobre. "L'une des tâches de la haute direction est de prendre la bonne décision, même lorsque c'est impopulaire."

Bezos a également souligné la nécessité pour la communauté technologique de soutenir l'armée. "Si les grandes entreprises de technologie tournent le dos au DoD, notre pays va avoir des problèmes", a-t-il déclaré.

Le président de Microsoft, Brad Smith, dont la société a été critiquée pour son travail avec ICE, a publié un article sur son blog en juillet dans lequel il appelait à une approche mesurée de la vente de technologies sensibles aux agences gouvernementales. Bien que Smith n’ait pas exclu la vente de services de reconnaissance faciale aux forces de l’ordre et à l’armée, il a souligné la nécessité d’une meilleure réglementation et d’une plus grande transparence du secteur des technologies.

  • Le MIT consacrera 1 milliard de dollars au programme d'étude de l'éthique de l'IA Le MIT dépensera 1 milliard de dollars du programme d'étude de l'éthique de l'IA
  • AI parle-t-elle vraiment notre langue? AI parle-t-elle vraiment notre langue?
  • Briser l'usine d'IA imparable de la Chine Briser l'usine de l'IA imparable de la Chine

"Nous avons des représentants élus au Congrès qui disposent des outils nécessaires pour évaluer cette nouvelle technologie, avec toutes ses ramifications. Nous bénéficions des freins et contrepoids d'une Constitution qui nous a vus de l'ère de la bougie à l'ère de l'intelligence artificielle. tant de fois dans le passé, nous devons nous assurer que les nouvelles inventions servent nos libertés démocratiques conformément à la règle de droit ", a écrit Smith.

En 2018, les menaces lointaines de robots tueurs et le chômage de masse ont fait place à des préoccupations concernant l'impact social et moral plus immédiat de l'IA. À bien des égards, ces développements indiquent que l'industrie est en train de mûrir, à mesure que les algorithmes d'intelligence artificielle deviennent plus importants dans les tâches critiques. Mais à mesure que les algorithmes et l’automatisation deviendront de plus en plus enracinés dans nos vies quotidiennes, de plus en plus de débats vont naître.

L'année de l'évaluation éthique de l'industrie du commerce par intérim