Table des matières:
- 1 annonces discutables Instagram
- 2 annonces racistes ciblées
- 3 Bilan de l'année Facebook
- 4 accidents de pilote automatique Tesla
- 5 Tay l'IA Microsoft raciste
- 6 Félicitations pour votre bébé (non-existant)!
- 7 matériaux de bombe Amazon 'Recommends'
- 8 Google Maps devient raciste
- 9 Tags Google Humains comme des gorilles
- Un robot de sécurité frappe un enfant et se tue
Vidéo: #10# Algorithme ( Les Procédure) (Novembre 2024)
La technologie ne concerne pas que les geeks, elle concerne tout le monde et cela fait beaucoup de monde. Avec seulement une poignée d'entreprises contrôlant la plupart des matériels et logiciels - d'Apple et Amazon à Facebook, Microsoft et Google -, elles ne peuvent en faire que beaucoup pour contrôler votre portefeuille et vos yeux. Qu'est-ce qu'une pauvre société géante à faire? Faites confiance aux algorithmes pour prendre certaines des décisions importantes.
Oxford Living Dictionaries définit un algorithme comme "un processus ou un ensemble de règles à suivre dans les calculs ou autres opérations de résolution de problèmes, en particulier à l'aide d'un ordinateur". Un exemple parfait est le fil d'actualité Facebook. Personne ne sait comment cela fonctionne que certains de vos messages apparaissent dans les fils d'actualité de certaines personnes ou non, mais Facebook le fait. Ou que diriez-vous d'Amazon vous montrant des livres liés? Recherches connexes sur Google? Ce sont des secrets bien gardés qui font beaucoup de travail pour l'entreprise et peuvent avoir un impact important sur votre vie.
Mais les algorithmes ne sont pas parfaits. Ils échouent et certains échouent de façon spectaculaire. Ajoutez à cela l'éclat des médias sociaux, et un petit problème peut se transformer en cauchemar de relations publiques très rapidement. C'est rarement méchant; il s’agit généralement de ce que le New York Times appelle "les moments Frankenstein", où la créature créée par quelqu'un se transforme en monstre. Mais cela arrive, et nous avons compilé certains des exemples les plus flagrants récents ci-dessous. Faites-nous savoir vos favoris dans les commentaires ci-dessous.
-
4 accidents de pilote automatique Tesla
La plupart des snafus algorithmiques sont loin d’être fatals, mais le monde des voitures autonomes conduira à un tout nouveau niveau de danger. C'est déjà arrivé au moins une fois. Un propriétaire de Tesla sur une autoroute de Floride a utilisé le mode semi-autonome (pilote automatique) et s'est écrasé sur un semi-remorque qui l'a coupé. Tesla a rapidement publié des mises à niveau, mais était-ce vraiment la faute du mode Pilote automatique? Ce n'est peut-être pas le cas, selon la National Highway Traffic Safety Administration, car le système oblige le conducteur à rester vigilant face aux problèmes, comme le montre la vidéo ci-dessus. Désormais, Tesla empêche même le pilote automatique d’être activé si le conducteur ne répond pas aux signaux visuels en premier.
1 annonces discutables Instagram
Tel que rapporté par The Guardian , Facebook aime diffuser des publicités pour son service Instagram avec des publications de ses propres utilisateurs. Mais l'algorithme a choisi la mauvaise "photo" à transmettre aux amis d'Olivia Solon, elle-même journaliste à The Guardian , en sélectionnant une capture d'écran vieille d'un an qu'elle a prise pour un courrier électronique menaçant.
2 annonces racistes ciblées
La semaine dernière, ProPublica a annoncé que Facebook permettait aux annonceurs de cibler des catégories de personnes choquantes, telles que "les ennemis des juifs". Le site a payé 30 $ pour une annonce (ci-dessus) qui ciblait un public qui réagirait positivement à des choses telles que "Pourquoi les Juifs ruinent le monde" et "Hitler n'a rien fait de mal". Il a été approuvé dans les 15 minutes.
Slate a trouvé des catégories offensantes similaires, et il en est devenu une nouvelle dans la longue liste d'éléments que Facebook devait non seulement présenter ses excuses, mais promettre de les corriger avec un contrôle humain. Vous savez, par exemple quand il a placé 100 000 dollars de publicité électorale pour la Russie.
Dans une publication sur Facebook, la directrice des opérations, Sheryl Sandberg, a déclaré qu'elle était "dégoûtée et déçue de ces paroles" et a annoncé des modifications à ses outils publicitaires.
BuzzFeed a vérifié si Google gérait des choses similaires et a constaté qu'il était facile de configurer des annonces ciblées destinées aux racistes et aux bigots. Le Daily Beast a vérifié la situation sur Twitter et a trouvé des millions d’annonces utilisant des termes tels que "nazi", "wetback" et le mot "N".
3 Bilan de l'année Facebook
Si vous êtes sur Facebook, vous avez sûrement vu ses vidéos de fin d’année générées par un algorithme avec les points forts des 12 derniers mois. Ou pour certains, les basses lumières. En 2014, un père a vu une photo de sa fille décédée, tandis qu'un autre a vu des instantanés de sa maison en flammes. D'autres exemples incluent des personnes voyant leurs animaux de compagnie en retard, des urnes remplies des cendres d'un parent et des amis décédés. En 2015, Facebook avait promis de filtrer les souvenirs tristes.
5 Tay l'IA Microsoft raciste
Il y a quelques années, les robots de discussion étaient censés conquérir le monde, remplacer les représentants du service clientèle et faire du monde en ligne un lieu bavard pour obtenir des informations. En mars 2016, Microsoft a réagi en écartant le nom de Tay, une IA, avec laquelle les personnes, en particulier les 18 à 24 ans, pouvaient interagir sur Twitter. Tay à son tour ferait des tweets publics pour les masses. Mais en moins de 24 heures, apprenant des masses vulgaires, Tay devint un raciste à part entière. Microsoft abaissa Tay instantanément; elle est revenue en décembre 2016 pour devenir nouvelle AI, Zo, avec «des freins et contrepoids solides pour la protéger de toute exploitation».
6 Félicitations pour votre bébé (non-existant)!
Divulgation complète: Au moment où j'écris ceci, ma femme est en fait enceinte. Nous avons tous les deux reçu ce courrier électronique d'Amazon disant que quelqu'un nous avait acheté quelque chose de notre registre de bébé. Nous ne l'avions pas encore rendu public, mais ce n'était pas si choquant. Pendant ce temps, plusieurs millions d'autres clients d'Amazon ont également reçu la même note, y compris certains sans registre… ou un bébé en route. Cela aurait pu faire partie d'un système d'hameçonnage, mais ce ne l'était pas. Amazon a détecté l'erreur et a envoyé un courrier électronique d'excuses de suivi. À ce moment-là, beaucoup s’étaient plaints de ce que cela était inapproprié ou insensible. C'était moins un algorithme qu'un serveur de messagerie glitchy, mais cela vous montre qu'il est toujours facile d'offenser.
7 matériaux de bombe Amazon 'Recommends'
Tout le monde a sauté sur celui-ci après avoir été rapporté par Channel 4 News au Royaume-Uni, de Fox News au New York Times . Il aurait découvert que la fonctionnalité "fréquemment achetés ensemble" d'Amazon montrait aux gens ce dont ils avaient besoin pour construire une bombe, s'ils commençaient avec l'un des ingrédients, que le site ne nommerait pas (il s'agissait de nitrate de potassium).
L'algorithme d'Amazon a en fait montré aux acheteurs les ingrédients pour fabriquer de la poudre noire en petites quantités, ce qui est tout à fait légal au Royaume-Uni et est utilisé pour toutes sortes de choses - comme des feux d'artifice - comme cela a été rapidement souligné dans un discours incroyablement bien pensé - sur le blog à Idle Words. Au lieu de cela, tous les rapports portent sur la façon dont Amazon examine la question, car c'est ce qu'ils ont à dire qu'ils font dans un monde qui a peur du terrorisme et de la logique.
8 Google Maps devient raciste
En 2015, Google devait s'excuser lorsque Google Maps recherchait "n ***** king" et "n *** a house", ce qui menait à la Maison Blanche, qui était encore occupée par Barack Obama à l'époque. Ceci est le résultat d'une "Googlebomb", dans laquelle un terme utilisé à plusieurs reprises est repris par le moteur de recherche et marqué comme "populaire", de sorte que les résultats se retrouvent en haut de la recherche. C'est ainsi que le mot "Santorum" a reçu sa nouvelle définition.
9 Tags Google Humains comme des gorilles
Google Photos est une application / service incroyable qui stocke toutes vos photos et bien plus encore. Une de ces choses est de marquer automatiquement les personnes et les choses sur les photos. Il utilise la reconnaissance faciale des personnes pour les réduire à la bonne personne. J'ai même un dossier de tous mes chiens et je n'en ai tagué aucun. En 2015, Google a dû s'excuser auprès du programmeur informatique Jacky Alciné, alors qu'un de ses amis - tous deux noirs - ont été identifiés par le service comme des gorilles. "Nous sommes consternés et vraiment désolés que cela se soit produit", a déclaré Google à PCMag.
Un robot de sécurité frappe un enfant et se tue
Knightscope fabrique des robots de sécurité autonomes appelés K5 pour patrouiller les écoles, les centres commerciaux et les quartiers. Les cônes sur roues Dalek-esque, mesurant 5 pieds de haut - qui ont encore un crédit pour leur bêta-test, ont tendance à annoncer la nouvelle non pas pour contrecarrer le crime, mais pour éviter les problèmes.
Par exemple, en juillet 2016, le K5 du centre commercial Stanford à Palo Alto a dépassé le seuil d'un enfant de 16 mois et Knightscope a dû s'excuser formellement. Ce même endroit - peut-être le même droïde - a eu une altercation dans un parking avec un ivrogne, mais au moins ce n'était pas la faute du K5. Le jury est toujours dans l'unité K5 du Georgetown Waterfront, complexe de bureaux / commerces de Washington DC… qui aurait trébuché dans une fontaine après une semaine seulement de travail. Cela ne semble pas bon pour l'armée de Skynet.