Table des matières:
Vidéo: La sanction disciplinaire, les règles à respecter - Webconf Juritravail (Novembre 2024)
À l'instar d'autres conférences sur la technologie, la conférence Code de cette année s'est concentrée sur les inconvénients de la technologie, en particulier des médias sociaux, et les dirigeants d'Instagram, Twitter et YouTube ont expliqué leur politique en matière de suppression ou de non-publication de contenu douteux.
Tous ces cadres semblaient avoir une variation de la conversation suivante: Oui, il y a de mauvaises choses sur notre plate-forme. Nous aurions dû savoir plus tôt. Nous essayons d'améliorer les choses. Mais c'est difficile. Nous sommes désolés si vous avez été offensé.
Tout cela a du sens, mais cela ne résout pas tous les critiques, ni ne fait taire les voix qui appellent à la dissolution ou au moins à une plus grande réglementation des grandes plates-formes technologiques. Voici ce que certains des cadres et des critiques ont dit lors du spectacle.
Youtube
Susan Wojcicki, PDG de YouTube, a décrit les modifications apportées à la politique de la plate-forme en matière de discours de haine, affirmant que si une vidéo prétend désormais qu'un groupe (tel qu'une race ou une religion) est supérieur, cela ne sera plus autorisé; ni les vidéos qui prétendent qu'un autre groupe est inférieur. Elle a ajouté que la société avait également ajouté d'autres groupes à la liste protégée, notamment des castes en Inde et des victimes d'événements de violence avérés (tels que l'Holocauste). Elle a dit que ce ne sont là que quelques-uns des nombreux changements politiques apportés par le cabinet au cours de la dernière année. Elle a également parlé de la limitation de la diffusion de "contenu limite", de sorte que certaines vidéos non bloquées ne sont pas incluses dans les recommandations de YouTube et ne peuvent pas être monétisées. Elle dit que cela a réduit leur point de vue de 80%.
Mais elle a reconnu que tout cela continuait de susciter la controverse. Elle a commencé son entretien en présentant des excuses à la communauté LGBTQ et en affirmant qu'elle comprenait que ses décisions avaient été préjudiciables à cette communauté, mais ce n'était pas l'intention. La controverse a trait à la décision de YouTube d'autoriser les vidéos de Stephen Crowder à rester sur le site, malgré les plaintes de Carlos Maza, de Vox, selon lesquelles Crowder le harcelait, ainsi que d'autres personnes faisant des commentaires anti-LGBTQ. (Vox met la conférence Code.)
"Le contexte compte vraiment", a déclaré Wojcicki, avant de supprimer une vidéo, mais aussi de déterminer si une vidéo est dédiée au harcèlement ou si une vidéo d'une heure avec insultes raciales est une personnalité publique et malveillante. dans l'intention. Elle a déclaré que le fait de déterminer si quelque chose était malveillant était une barre très haute pour la société, affirmant qu'elle devait appliquer les règles de manière cohérente, car il y aurait toujours des vidéos dont les gens se plaignent. Elle a noté que vous pouvez trouver de nombreuses insultes raciales et commentaires sexistes dans des chansons telles que des chansons de rap, des discussions de fin de soirée et beaucoup d'humour. Elle a déclaré que la société voulait travailler pour changer les politiques, plutôt que d'avoir une réaction brutale face à un cas individuel.
En fin de compte, elle a déclaré que la société avait décidé que ces vidéos n'étaient pas du harcèlement et n'enfreignait pas les politiques, et que c'était la bonne décision. Mais elle a ajouté que la société suspendait la monétisation - afin que le créateur de la vidéo profite des annonces diffusées sur la vidéo.
Elle a ajouté que si YouTube visionnait cette vidéo, il y aurait tellement d'autres contenus à supprimer. Mais elle a dit que la firme allait prendre des décisions, et que bon nombre des changements apportés à la politique contre la haine seraient vraiment bénéfiques pour la communauté LGBTQ et aboutiraient à la suppression des vidéos. Et elle répéta ses excuses pour le mal qu'elle aurait pu causer.
Peter Kafka, invité par l’animateur de la conférence, a déclaré: "Nous pouvons définitivement améliorer la gestion de la plate-forme, ce qui signifie que nous ne pourrons jamais résoudre le problème. Deux milliards d’utilisateurs et 500 heures de vidéo téléchargées chaque minute", a déclaré Wojcicki. beaucoup nous avons amélioré. " Elle a noté que l'entreprise avait enregistré une réduction de 50% de la quantité de contenu violent au cours des deux dernières années et que plus de 10 000 personnes travaillaient sur le contenu. Mais elle a repoussé l'attention sur les mauvaises choses sur la plate-forme, en notant qu'il y avait aussi beaucoup de très bon contenu. "Toute l'inquiétude concerne cette fraction de un pour cent du contenu", a-t-elle déclaré. Mais elle a reconnu qu'il y avait beaucoup de travail à faire pour traiter ce contenu et a déclaré que la société investissait dans des outils et travaillait d'arrache-pied pour y remédier.
Elle a écarté une suggestion selon laquelle il pourrait y avoir un obstacle à l'envoi de vidéos, disant "nous perdrions beaucoup de voix". Mais elle a parlé de disposer de davantage de "niveaux de confiance" en vidéos afin que tout le monde puisse commencer à télécharger des éléments, mais devrait respecter certaines règles pour obtenir une distribution plus large.
"Nous constatons tous les avantages de la transparence", a-t-elle déclaré, soulignant que YouTube avait la responsabilité de comprendre le contenu et de décider de ce qui devrait être recommandé et de ce qui devrait être promu.
Mme Wojcicki a déclaré qu'elle pensait que YouTube et Google seraient confrontés à davantage de réglementations, soulignant les nouvelles réglementations en matière de droit d'auteur en Europe, mais qu'il était important que les régulateurs comprennent comment mettre en œuvre ces éléments de manière raisonnable, en raison des conséquences potentielles imprévues.
A la question de Kevin Roose du New York Times sur la contribution de YouTube à la radicalisation de la politique, Wojcicki a déclaré que le site prenait très au sérieux les préoccupations de radicalisation et avait apporté plusieurs modifications en janvier, réduisant ainsi le nombre de recommandations. de "contenu limite" de 50 pour cent.
Elle a déclaré que YouTube souhaitait émettre un large éventail d'opinions, tandis que les utilisateurs choisissaient ce qu'ils souhaitaient voir, mais était inquiète. Elle a ajouté que de tels changements dans les politiques et les recommandations feraient une différence.
Instagram et Facebook
Deux cadres de Facebook ont expliqué comment Facebook, et en particulier Instagram, traitait les critiques.
Adam Mosseri, qui dirige Instagram, a déclaré que nous assistions à "un changement de paradigme vers des formes de communication plus privées", notant que toute la croissance d'Instagram provenait d'histoires et de messages. Il a noté que les histoires sont éphémères, tandis que l'alimentation est meilleure si vous voulez des choses qui existent pour toujours. Il a souligné que les histoires ne traitaient pas de "messagerie utilitaire" mais plutôt de "démarreurs conversationnels".
Mosseri a déclaré que la société avait "beaucoup de débats houleux", car il y avait une vraie tension entre la vie privée et la sécurité. Il a déclaré: "Nous avons misé sur le terrain pour que les messages soient entièrement confidentiels", mais a reconnu que la société avait besoin de temps pour travailler et pour trouver des solutions de rechange à la sécurité.
Andrew Bosworth, qui supervise la réalité artificielle, la réalité virtuelle et d'autres projets avancés pour Facebook, a indiqué que la confidentialité signifiait parfois la confidentialité de Facebook, mais que d'autres souhaitaient la confidentialité du gouvernement ou de l'appareil. Historiquement, il a déclaré que la confidentialité pour Facebook signifiait le contrôle des données et des personnes pouvant les voir. Mais il a noté que cela se déroulait de différentes manières et que la "conversation mondiale n'aurait pas une réponse", car différents marchés avaient des points de vue différents sur le contrôle gouvernemental par rapport à la sécurité.
Casey Newton de Verge lui a demandé si séparer Facebook et créer une société distincte sur Instagram serait une bonne chose, a déclaré Mosseri, "cela pourrait me faciliter la vie beaucoup, et cela serait probablement bénéfique pour moi en tant qu'individu, mais Je pense juste que c'est une idée terrible. " Il a dit que sur des questions telles que l'intégrité électorale et le discours de haine, il serait simplement plus difficile pour Instagram de protéger ses utilisateurs. Il a dit qu'il avait initialement promis de garder Instagram indépendant de Facebook, mais il a brisé cette promesse en matière de sécurité, car Facebook a davantage de personnes travaillant sur la sécurité et l'intégrité que le nombre total de personnes travaillant sur Instagram.
Mosseri a déclaré qu'il était fondamentalement sain de passer en revue la demande de responsabilité et que Facebook avait commis une erreur en ne se focalisant pas suffisamment sur les conséquences imprévues des premières années. "Nous devons faire plus pour nourrir et faire grandir le bien et lutter contre le mal", a-t-il déclaré.
Bosworth a déclaré que lorsqu'un site est petit, tout le contenu peut être révisé, bien que cela nous pose des problèmes de confidentialité. Quand il devient plus gros, vous ne pouvez pas réviser manuellement tout le contenu, mais vous obtenez plus de ressources et une "économie d'échelle". Il a reconnu que Facebook était "massivement en retard sur ce point", mais a déclaré que la société investissait massivement, estimant que le problème était résolu, et que la société travaillait à la fois sur des solutions techniques et avec les régulateurs sur la manière de réagir. Vous ne vous approchez pas de les résoudre en vous divisant en équipes et en donnant à chaque équipe moins de ressources, a-t-il ajouté.
Quand on lui a demandé si Facebook ne pouvait pas résoudre ces problèmes, car il propose des services de publicité, il a coûté beaucoup plus cher si nous avions ce contenu marginal sur la plateforme. Il a déclaré que Facebook avait des dizaines de milliers de personnes en train de réviser le contenu. Si l'entreprise devait être impitoyable et se débarrasser de tout discours controversé, ce serait plus efficace.
Mosseri a déclaré que nous devrions être fiers de pouvoir utiliser ce service gratuitement. La société a déclaré que la publicité permettait à la société de fournir ces informations et que c’était principalement payée par des personnes qui en avaient les moyens. Si vous coupez la publicité, vous coupez les gens.
Un changement qu'Instagram teste cache des "j'aime" sur le système. Mosseri a déclaré que nous ne voulions pas qu'Instagram soit "un environnement sous pression", et souligne que la compétition peut ressembler à des goûts. Il était optimiste à l'idée de faire des «j'aime» et compte en privé, mais a déclaré qu'il ne s'agissait que d'une expérience.
M. Mosseri a également évoqué le dispositif de portail de la société, qui, selon lui, avait spécifiquement "quitté la fonctionnalité de la table" en éliminant l'enregistrement de conversations. Il a déclaré que nous assistions à une toute nouvelle génération de matériel avec des haut-parleurs intelligents, mais que Facebook souhaitait s'assurer que "la connexion humaine était une utilisation directe", mais avec la confidentialité intégrée.
Bosworth a souligné que Facebook voyait dans la réalité virtuelle une "occasion d'aller plus loin" et de vivre des expériences enrichissantes, même lorsque l'on ne peut être présent.
Deux responsables de Twitter ont abordé des problèmes similaires, confrontant l'affirmation de la co-présidente de la conférence, Kara Swisher, selon laquelle la plateforme est un "cloaque" construite sur des personnes pouvant dire ce qu'elles veulent et dire ensuite des choses terribles.
Kayvon Beykpour, responsable du produit, a déclaré: "Twitter est basé sur l'idée de laisser les gens parler en public. L'objectif du site est" de servir la conversation publique ", ce qui" aide les gens à apprendre, les aide à résoudre leurs problèmes et les aide Nous sommes tous dans le même bateau. "C'est le point de départ, mais il a dit qu'il y avait une" crise existentielle "parce que si la conversation n'est pas saine, les gens ne voudront pas participer.
Beykpour a noté que la plupart des utilisateurs de Twitter n’ont pas de grandes plates-formes, mais plutôt des dizaines, voire des centaines d’abonnés, et que les internautes utilisent ce service pour rechercher des personnes partageant les mêmes intérêts.
Vijaya Gadde, responsable juridique, responsable des politiques publiques et de la sécurité de Twitter, a déclaré que le cabinet avait initialement réclamé une expression entièrement libre, mais était désormais plus conscient de l'impact que nous avions. Elle a ajouté que le cabinet disposait d'un cadre politique axé sur les droits fondamentaux de l'homme, tels que la sécurité et la liberté d'expression.
Elle a fait remarquer que le cabinet faisait maintenant face à un manque de confiance et à des informations erronées sur la plateforme. En avril, dans le contexte des élections en Inde et en Europe, elle a déclaré que la société avait mis en place de nouvelles politiques destinées à lutter contre les informations erronées sur la manière de s'inscrire pour voter ou de voter. Elle a dit que c'était encore un processus d'apprentissage, notant par exemple que certaines blagues avaient été supprimées. Dans d'autres domaines, a-t-elle dit, si vous recherchez des informations sur les vaccins, vous serez désormais dirigé vers des sources fiables. L’objectif est en particulier de prévenir les "dommages indirects" aux personnes.
Gadde a noté que Twitter avait "une préférence historique pour ne pas être l'arbitre de la vérité", mais a admis qu'il était difficile de le faire à grande échelle. Au lieu de cela, a-t-elle déclaré, la société essayait d'amplifier le contenu provenant de sources réputées. Avec le temps, at-elle ajouté, le cabinet devra faire plus et a déclaré surveiller les autres plates-formes.
Beykpour a déclaré qu'historiquement, Twitter "essayait de résoudre excessivement" par le biais de politiques et de mesures d'application, et non par le produit et la technologie. Il a déclaré que la société avait progressé dans le domaine de la santé et en ferait davantage. Il a noté que le cabinet venait de publier une nouvelle politique simplifiée, plus facile à lire, ce qui permettrait une meilleure application. Actuellement, a-t-il déclaré, 40% des tweets des "actions" de l'entreprise sont faits de manière proactive, par opposition à des plaintes.
Il a ajouté que la firme désamplifie le contenu et que de nouvelles politiques ont permis de réduire de 45% le nombre d'abus signalés. et le nombre de blocs de compte de 30%. En outre, il a noté que la société contestait et bloquait désormais davantage de signatures pour empêcher l'enregistrement de comptes malveillants; mais est toujours confronté à des problèmes tels que la devinette de mot de passe brutale.
Interrogé sur les craintes que les plates-formes de médias sociaux conduisent à une radicalisation accrue, Gadde a admis que c'était une inquiétude. "Je pense qu'il y a du contenu sur Twitter et sur toutes les plateformes qui contribuent à la radicalisation", a-t-elle déclaré. Mais elle a ajouté que la société avait mis en place de nombreux mécanismes et politiques pour lutter contre cela. Elle a déclaré que 90% de tout le contenu terroriste était immédiatement supprimé et avait interdit 110 groupes extrémistes violents.
Gadde a déclaré que les règles de Twitter "sont un document évolutif", avec de nouvelles recherches répondant à de nouveaux préjudices, conseillant le cabinet s'il y a plus que ce que nous pouvons faire. Elle a noté que "de mauvaises choses arrivent aussi sur les plateformes privées". Parce que Twitter est complètement ouvert, dit-elle, tout le monde peut voir et répondre. Elle a toutefois noté que le fait d’être ouvert peut être un désavantage parce que cela donne aux gens une plate-forme. Elle a déclaré que la société essayait de trouver le juste équilibre entre l'intérêt public et la capacité de voir et de réagir, et les problèmes que le contenu pourrait causer. Elle a souligné que la société devait travailler sur des solutions globales, 80% de ses utilisateurs n'étant pas aux États-Unis.
Elle a parlé de l'importance de la transparence et de la clarté des règles. Mais elle a également mentionné la valeur médiatique du contenu, notant qu'avec des personnalités publiques, même si Twitter supprimait un tweet, ce contenu attirerait l'attention.
En réponse à une question du public, Gadde a déclaré que Twitter était "très, très concentré sur la radicalisation", affirmant que si vous prétendez être associé à des groupes extrémistes violents, vous ne pouvez pas être sur Twitter. Mais elle a dit que le cabinet avait du travail à faire pour comprendre comment faire plus et que des changements allaient se produire. Répondant à une autre question sur les abus envers les femmes, elle a déclaré que permettre à Twitter d'être plus proactif ferait une grande différence. Mais elle a dit qu'elle s'inquiétait beaucoup de faire taire les voix, en particulier celles des groupes minoritaires et des femmes.
Beykpour a déclaré qu'une solution possible consistait à donner aux clients davantage de contrôle sur la manière dont ils peuvent se sentir plus en sécurité sur la plate-forme, par exemple en donnant aux auteurs la possibilité de modérer les réponses dans un fil de conversation. Il a également parlé de nouveaux types de conversations, notant que Twitter actuel est en grande partie constitué de tweets publics qui durent éternellement et de messages directs. Il a noté que, dans l'intervalle, le cabinet ne prend pas en charge, mais envisage, des éléments tels qu'une conversation publique pouvant être limitée à quatre personnes.
Moyen
Ev Williams, PDG de Medium et cofondateur de Blogger et de Twitter, s'est davantage concentré sur Medium, un service d'abonnement qui, dit-il, se développe à un rythme soutenu, sans donner de chiffres. Il a ajouté que les gens s'abonnent au service pour obtenir des idées et des perspectives allant de la santé au JavaScript en passant par l'écriture littéraire.
Il a expliqué à quel point le groupement de contenu pouvait être important. Il a déclaré être "très optimiste quant aux abonnements au contenu éditorial", mais que cela pourrait être difficile pour de nombreux sites Web. "Nous ne nous abonnons pas aux émissions de télévision ou aux artistes musicaux individuellement." Au lieu de cela, avec Medium, il essaie de créer une plate-forme incluant des sites détenus et exploités, ainsi que la diversité d’autres sites. Il a dit que Medium avait des centaines de milliers de personnes écrivant chaque mois.
Il était convaincu que le contenu groupé allait réussir et a déclaré qu'il n'y avait pas de concurrents directs, bien qu'un site Web doté d'un abonnement et quelque chose comme Apple News + avec son lot de magazines soit en concurrence.
Williams a déclaré que les politiques de Medium avaient changé au fil du temps et que la modération de son contenu était désormais "plutôt agressive" dans ce qu'elle était disposée à supprimer. Chez Medium, at-il déclaré, "tout ce que nous recommandons est d'abord approuvé par un humain". Il a reconnu que cela signifie que le site ne sera jamais aussi grand que les médias sociaux, mais il a indiqué que "l'échange de valeurs" de la société, qui place votre contenu dans un pool de conservation, mais derrière un mur payant, évoluera.
Bien qu'il se soit concentré sur Medium, Williams a discuté des médias sociaux et des blogs. Il a ajouté que le blogue lui manquait, car il se situait entre des idées extrêmement informelles sur les médias sociaux et des articles de longue durée. Il a dit que dans les blogs, les choses pourraient "mariner" par opposition à "l'addiction aux commentaires à court terme qui est préjudiciable à la pensée".
Le problème, a-t-il déclaré, est que "le retour instantané est probablement source de confusion pour des conversations saines". Il a noté que les gens étaient accrochés aux commentaires à court terme, tels que l'affichage public de followers ou de likes sur un post. Il a dit qu'il était impossible de vivre dans cet environnement et de ne pas le laisser changer votre comportement. D'autres systèmes avec des retours plus lents, tels que les newsletters ou les podcasts, permettent plus de contexte et de meilleures conversations, a-t-il déclaré. "Si chaque élément de communication doit être autonome, vous perdez la capacité d'aller en profondeur", a-t-il déclaré.
Il a déclaré que la conversation politique était "plus bruyante qu'elle ne l'a jamais été", ce qui la rend plus difficile, même si vous souhaitez entendre de nombreuses perspectives. Mais il a dit qu'il y a des points lumineux.
"La raison pour laquelle je suis enthousiasmé par le Web au départ, c'est que je pensais qu'il nous rendrait plus intelligents", a déclaré Williams. Il pensait que si les gens pouvaient exprimer leurs idées, le monde ferait des choix plus éclairés. Mais il a dit que cela ne s'était pas passé ainsi à cause des systèmes de feedback et des incitations. "C'est en partie la limite de l'attention humaine", a-t-il déclaré, soulignant que plus d'informations ne nous rendaient pas plus intelligents si nous ne savions pas comment les digérer ou les contextualiser, en particulier si certaines industries essayaient de les analyser. te faire acheter des choses.
C'est l'une des raisons pour lesquelles il a commencé à travailler sur Medium il y a 7 ans. Il a fait remarquer qu'avec un service d'abonnement, les clients paient. Vous devez donc créer un produit que quelqu'un trouve assez précieux pour payer. Il a dit que c'était mieux que la publicité, qui visait à attirer l'attention de quelqu'un à moindre coût.
Un panel de critiques
Bien sûr, les grandes plates-formes ont également suscité de nombreuses critiques. Parmi les membres du panel figuraient notamment Nicole Wong, ancienne vice-directrice américaine de la technologie et ancienne avocate générale adjointe de Google; Jessica Powell, ancienne vice-présidente des communications chez Google et auteure de The Big Disruption ; et Antonio García Martínez, anciennement de Facebook et auteur de Chaos Monkeys.
"Ce ne sont pas de nouveaux problèmes, ils sont là depuis le début", a déclaré Powell, notant qu'elle s'inquiétait des "conséquences inattendues" et que la surveillance du contenu était difficile. Elle a dit que c’était bien que les plateformes appliquent des politiques plus strictes "mais elles auraient dû être là beaucoup plus tôt".
Wong a noté que dans la première ère de l'Internet, "nous construisions la technologie et pensions que nous allions changer le monde pour de bon". Elle a dit que c'était incroyable et qu'elle existe toujours, et que les techniciens sont en grande partie là pour faire le bien. Mais elle a dit que les gens étaient paresseux pour ne pas reconnaître que la technologie n'est pas intrinsèquement bonne. Elle a dit que nous savons maintenant ce que signifie voir un "Internet armé" et nous devons construire des systèmes pour en tenir compte. "Personne ne nous doit un Internet libre et ouvert conçu pour notre bien, et nous devons le construire."
García Martínez a déclaré que si quelqu'un réglemente le discours sur Facebook, ce devrait être le gouvernement. "Une démocratie est la structure qui permet la responsabilité, pas une entreprise", a-t-il déclaré. Mais il a dit qu'il pensait que Facebook devrait être divisé de toute façon, avec Instagram et What's App séparés, en affirmant que si vous augmentiez la barre de la modération du contenu, vous pourriez obtenir un avantage concurrentiel.
Powell a déclaré qu'il existait un argument crédible selon lequel, si vous disposiez de plus de données, vous pourrez mieux former les modèles d'intelligence artificielle, de sorte que vous aurez besoin de moins de modération humaine. Mais elle a suggéré que l'industrie puisse trouver un moyen de rassembler des informations pour tous les acteurs, affirmant que cela est déjà fait pour l'exploitation des enfants et que nous devrions être capables de trouver comment le faire pour lutter contre l'intimidation. Globalement, a-t-elle dit, toute réglementation doit s'attaquer aux problèmes de contrôle et de transparence, affirmant qu'il est erroné qu'une start-up aujourd'hui se préoccupe de la voie à suivre.
García Martínez a déclaré qu'il existait toujours un compromis entre confidentialité, commodité et sécurité, et que tout allait bien si vous savez quels compromis vous faites. Mais il a suggéré de se débarrasser des agrégateurs de données tiers.
Lors d'une autre séance, le comédien et critique Baratunde Thurston a présenté sa propre plate-forme de "neuf façons de ne pas gâcher le futur". Ces éléments incluent les scores de transparence et de confiance, modifiant la valeur par défaut pour les conversations à fermer; et la propriété et la portabilité des données. Mais il a surtout attiré l'attention en décrivant Facebook comme un "service d'excuses dans le nuage" offrant "des excuses en tant que service".
De plus, Scott Galloway, professeur à la NYU Stern, connu pour son livre Le Four: l'ADN caché d'Amazon, Apple, Facebook et Google , a fait un certain nombre de prévisions pour l'année à venir. Parmi ces prévisions, il est prédit qu'un haut responsable de Facebook sera arrêté et détenu sur un sol étranger et qu'il y aura plus de réglementation des grandes entreprises de technologie. Il a ajouté qu'il pensait que, par ses retombées et ses ruptures, Big Tech apporterait davantage de valeur que la capitalisation totale de Boeing et d'Airbus au cours des six prochains mois.