Accueil Entreprise Ai et apprentissage de la machine exploitent, deepfakes, maintenant plus difficile à détecter

Ai et apprentissage de la machine exploitent, deepfakes, maintenant plus difficile à détecter

Table des matières:

Vidéo: Intelligence artificielle par apprentissage automatique (Francis Bach) (Novembre 2024)

Vidéo: Intelligence artificielle par apprentissage automatique (Francis Bach) (Novembre 2024)
Anonim

Alors que nous nous approchons de la prochaine campagne électorale pour les élections présidentielles, vous voudrez vous méfier des dangers potentiels que les fausses vidéos en ligne entraînent avec l'utilisation de l'intelligence artificielle (IA) et de l'apprentissage automatique (ML). À l'aide d'un logiciel d'intelligence artificielle, les utilisateurs peuvent créer des vidéos deepfake (abréviation de "deep learning and fake") dans lesquelles des algorithmes ML sont utilisés pour effectuer un échange de visage afin de créer l'illusion que quelqu'un a dit quelque chose qu'il n'a pas dit ou qu'il est quelqu'un ". re pas. Des vidéos de Deepfake apparaissent dans divers domaines, du divertissement à la politique en passant par le monde de l'entreprise. Non seulement les vidéos deepfake peuvent influer injustement sur une élection avec de faux messages, mais elles peuvent aussi être source d'embarras personnel ou de messages trompeurs si, par exemple, elles montrent un PDG annonçant le lancement d'un produit ou une acquisition qui n'a pas eu lieu.

Les Deepfakes font partie d'une catégorie d'intelligence artificielle appelée "Réseaux d'adversité générative", dans laquelle deux réseaux de neurones se font concurrence pour créer des photographies ou des vidéos qui semblent réelles. Les GAN consistent en un générateur, qui crée un nouvel ensemble de données comme une fausse vidéo, et un discriminateur, qui utilise un algorithme ML pour synthétiser et comparer les données de la vidéo réelle. Le générateur continue à essayer de synthétiser la fausse vidéo avec l'ancienne jusqu'à ce que le discriminateur ne puisse pas dire que les données sont nouvelles.

Comme l'a souligné Steve Grobman, vice-président directeur et directeur de la technologie de McAfee, lors de la conférence RSA 2019 en mars à San Francisco, les fausses photographies existent depuis l'invention de la photographie. Il a expliqué que la modification de photos était une tâche simple que vous pouvez effectuer dans une application telle que Adobe Photoshop. Mais à présent, ces types de capacités de montage avancées se tournent également vers la vidéo et utilisent des outils logiciels très performants et faciles d'accès.

Comment Deepfakes sont créés

Bien qu'il soit utile de comprendre les concepts d'intelligence artificielle, il n'est pas nécessaire d'être un spécialiste des données pour créer une vidéo en profondeur. Selon Grobman, il s’agit simplement de suivre certaines instructions en ligne. Lors de la conférence RSA 2019 (voir la vidéo ci-dessus), il a dévoilé une vidéo en profondeur avec la Dre Celeste Fralick, scientifique en chef des données et ingénieur principal chez McAfee. La vidéo deepfake illustre la menace que présente cette technologie. Grobman et Fralick ont ​​montré comment, dans une vidéo, un fonctionnaire déclarant quelque chose de dangereux pouvait induire le public en erreur en lui faisant croire que le message était réel.

Pour créer leur vidéo, Grobman et Fralick ont ​​téléchargé le logiciel deepfake. Ils ont ensuite filmé une vidéo de Grobman devant le Sénat américain en 2017 et ont superposé la bouche de Fralick à celle de Grobman.

"J'ai utilisé des commentaires publics librement disponibles pour créer et former un modèle ML; cela m'a permis de développer une vidéo avec de faux mots qui sortaient de la bouche", a déclaré Fralick au public de RSA. Fralick a ajouté que les vidéos deepfake pourraient être utilisées à des fins d'exploitation sociale et de guerre de l'information.

Pour réaliser leur vidéo deepfake, Grobman et Fralick ont ​​utilisé un outil développé par un utilisateur Reddit, appelé FakeApp, qui utilise des algorithmes ML et des photos pour permuter les visages sur des vidéos. Au cours de leur présentation RSA, Grobman a expliqué les étapes suivantes. "Nous avons divisé les vidéos en images fixes, nous avons extrait les visages et nous les avons nettoyés en les triant, puis nettoyés dans Instagram."

Les scripts Python ont permis à l’équipe McAfee de créer des mouvements de bouche pour que le discours de Fralick corresponde à celui de Grobman. Ensuite, ils devaient écrire des scripts personnalisés. Le défi de créer un deepfake convaincant est lorsque des caractéristiques telles que le sexe, l'âge et le teint de la peau ne concordent pas, a déclaré Grobman.

Lui et Fralick ont ​​ensuite utilisé un dernier algorithme d'intelligence artificielle pour faire correspondre les images de Grobman témoignant devant le Sénat au discours de Fralick. Grobman a ajouté qu'il fallait 12 heures pour former ces algorithmes ML.

McAfee a présenté les étapes à suivre pour créer une vidéo deepfake présentée à la conférence RSA 2019. Il a utilisé le logiciel deepfake appelé FakeApp et la formation de modèles ML pour modifier la vidéo de Grobman avec le discours de Fralick. (Crédit image: McAfee).

Les conséquences de Deepfakes

Les vidéos deepfake créées par Hacker ont le potentiel de poser de nombreux problèmes - des représentants du gouvernement diffusant de fausses informations aux célébrités embarrassées d'être dans des vidéos qu'elles ne visaient pas vraiment, aux sociétés qui nuisent à la position du marché boursier de leurs concurrents. Conscients de ces problèmes, les législateurs ont adressé une lettre en septembre à Daniel Coats, directeur américain du Renseignement national, pour lui demander de passer en revue la menace que représentent les attaques à répétition. La lettre avertissait que des pays comme la Russie pourraient utiliser deepfakes sur les médias sociaux pour diffuser de fausses informations. En décembre, les législateurs ont présenté la Malicious Deep Fake Prohibition Act of 2018, une loi interdisant la fraude liée aux «enregistrements audiovisuels», qui font référence aux deepfakes. Il reste à voir si le projet de loi sera adopté.

Comme mentionné précédemment, les célébrités peuvent être gênées par des vidéos dans lesquelles leurs visages se superposent à ceux des stars du porno, comme ce fut le cas de Gal Gadot. Ou imaginez un PDG censé annoncer des nouveautés sur un produit et couler les actions d’une entreprise. Les professionnels de la sécurité peuvent utiliser ML pour détecter ces types d’attaques, mais s’ils ne le sont pas à temps, ils peuvent causer des dommages inutiles à un pays ou à une marque.

"Avec deepfakes, si vous savez ce que vous faites et que vous savez qui cibler, vous pouvez vraiment créer une vidéo convaincante qui pourrait causer beaucoup de tort à une marque", a déclaré le Dr Chase Cunningham, analyste principal à Forrester Research.. Il a ajouté que, si vous distribuez ces messages sur LinkedIn ou Twitter ou utilisez un formulaire de bot, "vous pouvez écraser le stock d'une entreprise sur la base d'une vidéo totalement fictive sans trop d'effort".

Grâce aux vidéos deepfake, les consommateurs peuvent être amenés à croire qu'un produit peut faire quelque chose qu'il ne peut pas. Cunningham a noté que, si le PDG d'un grand constructeur automobile déclarait dans une vidéo fictive que la société ne fabriquerait plus de véhicules à essence et transmettrait ensuite ce message sur Twitter ou LinkedIn dans cette vidéo, cette action pourrait facilement nuire à la marque.

"C’est assez intéressant de par mes recherches, les gens prennent des décisions basées sur des titres et des vidéos en 37 secondes, a déclaré Cunningham." Vous pouvez donc imaginer que si vous pouvez obtenir une vidéo de plus de 37 secondes, vous pouvez amener les gens à prendre une décision en fonction que ce soit factuel ou non. Et c'est terrifiant."

Les médias sociaux étant un lieu vulnérable où les vidéos deepfake peuvent devenir virales, les sites de médias sociaux s’emploient activement à lutter contre la menace de deepfakes. Facebook, par exemple, déploie des équipes d'ingénieurs capables de détecter les photos, les fichiers audio et les vidéos manipulés. En plus d'utiliser des logiciels, Facebook (et d'autres sociétés de médias sociaux) embauche des personnes pour rechercher manuellement deepfakes.

"Nous avons élargi nos efforts en cours pour lutter contre les médias manipulés afin d'inclure la lutte contre les contrefaçons", a déclaré un représentant de Facebook dans un communiqué. "Nous savons que l'émergence continue de toutes les formes de médias manipulés représente un réel défi pour la société. C'est pourquoi nous investissons dans de nouvelles solutions techniques, tirons des enseignements de la recherche universitaire et collaborons avec d'autres acteurs du secteur pour comprendre les deepfakes et autres formes de médias manipulés."

Tous les deepfakes sont mauvais

Comme nous l'avons vu avec la vidéo éducative deepfake de McAfee et les vidéos comiques deepfake diffusées tard le soir à la télévision, certaines vidéos deepfake ne sont pas nécessairement mauvaises. En fait, alors que la politique peut exposer les véritables dangers des vidéos deepfake, l’industrie du divertissement ne montre souvent que le côté plus léger des vidéos deepfake.

Par exemple, dans un épisode récent de The Late Show With Stephen Colbert, une vidéo amusante de deepfake a été montrée dans laquelle le visage de l'acteur Steve Buscemi était superposé au corps de l'actrice Jennifer Lawrence. Dans un autre cas, le comédien Jordan Peeler a remplacé une vidéo de l'ancien président Barack Obama parlant de sa propre voix. Des vidéos humoristiques de ce genre sont également apparues en ligne, dans lesquelles le visage du président Trump se superpose au visage de la chancelière allemande Angela Merkel.

Encore une fois, si les vidéos deepfake sont utilisées à des fins satiriques ou humoristiques ou simplement à des fins de divertissement, les plates-formes de médias sociaux et même les maisons de production de films le permettent ou les utilisent. Par exemple, Facebook autorise ce type de contenu sur sa plate-forme et Lucasfilm a utilisé un type de récréation numérique pour mettre en vedette une jeune Carrie Fisher sur le corps de l'actrice Ingvild Deila dans "Rogue One: Une histoire de Star Wars".

M. Grobman, de McAfee, a déclaré qu'une partie de la technologie à l'origine de deepfakes est utilisée à bon escient avec des doublures de cascadeurs dans la réalisation de films afin de protéger les acteurs. "Le contexte est primordial. Si c'est à des fins humoristiques et qu'il est évident que ce n'est pas réel, c'est une utilisation légitime de la technologie", a déclaré Grobman. "Reconnaître qu'il peut être utilisé à différentes fins est la clé."

(Crédit image: Statista)

Comment détecter les vidéos Deepfake

McAfee n'est pas la seule entreprise de sécurité à tenter de détecter les fausses vidéos. Dans son article présenté à Black Hat 2018 intitulé "AI Gone Rogue: Exterminer les fake profonds avant de causer la menace", deux experts en sécurité de Symantec, Vijay Thaware, responsable de la sécurité, et Niranjan Agnihotri, ingénieur en développement logiciel, ont indiqué qu'ils avaient fausses vidéos basées sur Google FaceNet. Google FaceNet est une architecture de réseau de neurones développée par les chercheurs de Google pour faciliter la vérification et la reconnaissance des visages. Les utilisateurs forment un modèle FaceNet sur une image particulière et peuvent ensuite vérifier leur identité lors de tests ultérieurs.

Pour tenter d'empêcher la diffusion de vidéos deepfake, AI Foundation, une organisation à but non lucratif qui se concentre sur les interactions entre l'homme et l'IA, propose un logiciel appelé "Reality Defender" permettant de détecter les faux contenus. Il peut numériser des images et des vidéos pour voir si elles ont été modifiées à l'aide de l'IA. S'ils le font, ils obtiendront un "honnête AI Watermark".

  • Le Business Guide to Machine Learning Le Business Guide to Machine Learning
  • PornHub, Porno Interdit «Deepfake» par AI PornHub, Twitter Interdiction du Porno 'Deepfake' par AI
  • La dernière technologie Deepfake vous fera danser comme Bruno Mars La dernière technologie Deepfake vous fera danser comme Bruno Mars

Une autre stratégie consiste à garder à l’esprit le concept de confiance absolue, qui signifie «ne jamais faire confiance, toujours vérifier» - une devise en matière de cybersécurité qui signifie que les professionnels de l’informatique doivent confirmer que tous les utilisateurs sont légitimes avant d’accorder des privilèges d’accès. Rester sceptique quant à la validité du contenu vidéo sera nécessaire. Vous aurez également besoin d'un logiciel doté de capacités d'analyse numériques pour détecter les faux contenus.

À la recherche de Deepfakes

À l'avenir, nous devrons être plus prudents avec le contenu vidéo et garder à l'esprit les dangers qu'ils peuvent représenter pour la société s'ils sont mal utilisés. Comme le note Grobman, "à court terme, les gens doivent être plus sceptiques quant à ce qu'ils voient et reconnaître que la vidéo et l'audio peuvent être fabriqués."

Alors, gardez un œil sceptique sur les vidéos politiques que vous regardez lorsque nous entrons dans la prochaine saison électorale, et ne faites pas confiance à toutes les vidéos mettant en vedette des dirigeants d’entreprise. Parce que ce que vous entendez n'est peut-être pas ce qui a été dit, et que des vidéos trompeuses de deepfake risquent de nuire à notre société.

Ai et apprentissage de la machine exploitent, deepfakes, maintenant plus difficile à détecter