Accueil Des avis Rien ne peut nous protéger de deepfakes? | ben dickson

Rien ne peut nous protéger de deepfakes? | ben dickson

Table des matières:

Vidéo: Deepfakes : du faux plus vrai que nature (Novembre 2024)

Vidéo: Deepfakes : du faux plus vrai que nature (Novembre 2024)
Anonim

À la fin de 2017, Motherboard a présenté une technologie d’intelligence artificielle capable d’échanger des visages dans des vidéos. À l'époque, la technologie, appelée plus tard Deepfakes, produisait des résultats bruts et granuleux et était principalement utilisée pour créer de fausses vidéos porno mettant en vedette des célébrités et des hommes politiques.

Deux ans plus tard, la technologie a énormément avancé et est plus difficile à détecter à l'œil nu. Avec les fausses informations, les vidéos forgées sont devenues un problème de sécurité nationale, en particulier à l'approche des élections présidentielles de 2020.

Depuis l’apparition de deepfakes, plusieurs organisations et sociétés ont mis au point des technologies permettant de détecter les vidéos altérées par l’IA. Mais on craint qu'un jour, la technologie deepfakes ne soit pas détectable.

Des chercheurs de l'Université de Surrey ont mis au point une solution qui pourrait résoudre le problème: au lieu de détecter ce qui est faux, cela prouvera la vérité. Prévue pour être présentée à la prochaine Conférence sur la vision par ordinateur et la reconnaissance des formes (CVPR), cette technologie, appelée Archangel, utilise l'IA et la blockchain pour créer et enregistrer une empreinte numérique inviolable pour des vidéos authentiques. L’empreinte digitale peut servir de point de référence pour vérifier la validité des supports distribués en ligne ou diffusés à la télévision.

Utiliser AI pour signer des vidéos

La méthode classique pour prouver l'authenticité d'un document binaire consiste à utiliser une signature numérique. Les éditeurs exécutent leur document via un algorithme cryptographique tel que SHA256, MD5 ou Blowfish, qui produit un "hachage", une chaîne d'octets courte qui représente le contenu de ce fichier et devient sa signature numérique. L'exécution du même fichier via l'algorithme de hachage à tout moment produira le même hachage si son contenu n'a pas changé.

Les hachages sont hypersensibles aux modifications de la structure binaire du fichier source. Lorsque vous modifiez un seul octet dans le fichier haché et l'exécutez à nouveau dans l'algorithme, le résultat obtenu est totalement différent.

Cependant, si les hachages fonctionnent bien pour les fichiers texte et les applications, ils posent des problèmes pour les vidéos, qui peuvent être stockées dans différents formats, selon John Collomosse, professeur de vision par ordinateur à l'Université de Surrey et chef de projet pour Archangel.

"Nous voulions que la signature soit la même quel que soit le codec avec lequel la vidéo est compressée", déclare Collomosse. "Si je prends ma vidéo et la convertis, par exemple, de MPEG-2 en MPEG-4, ce fichier aura une longueur totalement différente et les bits auront complètement changé, ce qui produira un hachage différent. Ce dont nous avions besoin était un algorithme de hachage sensible au contenu ".

Pour résoudre ce problème, Collomosse et ses collègues ont développé un réseau de neurones profonds, sensible au contenu de la vidéo. Les réseaux neuronaux profonds sont un type de construction de l'IA qui développe son comportement à travers l'analyse d'un grand nombre d'exemples. Fait intéressant, les réseaux de neurones sont également la technologie au cœur des deepfakes.

Lors de la création de deepfakes, le développeur fournit au réseau des images du visage d'un sujet. Le réseau de neurones apprend les caractéristiques du visage et, avec un entraînement suffisant, devient capable de trouver et d'échanger des visages dans d'autres vidéos avec le visage du sujet.

Le réseau de neurones d'Archangel est formé sur la vidéo de ses empreintes digitales. "Le réseau examine le contenu de la vidéo plutôt que ses bits et octets sous-jacents", a déclaré Collomosse.

Après la formation, lorsque vous exécutez une nouvelle vidéo sur le réseau, celle-ci sera validée si elle contient le même contenu que la vidéo source, quel que soit son format, et la rejetera s'il s'agit d'une vidéo différente ou si elle a été falsifiée ou modifiée.

Selon Collomosse, la technologie peut détecter les altérations spatiales et temporelles. Les altérations spatiales sont des modifications apportées à des images individuelles, telles que les modifications de remplacement du visage effectuées dans deepfakes.

Mais les deepfakes ne sont pas le seul moyen de modifier les vidéos. Les modifications intentionnelles apportées à la séquence d'images, à la vitesse et à la durée de la vidéo sont moins discutables, mais tout aussi dangereuses. Une vidéo récemment modifiée et largement diffusée de la présidente de la Chambre des représentants, Nancy Pelosi, n’a pas utilisé deepfakes mais a été créée grâce à l’utilisation prudente de techniques de montage simples qui la faisaient paraître confuse.

"L'une des formes de falsification que nous pouvons détecter est le retrait de courts segments de la vidéo. Ce sont des falsifications temporelles. Nous pouvons détecter jusqu'à trois secondes de falsification. Ainsi, si une vidéo dure plusieurs heures et que vous ne supprimez que trois Quelques secondes après cette vidéo, nous pouvons le détecter ", explique Collomosse, ajoutant qu'Archangel détectera également les modifications apportées à la vitesse de la vidéo d'origine, comme dans la vidéo Pelosi.

Enregistrement de l'empreinte digitale sur la Blockchain

Le deuxième composant du projet Archangel est une blockchain, une base de données inviolable dans laquelle de nouvelles informations peuvent être stockées mais non modifiées. Idéal pour les archives vidéo qui n'apportent aucune modification aux vidéos une fois qu'elles ont été enregistrées.

La technologie Blockchain est à la base des monnaies numériques telles que Bitcoin et Ether. C'est un registre numérique tenu par plusieurs parties indépendantes. La majorité des parties doivent s'entendre sur les modifications apportées à la blockchain, ce qui empêche toute partie de se mêler unilatéralement au grand livre.

Il est techniquement possible d'attaquer et de modifier le contenu d'une blockchain si plus de 50% de ses participants s'entendent. Mais dans la pratique, c'est extrêmement difficile, surtout lorsque la blockchain est maintenue par de nombreuses parties indépendantes ayant des objectifs et des intérêts divers.

La blockchain d'Archangel est un peu différente de la blockchain publique. Premièrement, il ne produit pas de crypto-monnaie et stocke uniquement l'identifiant, l'empreinte digitale sensible au contenu et le hachage binaire du réseau neuronal du vérificateur pour chaque vidéo d'une archive (les chaînes de blocs ne conviennent pas au stockage de grandes quantités de données, raison pour laquelle la vidéo elle-même et le réseau de neurones sont stockés hors chaîne).

En outre, c'est une blockchain autorisée ou "privée". Cela signifie que, contrairement à la blockchain Bitcoin, où tout le monde peut enregistrer de nouvelles transactions, seules les parties autorisées peuvent stocker de nouveaux enregistrements dans la blockchain d'Archangel.

Archangel est actuellement testé par un réseau d'archives nationales du Royaume-Uni, d'Estonie, de Norvège, d'Australie et des États-Unis: pour stocker de nouvelles informations, tous les pays concernés doivent souscrire à l'addition. Mais si seules les archives nationales des pays participants ont le droit d’ajouter des notices, tout le monde a un accès en lecture à la blockchain et peut l’utiliser pour valider d’autres vidéos contre les archives.

  • Exploitation de l'IA et de l'apprentissage automatique, Deepfakes, maintenant plus difficile à détecter Exploitation de l'IA et de l'apprentissage automatique, Deepfakes, maintenant plus difficile à détecter
  • Les vidéos Deepfake sont là et nous ne sommes pas prêts Les vidéos Deepfake sont ici et nous ne sommes pas prêts
  • La nouvelle intelligence artificielle d'Adobe détecte les visages photoshopped La nouvelle intelligence artificielle d'Adobe détecte les visages photoshopped

"C’est une application de la blockchain pour le bien public", déclare Collomosse. "À mon avis, la seule utilisation raisonnable de la blockchain consiste à avoir des organisations indépendantes qui ne se font pas nécessairement confiance mais qui ont cet intérêt dans cet objectif collectif de confiance mutuelle. Ce que nous cherchons à faire est sécuriser les archives nationales du gouvernement partout dans le monde, afin que nous puissions garantir leur intégrité à l'aide de cette technologie."

La création de vidéos contrefaites devenant plus facile, plus rapide et plus accessible, tout le monde aura besoin de toute l'aide possible pour assurer l'intégrité de ses archives vidéo, en particulier les gouvernements.

"Je pense que les deepfakes ressemblent presque à une course aux armements", a déclaré Collomosse. "Parce que les gens produisent des deepfakes de plus en plus convaincants, il deviendra peut-être un jour impossible à détecter. Par conséquent, le mieux que vous puissiez faire est d'essayer de prouver la provenance d'une vidéo."

Rien ne peut nous protéger de deepfakes? | ben dickson