Comment détecter les vidéos Deepfake pour prévenir la désinformation

Les deepfakes devenant de plus en plus sophistiqués, il est plus difficile que jamais de faire la différence entre ce qui est réel et ce qui ne l’est pas. Aujourd’hui, nous allons vous parler de quelques signes révélateurs qui vous aideront à détecter les vidéos deepfake. Avec ces outils en main, nous espérons que vous ne deviendrez pas une victime involontaire de fausses nouvelles et de théories du complot. Nous vous donnerons également une idée de la technologie deepfake, de son fonctionnement et de la manière dont elle est utilisée par les propagandistes et les théoriciens du complot pour répandre la désinformation et influencer les internautes à croire des mensonges.

Détecter les vidéos Deepfake pour prévenir la désinformation et les théories du complot

Actuellement, les deepfakes sont largement utilisés par les amateurs amateurs pour transformer les visages de célébrités dans des vidéos pour adultes, et par des éléments politiques peu recommandables pour diffuser de fausses nouvelles. Cependant, les experts s’inquiètent des utilisations encore plus dangereuses de la technologie dans un avenir pas si lointain. Nous énumérons donc ici quelques-unes des façons de vous aider à détecter les vidéos deepfake pour vous empêcher d’être victime de désinformation malveillante.

Que sont les vidéos Deepfake ?

Une combinaison des termes “apprentissage en profondeur” et “faux”, les deepfakes font référence à des médias manipulés qui utilisent l’intelligence artificielle ou des techniques d’apprentissage en profondeur pour créer des sons ou des vidéos qui déforment la réalité. La technologie utilise des réseaux de neurones artificiels pour créer des vidéos hyperréalistes qui semblent montrer des gens disant ou faisant quelque chose qu’ils n’ont pas fait dans la vraie vie. Les exemples les plus virulents incluent des vidéos transformées à l’aide de l’apprentissage automatique pour mettre des mots dans la bouche des politiciens. Ceci est utilisé pour créer la confusion sur leurs politiques et influencer les élections.

Une autre utilisation toxique des deepfakes consiste à transformer les visages de célébrités dans des vidéos pour adultes en violation massive de la vie privée et de la dignité. Les deepfakes sont devenus un énorme problème au cours des dernières années et cela ne fait qu’empirer avec la disponibilité de matériel plus rapide et de logiciels plus incisifs. La technologie a gagné en notoriété ces derniers temps pour son utilisation intensive dans les vidéos pornographiques, les fausses nouvelles et les canulars élaborés.

Cependant, toutes les utilisations des deepfakes ne sont pas louches, comme le prouve la vidéo suivante qui a été créée par le chercheur du MIT, Alexander Amini, pour faire rire ses étudiants. Il montre apparemment l’ancien président américain, Barack Obama, invitant les étudiants à se joindre à la conférence d’Amini sur l’apprentissage en profondeur à l’université. Cependant, il s’agit d’un deepfake de bout en bout, comme le chercheur l’a clairement révélé sur sa chaîne YouTube.

Comment fonctionnent les deepfakes ?

Les deepfakes s’appuient sur un réseau neuronal artificiel appelé « auto-encodeur », qui est utilisé pour apprendre des codages de données efficaces de manière non supervisée. Il est généralement utilisé pour la reconnaissance faciale, ainsi que pour trouver le sens sémantique des mots, etc. Dans le cas des vidéos deepfake, la technologie utilise d’abord un encodeur pour entraîner un réseau de neurones sur de nombreuses heures de séquences vidéo réelles de l’individu cible. . Ensuite, un décodeur reconstruit une nouvelle image en utilisant des informations clés sur leurs traits faciaux et leur posture corporelle. Cela aide l’algorithme à superposer les caractéristiques faciales et physiques de la cible sur la personne dans la vidéo d’origine.

Une technologie bien connue à cet égard est une classe spécialisée d’algorithmes d’apprentissage en profondeur appelé réseau antagoniste génératif. Le GAN est souvent ajouté au décodeur pour des résultats plus précis. Un GAN entraîne le décodeur et un discriminateur de manière à ce que le premier crée de nouvelles images à partir du matériel source, tandis que le second détermine si l’image nouvellement créée correspond ou non au métrage réel. Cela amène le générateur à créer des images qui imitent extrêmement bien la réalité, car l’algorithme contradictoire détecte tous les défauts.

Cela rend les deepfakes extrêmement difficiles à combattre car ils évoluent constamment. Chaque fois qu’un défaut apparaît, il peut être corrigé automatiquement grâce à l’apprentissage automatique. Comme il ne nécessite aucune intervention humaine, GAN est devenu le choix ultime pour la plupart des créateurs de deepfake. Cependant, la technologie est compliquée et prend beaucoup plus de temps et de données pour créer des compositions réalistes. De plus, alors que les GAN sont bons pour synthétiser des images, ils ont du mal à préserver la cohérence temporelle, ce qui signifie qu’ils ont besoin d’une intervention humaine pour conserver l’alignement des images d’une image à l’autre.

Que sont les fausses vidéos peu profondes ?

Une fausse vidéo peu profonde est une version altérée d’une vraie vidéo existante, créée pour projeter une réalité déformée. Cela inclut souvent l’édition sélective, la manipulation de la vitesse des discours ou des conversations des gens, et même la modification de la tonalité pour donner l’impression que quelqu’un est en colère, en état d’ébriété ou se moque d’un problème grave, alors que rien de tout cela n’est vrai.

Un cas récent notable comprend la vidéo notoirement modifiée de la conférencière de la US House, Nancy Pelosi, dont la fausse vidéo peu profonde a ralenti son discours pour la rendre en état d’ébriété. Ces vidéos sont différentes des deepfakes dans la mesure où ce sont de vraies vidéos manipulées à l’aide d’outils de montage vidéo traditionnels au lieu d’algorithmes d’IA.

Deepfakes : histoire et applications

Les techniques de manipulation de photos ont été inventées à la fin du 19e siècle. La technologie s’est améliorée régulièrement tout au long du XXe siècle avant que l’explosion des technologies d’intelligence artificielle et d’apprentissage automatique en fasse un problème majeur pour les internautes du monde entier. Les techniques de manipulation vidéo infusées par l’IA ont été largement étudiées par les chercheurs depuis les années 1990, et de nombreuses méthodes ont depuis été adoptées par les cinéastes du monde entier.

L’un des exemples les plus connus de deepfakes utilisés dans l’industrie du divertissement grand public a été la résurrection du défunt acteur, Paul Walker, pour Rapide et furieux 7 en 2015. Cependant, alors qu’il a fallu plusieurs semaines à des dizaines d’experts pour une recréation crédible de Walker, il faut maintenant à la plupart des amateurs ayant très peu de connaissances en codage quelques heures (ou parfois même moins) pour créer de nouvelles vidéos deepfake en utilisant de nouvelles techniques et algorithmes. Le phénomène est entré pour la première fois dans la conscience publique en 2017 lorsqu’un Redditor a utilisé des deepfakes pour créer et publier de fausses vidéos porno de célébrités.

Dangers des vidéos Deepfake

Les vidéos Deepfake sont un danger pour les utilisateurs sans méfiance qui peuvent être bombardés d’images d’un événement supposé déstabilisant, comme une guerre ou une attaque terroriste qui n’a jamais eu lieu. Cela peut provoquer du ressentiment et du mécontentement dans la société, entraînant une augmentation des attaques à motivation politique fondées sur l’identité raciale, religieuse et ethnique des personnes. La technologie pourrait également être utilisée pour répandre des FUD (peur, incertitude et doute) sur les catastrophes naturelles, provoquant une panique généralisée. Les experts prédisent également que si elles ne sont pas contrôlées, ces vidéos peuvent provoquer de profondes crises politiques et même perturber les relations internationales.

Un autre problème majeur qui a déjà pris des proportions pandémiques est la menace contre les femmes sans méfiance. Souvent qualifiées de pornographie non consensuelle, les vidéos deepfake pour adultes auraient représenté plus de 90 % de tous les deepfakes sur Internet en 2019. Bien qu’elles aient commencé avec des vidéos transformées représentant des célébrités comme Gal Gadot et Alexandra Daddario, elles se sont depuis étendues pour cibler régulièrement femmes dans le cadre de fausses campagnes de pornographie de vengeance.

Comment détecter les vidéos Deepfake ?

La détection de vidéos deepfake est un travail que même les experts trouvent souvent difficile sans les bons outils. Cependant, des chercheurs du Massachusetts Institute of Technology (MIT) ont proposé plusieurs suggestions qui peuvent aider les gens ordinaires à faire la différence entre les vraies vidéos et les deepfakes. Selon eux, il faut porter une attention particulière au visage tout en essayant de vérifier si une vidéo d’un sujet humain est réelle ou fausse. En effet, les manipulations deepfake haut de gamme sont presque toujours des transformations faciales.

Le les zones du visage auxquelles il faut accorder la plus grande attention sont les joues et le front. La peau paraît-elle trop lisse ou trop ridée ? L’âge de la peau est-il similaire à l’âge des cheveux et des yeux ? “Les DeepFakes sont souvent incongrus sur certaines dimensions”, disent les chercheurs. De même, les yeux et les sourcils peuvent également être des signes révélateurs pour les observateurs de deepfake expérimentés. C’est parce que, selon les chercheurs, les ombres dans les vidéos deepfake n’apparaissent pas toujours aux endroits auxquels vous vous attendez. “DeepFakes échoue souvent à représenter pleinement la physique naturelle d’une scène”ils disent.

Une autre caractéristique qui est un cadeau mort est la pilosité faciale. Les deepfakes peuvent ajouter ou supprimer la moustache, les favoris ou la barbe, mais ils échouent souvent à rendre les transformations des poils du visage totalement naturelles. Il en va de même pour les taupes faciales qui n’ont souvent pas l’air assez naturelles dans les deepfakes. La taille et la couleur des lèvres pourraient également donner un indice sur la validité d’une vidéo. Le taux et la vitesse de clignotement peuvent également en dire long sur le fait qu’une vidéo est réelle ou fausse. Un clignotement anormalement fréquent ou peu fréquent peut indiquer le deepfakeness d’une vidéo.

Selon les chercheurs du MIT, les deepfakes de haute qualité ne sont pas faciles à détecter, mais “Avec la pratique, les gens peuvent développer leur intuition pour identifier ce qui est faux et ce qui est réel”. Les chercheurs ont également créé une page Web à part entière où les gens peuvent télécharger des vidéos et essayer de deviner si elles sont réelles ou fausses. Vous pouvez tester vos compétences en matière de détection de deepfakes sur le site Web Detect Fakes du MIT.

Deepfakes : prévention et action législative

Divers pays du monde entier tentent déjà de faire face au danger clair et actuel posé par les deepfakes infusés par l’IA. Alors que la Chine a interdit les vidéos deepfake en 2019, l’État américain de Californie a également introduit une législation similaire plus tôt dans la même année pour rendre les deepfakes politiques illégaux, interdisant la création ou la distribution de vidéos, d’images ou d’audio trafiqués de politiciens dans les 60 jours suivant une élection. . Depuis lors, d’autres États américains, dont le Texas et la Virginie, ont également criminalisé le deepfake porn. En décembre 2019, le président Trump a signé la première loi fédérale du pays pour lutter contre les deepfakes dans le cadre de la National Defense Authorization Act, 2020.

Pendant ce temps, en Inde, il n’y a pas de lois spécifiques sur les médias deepfake. En fait, les lois relatives aux algorithmes d’intelligence artificielle sont au mieux sommaires. L’une des utilisations les plus remarquables des deepfakes dans le pays a été observée lors des élections de 2020 à Delhi, lorsque la cellule informatique du BJP a publié une vidéo de campagne officielle prétendant montrer leur candidat ministériel en chef, Manoj Tiwari, appelant les électeurs en hindi, en haryanvi et en anglais. . Le problème est que seule la vidéo en hindi était réelle, tandis que les deux autres étaient de faux clips fabriqués à l’aide de la vidéo originale pour atteindre un plus grand nombre d’électeurs.

Empêchez la propagation de la désinformation en repérant les vidéos Deepfake

Autrefois l’apanage des productions hollywoodiennes de plusieurs millions de dollars et des agences et organisations parrainées par l’État, les deepfakes se sont de plus en plus démocratisés ces derniers temps. Cela permet aux internautes réguliers de créer des deepfakes en utilisant des applications et des sites Web deepfake. Avec l’augmentation astronomique des deepfakes ces dernières années, être capable de les détecter est plus important que jamais.

Nous espérons que les informations ici vous ont aidé à vous donner une idée plus globale de la technologie, des menaces qu’elle représente et des signes à surveiller pour mieux détecter les vidéos deepfake à l’avenir. Avez-vous déjà été victime de deepfakes de groupes d’action politique peu recommandables ou de théoriciens du complot ? Faites-le nous savoir dans les commentaires ci-dessous.

Comments (0)

Leave a Reply

Your email address will not be published.