UN@ est une plateforme d'édition de livres numériques pour les presses universitaires de Nouvelle-Aquitaine

Deep fake

Deep fake

par

Le deepfake est une technique de manipulation audiovisuelle qui repose sur l’intelligence artificielle et qui permet d’incruster des visages, d’émuler des voix et des discours ou des gestes dans des vidéos déjà existantes. Souvent utilisé dans les pratiques de cyberharcèlement pour produire des vidéos à caractère pornographique, ce trucage numérique consiste à nuire en détournant l’image d’une personne afin de lui prêter des comportements ou des propos qu’elle n’a pas tenus ou qu’elle ne partage pas.

Le deepfake repose sur une technique de Machine Learning qui, à partir d’images déjà fournies
 consiste à mettre en compétition deux algorithmes d’apprentissage (Generative Adversarial Network – GAN – soit un réseau antagoniste génératif). Le premier algorithme identifié comme « générateur » va chercher à créer des contrefaçons les plus crédibles possibles. Le second dit « discriminateur » s’applique à détecter les données générées artificiellement le plus efficacement possible.

Au fil du temps, les deux algorithmes se perfectionnent dans leur relation d’amélioration continue pour optimiser le niveau de réalisme des images. À un moment donné, le premier algorithme arrive à produire de fausses images sans que le second ne puisse détecter la supercherie. Peuvent se distinguer aujourd’hui plusieurs techniques de synthèse et de montage pour créer un deepfake : le faceswap (échange de visage), le lipsync (synchronisation des lèvres), le puppeteering (expressions faciales et corporelles), etc.

nuage de mots-clés autour de la thématique "idéologie"
  • Trucage numérique
  • Hypertrucage
  • Permutation intelligente de visages et du son
  • Infox vidéo
  • Vidéotox
  • Photoshopping

Vous vous retrouvez, malgré vous, au cœur d’un film pornographique. On sait que ce n’est pas son corps, mais au bout de 30 à 40 secondes, on en a pourtant l’impression !
– une victime

En nous intéressant aux facteurs qui contribuent à la propagation des deepfakes, Trois composantes typiques peuvent être identifiées :

  • l’hypervisibilité : si les logiciels de trucage numérique sont aujourd’hui faciles d’utilisation, la réalisation d’une vidéotox doit cependant pouvoir s’appuyer sur un nombre important d’images et de vidéos en ligne pour se rapprocher le plus possible d’un certain réalisme. Cette injonction de visibilité ne peut se dissocier de celle de modernité (le fait d’être en phase avec l’actualité, d’être à la mode, de correspondre à une tendance récente), et contribue considérablement à sa propagation sur la toile. Ainsi, plus la personne est populaire et référencée sur Internet, plus elle est susceptible de faire l’objet d’un deepfake ;
  • l’exclusivité : plusieurs études et rapports (Institut Reuters, European Journalism Observatory) montrent que les sources officielles suscitent aujourd’hui une certaine défiance de la part du grand public (crédibilité des journalistes remise en question, moyens d’information traditionnels boudés par les jeunes générations, etc.). Sont au contraire privilégiées sur Internet des sources alternatives qui se focalisent sur la révélation, l’exclusivité, le scoop (comme la source d’un témoin de l’affaire, un proche du dossier, etc.) ;
  • l’émotion : un lien fondamental est établi entre l’émotion mémorisable et le pouvoir de l’image. Ainsi une vidéo à caractère sexuel, perçue dans sa dimension transgressive du tabou, est un élément porteur de sensations pour le spectateur. L’évocation de l’interdit procure des émotions contradictoires pour celui qui regarde, entre l’offense faite à son système de valeurs et la réjouissance par procuration à franchir les limites de cet intime. « L’information ne cherche pas ici un savoir ni même un voir, mais un faire-voir susceptible de produire directement un croire, indispensable à l’émotion ».

Une première interprétation du mot deepfake peut être proposée dans la contraction de l’anglais « deep learning », le système d’apprentissage qui utilise l’intelligence artificielle, et de « fake » qui signifie contrefait. Ainsi pourrions-nous traduire ce terme par des contenus trompeurs et spécieux, rendus profondément crédibles grâce à l’intelligence artificielle.

Mais ce terme peut également être directement inspiré du pseudonyme d’un utilisateur du site communautaire et social Reddit « u/deepfake » qui fut le premier à publier en novembre 2017 des vidéos pornographiques dans lesquelles il réussit à remplacer le visage des actrices X par celui de célébrités américaines.

Comme il est nécessaire de disposer d’une assez grande quantité d’images, au départ, pour que l’apprentissage soit vraiment performant, la médiatisation de certaines personnalités hollywoodiennes a malheureusement constitué une base de données privilégiée pour ce faussaire. Ainsi, si la jeune actrice Daisy Ridley fut la première victime de ses hypertrucages, le phénomène prit une réelle ampleur peu de temps après avec la fausse sextape mettant en scène Gal Gadot (connue pour son interprétation de Wonder Woman).

La presse américaine (The New York Times, The Washington Post, The Guardian, etc.) s’est rapidement inquiétée de la popularité massive de ces courtes séquences pornographiques, qui ne se cantonnent plus aujourd’hui à la fabrication de contenus obscènes, mais deviennent au contraire de véritables armes de communication politique.

Montage photo pour illustrer un deep fake.
Montage d’une pratique de deepfake en cours.

Ces trucages numériques étant considérés comme des « infox » peuvent relever de la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information, qui encadre la production et la diffusion de fausses informations.

Cependant, essentiellement destinée à réguler les campagnes électorales, elle s’applique difficilement à la quasi-totalité des deepfakes qui sont de nature sexuelle ou pornographique.

Aussi pour cette catégorie d’hypertrucages peuvent être mobilisés :

  • l’article 226-8 du Code pénal qui prévoit un an d’emprisonnement et 15 000 euros d’amende « le fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention » ;
  • l’article 226-4-1 du Code pénal qui prévoit que « le fait d’usurper l’identité d’un tiers ou de faire usage d’une ou plusieurs données de toute nature permettant de l’identifier en vue de troubler sa tranquillité ou celle d’autrui, ou de porter atteinte à son honneur ou à sa considération est puni d’un an d’emprisonnement et de 15 000 euros d’amende ».

Quelques références scientifiques :

  • Barre Aurélie, La force intime des images (Tristan, Lancelot et Perceval devant l’image), Littérature, vol. 199, n° 3, 2020, p. 86‑100, [https://doi.org/10.3917/litt.199.0086].
  • Bronner Gérald, La démocratie des crédules, Paris, Presses Universitaires de France, coll. « Hors collection », 2013, 360 pages.
  • Cazals François, Cazals Chantal, Intelligence artificielle. L’intelligence amplifiée par la technologie, Louvain-la-Neuve, De Boeck Supérieur, coll. « Hors collection Économie/Gestion », 2020, 320 pages.
  • Delfino Rebecca A., Pornographic Deepfakes: The Case for Federal Criminalization of Revenge Porn’s Next Tragic Act, Fordham Law Review, vol. 88,  n° 3, 2019, p. 887‑938, [https://doi.org/10.3390/jimaging7070108].
  • Ducol Claudine, Le scoop : entre le savoir et l’opinion, Communication & langages, n° 111, 1997. p. 4-18.
  • Guarnera Luca, Giudice Oliver, Battiato Sebastiano, Fighting Deepfake by Exposing the Convolutional Traces on Images, IEEE Access, vol. 8, n° 20, 2020, p. 165085‑165098, [https://doi.org/10.1109/ACCESS.2020.3023037].
  • Langa Jack, DEEPFAKES, REAL CONSEQUENCES: CRAFTING LEGISLATION TO COMBAT THREATS POSED BY DEEPFAKES, Boston University Law Review, vol. 101, n° 2, 2021, p. 761‐801.
  • Schick Nina, Deepfakes, The coming Infocalypse, New York, Twelve, 2020, 224 pages.
  • Siegel Dennis, Kraetzer Christian, Seidlitz Stefan, Dittmann Jana, Media Forensics Considerations on DeepFake Detection with Hand-Crafted Features, Journal of Imaging, vol. 7, n° 108, 2021, p. 1-29, [https://doi.org/10.3390/jimaging7070108].
  • Tétu Jean-François, L’émotion dans les médias : dispositifs, formes et figures, Mots. Les langages du politique, vol. 75, n° 3, 2004, p. 9‑20, [https://doi.org/10.4000/mots.2843].
  • Westerlund Mika, The Emergence of Deepfake Technology: A Review, Technology Innovation Management Review, vol. 9, n° 11, 2019, p. 39‑52, [https://doi.org/10.22215/timreview/1282].
Rechercher
Rechercher
Chapitre de livre
Pessac
EAN html : 9791030008425
ISBN html : 979-10-300-0842-5
ISBN pdf : 979-10-300-0843-2
Volume : 1
ISSN : en cours
6 p.
licence CC by SA

Comment citer

Dulaurans, Marlène, « Deep fake », in : Dulaurans, Marlène, Violences en ligne : décrypter les mécanismes du cyberharcèlement, Pessac, Presses universitaires de Bordeaux, collection V@demecum 1, 2024, 87-92 [en ligne] https://una-editions.fr/deepfake/ [consulté le 15/07/2024].
10.46608/vademecum1.9791030008425.17
couverture de l'ouvrage Violences en ligne de la collection V@demecum
Illustration de couverture • Design Roman Vinçon et Nicolas Ruault
Retour en haut
Aller au contenu principal