Le phénomène de l’arnaque au clonage #deepfake est un cas d’école intéressant et inquiétant à la fois, et amène plusieurs constats.
Retour sur une situation concrète, évoquée dans ce post linkedin de Damien Douani : publiée le 13 avril 2024, une vidéo de l’influenceur Cyprien (14.5 millions d’abonnés Youtube !) explique comment son visage a été exploité dans une publicité trompeuse.
En résumé : un montage bidon de journal télévisé de TF1, voix de présentatrice à l’appui, le montre pour encourager des gamins à télécharger une appli censée faire gagner de l’argent sans rien foutre (une promesse bidon qui sonne manifestement bien aux oreilles de millions de personnes dans le monde).
Voici la vidéo, suivie d’une fiction autour de l’usage de l’IA, et je vous partage mon avis ensuite.
Le témoignage de Cyprien et la vidéo en forme de mise en abîme, qui montre un « créateur de contenu victime d’un #deepfake » nous donne des éléments de réflexion sur l’usage de l’IA, notre façon de l’accueillir. Même si ça ne permet pas de trancher sur ce à quoi ressemblera le futur proche, ça donne une idée de ce à quoi il ressemblera quand l’IA pourra générer des contenus affriolants, en exploitant ce qui marche et séduit grâce à l’analyse de milliards de paramètres. Mon sentiment est que le véritable gros problème arrivera lorsque ces contenus seront personnalisés à la volée pour chaque personne, puisque cela effritera l’appartenance à une culture partagée et une société commune, mais passons.
Apprenez à déjouer les arnaques
D’abord, voyons l’arnaque à l’appli. J’avais vu le #deepfake en question il y a plusieurs mois, avec maitre Gims je crois. Il en existe des variantes avec d’autres personnalités françaises. Un oeil averti détectait facilement l’aspect fake de cette publicité avec un lipsync médiocre et une voix au clonage imparfait. La vidéo de Cyprien ne fait pas exception : c’est grossier. Du travail fait à la serpe quand on pense aux progrès récents des outils en vogue. MS Custom Neural Voice, Eleven Labs, Resemble.ai deviennent spectaculaires, et j’ai une pensée pour l’appli Heygen évidemment, assez incroyable. Bref, en avril 2024, on peut faire mieux côté lipsync.
➡️Comment faire pour que ces arnaques fonctionnent moins, et ne pas « tomber dans le panneau » ?
S’éduquer d’abord, s’exercer au sens critique et encourager les autres à le faire.
Aiguiser son sens critique
Quand on regarde la vidéo d’un faux reportage de journal télévisé qui vante une appli promettant un smic offert à n’importe qui sans rien faire, quoi penser ? Quelle crédibilité accorder à un tel message sur le fond et la forme ? Et dans l’intérêt de qui ? « Cui bono », à qui profite le crime ?
Se poser ces questions doit devenir un réflexe quand on cherche à s’informer, quel que soit le sujet. Il faut garder ce réflexe même auprès de sources autrefois réputées comme les grands médias. C’est un ancien journaliste qui vous le dit.
Apprendre à vérifier une info
Pratiquer la vérification d’une info sur internet doit être un second réflexe quand on apprend quelque chose qui peut avoir un impact dans ses décisions ou sa vie.
Cela prend plein de formes, de manière générale :
- vérifier la date, la concordance avec un lieu, un événement, etc.
- vérifier si telle personne a bien dit cela,
- vérifier si la source existe ou est crédible,
- vérifier si des personnes témoignent / attestent de la situation ou expliquent le contraire, etc.
Je pourrais écrire un livre entier sur le sujet. Je note ça en 10587ème tâche possible, pour un jour si j’ai le temps.
Apprendre à détecter les artefacts de l’IA
Chacun doit s’éveiller, se sensibiliser aux possibilités créatives de l’IA. Cela permet souvent d’en voir les faiblesses, et donc de découvrir en parallèle des techniques / astuces / points de détection d’une IA. Un jour, ça vous servira pour sentir l’odeur de la fraude ou de la déformation du réel.
Si vous humez légèrement le parfum du trucage, avec un « je ne sais quoi » qui vous met en alerte, vous êtes sur le bon chemin pour douter raisonnablement et vous poser des questions saines.
Plusieurs choses peuvent éveiller la suspicion :
- élément bizarre ou incohérent dans l’image (objet déformé ou qui disparait, main à cinq doigts, ombre incohérente, etc.)
- problème de synchronisation entre le son et l’image, entre des lèvres et la voix,
- manque de variation dans les angles, le mouvement, etc.
Pour illustrer ce principe avec des exemples, je pense à une vidéo de la technologie OpenAI Sora qui montrait des personnes avec un tronc et des jambes mal alignés en arrière-plan, des déplacements peu naturels, etc.
Dans cette vidéo « Ruée vers l’or » créée par l’IA avec Sora, un personnage disparait comme si c’était un fantôme. Vous l’avez vu ?
Spoiler alert : c’est à la huitième seconde, dans le quart inférieur gauche de l’image.
Autre idée pour réfléchir aux possibilités de détection d’un filtre, d’un algorithme : avec Instagram, les filtres des influenceuses beauté embellissent les visages, adoucissent les traits ou superposent du maquillage virtuel (faux-cils, blush, etc.). Quand le visage se tourne légèrement, on voit parfois les faux-cils en surimpression sur les cheveux. On comprend alors immédiatement qu’il y a un trucage.
Bref, en ce qui concerne la vidéo de Cyprien, la mauvaise synchronisation lèvres / voix à 0:22, et le ton bizarre, sans parler du côté « marketing bourrin » permettent immédiatement de soupçonner du fake.

Les images et vidéos parfaites, on n’y est pas (tout à fait) encore
La fiction de Cyprien laisse entendre qu’on pourra automatiser complètement la production de contenus vidéo. Nous sommes bientôt à mi-2024, et l’IA générative disponible auprès du grand public n’est pas encore capable de proposer le mix parfait entre du clonage vidéo avec un personnage récurrent, de la création au storytelling impeccable et du mouvement dans une scène extérieure par exemple.
C’est temporaire, je sais. À force d’amélioration, les prompts et les modèles nous mèneront à des vidéos IA parfaites. OpenAI, avec la sortie de ChatGPT puis de Sora, a prouvé que des sauts qualitatifs sont possibles mais la part de créativité / finalisation d’une intelligence organique (😄) a encore de l’avenir.
À défaut d’être indispensable, l’humain reste utile, ne serait-ce que pour arbitrer entre les différentes propositions de l’IA pour les mixer et en éliminer certaines. Vous me direz : et si on met un agent capable de contrôler la qualité et vérifier si on rit en regardant le contenu ?
Possible que ça arrive avec un calculateur du PR (« potentiel de risibilité, noté de 0 à 100 ») d’une blague ou d’une scène. L’analyse des émotions dans un texte ou le visage d’un spectateur est déjà spectaculaire avec une startup telle que hume.ai. On pourrait s’en servir pour automatiser un contrôle qualité et sélectionner la création IA qui cartonnera le mieux. L’IA pour vérifier le travail de l’IA, et la boucle est bouclée.
Quand le « deepfake » d’un visage à la télévision sauve des vies
Allez hop, apportons un autre éclairage sur le même sujet.
Et si truquer un visage en vidéo devenait quelque chose de positif, un accessoire du mensonge mis au service d’un message de vérité ? Pour son documentaire « Nous, jeunesse(s) d’Iran« , la journaliste-reporter Solène Chalvon-Fioriti a utilisé des deepfakes pour masquer les visages de six jeunes hommes et femmes qui témoignaient.
Au lieu d’utiliser du flou, son reportage greffe virtuellement d’autres visages sur les têtes des personnes qui ont pris la parole. Ainsi, la police iranienne ne pourra pas les retrouver pour les jeter en prison.
La journaliste détaille son recours au deepfake :
Ici, l’IA ne sert pas à tromper (enfin un peu quand même) : le spectateur est prévenu dès le départ que les visages ont été changés. Pour de beaux visages (notez ce détail pour la suite).
Ça fait un peu peur, quand même, non ?
L’IA est à la fois fascinante et effrayante selon l’angle où on l’observe. Voici quelques solutions pour garder le moral quand on pense aux implications vertigineuses de ces progrès techniques :
L’IA générative apporte beaucoup de positif
Beaucoup d’activités, de tâches du quotidien peuvent tout à fait gagner à être augmentées ou « virtualisées », en tout cas boostées à l’IA pour gagner en productivité et en qualité, pour :
- analyser une situation
- rédiger une synthèse,
- cheminer dans une réflexion
- préparer la création d’un visuel, d’un scénario
- bref, accélérer son travail ou combler un manque de compétence.
C’est le côté « pile » de la pièce de monnaie, la partie agréable et positive du progrès.
Le problème, c’est l’ambivalence. Il y a un côté « face » vertigineux avec l’IA, avec un risque évident (éclatement de la société avec une multiplication de l’effet Bubble Filter qui amène à s’intéresser et ne voir que ce qui est déjà acquis, perte des repères et de la confiance en l’autre puisque tout peut être faux, perte d’autonomie dans vos décisions et la conduite de votre vie pour les situations où l’IA décide mieux et plus vite en réfléchissant à votre place).
La domestication du feu ou l’arrivée du moteur à explosion dans les transports sont eux-aussi des progrès sous le signe de l’ambivalence. Chaque avancée apporte un risque à court ou long terme. Le feu, ça chauffe et ça cuit, mais on peut aussi brûler, on peut perdre sa maison dans un incendie de cheminée, se servir d’un tison pour blesser (heureusement que le lance-flammes a été interdit !)… La voiture, c’est super pour se transporter mais on a vite découvert qu’on peut aussi se tuer en allant embrasser un platane, qu’un véhicule à moteur blindé sur un champ de bataille pouvait représenter une arme décisive, etc.
L’IA ne remplacera pas tout
La fiction de Cyprien peut laisser craindre que du contenu IA viendra totalement balayer celui d’inspiration purement humaine. Pour peu qu’on ait un casque de réalité virtuelle ou une interface tactile, on en viendrait vite à pouvoir / vouloir se passer du monde organique.
J’ai deux objections à ça. D’une part, un arbitrage humain reste souvent utile ou nécessaire si on veut un résultat IA de qualité.
Et puis tout n’est pas exactement reproductible, avant longtemps. On aura toujours besoin de partager du tactile, du visuel, de l’émotion avec un autre humain. Croire que le doute, l’originalité, la connexion à l’autre ou la dimension artistique d’une création sont déjà mis en équation, c’est se fourier le doigt dans l’oeil.
Autre point, la pratique du monde réel apporte une dimension supplémentaire, qui touche à l’idée d’expérience spirituelle, de ressenti plus « riche ». Et l’IA derrière un écran a ses limites. Même si un beau coucher de soleil en 4K sur grand écran peut être magnifique, le voir en vrai restera toujours plus stimulant. Les deux expériences ne s’annihilent pas mutuellement, elles se complètent avec deux facettes différentes.
La diète volontaire d’IA et de numérique, pour s’exposer moins ?
L’IA générative va continuer d’entrer dans la sphère professionnelle et personnelle non pas en appuyant sur la sonnette mais en défonçant la porte. Le succès relatif sur Instagram d’influenceuses beauté fake, de profils de faux-vrais mannequins virtuels montre que le virtuel a un pouvoir séducteur colossal.
L’appétit humain pour le beau et le spectaculaire, qui a servi de moteur à la multiplication des technologies de trucage numérique (effets spéciaux du cinéma, retouche photo dans la mode, etc.) va encourager à esthétiser et truquer toujours plus le réel.
Pour boucler sur le sujet de l’arnaque publicitaire à l’IA, si on veut éviter de souffrir des travers de l’IA, il faudra donc, dans une certaine mesure, apprendre à se prémunir, renoncer, à rester sobre et s’écarter du banquet numérique youtubesque par exemple, qui est devenu dans sa version la plus populaire l’équivalent d’une grande bouffe mondiale exubérante. En étant radical, je dirais que côté influenceur, le problème ne se serait pas posé pour Cyprien… si aucune vidéo de lui n’existait sur internet. Situation impossible pour quelqu’un de connu, mais l’invisibilité comme moyen de prévention face à l’IA reste un argument pour les autres personnes qui hésitent encore aujourd’hui à montrer leur trombine.
Côté spectateur, la pub concerné n’aurait aucun impact, ne ferait aucune « victime » s’il n’y avait personne pour cliquer ou tomber dans le panneau. On en revient à deux pistes de réflexion pour sauver sa peau, deux leçons de survie de ju-jistu intellectuel : dompter notre appétit biologique pour le spectaculaire et raisonner notre mental disposé à l’effort minimal.

