Quand les images créent une fausse réalité
Les fausses informations ne se limitent pas aux textes. Il existe aussi différentes manières de manipuler visuellement ce que l’on voit.
L’un des moyens les plus répandus est l’utilisation de logiciels de retouche photo. Tu connais sûrement déjà une forme très fréquente : le fait d’effacer des rides, des cernes, des bourrelets ou d’autres détails jugés “inesthétiques”. Mais on peut aussi ajouter des choses : des abdos, des jambes plus longues, plus de cheveux… Parfois, on fait même disparaître des personnes entières.


Source : Reuters / Hannah Mckay
Et puis, tout dépend aussi de l’angle de vue choisi pour raconter une histoire.
Est-ce que le prince William a vraiment l’air si insolent ? Pas vraiment, comme tu peux le découvrir ici.
Mais il n’y a pas toujours besoin de logiciel pour créer une fausse impression.
Tu as déjà remarqué qu’un burger n’a jamais la même tête en vrai que sur les affiches publicitaires ? C’est parce que les aliments sont spécialement préparés pour les photos. D’ailleurs, le burger sur la gauche ne devrait surtout pas être mangé : il contient des objets cachés comme des cure-dents, pour ne pas s’écraser pendant la prise de vue.
On peut aussi manipuler avec la distance ou l’objectif photo. Regarde les deux images ci-dessous. Dans quel hôtel préférerais-tu passer la nuit ?
Bien sûr, tu l’as deviné : les deux photos montrent exactement le même hôtel. Mais pour celle de droite, l’appareil photo a été placé environ 15 mètres devant l’entrée, avec un objectif grand angle. Ce simple réglage donne l’impression que l’entrée est entourée d’un joli parc.
Et qu’en est-il des vidéos ?
Dans cette publication sur X (anciennement Twitter), une utilisatrice affirme qu’une vidéo montre une destruction en plein vol d’hélicoptères de combat israéliens.

Time's up
Tu trouveras la vérification des faits ici. Ne la consulte qu’après avoir donné ton avis. Dans la prochaine partie, les manipulations deviennent encore plus subtiles…
Source officielle : Correctiv.org
Palestinian freedom fighters shot down 4 Israeli war helicopters in Gaza.
— Jannat amin khan🇵🇸 (@jannataminkhan) October 7, 2023
Long Live Palestine pic.twitter.com/hwXh6GJN5O
Les deepfakes
SASSY JUSTICE
Official White House Address | Deep Fake and Deep Fake: The Movie
Les deepfakes sont des contenus visuels ou sonores manipulés grâce à l’intelligence artificielle. Le mot est formé à partir de deep learning (apprentissage profond, une méthode de machine learning) et de fake (faux, falsifié).
Les deepfakes peuvent concerner des photos, des enregistrements audio ou des vidéos. Mais ce sont surtout les vidéos truquées qui marquent le plus les esprits : grâce à des logiciels spécialisés, on peut capturer le visage d’une personne célèbre, reproduire ses mouvements faciaux, et lui faire dire des choses qu’elle n’a jamais dites. On peut même remplacer un visage par un autre dans une vidéo.
Aujourd’hui, de nombreux deepfakes circulent, dans lesquels des personnalités connues semblent raconter les choses les plus incroyables. Par exemple : l’ancien président américain Donald Trump qui raconte sa défaite à l’élection de 2020… sous la forme d’un conte de Noël. (Pas besoin d’écouter jusqu’au bout !)
Il existe des deepfakes politiques, mais aussi humoristiques ou satiriques. Certains font réfléchir, d’autres font rire.
Mais imagine maintenant qu’une personne influente prononce dans un deepfake une déclaration grave – quelque chose qui pourrait, par exemple, déclencher une guerre ou influencer un conflit en cours. Que se passe-t-il si cette vidéo n’est pas rapidement reconnue comme fausse et qu’elle se propage massivement ?
Dans la vidéo, on voit – en apparence – le président ukrainien Volodymyr Zelensky s’adresser à son peuple. Il les appelle à déposer les armes face aux soldats russes et à se rendre.
Des experts ont rapidement démasqué ce deepfake : les épaules et la zone du cou ne correspondaient pas à celles du véritable Zelensky, et la voix sonnait différemment. Le président lui-même a réagi sans tarder et a affirmé clairement que l’Ukraine ne se rendrait pas.
L’intelligence artificielle appliquée aux images et aux vidéos progresse actuellement à grands pas. Créer des deepfakes devient de plus en plus simple.
Découvrez un article qui explore le potentiel de nuisance des vidéos truquées générées par intelligence artificielle, connues sous le nom de deepfakes, et discute des implications éthiques et sociales de cette technologie émergente.
RTS
Les "deep fakes", des vidéos truquées au fort potentiel de nuisance
Aujourd’hui, Tom Cruise n’a plus l’air aussi jeune que dans ce deepfake : il a désormais plus de 60 ans. Ce faux est donc facilement reconnaissable.
Mais il existe des cas beaucoup moins drôles. Un Canadien a utilisé un logiciel d’intelligence artificielle pour créer des images pornographiques de la chanteuse Taylor Swift, puis les a diffusées sur X (anciennement Twitter). Ces images ont ensuite été rapidement partagées sur d’autres réseaux sociaux. Taylor Swift n’est pas restée silencieuse face à ce scandale. Tu peux écouter sur ce podcast RTS quelles conséquences cela a eues.
Questions clés sur les deepfakes et les images générées par IA
- L’IA est de plus en plus utilisée pour créer des deepfakes non éthiques (images, vidéos, voix).
- Ces contenus peuvent se propager rapidement sur le web.
- Les outils de détection et les moyens juridiques évoluent plus lentement que la technologie.
- Les plateformes sociales en font encore trop peu pour freiner la diffusion de ces contenus.
- Il est essentiel d’informer le public sur ces risques, pour qu’il réfléchisse à ce qu’il publie en ligne.
- Tu devrais avoir un regard critique face à ces contenus et les signaler plutôt que de les partager.
Pour aller plus loin...
Il existe des plateformes qui expliquent très bien comment repérer les images et vidéos créées par intelligence artificielle. Ces contenus peuvent avoir l’air réels, mais ils sont souvent entièrement fabriqués et peuvent tromper beaucoup de monde.
Par exemple, la Mozilla Foundation conseille de toujours se poser des questions : est-ce que l’image semble réaliste ? Est-ce qu’on connaît la source ? La Wild Code School propose aussi des outils simples pour détecter les images générées par IA. Et dans une vidéo de TF1 Info, on apprend 5 astuces pour reconnaître les vidéos truquées : comme repérer des fonds bizarres, des mains mal faites ou des textes flous.
Certains profitent même d’événements réels pour créer de fausses vidéos avec l’IA et attirer l’attention ou gagner de l’argent, sans dire que c’est faux.
Tu as peut-être entendu parler des incendies autour de Los Angeles en janvier 2025. On a vu passer des vidéos montrant des pompiers sauver des animaux, sauf que certaines étaient fausses et créées par IA, juste pour faire le buzz. Pourtant, ce genre d’image touche beaucoup les gens, surtout quand on parle d’animaux ou de héros du quotidien.
C’est pourquoi il est important de garder un esprit critique, même quand une vidéo paraît émouvante ou impressionnante.
Quiz · Les pompiers de Los Angeles
Quiz
Les pompiers de los angeles
Certaines vidéos, émouvantes et spectaculaires, sont en réalité créées par intelligence artificielle… et pourtant, beaucoup les croient vraies.
Ce quiz te met au défi de repérer leurs indices trompeurs, de comprendre pourquoi elles nous touchent autant et de découvrir comment leurs créateurs en profitent.

Time's up
Activités et exercices
Les deepfakes à la Maison-Blanche
Dans cette activité, vous allez explorer un danger lié aux deepfakes et réfléchir à la question suivante : Les gouvernements peuvent-ils nous protéger contre ce type de manipulation?
Pour cela, vous allez regarder une vidéo qui soulève plusieurs questions importantes.

8 à 14 ans
Niveau scolaire – P5 à P8 + Secondaire I
Consignes pour l’enseignant·e
Découvrez comment guider vos élèves dans cet exercice : objectifs, déroulement et conseils pratiques dans le PDF ci-dessous.

8 à 14 ans
Niveau scolaire – P5 à P8 + Secondaire I
Consignes pour l’enseignant·e
Découvrez comment guider vos élèves dans cet exercice : objectifs, déroulement et conseils pratiques dans le PDF ci-dessous.
Dans cette activité, tu vas devenir détective d’images et réaliser ce qu’on appelle une recherche inversée d’image.
Les personnes qui diffusent de la désinformation utilisent souvent des images pour illustrer leurs propos. Cela donne aux fausses informations un aspect crédible, comme s’il s’agissait de faits avérés.
Très souvent, ces images proviennent d’un autre contexte et n’ont rien à voir avec ce qui est affirmé, ou bien sont truquées ou modifiées après coup. Mais bonne nouvelle : tu peux apprendre à repérer ces manipulations.
L’image est-elle authentique ?
L’image montrant un requin nageant sur une autoroute inondée à Houston pendant l’ouragan Harvey est-elle authentique ? Retrouve son origine grâce à une recherche d’image inversée.
- Cette photo a-t-elle déjà été utilisée dans d’autres contextes ?
- A-t-elle été modifiée ou sortie de son contexte ?
- Est-elle liée de manière crédible à l’ouragan Harvey ?
💡 Appuie ta réponse sur les résultats de ta recherche et cite les indices qui t’ont aidé à vérifier l’information.
Vérifier une information
Tu disposes maintenant des bons outils pour ne pas te laisser piéger par les fake news.
Cette activité se compose de deux parties. Commencez par la partie 1 de la fiche de travail. À vous de décider ensuite si vous voulez aussi faire la partie 2, qui est un peu plus difficile.
Notez toutes vos observations dans le formulaire de réponse. À la fin, vous pourrez comparer vos réponses avec la solution-type.
Partie 1
En binôme, vous analysez un article ou une publication. Utilisez la checklist et notez tous les indices que vous repérez dans le contenu.
Partie 2
Vous menez une recherche approfondie (fact-checking) sur un détail du document vu dans la partie 1.

8 à 14 ans
Niveau scolaire – P5 à P8 + Secondaire I
Consignes pour l’enseignant·e
Découvrez comment guider vos élèves dans cet exercice : objectifs, déroulement et conseils pratiques dans le PDF ci-dessous.




