Souris, le petit oiseau (le vrai du faux) va sortir
Édito : Savez-vous ce
qu'est un deepfake ? C'est une technique de manipulation
d'image ou de vidéo qui utilise l'intelligence artificielle
pour créer des photos ou vidéos falsifiées dans lesquelles
le visage ou les actions d'une personne sont superposés sur
le corps d'une autre, souvent de manière très réaliste.
Vous pouvez venir sur notre groupe pour en débattre : entraide
informatique Sud-Gironde.
Comment fabrique-t-on un deepfake ? On commence par collecter
une grande quantité de données vidéo ou images de la personne à
imiter, ainsi que des données de la personne dont on veut
utiliser le corps. Vous comprenez déjà, pourquoi il est
important de faire attention de ce que l'on peut publier sur les
réseaux sociaux.
Ensuite, on utilise des algorithmes d'apprentissage automatique,
en résumé par une IA dédié à cela.
Notez, que les deepfakes sont souvent utilisés de manière
malveillante pour créer des images ou vidéos trompeuses,
diffamatoires ou pornographiques. C'est pourquoi il est
essentiel de sensibiliser
le public.
Le pape en doudoune blanche en 2023
Le premier deepfake viral de l'IA
L’usurpation d’image et de vidéo a une incidence directe sur la
cybersécurité. Depuis des années, les escrocs utilisent de
fausses images et vidéos pour inciter les victimes à leur donner
de l’argent. Ils peuvent vous envoyer une photo d’un chiot
triste qui aurait besoin d’aide, d’une célébrité ventant des
stratagèmes douteux, ou même d’une carte de crédit supposée
appartenir à l’un de vos proches. Les escrocs utilisent
également des images générées par l’IA pour créer de faux
profils sur les sites de rencontre et les réseaux sociaux.
Les escroqueries les plus sophistiquées utilisent des deepfakes
audio ou vidéo mettant en scène le patron ou un proche de la
victime pour l’amener à répondre aux demandes des escrocs.
Récemment encore, un employé d’une institution financière s’est
laissé convaincre de transférer 25 millions de dollars à
des cyberescrocs ! Ils avaient organisé un appel vidéo avec le
« directeur financier » et les « collègues »
de la victime, tous des deepfakes.
Alors, que faire pour lutter contre les deepfakes ou même les
simples détournements ? Comment les détecter ? Le
problème est extrêmement complexe, mais peut être atténué petit
à petit en retraçant la provenance de l’image.
Découvrir la provenance...
Nous utilisons 2 outils pour nous aider, nous allons vous les
donner.
Comme mentionné ci-dessus, il existe différents types de
« faux ». Parfois, l’image en elle-même n’est pas
truquée, mais elle est utilisée de manière trompeuse. Une vraie
photo de zone de guerre peut être présentée comme celle d’un
autre conflit, ou une scène de film comme un documentaire. Dans
ces cas, rechercher des anomalies sur l’image ne mènera à rien,
mais vous pouvez essayer de rechercher des copies de l’image en
ligne. Heureusement, des outils comme la recherche d’image inversée de Google
et TinEye
peuvent nous y aider. Ce dernier, nous le proposons pour savoir,
d'où vient une photo par exemple sur un site de rencontre, sur
un réseau social...
Si vous avez un doute, chargez simplement l’image dans l’un de
ces outils et examinez les résultats. Vous découvrirez peut-être
que la même photo d’une famille dont la maison a brûlé dans un
incendie, d’un groupe de chiens dans un refuge ou de victimes
d’une autre tragédie circule en ligne depuis des années.
D’ailleurs, en matière de fausse collecte de fonds, gardez l’œil
ouvert pour d’autres signes d’avertissement en plus des images
elles-mêmes.
Prenons l'exemple de cette photo, un post sur un réseau social,
nous dit qu'il faut sauver ce chien d'un laboratoire
pharmacetique. Non, la photo vient d'une banque de photos. Les
escrocs essayent de vous soutirer de l'argent avec un fake !
Les retouches photo
Cela existe depuis la sortie de Photoshop, CorelDraw...
Les retouches photo existent depuis un bon moment, et les
mathématiciens, ingénieurs et experts de l’image travaillent
depuis longtemps sur des moyens de détecter automatiquement les
images altérées. Certaines méthodes populaires incluent
l’analyse des métadonnées de l’image et l’analyse du niveau
d’erreur (ELA), qui recherche les artefacts de compression JPEG
pour identifier les zones modifiées d’une image. De nombreux
outils d’analyse d’images courants, comme Fake Image Detector, appliquent ces
techniques.
Avec l’émergence de l’IA générative, nous avons également vu de
nouvelles méthodes basées sur l’IA pour détecter le contenu
généré, mais aucune d’elles n’est parfaite. Voici quelques-uns
des développements importants : détection du morphing du
visage, détection d’images générées par l’IA et détermination du modèle d’IA utilisé pour les
générer, et développement d’un modèle d’IA ouvert aux
mêmes fins.
Le problème majeur de toutes ces approches est qu’aucune ne
peut entièrement garantir la provenance de l’image ou l’absence
de modifications, ni permettre de vérifier ces modifications.
Nous ne souhaitons pas, vous faire une formation sur ce sujet
là, car cela va devenir de plus en plus complexe. Nous espérons
vous avoir ouvert les yeux sur les deepfakes et que vous
comprenez maintenant que ce que l'on peut vous montrer dans des
vidéos de propagande et de guerres peuvent être des deepfakes.
Et de l'importance de faire attention à vos publications sur les
réseaux sociaux et de vos adolescents ou enfants !