top of page
Photo du rédacteurloeildassasparis2

Deepfakes : Ne vous faites plus avoir !


La technique des deepfakes connue avec la manipulation de l’image de Barack Obama - L’usine nouvelle, août 2019



Depuis 2017, cette nouvelle technique relevant de l’intelligence artificielle n’a cessé de tromper des millions de personnes. Désinformation, harcèlement, elle n’est pas sans conséquences et menace aujourd’hui les droits de l’humain.


Avez-vous vu la vidéo de Barack Obama insultant Donal Trump de crétin ? Ou bien celle de ce dernier annonçant avoir éradiqué le SIDA ?

Ces vidéos ont trompé des millions de personnes alors même qu’aucun des deux présidents n’avaient énoncé de telles informations.


Ces trucages sont le fruit de nouvelles méthodes de l’intelligence artificielle, qui prennent de plus en plus d’ampleur.


Faites revivre vos défunts !


Des chercheurs de l’université de Washington ont créé un Barack Obama « synthétique » pour illustrer les dangers de ce que l’on appelle les deepfakes. L’anglicisme combine « l’apprentissage profond » (deeplearning) et le « faux » (fake ).

La technique consiste en la superposition de fichiers audio ou vidéos sur d’autres. Se basant sur des vidéos existantes, les truqueurs n’ont qu’à contourner les lèvres de la personne, pour les faire s’intégrer sur celles de la personne synthétique.


La distinction entre une vraie et une fausse vidéo est presque impossible, les expressions faciales étant elles-mêmes reprises.


Apparue pour la première fois en 2014, la technique de trucage a été inventée par un chercheur américain. Elle a été connue du grand public trois ans plus tard, sur le site web Reddit. La création des deepfakes a rapidement été accessible pour tous, avec l’application FakeApp.


Ces techniques de trucages sont d’abord apparues dans le monde pornographique, mais la pornographie hypertruquée a rapidement été interdite par une majorité des sites (Pornhub, Reddit, Twitter…).


Le phénonème s’est donc déporté dans d’autres domaines, comme celui de la politique, utilisé alors comme satire des représentants politiques.


Aussi, les deepfakes se sont emparées du domaine privé. France Culture diffusait le 9 novembre dernier un épisode des Pieds sur Terre sur les mirages amoureux. Yzabel, la narratrice, rencontre un homme sur un site de rencontre, avec qui elle discute en FaceTime. Tout semble coller entre eux, sauf que le neurochirurgien qu’elle pensait rencontrer était en fait plusieurs hackers nigérians. Ils ont utilisé les images trouvées sur internet du neurochirurgien pour le faire parler à Yzabel en vidéo…


Aujourd’hui, de nombreux sites utilisent cette technologie comme MyHeritage, qui anime le visage de vos défunts. Bizarre, vous avez dit bizarre ?


Le cas d’Yzabel n’est pas isolé. Même si les conséquences n’étaient pas dramatiques dans son cas, des personnes continuent de se faire avoir quotidiennement, faute d’informations.


Un piège éducatif


La flambée des vidéos truquées inquiète. La BBC a créé la vidéo de Barrack Obama à but préventif, pour informer des risques de l’intelligence artificielle.

Celle-ci cause de nombreux problèmes sur les réseaux sociaux : la désinformation certes, mais aussi la diffamation et l’humiliation des personnes trouvant leurs images détournées.


Le monde en alerte


Au début de cette année, Michelle Bachelet, la Haute-commissaire des droits de l'homme de l’Organisation des Nations Unies (ONU) a appelé à la vigilance concernant les risques de l’intelligence artificielle, notamment sur l’atteinte à la vie privée ou à la liberté d’expression. Les États doivent constituer des moratoires sur « les technologies qui présentent potentiellement un grand risque ».


En 2019, la Chine a voté une loi pour que la publication de contenus relevant des deepfakes, n’étant pas présentés comme tels, soit reconnue comme un crime.


Quelques mois après, une base de données de plus de 3000 vidéos truquées a été publiée par Google pour que les ingénieurs puissent créer des outils permettant de reconnaitre les fausses vidéos. Facebook travaille actuellement sur le même genre de technologie de « désidentification ».


Interdiction ou prévention ?


Le détournement d’image ne date pas d’hier. L’angle d’une photo ou un montage vidéo peut faire dire tout le contraire d’une intention. Seulement aujourd’hui, elle est servie par l’intelligence artificielle, ce qui rend le discernement beaucoup plus compliqué.

Les nouvelles technologies ne sont pas négatives en soi, si elles sont utilisées correctement, et dans un intérêt commun. Elles peuvent permettre une plus forte rentabilité ou une moindre pénibilité. Mais elles doivent être égales pour tous : les évolutions doivent profiter à tout le monde, dans le respect de la liberté et des droits.


Il ne suffit pas d’interdire de telles technologies pour que les deepfakes disparaissent. Le travail doit porter d’autant plus sur l’identification des fausses vidéos, mais aussi sur l’aspect préventif, pour expliquer aux utilisateurs les risques de désinformation.

Un contrôle pourrait être mis en place par les plateformes, comme cela a été esquissé, pour que l’utilisateur comprenne ce à quoi il est confronté.


En attendant, c’est à vous de faire votre propre contrôle…


Salomé Genin



28 vues0 commentaire

Posts récents

Voir tout

Комментарии


Post: Blog2_Post
bottom of page