
Date : 29/05/2025
Depuis quelques annĂ©es, les intelligences artificielles gĂ©nĂ©ratives bouleversent notre rapport Ă l’image, Ă la voix, et Ă la crĂ©ation. Elles permettent de produire des vidĂ©os, des visages, des voix ou des corps qui n’ont jamais existĂ©s, ou pire encore, qui imitent fidĂšlement ceux de vraies personnes. Entre fascination technologique et malaise Ă©thique, un dĂ©calage se creuse : si ces outils peuvent servir l’art ou la crĂ©ativitĂ©, ils peuvent Ă©galement devenir des armes redoutables. Parmi les pires usages : le revenge porn Ă l’Ăšre des deepfakes.
Le revenge porn (« pornographie vengeresse ») consiste Ă publier des images ou vidĂ©os intimes d’une personne, souvent une ex-conjointe, sans son consentement. Ă l’origine, cela concernait des contenus rĂ©els volĂ©s ou partagĂ©s dans un contexte intime. Mais aujourd’hui, le dĂ©veloppement des deepfakes permet de fabriquer de toutes piĂšces des vidĂ©os sexuelles mettant en scĂšne des personnes sans qu’elles n’aient jamais posĂ© devant une camĂ©ra.
Ce flĂ©au a pris une ampleur telle qu’il a fait l’objet d’un reportage poignant de Cash Investigation (France 2) diffusĂ© en 2023. Des femmes y racontent comment leur vie a Ă©tĂ© brisĂ©e, leur emploi perdu, leurs familles dĂ©sintĂ©grĂ©es ; tout cela Ă cause d’une vidĂ©o truquĂ©e ou diffusĂ©e sans leur autorisation.
Quelques références et articles clés :
Certaines vidĂ©os IA font le buzz de maniĂšre plus ludique. Des personnages historiques qui chantent du rap, des politiciens qui dansent sur TikTok, des mĂšmes hilarants mĂȘlant Harry Potter et Kaamelott. Ces crĂ©ations, souvent signalĂ©es comme satiriques ou fictives, illustrent le cĂŽtĂ© lumineux et humoristique de ces technologies.
Exemples populaires :
- Des détournements de discours de Trump ou de Barack Obama en chansons.
- Des publicités imaginaires avec des célébrités.
- Des trailers de films rétrofuturistes créés avec Stable Diffusion ou FramePack.
Quand l’intention est claire, et que le contenu est crĂ©atif et respectueux, ces usages amusent et interrogent sur notre rapport au rĂ©el.
Le problĂšme ne vient pas de la technologie, mais de son usage. Une vidĂ©o IA peut ĂȘtre une prouesse technique, mais si elle met en scĂšne une personne rĂ©elle sans son consentement explicite, le rĂ©sultat est potentiellement dĂ©vastateur. Le lien avec les tĂ©moignages de la premiĂšre partie est Ă©vident : une simple « blague » ou une « idĂ©e crĂ©ative » peut se transformer en cauchemar public, viral, irrĂ©versible.
La frontiĂšre est claire :
- Une parodie assumée ? Pas de souci.
- Une exploitation sexuelle ou intime d’une personne non consentante ? Inacceptable.
En plus d’ĂȘtre Ă©thiquement condamnable, cela peut aussi ĂȘtre lĂ©galement rĂ©prĂ©hensible dans de nombreux pays.
L’IA gĂ©nĂ©rative est un outil d’une puissance inĂ©galĂ©e, capable du meilleur comme du pire. Comme l’imprimerie, la photographie ou Internet avant elle, elle ne porte pas en elle une morale. Ce sont les humains qui l’utilisent qui dĂ©cideront si elle servira Ă crĂ©er, Ă rĂȘver, Ă rĂ©parerâŠ
⊠ou à humilier, à détruire, à dévaster.
L’avenir de l’IA nâest pas technologique. Il est moral. Et chacun de nous en est le gardien.
Auteur : Paullux / @paulluxwaffle Licence : CC BY-NC-SA 4.0
Laisser un commentaire