C'est sextra

Le sexe, tout le monde en veut, mais personne ne veut s'y coller quand il faut y penser. Alors ? On en cause ?

image_author_Stéphanie_Estournet
Par Stéphanie Estournet
8 déc. · 3 mn à lire
Partager cet article :

Faut-il avoir peur des deepfXkes ? (1/3)

Synonymes de menace numérique, les deepfakes porn s'invitent de plus en plus souvent dans les rubriques Société. Mais de quoi s'agit-il ? Pour mieux comprendre, je vous propose une série d'articles sur le sujet. Et une entrée en matière avec le propos d'Olivier Martinez, expert en intelligence artificielle.

Ces derniers mois, deux sujets s’invitent régulièrement en tête des rubriques société des différents médias : l’intelligence artificielle (IA) et la pornographie. Dans un cas comme dans l’autre, les questionnements sont nombreux, qui révèlent des craintes sociétales et/ou individuelles. L’IA va-t-elle me prendre mon job ? Assiste-t-on à la disparition de l’écriture ? Les films pour adultes nous dictent-ils nos comportements intimes ? La pornographie doit-elle être interdite ? Etc.

Alors, forcément quand ces deux sujets s’entremêlent, il y a un risque que les craintes se démultiplient. D’autant plus que chacun de ces domaines se déploie dans une opacité qui ne facilite pas la compréhension - l’IA est technique, le porno est un objet de consommation qu’on préfère ne pas réfléchir.

Voilà pourquoi le sujet des “deepfakes porn” - des montages érotiques ou pornographiques détournant des images existantes pour y coller la tête d’une tierce personne - inquiète. A l’heure du selfie et de l’autocommunication visuelle, devons-nous craindre de voir notre propre image au sein d’un porno ? Faut-il alerter nos jeunes sur l’éventualité de détournements réalisés à partir de leurs partages d’images ? A quel point avons-nous raison de craindre les deepfakes porno ?

Image réalisée à partir d'une capture d'écran de film pornographique. DRImage réalisée à partir d'une capture d'écran de film pornographique. DR

Je vous propose une série d’articles sur le sujet. Dans une prochaine newsletter, je vous parlerai ainsi des initiatives business qui associent porno et IA, mais aussi des actes criminels qui déjà se multiplient. J’aimerais également vous livrer un ensemble de réflexions - dont celles de professionnels concernés - sur l’impact possibles de l’usage des deepfakes dans la représentation de l’intime. Parce que tout ça est assez dur et déprimant, j’aborderai également les bonnes pratiques, et les usages qui permettront de limiter les dégâts.

Dans ce premier opus, voyons ce qu’est le “deepfake porn” avec Olivier Martinez (ci-dessous), expert en intelligence artificielle.

Qu’est-ce que le deepfake ?

Le deepfake est une technique qui permet de truquer la voix et/ou l’image d’une vidéo à partir de l’intelligence artificielle. L’idée de détourner, de truquer l’image, n’est pas neuve. Bien avant l’apparition de l’IA, on bidouillait des photos. Et plus tôt encore, des montages photos plus ou moins talentueux faisaient disparaître des personnes sur des photographies officielles. On se souvient des retoucheurs de Staline qui effaçaient tout indésirable selon le bon vouloir du chef.

En haut, à la gauche de Staline, Nikolaï Iejov, son "camarade de confiance". En bas, Iejov, considéré comme un traître et exécuté en 1940, disparaît des photographies officielles à la faveur du travail des retoucheurs du Kremlin.En haut, à la gauche de Staline, Nikolaï Iejov, son "camarade de confiance". En bas, Iejov, considéré comme un traître et exécuté en 1940, disparaît des photographies officielles à la faveur du travail des retoucheurs du Kremlin.

Ces dernières semaines, la presse a rapporté un nombre croissant d’affaires de “deepfakes porn”. De quoi s’agit-il ?

Il s’agit d’images pornographiques sur lesquelles on remplace la tête d’une performeuse de films X par celle de sa voisine, par exemple, ou celle de son ex. Les affaires récentes ont également dénoncé des images d’adolescentes “déshabillées” par l’IA, diffusées ensuite sur les réseaux - on peut envisager les dégâts chez les victimes.

A quel point ces outils de deepfake sont-ils accessibles ?

Aujourd’hui, on a accès à des outils d’IA qui demandent de moins en moins de technicités et d’apprentissage. Qui sont abordables. Des appli sur smartphone proposent de remplacer la tête d’un personnage historique par la mienne, la vôtre. La technique est en tout point identique à celle d’un deepfake porn.

Les outils accessibles sont bridés. Pour qu’une IA produise (un texte, une image, une vidéo), on va rédiger un prompt, soit un ensemble d’instructions au plus près de ce que l’on veut. Actuellement, les outils d’IA ne donnent pas suite si on leur demande de réaliser des images pornographiques. Mais n’importe quel codeur va facilement contourner les interdits.

Image réalisée à partir d'une capture d'écran de film pornographique. DRImage réalisée à partir d'une capture d'écran de film pornographique. DR

Ce qui veut dire qu’un deepfake porn est réalisable très facilement ?

La technique est accessible. Les faits divers dont on parlait plus tôt - des lycéennes dénudées grâce à l’IA par des garçons de leur établissement scolaire - en témoignent. Les présumés coupables sont des mômes (ce qui ne les rend pas moins coupables). Mais voilà : ils ont le goût de la bidouille informatique, un savoir-faire acquis par la pratique, et ils ont accès aux outils disponibles en open source. Et ils n’ont pas - ou en tout cas, pas suffisamment - de barrières morales et/ou de crainte de l’autorité pour se dire que non, on ne fait pas ça…

Les barrières techniques ne sont donc pas de véritables obstacles ?

Disons que quiconque s’amuse à coder aura vite fait de les passer. C’est toujours la même histoire : la plupart des utilisateurs ne mettent pas les mains dans le cambouis et n’ont jamais vu une ligne de code. Sans connaissance des outils qu’il utilise au quotidien, le grand public se sent menacé. D’une part parce qu’il perçoit plus qu’il ne comprend les dangers ; d’autre part parce qu’il sait qu’il n’a pas les moyens de se protéger ni de se défendre.

Image réalisée à partir d'une capture d'écran de film pornographique. DRImage réalisée à partir d'une capture d'écran de film pornographique. DR

Mais alors chacun d’entre nous peut se retrouver avec sa tête sur le corps d’un ou une performer porn ?

Pour le moment, la qualité vidéo reste mauvaise. Mais les outils existent et les techniques évoluent très rapidement. Les IA apprennent à partir de contenus existants. Il suffit de les entraîner. Tout est donc en place pour que, prochainement, les vidéos produites par des systèmes algorithmiques soient de qualité satisfaisante pour devenir une norme.

Et la loi dans tout ça ?

La temporalité de la loi n’est pas celle de la technologie. Depuis 2016, l’UE travaille à l’élaboration d’un cadre juridique et éthique, l’IA Act, mais ses dispositions vont demander du temps avant d’être applicables. En France, un amendement visant à réprimer la publication de deepfakes à caractère sexuel, “c’est-à-dire la diffusion de vidéos pornographiques créées par l'IA et représentant une personne sans son consentement”, a été adopté le 17 octobre 2023. Le monde législatif a bien pris en compte l’urgence du sujet - c’est un début.

Image réalisée à partir d'une capture d'écran de film bisounouriphique. DRImage réalisée à partir d'une capture d'écran de film bisounouriphique. DR

Faudra-t-il faire avec les deepfakes porn ?

L’image est devenue une donnée absolument fondamentale dans nos vies numériques. Informations, divertissement… Tout est d’abord images. Nous ne pouvons plus agir simplement comme si nous étions dans un monde de Bisounours. Il est important de comprendre les enjeux et impacts de nos actions numériques, et pas seulement en ce qui concerne la pornographie.

Sources : Le Monde, The Daily Beast, The New York Times, The Washington Post, Wired.

NB : ce travail d’enquête chronophage est non rétribué. Je le fais parce que je suis convaincue qu’il faut informer sur ces sujets. Dans ces circonstances, pardonnez-moi si toutefois je laisse passer du temps entre deux newsletters (ben oué, il faut aussi que je gagne ma vie :-)

Si vous avez apprécié cette newsletter, n’hésitez pas à vous abonner (c’est gratuit), à la partager et/ou à réagir sur les réseaux.
Linkedin // Twitter // Instagram
Crédits photo
Olivier Martinez : DR. Staline : AKG Images

Photos glitchées : Stéphanie Estournet
Photo de profil : Hélène Muffarotto // La photo d'ampoules est de Jenn / Unsplash