X perquisitionné par la justice française : quel avenir pour le réseau d’Elon Musk ?

Des perquisitions ont eu lieu mardi 3 février dans les locaux français de la plateforme X, a annoncé le parquet de Paris, dans le cadre d’une enquête visant à vérifier la conformité du réseau social aux lois nationales. Au-delà d’un simple contrôle administratif, l’opération éclaire des questions concrètes : modération des contenus, usage des intelligences artificielles et responsabilité des plateformes sur le territoire français.

Le dossier a été ouvert en janvier 2025 par le parquet de Paris. Les magistrats ont procédé à des saisies dans les bureaux de X en France et convoqué pour avril prochain Elon Musk, propriétaire de la plateforme depuis 2022, ainsi que l’ancienne directrice Linda Yacarino, en qualité de témoins dans le cadre d’auditions libres.

Ce qui motive l’enquête

Les autorités indiquent qu’aucune infraction n’a encore été formellement retenue, mais qu’il s’agit d’une phase d’investigations destinée à vérifier la mise en conformité de la société opérant sur le sol français. Deux signalements ont déclenché la procédure, dont l’un transmis il y a un an par le député Éric Bothorel, qui critiquait notamment des modifications d’algorithme intervenues après le rachat par M. Musk.

Selon le parquet, les investigations portent sur plusieurs volets — au total sept pistes possibles — qui concernent essentiellement la diffusion et la gestion de contenus illicites, la transparence des pratiques publicitaires et le fonctionnement des outils automatisés de la plateforme.

Contenus problématiques et rôle des IA

Parmi les éléments évoqués figurent la circulation d’images pédopornographiques, la diffusion de deepfakes à caractère sexuel et la propagation de messages remettant en cause des crimes contre l’humanité. Des internautes ont rapporté, fin décembre, la création et le partage d’images montrant des femmes dénudées réalisées à partir de Grok, l’outil d’intelligence artificielle disponible sur la plateforme.

La Haute-commissaire à l’enfance, Sarah El Haïry, a saisi début janvier la Commission européenne et les autorités judiciaires françaises au sujet de ce type de dérive. Parallèlement, des travaux menés par l’ONG AI Forensics et des experts en audit algorithmique (dont Paul Bouchaud, CNRS) ont recensé des dizaines de milliers d’images générées par Grok, une large part d’entre elles étant de nature sexuelle et visant majoritairement des femmes, selon ces analyses.

Des signalements restés sans retrait

Des contenus identifiés comme illicites ont été signalés aux services de la plateforme et aux instances françaises — notamment via le dispositif Pharos — mais seraient restés accessibles plusieurs semaines après notification. Pour des spécialistes, le maintien en ligne d’éléments manifestement illégaux peut, en soi, relever d’une infraction si les procédures de retrait ne sont pas appliquées.

  • Types de manquements examinés : diffusion d’images sexuelles de mineurs, deepfakes, contenu terroriste ou extrémiste, discours de haine, désinformation liée à crimes historiques.
  • Outils au centre des questions : l’algorithme de recommandation de X et l’IA Grok, pour leur rôle dans la création et la mise en visibilité des contenus.
  • Procédures signalées : délais de modération, obstacles à l’accès des chercheurs aux données publiques, transparence publicitaire.

Opacité algorithmique et limites des preuves

Les critiques visant la plateforme incluent l’accusation d’un système de mise en avant favorisant les contenus les plus polarisants ou extrêmes. Mais plusieurs experts rappellent le manque de données publiques nécessaires pour établir formellement une manipulation ciblée : changement de code, ajustements du moteur de recommandation, ou consignes internes ne sont pas vérifiables sans accès aux archives techniques.

Des reportages en 2023 avaient affirmé que le propriétaire avait demandé à des ingénieurs d’ajuster l’algorithme pour accroître la visibilité de ses propres publications. Toutefois, établir juridiquement qu’un dirigeant ait orienté ces modifications pour promouvoir une ligne idéologique demande des preuves techniques et documentaires encore inaccessibles au public et, souvent, aux enquêteurs sans mesures coercitives.

Sanctions européennes et réplique américaine

La pression réglementaire s’est déjà matérialisée au niveau européen : début décembre la Commission a infligé à X une amende de 120 millions d’euros pour manquements au Digital Services Act, notamment en entravant l’accès des chercheurs aux données publiques. Ce constat de non-conformité a nourri des tensions transatlantiques : fin décembre, Washington a pris des mesures contre plusieurs personnalités européennes impliquées dans la régulation des géants du numérique, dont l’ex-commissaire Thierry Breton, empêché d’entrer aux États-Unis selon des sources publiques.

Si une mise en examen formelle du réseau social devait intervenir en France, elle risquerait d’aggraver les frictions entre alliés, à un moment déjà marqué par de vifs désaccords sur le traitement des plateformes américaines en Europe.

Ce que cela change pour les utilisateurs et les autorités

La procédure judiciaire en cours illustre plusieurs enjeux concrets pour le grand public et pour les régulateurs :

  • Renforcement possible des obligations de retrait et de vérification des contenus illicites.
  • Pressions pour améliorer la transparence des algorithmes et faciliter l’accès des chercheurs aux données.
  • Risques de nouvelles sanctions financières ou contraintes opérationnelles pour la plateforme sur le marché européen.
  • Impact potentiel sur la confiance des utilisateurs et des annonceurs, avec des conséquences commerciales.

Les perquisitions menées mardi doivent permettre aux enquêteurs de recueillir des éléments matériels — documents, données, traces d’échanges internes — susceptibles d’éclairer les questions techniques et juridiques posées. Le dossier reste ouvert et pourrait à terme déboucher sur des mesures administratives ou judiciaires selon les preuves récoltées.

Pour les observateurs, cette affaire rappelle que la maîtrise des outils d’IA et la responsabilité des plateformes face aux contenus qu’elles diffusent ne sont plus de simples débats politiques : elles sont désormais au cœur d’enquêtes judiciaires nationales, avec des répercussions sur la régulation européenne et les relations internationales.

Laisser un commentaire

Share to...