Les défis juridiques continus de X contre les ordres de retrait des gouvernements ont un impact sur l’ensemble du secteur, mais peut-être pas de manière positive, selon la façon dont on le voit. La semaine dernière, X a de nouveau critiqué publiquement le commissaire australien à la sûreté numérique pour ses tentatives de forcer X à supprimer les images vidéo d’un coup de couteau violent contre un chef religieux à Sydney en avril dernier.
Des Tensions Religieuses Exacerbées
À l’époque, les autorités australiennes craignaient que la diffusion des images n’exacerbe les tensions religieuses, entraînant de nouvelles violences en réponse. Et bien qu’il y ait eu divers affrontements violents après l’attaque, X, ainsi que d’autres plateformes sociales, ont accepté de supprimer les images pour les utilisateurs australiens.
Le Commissaire à la sûreté numérique a ensuite demandé à X de supprimer les images pour tous les utilisateurs dans le monde, ce à quoi X a refusé de se conformer, arguant que les autorités australiennes n’ont pas le droit d’exiger une censure mondiale du contenu.
L’affaire est délicate, car X soulève un point valable, en ce qui concerne les responsables d’un pays qui demandent une censure mondiale. Mais encore une fois, X supprime effectivement du contenu à la demande de divers gouvernements, ses propres rapports indiquant qu’il a « supprimé globalement 40 331 éléments de contenu » entre octobre 2023 et mars 2024, conformément à la loi sur les services numériques de l’UE.
X Choisit Ses Batailles
Donc, bien qu’il y ait apparemment un argument, X choisit et choisit ce qu’il contestera et quelles demandes il honorera. Et dans le cas d’un incident de coup de couteau violent, qui pourrait enflammer inutilement les tensions, la question depuis le début a été : « Pourquoi ne pas le supprimer ? »
Mise à part les spécificités, X a choisi de porter l’affaire devant les tribunaux, la Commission et X finissant par accepter de régler le litige. Dans sa déclaration publique, X a déclaré :
X se félicite de la décision du Commissaire australien à la sûreté numérique de reconnaître qu’il n’aurait pas dû ordonner à X de bloquer les images vidéo de l’attaque tragique contre l’évêque Mar Mari Emmanuel.
Ce qui ne correspond pas exactement à ce que la Commission de sûreté numérique a publié au sujet de l’accord :
Avec l’accord des deux parties, le Tribunal d’appel administratif a rendu aujourd’hui des ordonnances pour résoudre la procédure engagée par X Corp concernant un avis de retrait qui lui a été remis par eSafety lui imposant de prendre toutes les mesures raisonnables pour assurer le retrait du matériel représentant une attaque terroriste déclarée contre un chef religieux.
La Commission n’a donc pas reconnu qu’elle avait eu tort de demander le retrait, mais a plutôt reporté une décision, en attendant un examen plus large des lois en la matière.
Réalignement Basé Sur Les Idéologies De Musk
Pourtant, X semble plutôt rassuré par la conclusion :
Six mois plus tard, le commissaire à la sûreté numérique a reconnu que X avait raison depuis le début et que les Australiens ont le droit de voir les images. Il est regrettable que le commissaire ait utilisé des ressources importantes des contribuables pour cette bataille juridique alors que les communautés ont plus que jamais besoin qu’on leur permette de voir, de décider et de discuter de ce qui est vrai et important pour elles.
Essentiellement, cette affaire est un autre exemple de X choisissant ses batailles et s’opposant aux gouvernements et aux régulateurs dans les régions où le propriétaire de X, Elon Musk, a des griefs personnels et veut apparemment faire pression sur le gouvernement en place.
Pourtant, dans l’ensemble, X se conforme à beaucoup plus de demandes de suppression que ne le faisait l’ancienne direction de Twitter, tout en censurant désormais certains contenus politiques qui semblent être en conflit avec les orientations déclarées de Musk.
Donc, bien que X fasse beaucoup de bruit sur la défense de la liberté d’expression et soit plus ouvert à la vérité que Twitter, en réalité, il ne fait que réaligner son approche en fonction des lignes idéologiques de Musk.
L’Avenir Des Politiques De Modération De Contenu
La question est maintenant de savoir si les litiges continus de X inciteront les gouvernements et les régulateurs à hésiter à l’avenir sur des demandes de ce type. Et si oui, est-ce une bonne chose ?
Les nouvelles politiques de modération de contenu de X soulèvent des inquiétudes quant à la responsabilité de la plateforme et à sa volonté de lutter contre la désinformation et les contenus préjudiciables. Bien que la liberté d’expression soit un droit fondamental, les plateformes ont également la responsabilité de créer des espaces en ligne sûrs et inclusifs.
Alors que le paysage réglementaire des médias sociaux continue d’évoluer, il sera intéressant de voir comment X navigue dans ces eaux agitées et quel impact ses actions auront sur l’ensemble du secteur. Une chose est sûre, le débat sur le juste équilibre entre liberté d’expression et responsabilité des plateformes est loin d’être terminé.
Restez à l’écoute pour suivre les derniers développements de cette saga en constante évolution au croisement de la technologie, de la réglementation et de la société.
Abonnez-vous à notre newsletter pour recevoir les derniers articles directement dans votre boîte mail.
Commentaires