En 2024, alors que les réseaux sociaux continuent de proliférer, la modération est plus que jamais au cœur des enjeux. Face à des menaces toujours plus sophistiquées, comment les plateformes s’adaptent-elles pour préserver l’expérience utilisateur et endiguer les abus ? Hervé Rigault, Directeur Général de Netino by Concentrix, nous livre son éclairage sur les challenges et solutions en matière de modération.
Le rôle clé de la modération pour les plateformes
Indissociable des stratégies produit et marketing, la modération contribue à une expérience utilisateur positive en supprimant les contenus illégaux, toxiques ou contraires aux règles d’utilisation. Textes, images, vidéos, audios : tous les types de publications et interactions sont concernés. Au-delà des réseaux sociaux grand public comme Facebook, Instagram, Youtube ou TikTok, le principe s’applique à toutes les plateformes générant du contenu utilisateur.
La modération renforce la confiance et la fidélité envers la marque, favorise la fréquentation et la participation et donc, in fine, le trafic et les revenus potentiellement générés.
– Hervé Rigault, Directeur Général de Netino by Concentrix
L’évolution du métier de modérateur
Autrefois souvent géré de façon artisanale en interne, le métier s’est professionnalisé et spécialisé avec l’explosion des réseaux sociaux. Face à des volumes massifs de contenus et une diversification des menaces, les équipes internes non spécialisées ne suffisaient plus.
Le développement de l’intelligence artificielle a rebattu les cartes en permettant d’automatiser les tâches répétitives et à faible valeur ajoutée des modérateurs. L’IA limite aussi leur exposition aux contenus les plus perturbants pouvant impacter leur santé mentale sur le long terme. Mais elle soulève également de nouveaux défis comme l’identification des deepfakes.
IA et modération humaine : un duo complémentaire
Si les algorithmes d’IA affichent des performances de détection de la toxicité entre 95 et 99%, une équipe de modération humaine reste nécessaire pour analyser finement les contenus nécessitant une levée de doute, vérifier les signalements d’abus des utilisateurs, et améliorer l’IA via du quality sampling a posteriori.
Comme en cybersécurité, chaque faille comblée entraîne une adaptation et une nouvelle stratégie de contournement de la part des individus malveillants.
Les challenges 2024 pour les plateformes seront de faire face à l’algospeak, ce langage conçu pour déjouer la modération automatisée, ainsi qu’à la généralisation des deepfakes permise par des outils grand public.
Le rôle des utilisateurs et des gouvernements
Les internautes peuvent contribuer en adoptant un comportement responsable et en signalant les abus via les fonctionnalités dédiées plutôt que de réagir par des commentaires eux-mêmes toxiques. Les signalements permettent un traitement parallèle prioritaire par la modération. Netino by Concentrix a été précurseur en intégrant nativement cette fonctionnalité à son outil Moderatus dès 2002.
Les gouvernements aussi ont un rôle à jouer. Le Digital Services Act européen generalisé en 2024 responsabilise les plateformes dans la lutte contre les contenus illicites et le contrôle des vendeurs. Il les engage à plus de transparence sur leurs politiques de modération et instaure un droit d’appel pour les utilisateurs.
Pour relever tous ces défis, Netino by Concentrix propose une approche alliant intelligence artificielle et modération humaine, avec un outil centralisé analysant les contenus en profondeur et des experts apportant leur regard sur les cas complexes et l’évolution des pratiques. Face à un écosystème mouvant, l’union des technologies les plus avancées et de l’expertise humaine sera plus que jamais la clé d’une modération agile et efficace.
Abonnez-vous à notre newsletter pour recevoir les derniers articles directement dans votre boîte mail.
Commentaires