Ce lundi, une réunion a eu lieu au ministère de l’Égalité entre Aurore Bergé et des représentants de plusieurs grandes plateformes numériques, telles que Meta, Snapchat, TikTok, Twitch, YouTube et X. L’objectif principal : discuter de la montée inquiétante des contenus jugés problématiques, particulièrement ceux portants atteinte aux valeurs fondamentales de la société.
Une initiative gouvernementale forte
Aurore Bergé, ministre chargée de l’Égalité entre les femmes et les hommes, a ouvert la séance en déclarant : «Ma mission est de défendre notre société contre la haine. Les contenus racistes, sexistes, antisémites ou anti-LGBT qui se répandent sur Internet sont inacceptables.» Cette déclaration marque une volonté ferme du gouvernement de lutter contre les discours de haine et d’exiger des actions concrètes de la part des grandes entreprises technologiques.
Cette réunion a également rassemblé des représentants de l’Arcom, l’autorité de régulation de l’audiovisuel et du numérique, et de Pharos, un dispositif gouvernemental dédié à la lutte contre les contenus illicites en ligne. Les associations de signalement de confiance, chargées de retirer des contenus illégaux, n’étaient cependant pas présentes, soulevant des questions sur leur rôle dans cette démarche.
Contenus problématiques identifiés
Les plateformes ont été mises en face de leur responsabilité concernant des contenus considérés comme dangereux. Aurore Bergé a mentionné des comptes diffusant des scènes violentes et faisant l’apologie de comportements illégaux, comme le terrorisme. Elle a souligné que ces contenus étaient non seulement inappropriés, mais qu’ils enfreignaient également la loi.
Parmi les exemples donnés, on note la suspension du compte TikTok de l’influenceur masculiniste AD Laurent, ainsi que la suppression du hashtag #Skinnytok, qui glorifiait des normes de beauté extrêmes. Ces actions illustrent une volonté gouvernementale d’intervenir directement pour protéger les jeunes utilisateurs des réseaux sociaux.
Responsabilité et cadre légal
Aurore Bergé a insisté sur la nécessité pour les plateformes d’assumer pleinement leur responsabilité dans la modération des contenus. Elle a précisé : «Le temps de l’irresponsabilité est révolu.» Selon la législation européenne, notamment le Digital Services Act (DSA), les entreprises doivent agir rapidement pour retirer tout contenu illégal, sous peine d’encourir de lourdes sanctions pouvant atteindre jusqu’à 6% de leur chiffre d’affaires mondial.
Le gouvernement a demandé des éclaircissements sur les politiques de modération adoptées par chaque plateforme. Cela inclut des questions sur le nombre de modérateurs francophones et le seuil de tolérance avant suspension d’un compte pour infractions. Les plateformes ont jusqu’au 14 juillet pour fournir des réponses détaillées.
Prochaines étapes et perspectives
Les ministres, très clairs sur leur intention d’observer des évolutions concrètes, prévoient une nouvelle rencontre pour évaluer les avancées réalisées depuis cette première réunion. Aurore Bergé a souligné l’importance de maintenir un dialogue constructif avec les réseaux sociaux pour garantir la sécurité et le bien-être des internautes, en particulier des plus jeunes.
Cette initiative gouvernementale pourrait donc marquer un tournant dans la manière dont les plateformes gèrent les contenus problématiques, incitant à une collaboration renforcée pour la protection des valeurs sociales et des individus face à des influences néfastes. À l’heure où les médias sociaux prennent de plus en plus de place dans notre vie quotidienne, la vigilance est de mise pour préserver un espace de partage sain et respectueux.
Les défis restent nombreux, mais la détermination du gouvernement à agir est manifeste. Les attentes sont élevées quant à la capacité des plateformes à répondre aux exigences de modération et à leur volonté de participer activement à la lutte contre la désinformation et la haine en ligne.