Les réseaux sociaux sont devenus des espaces publics où la liberté d’expression est largement exercée. Toutefois, la propagation des discours de haine pose question quant à la responsabilité des plateformes.

1️⃣ Une responsabilité limitée du fait de l’autorégulation des réseaux sociaux.

Les plateformes disposent d’un pouvoir discrétionnaire pour modérer les contenus illicites, limitant ainsi leur responsabilité. Cependant, l’absence de transparence dans la modération soulève des problèmes.

Les algorithmes, utilisés pour la modération, peuvent être sujets à des erreurs, ce qui impacte la liberté d’expression. Malgré l’adoption de mesures comme la loi Avia, la sur-censure des algorithmes a été évitée pour protéger cette liberté.

2️⃣ Vers une responsabilité renforcée des réseaux sociaux.

Le Digital Services Act adopté en 2022 marque un tournant en matière de régulation des réseaux sociaux. Il impose la transparence quant à la modération des contenus.

Les plateformes doivent expliquer leurs politiques de modération et publier des rapports de transparence réguliers. Cela accroît leur responsabilité, avec des sanctions possibles en cas de non-respect des obligations.

Bien que les réseaux sociaux bénéficient d’un régime de responsabilité limitée, le Digital Services Act représente une avancée vers une meilleure protection de la liberté d’expression grâce à la transparence et aux obligations imposées aux plateformes.