A Slight Case of Overblocking : Les enjeux constitutionnels de la loi allemande sur les réseaux sociaux [Par Jörn Reinhardt]

A Slight Case of Overblocking : Les enjeux constitutionnels de la loi allemande sur les réseaux sociaux [Par Jörn Reinhardt]

A new German law against online hate speech requires social media platforms to remove « illegal  content » within a short period of time. A challenge for freedom of expression.

 

En vertu d’une nouvelle loi allemande contre le discours de haine en ligne, les plateformes de médias sociaux doivent supprimer tout « contenu illégal » dans un court laps de temps. Un défi pour la liberté d’expression.

 

Jörn Reinhardt, Professeur de droit public à l’Université de Brême

 

En octobre dernier, la « Loi pour améliorer l’application du droit dans les réseaux sociaux » (Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken – Netzwerkdurchsetzungsgesetz – NetzDG) est entrée en vigueur en Allemagne. [1] Elle s’applique aux plateformes avec plus de deux millions d’utilisateurs enregistrés en Allemagne. Après une période de transition de trois mois, qui devait permettre aux réseaux sociaux de s’adapter aux changements, elle fut pleinement mise en œuvre à partir du 1er janvier 2018. Le projet, largement piloté par le ministre de la Justice Heiko Maas, engage les intermédiaires, c’est-à-dire les opérateurs des principales plateformes de communication, à agir de manière plus conséquente contre la violation des droits de la personne par des discours de haine ou contre la propagation de contenus pénalement répréhensibles. La loi prévoit des obligations de vérification et de suppression. Les contributions qui violent de manière évidente le droit pénal doivent être supprimées dans les 24 heures. Dans les autres cas, les opérateurs disposent d’une semaine pour répondre aux plaintes des utilisateurs. Les opérateurs de grands réseaux sociaux, tels que Twitter et Facebook, doivent mettre en place un processus efficace et transparent pour traiter les plaintes concernant le contenu illégal. La loi exige également que les plateformes rendent périodiquement compte de leurs efforts. Les contrevenants encourent des amendes allant jusqu’à 5 millions d’euros.

 

La discussion sur la façon de réagir aux discours de haine et à la manipulation de l’opinion sur les réseaux sociaux est actuellement intensément discutée au niveau politique et fait l’objet de diverses initiatives. En France, le président Macron a récemment annoncé des mesures législatives pour lutter contre les fausses nouvelles dans les médias sociaux. La loi allemande attire en ce moment beaucoup l’attention de l’étranger. Elle sert déjà de modèle pour certaines mesures législatives. En Allemagne, la constitutionnalité de la loi a fait l’objet de controverses lors de la procédure législative. Divers aspects du projet ont été considérablement modifiés. Néanmoins, ses opposants continuent de percevoir une ingérence disproportionnée dans les libertés fondamentales et, surtout, critiquent ses effets restrictifs sur la liberté d’expression. La loi mettrait en place une sorte de système de censure qui mine la liberté d’expression dans les médias sociaux, voire l’abolit. La crainte résulte du fait qu’avec la procédure de « notice-and-take-down », les obligations de contrôle sont en grande partie transférées aux opérateurs des plateformes. Or, ceux-ci ont peu d’intérêt à procéder à un examen précis et juste des infractions alléguées. Leurs possibilités sont en outre matériellement limitées. Actuellement, ils confient à des employés de centre d’appels la tâche de décider, sous la contrainte du temps, de supprimer les messages et de bloquer les comptes. L’impératif économique auquel ils sont soumis risque d’aboutir à un examen assez bref. En cas de doute, les contributions seront plutôt supprimées. La loi prévoit la possibilité pour les entreprises de créer un organisme « d’autorégulation régulée » (« regulierte Selbstregulierung »). Il s’agirait d’un organe qualifié et neutre auquel les cas incertains pourraient être soumis.

 

Au début de l’année, plusieurs incidents ont pu sembler confirmer les craintes des critiques : Twitter a bloqué plusieurs comptes relativement importants en invoquant la violation du code de conduite. Cela a affecté deux femmes politiques du parti populiste de droite (« AFD »). L’une d’elles, la députée von Storch, s’est offusquée d’un tweet en arabe de la police de Cologne le soir du Nouvel An. Sur Twitter, la police avait souhaité une bonne année en allemand, anglais, français et en arabe. Storch y voyait trop de concessions aux réalités sociales et a exprimé son mécontentement dans les termes suivants: « Que diable se passe-t-il dans ce pays ? Pourquoi un site officiel de la police tweete en arabe ? Pensez-vous que cela apaise les hommes barbares, musulmans, violeurs en masse ? ». La police de Cologne a alors déposé une plainte pénale pour incitation à la haine. Twitter a bloqué le compte, en soulignant qu’il ne sera pas débloqué avant que le tweet soit supprimé. Un tweet similaire de la députée Weidel a également été bloqué par Twitter pour l’Allemagne. Les populistes de droite ont su se servir de ces incidents pour se présenter comme des victimes de la censure et du politiquement correct. D’ailleurs, le nombre de partisans des deux députées n’a pas diminué à la suite de ces mesures.

 

Le fait qu’il ne s’agisse pas de mesures ciblées émanant du « système » contre l’extrême droite, comme le prétendent les deux députées, est démontré par le fait que d’autres sont également touchés. Le compte du magazine satirique Titanic a également été bloqué pour des tweets de parodie, qui n’étaient apparemment pas reconnus par Twitter comme de la satire. Titanic a également reçu une demande de suppression des tweets avant que le compte puisse être réactivé.

 

Le droit fondamental à la liberté d’expression est au cœur de la discussion constitutionnelle et politique. La loi interfère-t-elle de manière disproportionnée avec la liberté d’expression, ou crée-t-elle des structures qui minent la liberté d’expression ? La discussion se complique du fait que si les intermédiaires ont considérablement étendu leur contrôle des contenus à la suite du NetzDG, ils ont en réalité toujours examiné les « posts » et les ont supprimés en se référant à leurs propres « community standards ». Ainsi, dans le cas des comptes bloqués des politiciens et du magazine satirique, Twitter a évoqué à la fois l’ordre juridique allemand et ses règles internes. Une telle argumentation ne manque pas de pertinence, car les interventions dans le processus de formation de l’opinion à l’instigation de l’État doivent être jugées différemment de l’application de normes établies au sein d’une communauté privée. Si les tweets sont supprimés en raison de la législation de l’État, une atteinte à la liberté d’expression des utilisateurs concernés peut être identifiée, indépendamment du fait que le blocage ou la suppression soient mis en œuvre par les fournisseurs de services eux-mêmes. La notion d’atteinte au droit fondamental est attribuable à l’État.

 

Lors de l’évaluation de la proportionnalité du NetzDG, il convient de garder à l’esprit que la loi se réfère uniquement aux paroles délictueuses, c’est-à-dire aux paroles qui enfreignent les lois pénales et ne sont pas justifiées. Les objectifs poursuivis par le législateur ne sont pas seulement la protection des droits de la personne, mais aussi la garantie d’un discours démocratique viable. Il va sans dire que les menaces de mort et les insultes peuvent miner les discussions politiques. Le discours politique libre est soumis à des conditions fonctionnelles qui peuvent être menacées par le « discours de haine » et a donc besoin de protection. Les objectifs poursuivis par le législateur peuvent donc justifier un examen et une suppression des paroles délictueuses.

 

Le fait que la NetzDG confie l’évaluation du contenu aux acteurs sociaux et non à la magistrature n’est pas problématique en soi, contrairement à ce que prétendent les critiques.  En cas de violation du droit d’auteur, les opérateurs de plate-forme sont également soumis aux obligations d’enquête correspondantes. Les sanctions pénales elles-mêmes sont bien entendu réservées au pouvoir judiciaire. Mais la protection des droits de la personne et la prévention des actes criminels ne relèvent pas exclusivement du pouvoir judiciaire. De plus, les moyens de la justice sont limités. Ainsi, le procureur peut effectivement identifier et inculper, mais ne peut pas ordonner la suppression des messages. En outre, les procédures pénales sont longues.

 

Néanmoins, la NetzDG marche sur un sentier étroit. Même les déclarations extrémistes et les fausses déclarations grotesques font partie du débat public et ne peuvent pas simplement être « filtrées ». La Cour constitutionnelle a rappelé ces principes notamment dans l’arrêt Wunsiedel. [2] La propagation des idéologies totalitaires et inhumaines n’est pas fondamentalement exclue de la portée de la liberté d’expression. Les dangers qui en résultent sont, comme le souligne la Cour, à combattre par l’engagement civique dans un discours politique libre. Les obstacles que la législation dresse autour des conflits politiques ne peuvent donc être que des limites ultimes. Une difficulté de la loi est qu’elle fonctionne avec un catalogue assez généreux d’infractions pénales. En outre, des intérêts d’information légitimes du public existent également dans le cas de paroles pénalement répréhensibles et diffamatoires. Twitter refuse à juste titre de bloquer ou de supprimer les messages de personnes publiques ou d’un « leader mondial » élu. Même si le nom de Trump n’est pas explicitement prononcé, on comprend clairement de qui il s’agit. Les commentaires de Trump sur Twitter sont remplis d’insultes et de diffamation. Qu’une partie non négligeable d’entre eux soit problématique dans le contexte de NetzDG ne parle pas seulement contre Trump ; cela montre aussi une autre difficulté de la loi : dans certains cas, il peut y avoir un intérêt public à documenter et à conserver de telles déclarations. Cela nécessite un examen beaucoup plus avancé que l’examen pénal de l’énoncé. Le NetzDG permettrait, en vertu d’une interprétation large, d’effectuer un tel test. Mais cela doit être fait de manière cohérente.

 

Jusqu’à présent, la pratique de suppression de Twitter ne révèle aucune méthode. Même des paroles clairement protégées par la liberté d’expression sont actuellement supprimées. Les réseaux sociaux, ne serait-ce que pour des raisons économiques, sont contre cette loi. Le fait que des « incidents » qui suscitent l’indignation du public aient eu lieu au début de l’entrée en vigueur de la loi ne va pas forcement à l’encontre des intérêts des grandes plateformes. Il est vrai, comme le souligne Mathias Hong dans une analyse pertinente sur verfassungsblog.de, que la loi serait inconstitutionnelle si elle conduisait à une « surcensure » constante. [3] Cependant, on peut aussi voir dans ces incidents les difficultés initiales d’une pratique qui n’a pas encore été stabilisée. La législation inclut une certaine liberté d’appréciation sur ce point. Le NetzDG a créé des mécanismes « d’autorégulation régulée » afin de contrecarrer les développements indésirables et d’effectuer les corrections nécessaires.

 

Il reste à comprendre quelles normes les plates-formes peuvent définir avec leurs règles internes. Il est souvent difficile de saisir le point de départ normatif des blocages et des suppressions. Twitter fonde donc ses interventions tant sur les normes du réseau, que sur la « situation juridique allemande », sans être plus spécifique. Les réseaux sociaux, en tant que prestataires privés, ont-ils la possibilité de supprimer les contributions qu’ils considèrent criminelles ou problématiques, même si elles sont en principe protégées par la liberté d’expression ? La question exige une réponse nuancée. Même les géants d’internet, en dépit de leur taille, de leur pouvoir ou de leur argent, ne sont pas soumis directement aux droits fondamentaux. Twitter, Facebook, Youtube et autres sont des fournisseurs de services privés. Ils ne sont pas l’État. Certes, des revendications politiques, comme celle qui ont été soulevées au cours du débat sur une Charte des droits numériques fondamentaux (et qui s’est entre temps calmé), réclament une liaison directe des entreprises privées par les droits fondamentaux [4]. Mais cela ne correspond pas à la Constitution allemande (ni d’ailleurs à la Charte européenne des droits fondamentaux [5]). Surtout, il n’est pas du tout clair qu’une obligation directe de respecter les droits fondamentaux aurait l’effet que ses défenseurs espèrent. Contrairement aux autorités publiques, les personnes privées peuvent à leur tour invoquer les droits fondamentaux dont elles sont bénéficiaires.

 

Les droits fondamentaux comme la liberté d’expression ne contiennent pas seulement les droits de défense subjectifs du citoyen contre l’État, mais aussi des normes objectives. En tant que telles, ils ont une signification structurante pour l’auto-organisation sociale et les structures de communication publiques dans leur ensemble. Elles ont donc également des implications pour la structure des réseaux sociaux. La question essentielle est de savoir jusqu’où va l’autonomie privée des fournisseurs de services (également protégés par des droits fondamentaux). Si l’on considère Twitter et Facebook comme des espaces essentiellement privés, ces entreprises peuvent déterminer les règles elles-mêmes, donc décider discrétionnairement qui peut s’exprimer et sous quelle forme. Un propriétaire privé ne doit en principe tolérer que ce qu’il veut dans son domaine. Ceci s’applique également aux forums numériques. Pour cette raison, les opérateurs de blogs peuvent, par exemple, déterminer les règles du jeu et les standards de comportement. Cependant, leur autonomie privée doit être conciliée avec la liberté des utilisateurs. Cela nécessite de trouver un juste équilibre entre l’autonomie privée et les libertés des citoyens. Dans l’arrêt Fraport, la cour constitutionnelle allemande utilise le concept de « public forum » pour déterminer le niveau de la protection des droits fondamentaux. [6] La Cour se réfère, selon une démarche comparatiste plutôt large d’esprit, à la jurisprudence des cours suprêmes des États-Unis et du Canada. [7] La Cour constate, notamment à propos des droits fondamentaux liés à la communication, que les entreprises privées qui « fournissent les conditions cadres de la communication » [8] ont des obligations particulières vis-à-vis de ces droits fondamentaux de communication. Ces principes devraient s’appliquer à une partie des grands réseaux sociaux, notamment à la communication dans les forums comme Facebook et Twitter. Le succès de ces plateformes a changé le caractère d’Internet. [9] Elles ont établi de nouvelles formes de publicité et tendent à modifier la formation de l’opinion publique. À mesure que la communication publique passe dans les mains de réseaux sociaux privés, ceux-ci doivent assurer avec leurs règles internes les standards publics de la liberté d’expression.

 

En résumé, la NetzDG se situe à la limite de ce qui est constitutionnellement admissible. Si on compte sur les mécanismes d’autocontrôle prévus par la loi, pour établir de façon permanente des systèmes de gestion des plaintes qui empêchent systématiquement la suppression de messages légitimes, les obligations de suppression ne constituent alors pas forcément une interférence disproportionnée avec la liberté d’expression et la liberté d’information. Ce faisant, un haut niveau de protection de la liberté d’expression et d’information peut être garanti. En outre, il peut y avoir un intérêt public à avoir connaissance de certains messages qui contiennent des énoncés délictueux et problématiques. En raison de sa nature de « forum public », ce haut niveau de protection s’applique également à l’utilisation des « community standards » dans les grands réseaux sociaux. Indépendamment de la question de la constitutionnalité de cette loi, le débat politique sur le rôle des intermédiaires [10] devra se poursuivre.

 

[1] Le texte de NetzDG est accessible ici. Pour la version anglaise de la loi voir ici.

[2] BVerfG, 4 novembre 2009, 1 BvR 2150/08, para. 50 et suiv.

[3] MathiasHong, Das NetzDG und die Vermutung für die Freiheit der Rede, accessible sur verfassungsblog.de

[4] Voir l’article 23 alinéa 3. La version française de cette proposition est accessible ici.

[5] Cf. article 51 alinéa 1.

[6] Cf. notamment Johannes Masing «Droits fondamentaux et privatisations – une perspective allemande », Jus Politicum, n° 9

[7] Cf. Lyrissa Barnett Lidsky, Public Forum 2.0, 91 B. U. L. Rev. 1975 (2011), accessible ici.

[8] BVerfG, 22 février 2011, 1 BvR 699/06, para. 59.

[9] Jonathan Zittrain, The Future of the Internet: And How to Stop It, Yale Univ. Press., 2008. Accessible ici.

[10] Luca Belli et. al., Platform Regulation: How Platforms Are Regulated and How They Regulate Us, FGV Direito Rio, 2017. Accessible ici.