Exposé
Réseaux sociaux : Quelle régulation ? Quelle responsabilité ?
Un air de changement
TikTok a peu de risque d’être condamné. C’est ce que prédisaient tous les spécialistes de droit des médias lors de l’entame du procès, aux Etats-Unis, contre la plateforme chinoise. Le procès a été initié par les parents de deux fillettes américaines, décédées après s’être auto-asphyxiées en participant au « blackout challenge » : un défi qui encourage les participants à s’étouffer avec un foulard jusqu’à l’évanouissement tout en se filmant.
Après qu’un premier juge ait considéré que les décès ne relevaient pas de la responsabilité de TikTok, la cour d’appel fédérale, basée à Philadelphie, a réformé le jugement et considéré, ce 27 août 2024, que la responsabilité de Tik Tok pouvait être engagée lorsqu’elle établit des recommandations et qu’elle promeut donc des contenus (plutôt que d’autres) auprès de ses utilisateurs via la rubrique « Pour toi » de l’application.
Dans la catégorie des décisions tout aussi impensables il y a encore quelques mois, intervient celle de la Cour suprême du Brésil qui a confirmé le 2 septembre 2024 la suspension du réseau social X pour avoir ignoré une série de décisions judiciaires liées à la lutte contre la désinformation. Impensable ? C’est pourtant la totale impunité avec laquelle les plateformes agissent qui est aberrante et ce quelle que soit la conception de la liberté d’expression que l’on puisse avoir.
Les réseaux sociaux sont des espaces publics non (encore vraiment) régulés
En 2024, 9,17 millions de belges ont fréquenté les réseaux sociaux, soit 78,4% de la population1. Selon le baromètre SMI2 les Belges âgés de 16 à 18 ans utilisent TikTok intensivement avec 79,1% d’utilisateurs quotidiens. Instagram arrive toutefois encore en première position avec 82% d’utilisateurs quotidiens et Snapchat en compte 78%.
Un tel usage démontre que les réseaux sociaux sont devenus une structure d’échanges essentielle, un nouvel espace public. Toutefois, d’un point de vue strictement juridique, le fait que de tels espaces soient mis à disposition du public (par des entités privées) n’a pas de consécration légale et n’implique pas, à l’instar de nombreuses autres entreprises exerçant des services publics, la conclusion d’un contrat de gestion entre lesdites entreprises et l’État.
Les réseaux sociaux tirent leur essence de la liberté d’expression et ont cette caractéristique merveilleuse d’être « offerts » à nombre de personnes qui n’avaient pas la parole auparavant : la militante d’une association, l’adolescent reclus dans sa chambre, l’agriculteur en détresse, etc. Néanmoins la question se pose de savoir comment concilier la liberté d’expression avec le droit d’être protégé contre la désinformation, le droit de ne pas être diffamé, insulté ou harcelé sur ces mêmes réseaux.
Il ne faut pas être grand analyste pour pouvoir affirmer que la gestion de ces différents conflits est actuellement essentiellement entre les mains des plateformes. Elles seules établissent leur conditions et les imposent unilatéralement aux utilisateurs, peu importe leur adéquation ou non avec le droit applicable dans l’État de destination du contenu diffusé. Au-delà de définir leurs propres règles de fonctionnement, la plupart des réseaux sociaux définissent aussi ce qui est massivement lu, vu ou destiné à tomber dans les oubliettes du cyberespace. Ils choisissent les contenus qu’ils vont pousser vers leurs utilisateurs, et ce pour maximiser leurs profits.
Les réseaux sociaux ne sont pas voués au bien-être de l’humanité, ce n’est pas leur objectif. Par essence, une entreprise recherche la profitabilité et les réseaux sociaux ne dérogent certainement pas à la règle. Leur modèle d’affaires est essentiellement fondé sur la publicité et, paradoxalement, sur l’utilisation des données fournies par leurs utilisateurs. Un tel modèle incite à une exploitation forte des données personnelles et à un profilage toujours plus important. Plus le réseau social nous connaît, plus il peut valoriser ses espaces publicitaires. En ce sens, rien sur les réseaux sociaux n’est anonyme.
Pour valoriser les publicités, les réseaux sociaux visent les contenus qui font réagir. Dans ce qui fait de nous des « exploités du temps de cerveau disponible3 », les extrêmes, les ragots, les propos outranciers, les complots côtoient des petits chats mignons mais aussi fort heu- reusement de nobles engagements, des témoignages poignants, de l’humour, de l’art (pour autant qu’il soit sans tétons).
C’est précisément lorsque le « côté obscur » se renforce que la nécessité de ne pas abandonner la sphère publique au business model des réseaux devient impérieuse. Quand bien même les géants proposent des solutions, la diffusion de la haine et la crainte légitime qu’elle ne se transforme en violence physique tangible ne peuvent continuer de se propager sous pré- texte de critères tels que l’offre et la demande.
La solution –insuffisante– proposée par les plateformes
Qu’il s’agisse de discours de haine, d’incitation à la violence, de menace, de harcèlement, la solution actuellement « proposée » par les plateformes, peu importe la gravité des faits, est le signalement. Sur presque toutes les plateformes, une fonction de signalement est prévue à côté de chaque article, page, message ou profil et active un menu déroulant permettant plus ou moins de motiver les raisons du signalement. Pour les non-utilisateurs du réseau, un formulaire en ligne existe parfois4.
Généralement, et pour autant qu’il soit suivi d’effet, le signalement aboutira au retrait partiel du contenu illicite. C’est-à-dire que le contenu sera retiré de la page de la victime uni- quement. Il ne sera plus accessible pour la victime et ses « followers » mais il restera disponible sur le profil de l’auteur du contenu. Quoi qu’affirme, de manière assez péremptoire sinon dangereuse, le Conseil de l’Europe dans sa « Campagne jeunesse contre le discours de Haine5 », ce signalement n’est pas efficace et ne garantit pas la sécurité des internautes.
S’il est certainement des cas dans lesquels la censure imposée par la plateforme a pu dissuader une personne d’encore exprimer sa haine, force est de constater que c’est généralement l’effet inverse qui intervient. L’auteur de propos haineux ou menaçant va multiplier les commentaires pour dénoncer la censure intervenue, « en remettre une couche » au préjudice de la victime en republiant les propos supprimés et appeler par ailleurs d’autres utilisateurs du réseau à le soutenir dans ce qui est devenu désormais « sa cause ».
En cas de suppression totale du contenu et /ou de suspension du compte de l’utilisateur par la plateforme, la solution reste insuffisante car il est parfaitement loisible à l’auteur d’ouvrir un nouveau compte et de poursuivre la diffusion de son contenu litigieux.
L’obligation de collaboration des plateformes
Le système adopté tant en Europe qu’aux Etats-Unis est un régime de responsabilité limité des réseaux sociaux. A l’exception de TikTok, les principaux réseaux sociaux utilisés en Belgique sont établis aux Etats-Unis. En conséquence, analyser le régime sur lequel ces réseaux se sont construits et ont prospéré permet de comprendre la culture juridique dont ils sont emprunts. De ces différentes cultures juridiques, un socle commun existe : les réseaux sociaux ne sont pas responsables des contenus diffusés à partir de leur plateforme tant qu’ils n’exercent aucun contrôle éditorial sur ces contenus.
Aux Etats-Unis, issue de la volonté de réglementer le contenu pornographique sur Internet, le Communications Decency Act a été adopté en 19966 et comporte une section 230 qui stipule :
« No provider or user of an interactive computer service shall be treated as the pub- lisher or speaker of any information provided by another information content pro- vider.”
Traduction libre
« Aucun fournisseur ou utilisateur d’un service informatique interactif ne doit être traité comme l’éditeur ou l’orateur d’une information fournie par un autre fournisseur de contenu d’information »
Loin d’examiner si le réseau social exerce effectivement ou non un travail éditorial sur les contenus publiés, c’est une présomption qui est instaurée au bénéfice des réseaux sociaux dont la responsabilité ne peut dès lors tout simplement pas être engagée. Seul l’auteur est responsable des contenus qu’il diffuse. Les fournisseurs de services sur le net sont immunisés de toute responsabilité envers les délits que des tiers commettent en utilisant leurs services et ce, même si le fournisseur ou l’hébergeur n’adopte aucune mesure après que la présence du contenu illicite (ou allégué comme étant illicite) lui ait été notifié7.
Les motifs ayant présidé à l’adoption de la norme indiquent que la mesure visait à préserver le foisonnement d’internet, la liberté du marché et devait renforcer le contrôle des utilisateurs sur leurs activités en ligne8.
Si les contenus se multiplient en effet à foison, le qualificatif de « fabrique de haine » accolé aux réseaux sociaux démontre que leur déresponsabilisation n’a pas été de pair avec la responsabilisation des utilisateurs. En Europe, c’est depuis 2001 que la directive 2000/31/CE sur le commerce électronique9 a instauré un régime de responsabilité limitée pour les plateformes qui hébergent du contenu, via son article 1410. Mais avant de fixer les règles permettant de mettre en cause un réseau social, un principe général est établi : aucune obligation générale de surveillance ne leur est imposée. Seule une obligation de coopération avec les autorités publiques compétentes peut être fixée par les États membres11.
La responsabilité du réseau social ne peut donc être engagée que si celui-ci a effectivement pu prendre connaissance du caractère illicite du contenu ou si, informé de l’illicéité alléguée, ce dernier n’a pas agi promptement pour retirer le contenu litigieux ou en rendre l’accès impossible. Et ce, où que soit situé le réseau social dans le monde.
En Belgique, la directive européenne sur le commerce électronique a été transposée en droit belge par la loi du 11 mars 2003 sur certains aspects juridiques des services de la société de l’information. Puis, lors de l’adoption du Code de droit économique (ci-après C.D.E.), la loi a été abrogée et les dispositions intégrées sous les articles XII. 17 à 20 du C.D.E12.
Conformément à l’article XII. 20, §1er, al. 1er du C.D.E., les prestataires intermédiaires (en ce compris les réseaux sociaux) n’ont aucune obligation générale de surveiller les informations qu’ils transmettent ou stockent. Ils n’ont pas non plus d’obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites.
Ce principe d’exonération de responsabilité est heureux car il évite le risque que les plate- formes ne procèdent à un contrôle a priori des contenus et ne deviennent des censeurs en puissance de peur de voir leur responsabilité engagée. Les plateformes ont toutefois une obligation spécifique de collaboration. Celle-ci n’intervient qu’à partir du moment où l’activité illicite aura été notifiée au réseau social. Aucune procédure spécifique n’avait été mise en place en droit belge pour fixer les conditions et formes de cette notification ni pour imposer, par exemple, un délai endéans lequel une réaction du réseau social est attendue. C’est désormais le DSA13 qui fixe une procédure standard pour les transmissions d’informations mais le principe de l’absence d’obligation générale de surveillance est maintenu.
L’obligation de collaboration mise en place est la suivante : les prestataires doivent informer « sans délai » les autorités judiciaires ou administratives compétentes des activités illicites alléguées et ils sont tenus de communiquer toute information qui leur serait demandée par les mêmes autorités14. Cette collaboration doit donc intervenir d’initiative mais elle peut aussi être mise en place à la demande des autorités judiciaires.
En cas de refus de collaboration, le prestataire est passible d’une sanction de niveau 315 et le tout intervient « sans préjudice d’autres dispositions légales ou réglementaires ». Il est à noter toutefois que la sanction n’a, à ma connaissance, jamais été mise en application malgré le fait que de nombreux refus d’identification sont généralement opposés par les plateformes aux autorités compétentes.
La seule voie pénale en Belgique
Actuellement, en Belgique, la victime de propos menaçants ou harcelants anonymes est contrainte de déposer une plainte pénale et/ou de saisir un juge d’instruction, pour obtenir les données d’identification de l’auteur16. Données qui, si elles sont obtenues, seront couvertes par le secret de l’information ou de l’instruction. Même si la seule intention de la victime est d’obtenir réparation du préjudice qui lui a été causé, la victime, lorsqu’elle est confrontée à un compte sous pseudo, n’a d’autre choix que de passer par la voie répressive et, par conséquent, d’encombrer la justice pénale.
Or la voie pénale est source de nombreuses incertitudes et aboutit généralement, dans les faits, à une impasse procédurale. Cette impasse procédurale est rencontrée lorsque le contenu haineux ou à tout le moins l’activité supposée illicite s’analyse en un délit de presse, c’est-à-dire lorsqu’il s’agit d’un écrit infractionnel rendu public sur Internet. L’écueil rencontré est lié au fait que les délits de presse relèvent, selon l’article 150 de la Constitution, de la compétence exclusive de la cour d’assises. Seuls les délits de presse inspirés par le racisme relèvent de la compétence du tribunal correctionnel.
Les délits de presse « ordinaires » ne sont plus pénalement poursuivis en Belgique dès lors que le parquet semble avoir renoncé (à une exception récente près17) à saisir la cour d’assises dans ce domaine18.
En conséquence, les écrits (ou les images ou vidéos accompagnées d’écrits) diffusés par le biais d’Internet qui constituent des discours de haine, des incitations à la violence, des menaces ou qui visent à perturber gravement la tranquillité des personnes qu’ils visent, ne sont pas jugés et bénéficient d’une impunité pénale de fait, au préjudice des victimes. La seule exception à ce principe est le délit de presse inspiré par le racisme et la xénophobie qui relève de la compétence du tribunal correctionnel. La victime est donc confrontée à cette incohérence absurde où il lui est imposé d’activer la voie pénale pour obtenir l’identification d’un profil litigieux. Profil qui, s’il est identifié, reste couvert par le secret de l’instruction ou de l’information et ne sera pas poursuivi pénalement car la convocation d’une cour d’assises serait trop lourde, longue, onéreuse, etc.19 Entre le moment du dépôt de plainte et l’obtention de ce résultat inutile, il n’est pas rare que plusieurs années se soient écoulées. Voilà encore de quoi renforcer le sentiment d’impunité dont se gaussent les auteurs de propos illicites anonymes sur Internet.
Les timides avancées en matière de régulation
A l’exceptions de quelques haters et autres trolls quelconques, la nécessité de réguler les réseaux sociaux n’est plus une question mais une nécessité.
Pour ce faire, l’Union européenne a adopté le DSA20. Il s’agit d’une règlement européen qui est donc directement applicable, depuis le 17 février 2024, en droit belge. D’emblée, il est important de préciser que ce nouvel instrument juridique ne modifie rien au système d’irresponsabilité décrit ci-dessus. Il fixe toutefois des obligations dans le chef des plateformes. Le DSA introduit des règles harmonisées, il impose des obligations de transparence et de diligence raisonnable aux plateformes. Chaque État membre européen est chargé de désigner une ou plusieurs autorités. En Belgique, il y en a 4 : l’IBPT, le VRM, le CSA et le Medienrat21. Pour mener à bien ses missions, l’IBPT, qui agit alors comme autorité de régulation, dispose des pouvoirs nécessaires lui permettant de certifier les signaleurs de confiance, de mener des investigations en cas de suspicion de violation du DSA ou encore de contraindre un fournisseur à respecter ses obligations jusqu’à pouvoir au besoin imposer des sanctions, en ce compris des amendes pouvant s’élever à 6 % du chiffre d’affaires mon- dial.
La mise en œuvre effective du DSA permettra donc de déterminer si ce type de régulation permet réellement de créer un environnement en ligne sûr, prévisible et fiable.
- Cela représente un recul de 2,9% par rapport à 2022. https://www.xavierdegraux.be/reseaux-sociaux-en- belgique-toutes-les-statistiques-2024-etude/ ↩︎
- Social Media & Influencers de l’Arteveldehogeschool et de la fédération du commerce et des services Comeos, Rédaction Moustique et Belga, 2024. ↩︎
- Selon l’expression formulée par Patrick Le Lay, alors président-directeur général du groupe TF1concernant la vente d’espaces publicitaires à ses annonceurs. ↩︎
- Pour Facebook : https://m.facebook.com/support/forms/flow_view?id=274459462613911&refsrc=https%3A%2F%2Fm.facebook. com%2Fhelp%2Fcontact%2F274459462613911&_rdr
Pour Instagram : https://help.instagram.com/contact/383679321740945 Pour Twitter : https://support.tiktok.com/en/safety-hc/report-a-problem ↩︎ - Via le site Internet du Conseil de l’Europe : https://www.coe.int/fr/web/no-hate-campaign/reporting-hate-speech ↩︎
- Soit avant la naissance de Facebook en 2004 et de Twitter en 2006. ↩︎
- Ken S. Myers, Wikimmunity: Fitting the Communications Decency Act to Wikipedia, automne 2006, p. 163, cite par Wikipédia : https://fr.wikipedia.org/wiki/Communications_Decency_Act#Section_230 ↩︎
- Ce sont les motifs mis en avant par S. Abiteboul et J. Cattan, « Nos réseaux sociaux, notre régulation », Revue européenne du droit, 7 avril 2020, et disponible en ligne sur le site Le Grand Continent : https://legrandcontinent.eu/fr/2020/04/07/nos-reseaux-sociaux-notre-regulation/#easy-footnote-bottom-5- 66904 ↩︎
- Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques de services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur, J.O., L. 178 du 17 juillet 2000. ↩︎
- Il est intéressant de noter que, comme pour les États-Unis, ces règles ont été fixées avant l’apparition des géants des réseaux sociaux que sont Facebook et Twitter. ↩︎
- Selon l’article 15 de la Directive 2000/31/CE sur le commerce électronique. ↩︎
- Quant aux différentes activités visées par le régime d’exonération, sur cette loi et la jurisprudence correspondante, voy. not. H. Jacquemin, « Le régime d’exonération de responsabilité des prestataires intermédiaires. État des lieux et perspectives », in X., Responsabilités et numérique, Coll. Jeune Barreau de Namur, Anthémis, Limal, 2018, pp. 63-100 ; E. Ricbourg-Attal, La responsabilité civile des acteurs de l’internet – du fait de la mise en ligne de contenus illicites, Larcier, Bruxelles, 2014, 440 p. ↩︎
- Article 10, §2 du règlement UE 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques. ↩︎
- Selon l’article XII. 20, §2, du C.D.E. ↩︎
- Soit une amende pénale de 26 à 25.000€ à augmenter des décimes additionnels. ↩︎
- Il est plus correct d’écrire que la victime tente, par la voie pénale, d’obtenir que la plateforme « veuille bien » identifier le cyber harceleur dont elle héberge les propos. ↩︎
- L. Wauters, “La cour d’assises pour des propos sur Facebook : une première en Belgique », Le Soir, 1er avril 2021, https://www.lesoir.be/364224/article/2021-04-01/la-cour-dassises-pour-des-propos-sur-facebook-une-premiere- en-belgique ↩︎
- J. Englebert, La procédure garante de la liberté d’information, Anthémis, 2014, p. 27. ↩︎
- Peu importe les raisons invoquées. ↩︎
- Règlement UE 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques), J.O.U.E., L277/1, 27 octobre 2022. Disponible ici ↩︎
- L’IBPT est l’Institut belge des services postaux et des télécommunications (désigné par le niveau fédéral), le VRM est le Vlaamse Regulator voor de Media (désigné par la Communauté flamande), le CSA est le Conseil Supérieur de l’Audiovisuel (désigné par la Communauté française) et le Medienrat a été désigné par la Communauté germanophone. ↩︎
Audrey Adam
Avocate au barreau de Namur – Professeure invitée à l’IHECS en droit des médias