La loi visant à lutter contre les contenus haineux sur Internet dite « loi Avia » été définitivement adoptée par l’Assemblée nationale le 13 mai 2020. Elle est actuellement en cours d’examen par le Conseil constitutionnel qui a été saisi à la suite de son adoption.

L’objectif de cette loi est de renforcer les obligations des plateformes dans la lutte contre les contenus dits haineux.

Selon les députés à l’origine de la proposition de loi, il y a « une exacerbation des discours de haine » sur Internet. Ce réseau de communication est par ailleurs désigné comme un vecteur de « (…) libération d’une parole haineuse décomplexée car trop souvent tolérée sous l’artifice du virtuel ».

Dans ce contexte, la loi vise à imposer de nouvelles obligations à la charge des plateformes.

Qu’est-ce qu’un contenu haineux ?

La loi ne définit pas expressément les contenus haineux.

Elle renvoie à un certain nombre d’infractions prévues par la loi du 29 juillet 1881 sur la liberté de la presse et par le code pénal. Les contenus concernés sont principalement les suivants :

  • les contenus faisant l’apologie des crimes de guerre, des crimes contre l’humanité, des crimes de réduction en esclavage ou d’exploitation d’une personne réduite en esclavage ;
  • le négationnisme ;
  • les contenus incitant à la discrimination, à la haine ou à la violence à l’égard d’une personne ou d’un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée, ou à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap ;
  • le harcèlement sexuel ;
  • les contenus pédopornographiques ;
  • les contenus faisant l’apologie ou incitant à commettre des actes de terrorisme.

Quels sont les acteurs visés par la loi ?

Les opérateurs de plateformes au sens de l’article L111-7 du Code de la consommation sont visés par la mise en œuvre de nouvelles mesures.

Ce sont les opérateurs qui proposent un service de communication au public en ligne reposant sur :

  • la mise en relation de plusieurs parties en vue notamment du partage d’un contenu ; ou
  • le classement ou le référencement, au moyen d’algorithmes informatiques, de contenus proposés ou mis en ligne par des tiers.

En pratique, les opérateurs de réseaux sociaux et de moteurs de recherche peuvent être qualifiés d’opérateurs de plateforme en ligne.

Une obligation de retrait des contenus manifestement haineux

L’article 1er, II de la loi prévoit une obligation à la charge des opérateurs de plateforme de retirer les contenus manifestement haineux dans un délai maximum de 24 heures après notification par toute personne.

La violation de cette obligation donnera lieu à une amende de 250 000 euros. Ce délit de non-retrait sera constituée même en cas de simple négligence, et plus précisément « en l’absence d’examen proportionné et nécessaire du contenu notifié ».

Cette disposition avait suscité le désaccord entre les députés et les sénateurs. En effet, les sénateurs souhaitaient transformer cette obligation en une obligation de moyens en supprimant le délit associé au non-respect de celle-ci. Si une telle obligation de moyens avait été prévue par la loi, la responsabilité des plateformes n’aurait engagée qu’en l’absence de diligences nécessaires pour respecter cette obligation de retrait sous 24 heures.

Le durcissement du régime applicable au retrait de certains contenus

En vertu de l’article 6-1 de la LCEN, sur demande de l’autorité administrative, un éditeur de service de communication au public ou un hébergeur a l’obligation de retirer les contenus à caractère terroriste ou pédopornographiques dans un délai de 24 heures, sous peine d’une amende de 75 000 euros pour les personnes physiques et de 350 000 euros pour les personnes morales.

L’article 1er, I de la loi vise à durcir ce régime pour les opérateurs de plateforme, en réduisant le délai de 24 heures à une heure, et à augmenter le montant de l’amende à 250 000 euros pour les personnes physiques et à 1,25 millions d’euros pour les personnes morales.

Toutefois, les sénateurs souhaitaient supprimer ce dispositif : cette position n’a été retenue par l’Assemblée nationale, dans sa dernière lecture. Dans son rapport du 5 février 2020, la Commission des lois du Sénat avait évoqué le projet de règlement européen sur les contenus à caractère terroriste en ligne qui est encore en cours de négociation. Elle avait souligné que « le dispositif proposé apparaît particulièrement déséquilibré, ne reprenant aucune des principales garanties envisagées par le projet de règlement européen ».

Un devoir de coopération

Les articles 4 et 5 de loi prévoient d’autres obligations à la charge des plateformes pour lutter contre les contenus haineux.

À ce titre, elles devront par exemple mettre en place :

  • un dispositif de notification directement accessible et uniforme permettant aux internautes français de signaler un contenu illicite ;
  • « les procédures et les moyens humains et, le cas échéant, technologiques proportionnés permettant de garantir le traitement dans les meilleurs délais des notifications reçues ».

Par ailleurs, les opérateurs de plateformes devront fournir à leurs utilisateurs une information « claire, détaillée, facilement accessible et visible » sur certains éléments et notamment :

  • les sanctions, y compris pénales, que les utilisateurs encourent en cas de publication de contenus haineux ;
  • les recours internes et juridictionnels dont disposent les victimes ainsi que les auteurs de contenus haineux ;
  • les sanctions encourues par les auteurs de notifications abusives.

La loi prévoit aussi une obligation de transparence s’agissant du traitement des notifications reçues. À ce titre, les plateformes devront rendre compte des procédures et des moyens humaines et technologiques mis en œuvre pour respecter leurs obligations. Les informations requises seront précisées ultérieurement par le Conseil supérieur de l’audiovisuel (CSA), une fois, la loi publiée.

Le rôle du Conseil supérieur de l’audiovisuel

De manière générale, le CSA aura la charge de veiller au respect de nouvelles obligations par les opérateurs de plateforme en vertu de l’article 4 de la loi. À ce titre, il dressera et publiera chaque année un bilan d’application de ces dispositions par les acteurs concernés. Pour l’accomplissement de ses missions, il pourra demander les informations nécessaires auprès de ces opérateurs.

Le CSA sera doté d’un pouvoir de mise en demeure ainsi que de sanction en cas de manquement aux obligations prévues. Le montant de celle-ci devra être fixé en fonction de la gravité des manquements ainsi que de leur caractère réitéré, sans qu’il puisse excéder 20 millions d’euros ou 4 % du chiffre d’affaires annuel mondial de l’opérateur.

A noter également que l’article 7 de la loi créé un observatoire de la haine en ligne. Son objet est d’assurer le suivi, l’analyse et l’évolution des contenus et associe  » les opérateurs, associations, administrations et chercheurs concernés par la lutte et la prévention contre ces infractions et prend en compte la diversité des publics, notamment les mineurs ».  Le CSA déterminera les missions et les membres de cet observatoire.

En dernier lieu, le CSA sera, dorénavant, en charge du contrôle des demandes de retrait des contenus et de blocage administratif formulées par l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication concernant les sites pédopornographiques ou  provoquant des actes terroriste ou en faisant l’apologie. Avant l’adoption de cette loi, la CNIL était en charge de ce contrôle.

La liberté d’expression en ligne menacée ?

Au cours de l’année 2019, cette loi a fait naître de nombreuses préoccupations tenant principalement à la protection de la liberté d’expression en ligne et au délai de retrait des contenus haineux.

Dans ses observations formulées sur la loi, la Commission européenne avait souligné la nécessité de fixer un délai « proportionné et raisonnable compte tenu, notamment, du contenu illicite concerné ». En effet, comme exposé par la Commission, l’examen de l’illicéité d’un contenu dépend de la nature de celui-ci. Certains contenus nécessitent une évaluation approfondie et le délai de 24 heures pourrait ainsi s’avérer trop court dans des cas complexes.

Combiné à la sanction pécuniaire de 250 000 euros et à d’autres sanctions plus élevées en cas de manquements répétés, le retrait des contenus haineux sous 24 heures pourrait conduire selon certains à une « sur-censure » en ligne. Ainsi, la Commission nationale consultative des droits de l’homme (CNCDH) soulignait que cette disposition « encourage les plateformes, par excès de prudence et, éventuellement, avec une intervention humaine minimale, à retirer des contenus n’étant pas manifestement haineux ».

Cette question d’une éventuelle atteinte à la liberté d’expression a été évoquée par les sénateurs dans leur saisine du Conseil constitutionnel que nous expliquons dans notre article « La loi Avia : saisine du Conseil constitutionnel ». Ils font notamment valoir que l’instauration du délit de non-retrait sous 24 heures ainsi que le durcissement du régime applicable aux contenus à caractère terroriste ou pédopornographiques portent atteinte à l’article 11 de la Déclaration des Droits de l’Homme et du Citoyen qui consacre la liberté d’expression.

Des moyens technologiques perfectibles ?

Des critiques ont aussi été formulées concernant les moyens technologiques utilisés pour traiter les notifications.

Ainsi, le Conseil national du numérique (CNNUM) estime que cela « pourrait encourager le recours à des systèmes de filtrage automatisé ». En effet, les plateformes recourent à des algorithmes qui peuvent traiter certains types de contenus illicites (contenus pédopornographiques par exemple) avec un taux de réussite élevé. Toutefois, le traitement d’autres contenus illicites comme l’incitation à la haine nécessite encore une évaluation par l’homme, les algorithmes seuls n’étant pas capables de saisir le contexte ni le langage humain.

Plus récemment, les grandes plateformes comme YouTube et Facebook ont déclaré que pendant la crise sanitaire actuelle, elles recourent davantage aux systèmes de détection automatique des contenus et que des erreurs pourraient se produire en raison du confinement de leur personnel.

Ainsi, à l’heure actuelle, ces moyens technologiques sont perfectibles. Sur ce point, le CNNUM souligne que les pouvoirs publics « devraient exiger des plateformes des études d’impact permettant d’évaluer l’efficacité et la fiabilité de ces dispositifs et encadrer leur utilisation en fonction des impératifs de l’État de droit ».

Mathias Avocats vous tiendra informés de la décision du Conseil constitutionnel qui devrait être rendue dans un mois.