Mathias | Avocats

Dans sa nouvelle proposition de règlement dit Digital Services Act, la Commission européenne prévoit de nouvelles obligations à la charge des hébergeurs, y compris les plateformes en ligne, au regard des contenus diffusés sur leurs services. Ainsi, cette proposition vise à remplacer la directive du 8 juin 2000 sur le commerce électronique encadrant notamment les contenus illicites en ligne.

Quelles sont les nouvelles obligations proposées par la Commission ? Comment leur respect sera-t-il assuré ? Quid des sanctions prévues en cas de manquement ?

Quelles sont les nouvelles obligations ?

 Comme nous l’expliquons dans un article dédié, le régime de responsabilité allégé des fournisseurs de services intermédiaires est maintenu. Toutefois, la proposition de règlement introduit la qualification de plateforme et propose de nouvelles obligations dites de diligence à la charge de ces acteurs.

En effet, les risques au regard de la diffusion et de la prolifération des contenus illicites dépendent de la nature des services proposés par les différents acteurs en ligne ainsi que de leur taille. Ainsi, la Commission propose un socle commun de règles qui sera applicable à tout hébergeur, y compris les plateformes. Ensuite, en fonction de la taille de ces dernières, d’autres obligations viennent s’ajouter à ce socle.

Par le biais de ces nouvelles obligations, la Commission souhaite, ainsi, créer un cadre juridique équilibré qui prend en compte les différents intérêts en jeu, à savoir notamment la création d’un environnement numérique sécurisé et la protection de la liberté d’expression. A ce titre, la proposition de Digital Services Act vise à responsabiliser non seulement les plateformes en ligne mais également les internautes, tout en mettant en place une surveillance efficace.

Les principales obligations prévues par la proposition de règlement sont les suivantes.

  • Mécanisme de notification et d’action pour les hébergeurs et les plateformes

Tous les hébergeurs devront mettre en place un mécanisme de notification et d’action afin que tout utilisateur puisse signaler les contenus illicites (article 14). A ce titre, ils devront mettre à disposition un système permettant aux utilisateurs de leur communiquer par voie électronique un certain nombre d’informations (motifs du signalement, adresse URL du contenu, nom et adresse électronique du notifiant, déclaration de bonne foi du notifiant).

Rappelons qu’un tel mécanisme est déjà prévu en droit français depuis la transposition de la directive du 8 juin 2000 par la loi n° 2004575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN). Toutefois, le formalisme prévu par la LCEN est plus contraignant.

Lorsqu’un contenu est retiré, les hébergeurs devront communiquer à l’utilisateur concerné plusieurs informations dont le fondement de la décision du retrait et les moyens de recours dont dispose l’utilisateur (article 15). A noter qu’aucun délai n’est imposé aux hébergeurs pour l’examen et le retrait des contenus notifiés.

En outre, ils devront expliquer dans les conditions générales d’utilisation (CGU) leurs politiques et moyens de modération des contenus, y compris le recours aux algorithmes et à l’évaluation humaine (article 12).

Ils devront également publier des rapports de transparence, faisant état par exemple du nombre de notifications reçues, du délai nécessaire pour leur traitement et des mesures de modération mises en place de leur propre initiative (article 13). A noter qu’à date, certaines plateformes publient déjà des rapports de transparence en fournissant des chiffres relatifs aux contenus signalés et retirés, le cas échéant.

  • Modalités de traitement des plaintes pour les plateformes

Les plateformes seront soumises à des obligations supplémentaires. Par exemple, elles devront mettre en place un système interne de traitement des plaintes formulées par les utilisateurs contre les décisions prises à l’égard de leurs contenus (article 17).

A noter qu’un dispositif de règlement extrajudiciaire est également prévu (article 18). Ainsi, les utilisateurs pourront saisir un organisme indépendant pour le traitement d’une plainte ou d’un différend qui ne sera pas résolu en interne. Étant précisé que la liste de ces organismes sera publiée sur le site de la Commission européenne.

Par ailleurs, la proposition de Digital Services Act prévoit une obligation de suspendre les comptes d’utilisateurs qui adressent de manière fréquente des notifications ou des plaintes manifestement infondées (article 20). Pour évaluer ces abus d’utilisation, les plateformes devront prendre en compte plusieurs critères qualitatifs et quantitatifs, comme la proportion des notifications infondées par rapport au nombre des notifications reçues ou encore la gravité des abus et leurs conséquences.

Les rapports de transparence publiés par les plateformes devront ainsi inclure des informations relatives aux obligations mentionnées ci-dessus (nombre de différends soumis à un règlement extrajudiciaire, de suspensions en cas abus d’utilisation, etc.).

  • Évaluation et atténuation des risques pour les très grandes plateformes

Les très grandes plateformes devront, quant à elles, évaluer tous les ans les risques systémiques résultant du fonctionnement et de l’utilisation de leurs services (article 26) et prendre des mesures pour atténuer ces risques (article 27). Ces mesures pourront modifier leurs mécanismes de modération des contenus ou encore renforcer la supervision interne de leur fonctionnement.

En dehors de ces obligations, les très grandes plateformes devront réaliser des audits externes en vue de diagnostiquer leur niveau de conformité (article 28). Elles devront également désigner un délégué à la conformité, qui sera le point de contact des autorités compétentes (article 32).

De plus, dans leurs CGU les très grandes plateformes devront communiquer les paramètres utilisés dans leurs systèmes de recommandation de contenus (article 29). Leurs rapports de transparence devront exposer les résultats de l’évaluation des risques et les mesures d’atténuation mises en œuvre ou encore les constats d’audits externes (article 33).

Comment le respect de ces nouvelles obligations sera-t-il assuré ?

Chaque État membre désignera une ou plusieurs autorités compétentes afin d’assurer le respect du règlement. Parmi ces autorités, l’une d’entre elles aura le statut de Coordinateur des services numériques. Les pouvoirs de ce dernier sont larges. Il pourra effectuer des contrôles sur place, demander la communication d’informations auprès des fournisseurs de services intermédiaires ou encore leur demander de prendre un certain nombre d’engagements (article 41).

La Commission propose également la mise en place d’une coopération entre les différents Coordinateurs qui seront réunis au sein d’un Conseil européen des services numériques (article 47).

Il convient de noter que les très grandes plateformes pourront faire l’objet de mesures de contrôle renforcées (article 50). Ainsi, sur la proposition du Conseil ou sur sa propre initiative, la Commission européenne pourra intervenir afin de mener des contrôles sur place (article 54), demander la communication d’informations (article 52) et d’entendre toute personne sous réserve de son consentement (article 54).

Quid des sanctions ?

En cas de non-respect du règlement, le Coordinateur pourra prononcer une sanction pécuniaire dont le montant ne peut pas excéder 6 % du chiffre d’affaires mondial du fournisseur concerné (article 42). Pour les très grandes plateformes, outre le Coordinateur, la Commission sera également compétente pour prononcer de telles sanctions pécuniaires (article 59).

Mathias Avocats vous tiendra informé de l’examen de la proposition de Digital Services Act par le Parlement et le Conseil.