Un accord provisoire sur le futur règlement dit Digital Services Act est intervenu le 23 avril 2022 entre le Conseil de l’Union européenne et le Parlement européen. Présenté par la Commission européenne en décembre 2020, ce texte prévoit de nouvelles obligations à la charge des intermédiaires en ligne, y compris les plateformes, au regard des contenus diffusés sur leurs services.
Une fois définitivement adopté, ce règlement remplacera la directive du 8 juin 2000 sur le commerce électronique encadrant notamment les contenus illicites en ligne.
Quelles seront les nouvelles obligations à la charge des plateformes ? Comment leur respect sera-t-il assuré ? Quid des sanctions prévues en cas de manquement ?
Des obligations graduelles en fonction de la taille et des risques
Comme nous l’expliquons dans un article dédié, le régime de responsabilité des fournisseurs de services intermédiaires reste très proche de celui établi par la directive sur le commerce électronique. Toutefois, le règlement introduit la qualification de plateforme et propose de nouvelles obligations à la charge de ces acteurs.
En effet, les risques au regard de la diffusion et de la prolifération de contenus illicites dépendent de la nature des services proposés par les différents acteurs en ligne ainsi que de leur taille. Ainsi, le législateur européen établit un socle commun de règles qui sera applicable aux hébergeurs et aux plateformes. Ensuite, en fonction de la taille de ces dernières, d’autres obligations viennent s’ajouter à ce socle.
Par le biais de ces nouvelles obligations, le législateur européen souhaite créer un cadre juridique équilibré qui prend en compte les différents intérêts en jeu, à savoir notamment la création d’un environnement numérique sécurisé et la protection de la liberté d’expression. A ce titre, le futur Digital Services Act vise à responsabiliser non seulement les plateformes en ligne mais également les internautes, tout en mettant en place une surveillance efficace.
Les principales obligations prévues par la proposition de règlement sont les suivantes.
- Mécanisme de notification et d’action pour les hébergeurs et les plateformes
Tous les hébergeurs devront mettre en place un mécanisme de notification et d’action afin que tout utilisateur puisse signaler les contenus illicites (article 14). A ce titre, ils devront mettre à disposition un système permettant aux utilisateurs de leur communiquer par voie électronique un certain nombre d’informations (motifs du signalement, adresse URL du contenu, nom et adresse électronique du notifiant, déclaration de bonne foi du notifiant).
Rappelons qu’un tel mécanisme est déjà prévu en droit français depuis la transposition de la directive du 8 juin 2000 par la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN).
Lorsqu’un contenu est retiré, les hébergeurs et les plateformes devront communiquer à l’utilisateur concerné plusieurs informations dont le fondement de la décision du retrait et les moyens de recours dont dispose l’utilisateur (article 15). Aucun délai n’est imposé pour l’examen et le retrait des contenus notifiés.
En outre, ces fournisseurs devront expliquer dans les conditions générales d’utilisation (CGU) leurs politiques et moyens de modération des contenus, y compris le recours aux algorithmes et à l’évaluation humaine (article 12). Si le service en question s’adresse majoritairement à des mineurs, ces informations devront être rédigées de manière simple et compréhensible.
Ils devront également publier des rapports de transparence, faisant état par exemple du nombre de notifications reçues, du délai nécessaire pour leur traitement et des mesures de modération mises en place de leur propre initiative (article 13). A date, certaines plateformes publient déjà des rapports de transparence en fournissant des chiffres relatifs aux contenus signalés et retirés.
- Modalités de traitement des plaintes pour les plateformes
Les plateformes seront soumises à des obligations supplémentaires. Par exemple, elles devront mettre en place un système interne de traitement des plaintes formulées par les utilisateurs contre les décisions prises à l’égard de leurs contenus (article 17).
A noter qu’un dispositif de règlement extrajudiciaire est également prévu (article 18). Ainsi, les utilisateurs pourront saisir un organe indépendant pour le traitement d’une plainte ou d’un différend qui ne sera pas résolu en interne. Cet organe sera certifié par le Coordinateur national pour les services numériques s’il respecte un certain nombre de conditions (impartialité, indépendance, etc.).
Par ailleurs, le futur Digital Services Act prévoit une obligation de suspendre les comptes d’utilisateurs qui adressent de manière fréquente des notifications ou des plaintes manifestement infondées (article 20). Pour évaluer ces abus d’utilisation, les plateformes devront prendre en compte plusieurs critères qualitatifs et quantitatifs, comme la proportion des notifications infondées par rapport au nombre des notifications reçues ou encore la gravité des abus et leurs conséquences.
Les rapports de transparence publiés par les plateformes devront ainsi inclure des informations relatives aux obligations mentionnées ci-dessus (nombre de différends soumis à un règlement extrajudiciaire, de suspensions en cas abus d’utilisation, etc.).
- Évaluation et atténuation des risques pour les très grandes plateformes
Les très grandes plateformes devront, quant à elles, évaluer tous les ans les risques systémiques résultant du fonctionnement et de l’utilisation de leurs services (article 26) et prendre des mesures pour atténuer ces risques (article 27). Ces mesures pourront modifier leurs mécanismes de modération des contenus ou encore renforcer la supervision interne de leur fonctionnement.
En dehors de ces obligations, les très grandes plateformes devront recourir à des audits externes en vue de diagnostiquer leur niveau de conformité (article 28). Elles devront également désigner un délégué à la conformité, qui sera le point de contact des autorités compétentes (article 32).
De plus, dans leurs CGU les très grandes plateformes devront communiquer les paramètres utilisés dans leurs systèmes de recommandation de contenus (article 29). Leurs rapports de transparence devront exposer les résultats de l’évaluation des risques et les mesures d’atténuation mises en œuvre ou encore les constats d’audits externes (article 33).
- Participation à la gestion de crise par les très grandes plateformes
Dans le contexte de la guerre entre la Russie et l’Ukraine, le Conseil de l’Union a ajouté au texte initial proposé par la Commission un mécanisme dit de « réaction aux crises » (tout évènement imprévisible, tel que des guerres ou des actes de terrorisme). Ce mécanisme vise à intégrer les très grandes plateformes dans la gestion de crise au moyen de plusieurs mesures dont notamment l’affichage d’informations relatives à la situation de crise fournies par les Etats membres (article 37).
Comment le respect de ces nouvelles obligations sera-t-il assuré ?
Chaque État membre désignera une ou plusieurs autorités compétentes afin d’assurer le respect du règlement. Parmi ces autorités, l’une d’entre elles aura le statut de Coordinateur des services numériques. Les pouvoirs de ce dernier sont larges. Il pourra effectuer des contrôles sur place, demander la communication d’informations auprès des fournisseurs de services intermédiaires ou encore leur demander de prendre un certain nombre d’engagements (article 41).
Le législateur européen prévoit également la mise en place d’une coopération entre les différents Coordinateurs qui seront réunis au sein d’un Conseil européen des services numériques (article 47).
Il convient de noter que les très grandes plateformes pourront faire l’objet de mesures de contrôle renforcées (article 50). Ainsi, sur la proposition du Conseil ou sur sa propre initiative, la Commission européenne pourra intervenir afin de mener des contrôles sur place (article 54), demander la communication d’informations (article 52) et entendre toute personne sous réserve de son consentement (article 41).
Quid des sanctions ?
En cas de non-respect du règlement, le Coordinateur pourra prononcer une sanction pécuniaire dont le montant représente 6 % du chiffre d’affaires mondial du fournisseur concerné (article 42). Pour les très grandes plateformes, outre le Coordinateur, la Commission sera également compétente pour prononcer de telles sanctions pécuniaires (article 59).
Mathias Avocats vous tiendra informé de l’adoption définitive du Digital Services Act par le Parlement et le Conseil, ainsi que de la date de son entrée en application.