Logo du cabinet Mathias avocat : image cliquable pour retourner à la page d'accueil
Les enjeux éthiques des algorithmes et de l’IA : le rapport de la Cnil
28 décembre 2017

La loi n°2016-1321 du 7 octobre 2016 pour une République numérique a confié à la Commission nationale de l’informatique et des libertés (Cnil) la mission de conduire une réflexion sur les enjeux éthiques et les questions de société soulevés par l’évolution des technologies numériques. Dans ce contexte, la Cnil a initié une réflexion sur les enjeux éthiques des algorithmes et de l’Intelligence Artificielle (IA) et vient de publier son rapport.

Au sein de ce dernier, la Cnil définit les algorithmes comme « une suite finie et non ambigüe d’instructions permettant d’aboutir à un résultat à partir de données fournies en entrée ».

En revanche, la Cnil définit l’IA comme une « nouvelle classe d’algorithmes, paramétrés à partir de techniques dites d’apprentissage : les instructions à exécuter ne sont plus programmées explicitement par un développeur humain, elles sont en fait générées par la machine elle-même, qui « apprend » à partir des données qui lui sont fournies ». On parle de « machine learning » ; c’est-à-dire de « la science qui consiste à faire faire aux machines ce que l’homme ferait moyennant une certaine intelligence » (Marvin Minsky). Il apparaît donc que les algorithmes informatiques et l’IA sont étroitement liés.

La Cnil a identifié plusieurs problématiques soulevées par les algorithmes et l’IA notamment concernant le Big Data et la protection des données à caractère personnel traitées par l’IA ainsi que la dilution de la responsabilité. Cette dernière serait la conséquence des systèmes algorithmiques complexes et segmentés.

Afin de répondre aux problématiques soulevées et d’élaborer un modèle français de gouvernance éthique de l’IA, la Cnil a dégagé deux principes fondateurs et six recommandations opérationnelles. Mathias Avocats présente les points clés du rapport de la Cnil.

Quels sont les principes fondateurs identifiés ?

  • Principe de loyauté

Le principe de loyauté a notamment été formulé par le Conseil d’Etat dans son étude annuelle de 2014 sur le numérique et les droits fondamentaux. Selon lui, « la loyauté consiste à assurer de bonne foi le service de classement ou de référencement sans chercher à altérer ou à détourner à des fins étrangères à l’intérêt des utilisateurs ». Ce principe s’applique uniquement aux plateformes et a été consacré dans la loi n°2016-1321 du 7 octobre 2016 pour une République numérique. Il en découle notamment une obligation pour les plateformes d’informer les utilisateurs sur les critères de classement et de référencement mis en œuvre.

La Cnil estime que le principe de loyauté devrait s’appliquer de manière plus large à l’ensemble des algorithmes. La notion d’ « intérêt des utilisateurs » pourrait s’entendre d’une manière collective et ne plus être limitée aux utilisateurs de plateformes. Ainsi, un algorithme dit « loyal » ne devrait pas avoir pour effet de susciter, de reproduire ou de renforcer quelque discrimination que ce doit.

Néanmoins, la Cnil souligne la difficulté de concilier le principe de loyauté avec la montée en puissance des algorithmes de « machine learning » qui peuvent parfois se comporter de façon opaque pour les concepteurs de l’algorithme. Si le concepteur ne comprend pas pleinement comment l’algorithme fonctionne, comment assurer la loyauté de l’algorithme et éviter toute discrimination ?

Il convient de souligner que le principe de loyauté se retrouve dans la loi n°78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés. Elle exige que les personnes concernées soient informées de manière loyale sur le traitement de leurs données à caractère personnel et leur confère notamment un droit d’accès.

  • Principe de vigilance

Ce principe a pour objectif de limiter la dilution de la responsabilité et d’encadrer le caractère mouvant et évolutif des algorithmes de « machine learning ». Ces derniers sont capables de générer des effets imprévisibles à leur conception. En surveillant plus attentivement les évolutions de l’IA, les personnes seront capables d’appréhender toute discrimination plus rapidement et de mettre en œuvre des mesures rectificatives.

La Cnil adopte une démarche de responsabilisation en proposant d’imposer une obligation de vigilance aux concepteurs de l’algorithme et aux personnes déployant l’IA. En outre, ils seront plus à même d’assurer la loyauté de l’algorithme et de répondre aux questions des utilisateurs de telles technologies.

Quelles sont les recommandations opérationnelles élaborées par la Cnil ?

  • Former à l’éthique tous les acteurs « maillons » de la chaîne algorithmique (ex : concepteurs d’algorithme, professionnels, citoyens…) : chaque acteur doit être à même de comprendre le fonctionnement de la machine ou de la technologie ;
  • Rendre les systèmes algorithmiques compréhensibles notamment en renforçant les droits existants (ex : droit d’information, droit d’accès…) ;
  • Travailler l’interface entre le système algorithmique et son utilisateur afin de le rendre plus transparent et compréhensible ;
  • Constituer une plateforme nationale d’audit des algorithmes afin de contrôler leur conformité à la loi et leur loyauté ;
  • Encourager la recherche de solutions techniques pour faire de la France le leader de l’IA éthique : il s’agit notamment de favoriser l’explication sur le fonctionnement et la logique des algorithmes afin de fournir aux acteurs des outils robustes pour contrôler, maîtriser et surveiller les impacts des algorithmes et de l’IA ;
  • Renforcer la fonction éthique au sein des entreprises (ex : comité éthique dans l’entreprise, révision des chartes déontologiques…).

Pour poursuivre cette analyse, Mathias Avocats vous propose de découvrir le livre blanc sur les principales questions juridiques (8 fiches thématiques) et leurs conséquences opérationnelles.