Logo du cabinet Mathias avocat : image cliquable pour retourner à la page d'accueil
Focus sur l’intelligence artificielle dans le secteur financier : quels usages, quel cadre ?
25 mars 2024

A travers le monde, des milliers de brevets sur des technologies utilisant l’intelligence artificielle (IA) ont été déposés par les institutions bancaires. L’augmentation, ces dernières années, des dépôts de brevets illustre l’intérêt porté par les acteurs du secteur financier à l’IA et exprime une volonté de mieux contrôler les risques et les vulnérabilités (en particulier dans un contexte post-crises : subprimes, dette souveraine, pandémie de Covid-19).

L’IA, une opportunité pour le secteur financier : quelles utilisations pratiques ?

Le secteur financier est caractérisé par l’existence de nombreuses variables influant sur la bonne santé économique d’un acteur spécifique ou sur la conjoncture, telles que les taux de change des différentes devises, le volume et la valorisation des actions cotées en bourse, l’inflation, etc. A cet égard, le processus décisionnel des agents économiques du secteur requiert une analyse complète des données disponibles et, pour cela, l’IA constitue un atout majeur, cette dernière étant conçue pour traiter et interpréter un très grand nombre d’informations, très rapidement.

Cette puissance de calcul peut être exploitée, notamment :

  • dans le cadre d’activités telles que le trading ou les fusions-acquisitions qui requièrent une connaissance et une compréhension précise de tous les paramètres entrant en compte dans l’opération ;
  • par les acteurs du secteur financier afin de mieux évaluer les aléas associés à leurs activités, par exemple en établissant un « scoring » des clients souhaitant obtenir un prêt ou une police d’assurance ;
  • pour définir des tendances prédictives et déceler des activités suspectes (détection de la fraude, lutte contre le blanchiment et le financement du terrorisme, LCB-FT).

D’un point de vue comptable, l’IA constitue une opportunité dans la mesure où l’automatisation de tâches répétitives (réponse aux mails, préparation de devis…) permet de réaliser d’importantes économies d’échelle, tout en libérant du temps de travail aux employés qui peut être consacré à des missions plus complexes. Cependant, l’introduction de l’intelligence artificielle dans le secteur financier s’accompagne de risques qu’il est nécessaire d’anticiper.

Les risques liés à l’usage de l’IA : les identifier et s’en prémunir

Ils sont de divers ordres, notamment :

Risques de biais

Si les algorithmes sont conçus afin d’effectuer des opérations en ne prenant en compte que certains paramètres clairement définis, ils peuvent induire des biais menant à des discriminations.

Risques en matière de cybersécurité

L’usage généralisé des outils fonctionnant grâce à l’IA entraine une multiplication des interactions au sein des systèmes d’informations, les rendant plus vulnérables aux cyberattaques. Les cybercriminels ont établi de nouvelles stratégies exploitant cette faille comme le flooding qui consiste à inonder un algorithme de données erronées dans le but de le dérégler.

Risques en termes de dépendance et adaptabilité

L’établissement de liens toujours plus étroits entre le secteur financier et celui des technologies numériques représente un risque pour les acteurs de la finance qui pourraient devenir dépendants des entités qui produisent les algorithmes.

  • Ces algorithmes pourraient être codés avec des données et des variables très similaires, pouvant engendrer une instabilité financière du fait d’un « comportement moutonnier » des acteurs, menant à des risques (effondrement du cours d’une action, « bulles », etc.)

Parallèlement, une IA qui a été entraînée uniquement dans des contextes « normaux » ne saura pas comment réagir lors d’une situation de crise avec des marchés aux variations erratiques.

Intelligence artificielle dans le secteur financier : cadre légal et préconisations

A l’instar d’autres secteurs d’activités, l’usage de l’IA par les acteurs du secteur financier nécessite de définir un cadre et une méthode, reposant notamment sur :

Dans un précédent article portant sur un guide à l’attention des délégués à la protection des données (DPO), nous rappelions que les dispositions du RGPD garantissent la transparence et la loyauté du processus de traitement des données par l’intelligence artificielle. Dans le même sens, les conclusions rendues par l’avocat général près de la Cour de Justice de l’Union Européenne (CJUE) en date du 16 mars 2023, dans l‘affaire C-634/21 (décision rendue le 7 décembre 2023, qui a a fait l’objet d’une analyse sur le blog), stipulent que le « scoring » constitue une « forme de traitement automatisé de données à caractère personnel » et doit donc respecter les règles de transparence et de protection de la vie privée établies par le RGPD.

  • l’explicabilité des résultats fournis par un algorithme

Chaque décision prise par une intelligence artificielle doit pouvoir être comprise par les personnes concernées, notamment afin d’identifier et d’éliminer les potentiels biais.

Les performances des outils utilisant l’IA doivent également être évaluées régulièrement, pour s’assurer de leur pertinence et protéger leur stabilité (et pouvoir détecter les tentatives de flooding, notamment).

Pour garantir le respect de ces principes, la Commission européenne a adopté un règlement portant sur l’intelligence artificielle, l’AI Act, qui a été voté le 13 mars 2024. Ce dernier contraint notamment les développeurs d’algorithmes à la « transparence » (articles 1 et 13), à l’évaluation des « capacités et les limites de performance » d’un système d’intelligence artificielle (article 13, b) et au respect de normes de cybersécurité « adaptées aux circonstances pertinentes et aux risques » (article 15, 5.). Parallèlement, la Commission européenne a adopté une directive sur la responsabilité en matière d’intelligence artificielle qui précise les modalités des réparations et les sanctions encourues en cas de violation des dispositions de l’AI Act. Plus spécifiquement, cette directive introduit deux mesures principales : une « présomption de causalité », en faveur des victimes ; et l’accès aux éléments de preuve (détenus par les entreprises ou les fournisseurs, lorsque ces derniers utilisent de l’IA à haut risque).

Vous accompagner dans le développement de vos projets, former vos équipes : nous mettons nos expertises à votre service !