Une chaire « IA Explicable » pour lutter contre le blanchiment et le financement du terrorisme

L’objectif ? Créer un cadre optimal pour la LCB-FT*

Octobre 2020

Mise en place en partenariat avec le pôle Innovation de l’ACPR**, Télécom ParisTech, Dataiku et PwC France et Maghreb, la chaire de recherche sur l’Intelligence Artificielle est appliquée à la lutte contre le blanchiment et le financement du terrorisme (XAI4AML).

Financée par l’Agence Nationale de la Recherche (ANR), cette chaire se déroulera sur quatre années. 
Son objectif ? Permettre de développer un cadre optimisé pour le déploiement d’une IA responsable et éthique, et répondre aux enjeux réglementaires de LCB-FT*.

* Lutte contre le blanchiment et le financement du terrorisme
** ACPR : Autorité de Contrôle Prudentiel et de Résolution

Femme de dos sur ordinateur

La LCB-FT, un enjeu pour les établissements financiers

En matière de blanchiment d'argent et de financement du terrorisme, les criminels ne manquent pas de créativité pour imaginer des schémas de plus en plus complexes. Les institutions financières, quant à elles, ont investi dans des systèmes qui, trop standards ou mal paramétrés, génèrent aujourd’hui un nombre conséquent de faux positifs et ne permettent pas de détecter l’ensemble des risques auxquels est exposé l’établissement.

L’Intelligence Artificielle, un levier d'optimisation des dispositifs LCB-FT

Aujourd’hui les banques sont à la recherche de dispositifs LCB-FT plus efficaces et capables de faire face à l'évolution constante des schémas criminels. L'utilisation de l'Intelligence Artificielle répond déjà à certains enjeux, par la mise en place de technologies qui permettent de traiter de plus larges volumes de données. Le développement d'algorithmes, supervisés ou non, explorant ces données de façon auto-apprenante, permettra une amélioration continue de la détection des risques.

Une IA responsable, à la fois éthique et explicable

L’utilisation de l’Intelligence Artificielle dans le cadre de la LCB-FT doit se faire dans le respect des règles d’éthique et d’explicabilité des algorithmes, de l'alimentation des données à leur traitement par les algorithmes. Ces derniers devant être justifiables vis-à-vis du régulateur, des organismes de contrôles internes ou des personnes en charge de la conformité. Ainsi, une gouvernance claire est indispensable entre les algorithmes et les hommes et femmes qui les créent.

Pourquoi une chaire sur l’IA ?

La chaire XAI4AML dont PwC est partenaire a pour objectifs de :

  • comprendre les défis auxquels sont confrontés les banques établissements financiers en termes de LCB-FT ;
  • mesurer l’efficacité des systèmes actuels de LCB-FT ;
  • analyser les coûts et les avantages de la mise en œuvre de l’IA dans la LCB-FT ;
  • explorer comment différents niveaux d’explicabilité peuvent affecter le déploiement de l’IA dans la LCB-FT ;
  • réduire l’incertitude réglementaire pour favoriser l’adoption de solutions d’IA plus efficaces pour lutter contre la criminalité financière.
Deux hommes travaillants
Suivez-nous !

Contactez-nous

Sébastien d'Aligny

Sébastien d'Aligny

Associé Financial Crime, PwC France et Maghreb

Tel : +33 1 56 57 15 32

Jean Barrère

Jean Barrère

Associé Data Intelligence, PwC France et Maghreb

Tel : +33 1 56 57 57 60

Marielle Fernainé

Marielle Fernainé

Directrice Financial Services Risk and Regulation, PwC France et Maghreb

Tel : +33 1 56 57 56 60

Masquer