L'IA responsable : une IA en laquelle on peut avoir confiance

Personne dans une salle de serveurs informatiques
  • Publication
  • 16 sept. 2024

Le potentiel de l’intelligence artificielle (IA) est quasiment illimité pour faire progresser notre société. Mais à grand potentiel, grands risques.

 

Lorsqu’une entreprise utilise l’IA pour prendre des décisions critiques sur la base de données sensibles, elle doit s’assurer de bien comprendre ce que fait l’IA et pourquoi. Les résultats de l’IA sont-ils biaisés par des préjugés ? Violent-ils la vie privée de quelqu’un ? Le dirigeant est-il en mesure de gouverner et surveiller une technologie aussi puissante ? Si la nécessité d’une IA responsable est reconnue par tous, les organisations n’en sont pas toutes aux mêmes étapes du voyage.

“L’IA responsable est le moyen le plus efficace d’atténuer les risques liés à l’IA. Les organisations doivent évaluer leurs pratiques en place ou en créer de nouvelles pour que leur développement technologique et leur utilisation des données restent responsables, éthiques et prêts pour les réglementations à venir. Les premiers à s’engager dans cette démarche y gagneront un avantage que leurs concurrents ne pourront peut-être jamais dépasser.”

Benoît SureauAssocié, PwC France et Maghreb

Risques potentiels de l'IA

Risques sur la performance

Les algorithmes d’IA dont l’entraînement ingère des données du monde réel exposent l’entreprise à une série de risques.

  • Risques d'erreurs
  • Risques de préjugés et de discrimination
  • Risques d’opacité et de manque d’interprétabilité
  • Risques d’instabilité des performances

Risques liés à la sécurité

Depuis que les systèmes automatisés existent, des personnes tentent de les contourner. Il en va de même avec l’IA.

  • Attaques malveillantes
  • Cyber-intrusions et pertes de confidentialité
  • Risques liés aux logiciels en open source

Risque de perte de contrôle

Comme toute technologie, l’IA doit faire l’objet d’une surveillance à l’échelle de l’organisation, avec des risques et des contrôles clairement identifiés.

  • Facteurs humains
  • Détection d’IA malveillantes et de conséquences inattendue
  • Manque de responsabilité claire

Risques économiques

L’adoption généralisée de l’automatisation dans tous les domaines de l’économie peut avoir un impact sur l’emploi et déplacer la demande vers d’autres compétences.

  • Transformation des métiers / compétences
  • Renforcement des inégalités
  • Concentration du pouvoir au sein d’une ou quelques entreprises

Risques sociétaux

L’adoption généralisée de systèmes d’IA complexes et autonomes pourrait entraîner le développement de chambres d’écho entre les machines, impactant plus largement les interactions entre humains.

  • Désinformation et manipulation
  • Bulles informationnelles
  • Surveillance et guerre informationnelle

Risques pour l’entreprise

Les objectifs pour lesquels les solutions d’IA sont conçues peuvent entrer en concurrence avec les valeurs de l’entreprise. Identifier des valeurs et donc une approche de l’éthique aide à piloter les systèmes d’IA, mais des désaccords peuvent subsister sur les implications pratiques de cette démarche éthique et sa gouvernance. Ainsi, les catégories de risques ci-dessus constituent également des risques intrinsèquement éthiques.

  • Risque pour la réputation
  • Risque pour la performance financière
  • Risques juridiques et de conformité
  • Risque d’incohérence avec les valeurs

La boîte à outils PwC de l’IA responsable

Les parties prenantes de l’entreprise - les membres du conseil d’administration, les clients, le régulateur, etc. - vont se poser de nombreuses questions sur l’utilisation de l’IA et des données par l’organisation, de leur développement à leur gouvernance. L’entreprise doit non seulement être prête à fournir des réponses, mais également à démontrer une bonne gouvernance et la conformité avec la réglementation.

La boîte à outils de PwC pour une IA responsable fournit des cadres, méthodes et processus personnalisables permettant, de la stratégie à l'exécution, de tirer parti de la puissance de l'IA de manière éthique et responsable. Ces outils servent à adapter des solutions pour répondre à des besoins business spécifiques à une organisation et à son degré de maturité avec l’IA.

IA responsable : deux objectifs

Cette boîte à outil PwC répond à un double objectif : elle combine une approche d’IA responsable pour l'IA et une utilisation de l’IA pour mettre en oeuvre l'IA responsable.

  • IA responsable pour l’IA (Responsibility in AI) : pratique de développement et de déploiement des systèmes d'intelligence artificielle en respectant des principes éthiques, de transparence et de sécurité. L'objectif est de s'assurer que les technologies d'IA sont conçues et utilisées de manière à éviter les préjudices.

  • IA pour l'IA responsable (AI for Responsible AI) : utilisation de technologies d'intelligence artificielle pour promouvoir et garantir des pratiques responsables dans le développement et le déploiement des systèmes d'IA (détection des biais, audit, transparence, gestion/prédiction des risques).

Ainsi, l'IA responsable se concentre sur les pratiques éthiques et sûres dans le développement de l'IA, tandis que l'IA pour l'IA responsable utilise les capacités de l'IA pour soutenir et garantir ces pratiques éthiques et acceptables. 

La boîte à outils de PwC couvre toutes les dimensions de l'IA responsable :

Qui est responsable de votre système d’IA ? Une IA responsable a pour base un cadre de gouvernance axé sur les risques et les contrôles tout au long du parcours de l’IA, dans toutes les strates de l’entreprise. Les modèles de gouvernance robustes développés par PwC peuvent s'adapter à toute organisation, tandis qu’un cadre orchestre la surveillance en définissant clairement les rôles et responsabilités, les attendus des trois lignes de défense et des mécanismes de traçabilité et d'évaluation continue.

Anticipez-vous les exigences futures de conformité ? Respecter la réglementation actuelle en matière de protection des données et de vie privée ainsi que les normes industrielles, ce n'est qu'un début. PwC suit l'évolution du paysage réglementaire pour identifier les évolutions que votre organisation doit connaître. Nos équipes accompagnent la gestion du changement, conçoivent des politiques organisationnelles sur mesure et préparent les équipes IT aux futures règles de conformité.

Comment identifiez-vous les risques ? Des pratiques étendues de détection et d'atténuation des risques sont nécessaires pour évaluer les risques à chaque étape de développement et de déploiement, mais aussi pour traiter les risques et les préjudices nouveaux ou existants. Pour une IA responsable, l'entreprise peut s'appuyer sur les structures de gestion des risques existantes pour identifier les nouvelles capacités et soutenir le développement des modèles opérationnels nécessaires.

Votre IA est-elle équitable et dépourvue de biais ? Un système d'IA exposé aux biais inhérents à une source de données particulière risque de produire des résultats potentiellement défavorables à une personne ou un groupe de personnes. Le concept d'équité connaît des définitions nombreuses et parfois contradictoires. Une IA responsable aide l’organisation à prendre conscience des biais et des risques de biais, et à établir des mesures correctives permettant aux systèmes d’améliorer la prise de décision.

Avec une IA standard (nous ne parlons pas de GenAI ici), est-il possible de savoir comment celle-ci a pris telle ou telle décision ? Un effet de "boîte noire", limitant les organisations dans leur capacité à prendre des décisions, peut apparaître si les utilisateurs humains ne sont pas en mesure de comprendre comment fonctionne le système d'IA. Dans son accompagnement des différentes parties prenantes de l’entreprise en fonction de leurs besoins et de leurs usages, PwC aide notamment à expliquer à la fois la prise de décision globale et les choix et prédictions individuels d’un système d’IA.

Comment votre système d'IA protège-t-il la vie privée ? La boîte à outils PwC pour une IA responsable permet d’identifier des stratégies pour prendre en compte la protection des données privées et répondre à l'évolution des attentes des consommateurs.

Quels sont les risques en matière de sécurité, quelles sont les implications à gérer ? Détecter et atténuer les vulnérabilités des systèmes d’IA est essentiel pour maintenir l'intégrité des algorithmes et des données sous-jacentes tout en prévenant les attaques malveillantes. L’immense potentiel de l'IA va de pair avec une recherche accrue de protection et d’efficacité dans la gestion des risques cyber.

Votre IA se comportera-t-elle comme prévu ? Un système d'IA qui ne fait pas preuve de stabilité et ne se montre pas systématiquement à la hauteur des exigences de performance présente plus de risques d’erreurs et de mauvaises décisions. Pour renforcer les systèmes d'IA, des outils existent qui aident à identifier les faiblesses potentielles des modèles et à surveiller les performances à long terme.

Votre IA est-elle sûre pour la société ? La sécurité des systèmes d'IA doit être évaluée selon plusieurs critères : l'impact potentiel sur les utilisateurs, la capacité à générer des résultats dignes de confiance, la capacité à prévenir les actions nuisibles, qu’elles soient volontaires ou involontaires.

Votre utilisation des données et votre système d’IA sont-ils éthiques ? Le cadre éthique de PwC pour les données et l'IA apporte des conseils et propose une approche pratique pour développer des solutions d'IA et de données éthiques et morales, et mettre en place leur gouvernance. Cette approche aide notamment à contextualiser et appliquer les principes éthiques, tout en identifiant et en apportant des solutions pour traiter les principaux risques éthiques.

La confiance, au coeur de la raison d’être de PwC

Les équipes pluridisciplinaires de PwC ont l’expérience du développement d’une IA responsable en interne et chez nos clients, et l'expertise nécessaire pour donner vie à de grandes idées à chaque étape de l’adoption de l’IA.

  • Gouvernance de l’IA, des données et de l’utilisation des données

  • IA et éthique des données

  • Expertise en apprentissage automatique (machine learning), opérations de modèles et science des données 

  • Confidentialité

  • Cybersécurité

  • Gestion des risques

  • Gestion du changement 

  • Conformité et services juridique

  • Durabilité et changement climatique

  • Diversité et inclusion

PwC est fier de collaborer avec le Forum économique mondial pour élaborer des lignes directrices et des pratiques en avance de phase pour le développement d’une IA responsable dans tous les secteurs.  

  • Évaluation technique et qualitative des modèles et des processus pour identifier les écarts à combler

  • Développement et conception de nouveaux modèles et processus en réponse à des besoins et opportunités spécifiques

  • Validation et passage à l’échelle (déploiement de modèles techniques, gestion du changement en matière de gouvernance et d'éthique)

  • Évaluation et monitoring, confirmation de la conception du cadre de contrôle, formation à l'audit interne 

Merci à Ombline de Mascureau, Senior manager, PwC France et Maghreb, pour sa contribution à ce texte.

Suivez-nous !

Contactez-nous

Benoît Sureau

Benoît Sureau

Associé, Financial Institutions, Risk Management & Blockchain, PwC France et Maghreb

Masquer