“L’IA responsable est le moyen le plus efficace d’atténuer les risques liés à l’IA. Les organisations doivent évaluer leurs pratiques en place ou en créer de nouvelles pour que leur développement technologique et leur utilisation des données restent responsables, éthiques et prêts pour les réglementations à venir. Les premiers à s’engager dans cette démarche y gagneront un avantage que leurs concurrents ne pourront peut-être jamais dépasser.”
Les algorithmes d’IA dont l’entraînement ingère des données du monde réel exposent l’entreprise à une série de risques.
Depuis que les systèmes automatisés existent, des personnes tentent de les contourner. Il en va de même avec l’IA.
Comme toute technologie, l’IA doit faire l’objet d’une surveillance à l’échelle de l’organisation, avec des risques et des contrôles clairement identifiés.
L’adoption généralisée de l’automatisation dans tous les domaines de l’économie peut avoir un impact sur l’emploi et déplacer la demande vers d’autres compétences.
L’adoption généralisée de systèmes d’IA complexes et autonomes pourrait entraîner le développement de chambres d’écho entre les machines, impactant plus largement les interactions entre humains.
Les objectifs pour lesquels les solutions d’IA sont conçues peuvent entrer en concurrence avec les valeurs de l’entreprise. Identifier des valeurs et donc une approche de l’éthique aide à piloter les systèmes d’IA, mais des désaccords peuvent subsister sur les implications pratiques de cette démarche éthique et sa gouvernance. Ainsi, les catégories de risques ci-dessus constituent également des risques intrinsèquement éthiques.
Les parties prenantes de l’entreprise - les membres du conseil d’administration, les clients, le régulateur, etc. - vont se poser de nombreuses questions sur l’utilisation de l’IA et des données par l’organisation, de leur développement à leur gouvernance. L’entreprise doit non seulement être prête à fournir des réponses, mais également à démontrer une bonne gouvernance et la conformité avec la réglementation.
La boîte à outils de PwC pour une IA responsable fournit des cadres, méthodes et processus personnalisables permettant, de la stratégie à l'exécution, de tirer parti de la puissance de l'IA de manière éthique et responsable. Ces outils servent à adapter des solutions pour répondre à des besoins business spécifiques à une organisation et à son degré de maturité avec l’IA.
Cette boîte à outil PwC répond à un double objectif : elle combine une approche d’IA responsable pour l'IA et une utilisation de l’IA pour mettre en oeuvre l'IA responsable.
IA responsable pour l’IA (Responsibility in AI) : pratique de développement et de déploiement des systèmes d'intelligence artificielle en respectant des principes éthiques, de transparence et de sécurité. L'objectif est de s'assurer que les technologies d'IA sont conçues et utilisées de manière à éviter les préjudices.
IA pour l'IA responsable (AI for Responsible AI) : utilisation de technologies d'intelligence artificielle pour promouvoir et garantir des pratiques responsables dans le développement et le déploiement des systèmes d'IA (détection des biais, audit, transparence, gestion/prédiction des risques).
Ainsi, l'IA responsable se concentre sur les pratiques éthiques et sûres dans le développement de l'IA, tandis que l'IA pour l'IA responsable utilise les capacités de l'IA pour soutenir et garantir ces pratiques éthiques et acceptables.
La boîte à outils de PwC couvre toutes les dimensions de l'IA responsable :
Les équipes pluridisciplinaires de PwC ont l’expérience du développement d’une IA responsable en interne et chez nos clients, et l'expertise nécessaire pour donner vie à de grandes idées à chaque étape de l’adoption de l’IA.
Gouvernance de l’IA, des données et de l’utilisation des données
IA et éthique des données
Expertise en apprentissage automatique (machine learning), opérations de modèles et science des données
Confidentialité
Cybersécurité
Gestion des risques
Gestion du changement
Conformité et services juridique
Durabilité et changement climatique
Diversité et inclusion
PwC est fier de collaborer avec le Forum économique mondial pour élaborer des lignes directrices et des pratiques en avance de phase pour le développement d’une IA responsable dans tous les secteurs.
Évaluation technique et qualitative des modèles et des processus pour identifier les écarts à combler
Développement et conception de nouveaux modèles et processus en réponse à des besoins et opportunités spécifiques
Validation et passage à l’échelle (déploiement de modèles techniques, gestion du changement en matière de gouvernance et d'éthique)
Évaluation et monitoring, confirmation de la conception du cadre de contrôle, formation à l'audit interne
Merci à Ombline de Mascureau, Senior manager, PwC France et Maghreb, pour sa contribution à ce texte.
Benoît Sureau
Associé, Financial Institutions, Risk Management & Blockchain, PwC France et Maghreb