Intelligence Artificielle responsable

Adoptez l’IA dans votre entreprise, oui mais une IA responsable

L’IA est là, bien là pour rester et apporter un potentiel illimité à notre société pour avancer.

Utilisée à bon escient, elle peut générer d’énormes avantages pour les entreprises, les gouvernements et les particuliers du monde entier. Êtes-vous prêts pour l’IA ?

Selon notre dernière étude « Annual Global CEO Survey », l'IA pourrait contribuer à l'économie mondiale à hauteur de 15 700 milliards de dollars d'ici 2030, grâce aux gains de productivité et à la demande croissante des consommateurs, générés par les produits et services améliorés par l'IA. Le potentiel de transformation de l’IA continue d’être une priorité pour les dirigeants d’entreprises : toujours selon notre étude, 40% des dirigeants pensent que l’IA va transformer leur façon de faire des affaires au cours des cinq prochaines années.

Qui dit grand potentiel dit risque important : vos algorithmes prennent-ils des décisions qui correspondent à vos valeurs ? Les clients vous font-ils confiance avec leurs données ? Comment votre marque est-elle affectée si vous ne pouvez pas expliquer le fonctionnement des systèmes d’IA ? Il est essentiel d’anticiper les problèmes et d’assurer la pérennité de vos systèmes pour pouvoir exploiter pleinement le potentiel de l’IA. Membres d’un Conseil d’Administration, PDG, responsable métier ou encore spécialistes de l’IA : c’est une responsabilité qui nous incombe à tous !

Découvrez le guide IA Digne de confiance

64 %

Renforcer la sécurité de l'IA avec validation, surveillance et vérification.


61 %

Créer des modèles d'IA transparents, extensibles et prouvables.


55 %

Créer des systèmes éthiques, compréhensibles, légaux.


52 %

Améliorer la gouvernance avec des modèles d'exploitation et des processus de l'IA.


47 %

Tester le biais dans les données, les modèles et l'utilisation d'algorithmes par l'homme.


3 %

Inexistence de plan pour résoudre ces problèmes d’IA.


Source : Etude PwC 2019 AI Predictions

Question posée : Quelles mesures votre organisation prendra-t-elle en 2019 pour développer des systèmes d'IA responsables, dignes de confiance, équitables et stables ?

Quels sont les risques liés à l’IA ?

Performance

Les algorithmes d’IA qui intègrent des données et des préférences du monde réel sous forme d'entrées courent le risque d'apprendre et d'imiter nos partis pris et nos préjugés. Les risques de performance comprennent :

  • risque d'erreurs
  • risque de biais
  • risque d'opacité
  • risque d'instabilité de performance
  • absence de processus de rétro-action.

Sécurité

Depuis que les systèmes automatisés existent, les humains tentent de les contourner. Ce n'est pas différent avec l'IA. Les risques de sécurité incluent les :

  • risques de cyber-intrusion
  • risques de confidentialité
  • risques des logiciels « Open Source » attaques contradictoires.

Contrôle

Comme toute autre technologie, l’AI devrait avoir une surveillance à l’échelle de l’organisation avec des risques et des contrôles clairement identifiés. Les risques de contrôle incluent :

  • le risque d'IA malveillante
  • l’incapacité à contrôler l'IA malveillante.

Économique

L'adoption généralisée de l'automatisation dans tous les secteurs de l'économie peut avoir un impact sur les emplois et faire évoluer la demande vers différentes compétences.

Les risques économiques comprennent un :

  • risque de déplacements d'emplois
  • risque de concentration du pouvoir au sein d’une ou quelques entreprises seulement risque de responsabilité.

Sociétal

L'adoption généralisée de systèmes d'IA complexes et autonomes pourrait aboutir à la création de « chambres d'écho » entre machines et avoir des effets plus vastes sur l'interaction entre humains. Les risques sociétaux incluent le :

  • risque de prolifération d'armes autonomes 
  • risque de fracture de l'intelligence.

Éthique

Les solutions d'IA sont conçues avec des objectifs spécifiques en tête qui peuvent entrer en conflit avec les valeurs organisationnelles et sociales globales au sein desquelles elles opèrent. Les risques éthiques incluent ainsi le risque de désalignement des valeurs.

Boîte à outils PwC pour une IA responsable

Membres du conseil d’administration, clients ou encore régulateurs, vos parties prenantes s’interrogeront sur l'utilisation de l'IA et de ses données par votre organisation, de la manière dont elles ont été développées jusqu’à leur gestion. Vous devez non seulement être prêt à fournir les réponses, mais également avoir mis en place une gouvernance continue et une conformité réglementaire.

Notre boîte à outils pour une IA responsable est une suite de cadres, d'outils et de processus personnalisables conçus pour vous aider à exploiter la puissance de l'IA de manière éthique et responsable, de la stratégie jusqu’à l'exécution. Avec cette boîte à outils, nous adapterons nos solutions aux besoins spécifiques et à la maturité de votre entreprise.

Boîte à outils PwC pour une IA responsable

Réalisez dès maintenant un auto-diagnostic gratuit d'IA responsable (en anglais)

{{filterContent.facetedTitle}}

Suivez-nous !

Contactez-nous

Pierre Capelle

Pierre Capelle

Associé responsable de l’activité Data Analytics et Intelligence Artificielle, PwC France et Maghreb

Masquer