Dans aucun autre domaine, la boussole éthique n'est plus pertinente que dans celui de l'intelligence artificielle.
Dans la pratique, l'un des défis posés par les grands modèles de langage qui sous-tendent la GenAI est de collecter des données qui représentent une population diversifiée, sans introduire ni reproduire de préjugés. Or, les modèles linguistiques de grande taille étant entraînés avec d'énormes ensembles de données historiques, ils perpétuent le meilleur comme le pire de ce qui existe dans la société.
Il faut donc activement s’assurer que les informations sur lesquelles ces machines s’entraînent puissent produire des résultats souhaitables en termes de diversité. Cela peut impliquer des compromis. Par exemple, renoncer à certaines performances pour ne pas exposer le modèle à des données d'entrée explicitant la race ou le sexe, qui risqueraient de perpétuer une différenciation biaisée constatée dans les données.
Il existe plusieurs moyens de circonscrire les préjugés. Les trois suivants sont d’autant plus intéressants qu’ils permettent également de protéger la confidentialité des données.
Si le point 1 ci-dessous concerne tous les utilisateurs de GenAI, les points 2 et 3 en revanche ne concernent que les utilisateurs de GenAI créant leur propre LLM. Certaines entreprises, en effet, voudront maîtriser les données sur lesquelles leur LLM est entraîné : parce que les enjeux de confidentialité sont tels que les données ne peuvent sortir de l'organisation (dans les industries de l’aérospatiale et de la défense, par exemple) ; ou parce que les LLM génériques ne reflètent pas les spécificités sémantiques ou syntaxiques du corpus de textes de l'entreprise.
S’il est utile de contrôler les données qui circulent dans un modèle, une entreprise ne peut se contenter d’une analyse post-mortem. Il est nécessaire, en amont, d’intégrer les meilleures pratiques dans les processus de développement et de déploiement de l'IA. En, effet, un cadre d'IA responsable doit mettre l'accent sur la confiance dès la conception.
Les entreprises savent qu'elles ont besoin d’une IA responsable, mais. peu ont déjà atteint un niveau de maturité suffisant. L’effort humain et financier, important, en vaut cependant la peine.
À partir d’une certaine échelle, les projets d’IA ne peuvent tout simplement pas s’en passer.
À court terme, on passe plus de temps à s'assurer que les choses fonctionnent, mais cela permet d'aller plus vite à long terme.
Les entreprises se sentent poussées à agir rapidement pour tirer parti de l'efficacité et de l'innovation qu'offre l'IA, mais le faire sans mettre en place des garde-fous adéquats peut en fin de compte les ralentir - ou pire encore, causer un préjudice sociétal important. Intégrer les principes d’une IA responsable dans l'état d'esprit, les pratiques et les outils de l'entreprise est une condition indispensable à la sécurité et à la réussite des projets d’IA.
Lire l’article complet : From principles to practice: Responsible AI in action
Merci à Ombline de Mascureau, Senior manager, et à Selma Mehyaoui, Associate, PwC France et Maghreb, pour leur contribution à ce texte.
Benoît Sureau
Associé, Financial Institutions, Risk Management & Blockchain, PwC France et Maghreb
Pierre Capelle
Associé responsable de l’activité Data Analytics et Intelligence Artificielle, PwC France et Maghreb