Discours

Artificial intelligence evolution and outcomes – Digital Trust, Data and Cloud

Intervenant

Denis Beau Intervention

Denis Beau, Premier sous-gouverneur de la Banque de France

Mise en ligne le 2 Juillet 2024

Denis Beau Intervention

Point Zero Forum - Zurich

2 juillet 2024

Remarques introductives

Denis Beau, Premier sous-gouverneur
 

Mesdames, Messieurs,

C’est avec grand plaisir que j’ouvre cette table-ronde consacrée à l’intelligence artificielle (IA). L’IA constitue en effet une innovation de rupture, susceptible de conduire à de véritables bouleversements économiques. C’est particulièrement vrai dans le secteur financier, dont l’IA constitue, depuis quelques années déjà, le principal moteur de transformation. L’arrivée de l’IA générative devrait d’ailleurs encore accélérer cette tendance, non seulement en renforçant l’adoption des outils d’IA par les utilisateurs, mais également en accélérant structurellement le rythme de l’innovation (pensons par exemple à la capacité nouvelle de générer du code informatique à partir de requêtes en langage naturel).
 
Ces évolutions, marquantes, ne vont toutefois pas sans poser de questions, et notamment pour le banquier central et le superviseur financier que je suis. Je souhaite partager avec vous quelques-unes de ces interrogations, avant de vous faire part d’un certain nombre de convictions quant à la manière dont nous devons nous emparer du sujet.

*

1/ D’abord, malgré les progrès récents, la technologie sous-jacente ne paraît pas encore entièrement mûre, notamment s’agissant de l’IA générative. Sur ce sujet, un certain nombre de questions restent aujourd’hui sans réponse. J’en aborderai deux, qui pourront d’ailleurs ultérieurement stimuler les discussions du prestigieux panel réuni ici.

Premièrement, la question des modèles à usage général : quelle sera leur performance dans toute une série de tâches intéressant le secteur financier ? Cette question se pose en réalité à deux niveaux. Est-ce que les modèles généralistes vont devenir la norme pour tous les usages, au détriment des modèles spécialisés Les petits modèles bien entraînés – c’est-à-dire plus spécialisés – auront-ils la capacité à tirer leur épingle du jeu face aux gros modèles plus généralistes ? Ces questions de performance ont de nombreuses conséquences potentielles, notamment en matière de concurrence : si les gros modèles généralistes s’imposent dans tous les domaines, nous risquons fort de nous retrouver dans une situation de monopole ou d’oligopole naturel, qui viendrait d’ajouter au caractère déjà largement oligopolistique du marché du cloud.

Deuxièmement, la question des vulnérabilités des systèmes d’IA : si l’on commence à avoir une vision plus précise de la situation, les recherches sur le sujet sont loin d’être terminées. C’est notamment le cas dans le domaine de la cyber-sécurité des modèles d’IA générative, avec la découverte récente des dangers liés à l’ « indirect prompt injection ». Si cette course de vitesse entre le glaive (le développement de nouvelles techniques d’attaque) et le bouclier (l’élaboration de parades efficaces) est classique dans le domaine de la sécurité, notre capacité à sécuriser convenablement les systèmes d’IA aura une influence majeure sur la faculté des différents acteurs à utiliser largement cette technologie.

*

2/ Quand bien même les technologies d’IA ne sont pas encore entièrement mûres, il me semble que les banques centrales et les superviseurs financiers doivent s’en emparer sans attendre, et ce pour au moins trois raisons.

D’abord, pour continuer à assurer nos missions efficacement, en faisant plus et mieux. L’IA peut évidemment nous permettre de gagner en efficacité, en automatisant davantage. Mais nous souhaitons aussi offrir de nouvelles capacités aux agents. C’est ainsi que notre outil LUCIA, un système reposant sur l’IA qui offre la capacité d’analyser de larges volumes d’opérations bancaires, nous permet, au cours de nos contrôles sur place, d’évaluer la performance et la pertinence des modèles de LCB-FT développés par les banques.

Ensuite, pour développer une expertise critique sur l’IA. Utiliser l’IA pour nos propres besoins nous permet d’acquérir progressivement une bonne maîtrise de la technologie, et constitue une manière très efficace d’en appréhender correctement les bénéfices et les risques. Les vertus de l’apprentissage par la pratique expliquent d’ailleurs que les utilisations internes de l’IA soient très complémentaires des missions de surveillance des systèmes d’IA déployés par le secteur financier. C’est ainsi que, très récemment, l’ACPR a organisé, avec l’aide du centre d’innovation de la Banque de France, Le Lab, un « Tech Sprint Suptech », un hackathon destiné à explorer ce que l’IA générative peut apporter aux différents métiers du superviseur. En trois jours, cet événement a permis de révéler le potentiel des grands modèles de langage pour la supervision.

Enfin, pour entraîner l’écosystème financier, en envoyant au marché le signal qu’il peut – ou doit – à son tour se lancer. Par exemple, les travaux de pointe menés à la Banque de France sur la cryptographie post-quantique nous permettent de sensibiliser les acteurs privés à la nécessité de se préoccuper de cette menace.

S’il est donc clair à mes yeux que les banques centrales et les superviseurs doivent se saisir des opportunités offertes par l’IA, la question est : comment procéder ?

*

3/ Il me semble que nous devons d’abord poser un principe fondamental de gouvernance : l’IA doit être au service de l’humanité et de la société, et pas l’inverse. De ce point de vue, même s’il ne résout pas tous les problèmes, l’adoption en cours du règlement européen sur l’IA, premier texte contraignant dans le monde fixant les principes de « l’IA de confiance », constitue une avancée à saluer. Ce texte va notamment permettre de renforcer la confiance des consommateurs, tout en donnant de la sécurité juridique aux opérateurs économiques.

Ce principe de gouvernance peut être complété par trois principes opérationnels.

Premièrement, utiliser l’IA de manière proportionnelle et progressive. Avec une règle simple : plus le cas d’usage est critique pour nos métiers, plus nous devons nous atteler à faire nous-mêmes. Pour des institutions comme les nôtres, cela renvoie notamment à la question fondamentale des données : une partie des données des banques centrales et des superviseurs financiers sont en effet trop confidentielles pour être stockées sur l’infrastructure cloud d’un tiers prestataire.
 
Deuxièmement, expérimenter sans attendre, même via des cas d’usage simple, pour trouver la bonne manière d’intégrer l’IA dans nos métiers, afin d’aboutir à un « agent augmenté » plutôt qu’à un « agent substitué ». Il faut en effet s’attendre à ce que l’IA redessine largement le schéma des interactions homme-machine. Trouver les bonnes combinaisons permet de favoriser l’adoption des nouveaux outils, en emportant l’adhésion des utilisateurs, ce qui constitue un enjeu crucial.
 
Troisièmement, coopérer avec d’autres, pour partager les bonnes pratiques opérationnelles, mais aussi pour construire un cadre cohérent de supervision de l’IA. Je pense bien sûr d’abord à la coopération au niveau international, car les enjeux liés à l’IA sont par nature mondiaux. En la matière, si des nuances peuvent exister quant à la manière de procéder, je relève surtout que de nombreuses juridictions expriment des préoccupations proches, ce qui devrait permettre à la coopération internationale d’avancer. Mais il nous faut aussi coopérer avec les autorités d’autres secteurs, en particulier celles de la concurrence, de la cyber-sécurité, des droits fondamentaux, voire de la transition écologique, car les préoccupations liées à l’IA sont largement interconnectées. Ces différentes coopérations constituent à mes yeux une condition essentielle pour faire émerger les modèles d’IA les plus pertinents et les plus résilients, c’est-à-dire pour influencer le développement de la technologie dans le sens de l’intérêt général.

Je vous remercie pour votre attention.
 

Mise à jour le 3 Juillet 2024