L'IA va transformer le secteur financier, le superviseur évalue les risques

 |   |  1113  mots
« Nous avons voulu livrer un diagnostic au moment où le secteur financier s'apprête à généraliser l'usage de l'IA » explique l'ACPR qui considère que « le secteur semble bel et bien au seuil d'un ensemble d'innovations qui vont profondément le transformer. »
« Nous avons voulu livrer un diagnostic au moment où le secteur financier s'apprête à généraliser l'usage de l'IA » explique l'ACPR qui considère que « le secteur semble bel et bien au seuil d'un ensemble d'innovations qui vont profondément le transformer. » (Crédits : ACPR)
Le superviseur des banques et des assureurs, l'ACPR, publie un rapport et lance une consultation publique sur les usages de l'intelligence artificielle dans la finance. Jugée prometteuse, la technologie pose aussi des risques de discrimination par les algorithmes et accroît les enjeux de cybersécurité.

Du chatbot qui répond dans l'appli mobile aux questions des clients d'Orange Bank à l'analyseur de courrier électronique pour les conseillers du Crédit Mutuel, en passant par les outils de traduction automatique ou de détection de fraude et les robo-advisors dans la gestion de patrimoine : l'intelligence artificielle (IA) a commencé à se déployer un peu partout dans la finance. C'est la raison pour laquelle la Banque de France a créé il y a quelques mois une taskforce sur l'IA, composée d'acteurs de la place et d'autorités publiques pour en étudier les enjeux.

Le pôle Fintech de l'Autorité de contrôle prudentiel et de résolution (ACPR, superviseur adossé à la Banque de France) vient de rendre public ce jeudi 20 décembre un document de réflexion abordant les opportunités et les risques du déploiement de l'IA, à l'occasion du lancement d'une consultation publique, ouverte jusqu'au 28 février 2019, destinée à recueillir l'analyse des parties prenantes.

« Nous avons voulu livrer un diagnostic au moment où le secteur financier s'apprête à généraliser l'usage de l'IA, même si l'on se trouve plutôt au stade de l'expérimentation, du "Proof of concept" (PoC) que de l'industrialisation », a expliqué Olivier Fliche, le directeur du pôle Fintech de l'ACPR, lors d'une présentation à la presse ce jeudi.

La maîtrise de l'IA est perçue comme une priorité stratégique pour les acteurs du secteur financier : 30% des projets de digitalisation seraient conçus principalement autour de l'intelligence artificielle et plus de la moitié des projets en développement utilisent l'IA. Les niveaux d'avancement sont « disparates » mais « les progrès [sont] réels et rapides » et le superviseur estime que « le secteur semble bel et bien au seuil d'un ensemble d'innovations qui vont profondément le transformer. »

L'ACPR relève que cette technologie peut permettre d'améliorer la relation client et le service rendu (chatbot, voicebot, analyseur d'email), en traitant plus rapidement les demandes, de mieux détecter la fraude, d'automatiser le traitement de certains sinistres dans l'assurance.

« En Chine, il est aujourd'hui possible d'envoyer des photos d'accidents simplement via l'application d'Alibaba et de recevoir un remboursement très rapidement grâce aux technologies de "deep learning" en reconnaissance d'images », cite en exemple le rapport

Des établissements utilisent aussi l'IA dans l'octroi du crédit pour améliorer leur système de scoring, notamment dans le domaine du crédit conso où les clients sont plus sensibles à la rapidité de la réponse. Des tests sont en cours pour assister les services conformité des banques dans les déclarations de soupçons. Du côté des marchés, l'IA peut aider à détecter les anomalies, les erreurs de type « fat finger » (gros doigt, erreur de touche), les délits d'initiés ou les fraudes extérieures.

Lire aussi : Banques : chacun cherche son chatbot

Biais discriminants et cyberattaques plus efficaces

Cependant, en tant que superviseur, l'ACPR a surtout cherché à identifier les risques potentiels. Le premier danger, bien connu, de l'IA est le risque de biais des algorithmes, qui peuvent amener à des dérives, des exclusions des discriminations, soit du fait des paramètres intégrés, tels que le genre ou l'origine ethnique, soit du fait de l'interaction de plusieurs variables.

« Les biais peuvent être renforcés par l'algorithme et aboutir à des traitements inéquitables. Par exemple, une information comme le département peut discriminer les habitants d'un département pauvre pour l'obtention d'un prêt, ce qui peut renforcer les inégalités existantes », précise le rapport, qui cite également l'historique moins fourni de clients jeunes jouant en leur défaveur. « Certains effets pourraient constituer un enjeu d'inclusion financière significatif. »

Lire aussi : Crédit conso : quand l'IA aide à dire oui ou non à un emprunteur

L'autre risque tient à la sécurité informatique. Selon l'ACPR, « l'intelligence artificielle accroît les enjeux de cybersécurité » et pourrait « accentuer les failles préexistantes », notamment du fait du recours systématique au cloud.

« L'usage du machine learning pourrait permettre de "craquer" des mots de passe à partir des archives de mots de passe précédents », note l'ACPR, qui relève que l'IA peut rendre les cyberattaques moins chères et plus personnalisées donc plus efficaces.

Dépendance des géants de la tech et risques de marchés

Le superviseur met aussi en garde les acteurs du secteur financier contre le risque de dépendance des grands fournisseurs de services de cloud, qui incorporent bien souvent des solutions à base d'IA (analyse des données, surveillance des opérations, etc). La maîtrise de l'IA par quelques géants, comme Amazon, Microsoft, Google et IBM, « pourrait entraîner une concentration excessive du marché entre les mains de quelques acteurs », ce qui pourrait se traduire par des prix artificiellement élevés, des relations commerciales déséquilibrées, des difficultés d'accès et d'audit et plus généralement une opacité accrue des algorithmes (un effet « boîte noire »). Un autre scénario envisagé par l'ACPR est « l'essor de startups de la Fintech au savoir-faire plus ciblé qui vont grossir et devenir sous-traitants des grands acteurs », ce qui aura, là aussi, des impacts sur l'organisation du secteur, le contrôle des processus, la chaîne de responsabilité.

L'intelligence artificielle pourrait même poser des risques sur la stabilité financière, ou du moins accentuer des facteurs de risque, par exemple les comportements moutonniers sur les marchés. En effet, « en codant les algorithmes avec des variables similaires, les programmes de trading à haute fréquence tendent à converger vers la même stratégie. Le risque qui en découle est d'accentuer la pro-cyclicité et la volatilité du marché via des achats et ventes simultanés de grandes quantités », relève le rapport de l'ACPR, qui note aussi que les algorithmes n'ont pas été entraînés dans des situations de crise, or le machine learning pourrait là aussi accentuer une crise financière. Autre risque systémique potentiel de l'IA : une mauvaise évaluation des risques de crédit, qui pourrait fragiliser le marché obligataire ou certains acteurs bancaires.

Loin de dresser un tableau entièrement apocalyptique, le superviseur assure vouloir avant tout « accompagner le développement actuel de l'IA qui est porteur de beaucoup de progrès potentiels, mais aussi anticiper les mutations du marché », tout en invitant les acteurs à prendre conscience des enjeux de gouvernance et d'auditabilité des algorithmes. L'ACPR veut même elle aussi tirer partie de l'IA et a prévu d'explorer le champ émergent de la "suptech" (supervisory technology). Son homologue de Singapour (MAS) a ainsi commencé à utiliser l'IA dans la détection des réseaux suspects de blanchiment d'argent.

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 20/12/2018 à 17:14 :
le scoring existe depuis tres longtemps, via des analyse discriminantes lineaires (pour les particuliers, ou chez les entreprises, notamment via la fonction Z banque de france).......
y a 20 ans on a rajoute les modeles par arbres et par reseaux de neurones ( qui servent de base aux modeles deep)
la seule nouveaute c'est l'utilisation de modeles deep dont il faut se mefier comme de la peste quand on ne comprend pas ce quon fait
la rapidite est tres en outre depuis pas mal de temps, notamment via l'analyse de process internes ( ca a permis de drastiquement reduire les temps de reponse notamment en immobilier)
apres faut jamais oublier de croiser les donnees et les methodes y a svt des surprises; les mono players vont prendre des baffes
la deuxieme guerre de l'ai est deja en route ' comment leurrer les systemes d'ai'

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :