L'IA dans le secteur de l'assurance sera éthique ou ne sera pas

OPINION. Le monde de l'assurance est une affaire de décisions. Tous les jours, les gestionnaires de dossiers sont amenés à faire des choix cruciaux qui influencent à la fois l'assureur et l'assuré, et peuvent entraîner des répercussions sur le long terme pour l'entreprise. Quel est le risque associé à telle nouvelle police ? Le jeu en vaut-il la chandelle ? Comment rédiger au mieux telle clause pour atténuer tel risque ? Les exemples se multiplient à l'infini. Par Éric Sibony, Cofondateur, Directeur Produit et Directeur Scientifique de Shift Technology.
(Crédits : DR)

C'est naturellement qu'au cours de ces dernières années, les acteurs du secteur se sont mis à explorer la manière dont les nouvelles technologies pouvaient leur venir en aide. Grâce à l'IA, il est en effet possible de simplifier et d'optimiser la prise de décision. Une question se pose néanmoins : comment faire pour garantir une IA éthique dans un tel contexte ?

L'IA et la question cruciale de la confiance

Considérée comme une technologie de type "boîte noire", c'est-à-dire lorsqu'un système est représenté sans tenir compte de son fonctionnement, l'IA, ou plutôt l'aptitude de l'IA à prendre les meilleures décisions, peut légitimement être remise en cause. Comment faire pour s'assurer que les algorithmes auxquels nous faisons confiance ne subissent aucune influence ?

Les acteurs du marché se penchent sur cette problématique depuis plusieurs années, et tentent de garantir l'impartialité de l'IA, en encadrant au mieux cette technologie. Dès 2019, un groupe d'experts réunis par la Commission européenne publiait des Lignes directrices en matière d'éthique pour une IA de confiance. L'objectif : soutenir le développement et l'adoption d'une IA « éthique, durable, axée sur l'humain et respectueuse des valeurs et des droits fondamentaux », et ce dans tous les secteurs économiques. Aujourd'hui, trois ans plus tard, c'est un Règlement européen sur l'IA (Artificial Intelligence Act) qui se trouve sur la table des institutions, et pour lequel les négociations avancent.

Construire un algorithme impartial

Dans le secteur de l'assurance, nous sommes d'ores et déjà en mesure de réduire considérablement les risques d'impartialité. Comment ? En concevant les algorithmes non pas dans le but de résoudre un problème unique de bout en bout, mais en le décomposant en plusieurs sous-problèmes, qui seront traités individuellement en vue d'obtenir un résultat optimal.

L'IA utilisée pour traquer la fraude à l'assurance illustre parfaitement ce concept. L'objectif de l'algorithme doit être d'identifier les comportements suspects, et non simplement des corrélations statistiques entre variables. Par exemple, le lieu de résidence ou le nom de famille de l'assuré, même s'il peut avoir un lien avec le risque de fraude, ne définit en aucun cas un comportement. Ces données ne sont utilisées qu'à des fins de comparaison pour calculer des distances ou des liens de parenté, mais certainement pas en tant que tels comme indicateurs de suspicion. Question d'éthique.

Pas de décision optimale sans une intervention humaine

Précisons également que l'IA ne doit pas être conçue pour prendre la décision finale. Une fois que l'algorithme a indiqué les cas dans lesquels il soupçonne l'existence d'une fraude et a justifié pourquoi, c'est à un humain qu'il appartient de prendre le relais. Pour examiner l'avis rendu, prendre une décision, et émettre un feedback au système. Il est en effet crucial de faire savoir à l'IA quand elle a raison et quand elle a tort - selon son principe même.

La construction d'une IA efficiente est un processus dans lequel l'humain et la technologie travaillent côte à côte, apprenant l'un de l'autre et s'adaptant en conséquence.

Les assureurs aux avant-postes de l'innovation

Les acteurs du marché de l'assurance, notamment en France, ont pleinement conscience des innovations apportées par l'IA. Le secteur assurantiel fait partie des premiers secteurs d'activité ayant adopté l'IA et investissant significativement dans cette technologie. En plus de la détection de fraude, de nombreux cas d'applications ont émergé, comme l'amélioration de l'expérience et de la relation client, l'automatisation des processus de gestion, ou encore l'analyse des risques.

Ces investissements en recherche & développement ainsi que dans différentes solutions du marché doivent permettre aux assureurs de s'orienter à terme vers une application de ces innovations à plus grande échelle. Pour parvenir à exploiter pleinement ce potentiel, le secteur doit à tout prix prévenir les risques de biais, en créant et en déployant une technologie dépourvue de parti pris, et basée sur prises de décisions factuelles.

Sujets les + lus

|

Sujets les + commentés

Commentaires 2
à écrit le 03/12/2022 à 12:27
Signaler
"soutenir le développement et l'adoption d'une IA « éthique, durable, axée sur l'humain et respectueuse des valeurs et des droits fondamentaux". Allons donc! Tout le monde sait ce qu'une IA éthique devrait être; et tout le monde sait que cela ne se p...

à écrit le 03/12/2022 à 11:20
Signaler
L'Assurance, c'est de la prévention mais qu'elle ne veut visiblement pas résiliente, "l' I.A. aura bon dos" ! :-)

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.