L'intelligence artificielle au service de l'inclusion sociale, ça existe

OPINION. Dans un rapport, l'EIOPA, le régulateur européen des assurances, analyse les avantages et les bienfaits, en particulier sociétaux, que favorise l'utilisation de l'Intelligence artificielle (IA) dans le secteur de l'assurance, notamment grâce à l'application de principes éthiques. Par Charles Cuvelliez, Ecole Polytechnique de Bruxelles, Université de Bruxelles, et Emmanuel Michiels, Chief Risk Officer, Belfius Assurances.
(Crédits : Pixabay / CC)

On accuse l'IA de tous les maux : aggravation des discriminations, froideur des décisions automatisées, exploitation débridée des données aux qualités très variables. Ce n'est pas l'avis de l'EIOPA, le régulateur européen des assureurs. Il a publié en juin 2021 le rapport de son groupe d'experts portant sur les principes d'éthique et de gouvernance pour l'usage de l'intelligence artificielle (IA) dans l'assurance. Il vaut le détour car il préfigure assez finement où l'IA interviendra vraiment dans cette industrie. S'il  met en garde sur les travers d'une utilisation aveugle, il en pointe aussi les avantages, ce qui dénote dans le pessimisme ambiant autour de l'IA.

On utilisera d'abord l'IA, dit l'EIOPA, là où on l'attend : pour le calcul plus fin des primes et la souscription d'assurances. L'Internet des objets avec tout ce que les capteurs diront de l'environnement dans lequel l'assuré évolue donneront de quoi mesurer les risques, parfois les prévoir et pas simplement les évaluer. Les primes seront optimisées, segmentées et personnalisées. Les techniques de marketing prévisionnel seront courantes pour prévoir le seuil de prime auquel le client franchira le pas d'aller à la concurrence ou pour lui proposer une couverture d'assurance adéquate qu'il n'a pas encore). Le service client, intense et lourd dans l'assurance, a tout à gagner des assistants virtuels pour répondre aux demandes des clients, parfois dans des situations émotionnelles sans parler du besoin d'automatiser la paperasse rentrante, constat d'accidents, souches d'honoraires médicaux, ...

Là où l'IA fera la différence

Là où l'IA fera la différence, d'après l'EIOPA, c'est ailleurs, pour prodiguer des conseils ou influencer le comportement des assurés sur base de ce que l'IA trouvera dans les données médicales ou de conduite automobile, pour éviter les maladies ou prévenir un accident. On criera à l'atteinte à la vie privée mais, à choisir, préférera-t-on éviter un accident ou un cancer ou préserver sa vie privée ? Là où l'AI fera aussi une différence, c'est dans la détection des fraudes grâce à l'apprentissage des anomalies dans les déclarations de sinistre au bénéfice de l'ensemble des assurés qui payent leurs primes et déclarent leurs sinistres avec probité. Et d'évoquer l'analyse des réseaux sociaux à la découverte d'incohérences entre la situation déclarée de l'assuré sinistré et ce qu'il fait vraiment, c'est-à-dire, en fait... l'analyse du comportement avec l'IA ce qui peut apparaître dérangeant, voire dangereux. L'IA pourrait automatiser le traitement des sinistres et estimer les dommages sans envoyer un expert, quand il s'agit de petits dommages qui se ressemblent tous. Et dans le cas contraire, la reconnaissance et l'analyse d'image par IA seront toutes aussi précieuses pour évaluer des dommages moins courants, c'est-à-dire moins du type : « même cause, mêmes effets » , dans l'immobilier (une maison n'est pas une autre quand un sinistre l'affecte). L'IA pourrait ainsi facilement trier et segmenter les déclarations et aller jusqu'à payer l'assuré sans intervention humaine. Tout irait alors tellement plus vite quand le sinistré est dans le dénuement. Quel formidable outil de fidélisation.

Les  principes de l'éthique de l'IA dans l'assurance

L'EIOPA n'est pas naïf : l'IA peut aussi saper les bases  de ce métier si particulier. L'assurance traite de la vie et des biens des individus avant tout. Etre ou ne pas être assuré, cela change le destin ou conditionne certains choix d'un individu, comme se faire soigner ou pas. Être ou ne pas être remboursé d'un sinistre, cela bouleverse une vie. L'IA n'a pas intérêt à se tromper. Si on veut utiliser de l'IA dans l'assurance, il y a intérêt à ne pas tout gâcher avec son usage débridé. Les principes éthiques de l'IA ont alors tout leur sens.

Le premier, le principe d'équité et de non-discrimination, consiste à éviter d'approfondir les inégalités d'accès aux produits qui ont une utilité sociale. Les assurances en font partie mais les profils de risque diffèrent parfois suivant des critères qu'on acceptait dans le passé mais qui font hurler aujourd'hui : en matière de santé, par exemple, les hommes et les femmes ne sont pas pareils. C'est un fait. De là à imaginer une discrimination sur le genre qu'une IA ne ferait qu'accentuer (puisque l'IA va amplifier ce fait scientifique avéré), il n'y a qu'un pas. On trouvera ainsi quantité de produits d'assurances où l'évidence scientifique pousse à segmenter la cible à laquelle ils s'adressent mais cette segmentation (ne parlons pas de discrimination quand la science atteste une différence) deviendra de moins en moins acceptable en ces temps du tout au politiquement correct ou simplement par choix assumés selon les valeurs solidaires que se donne la société. La science n'est pas accusée de discrimination dans ses résultats mais appliquer ses découvertes en IA nécessite une approche éthique tout comme on s'interdit d'aller trop loin dans les manipulations génétiques.

Comment faire pour programmer l'IA sur la base des faits avérés scientifiques sans heurter les valeurs et choix de société. Il est difficile de définir discrimination et son contraire, équité, en termes abstraits qui résistent au temps et aux modes.

Les assurances à fort quotient d'inclusion

C'est pourquoi l'EIOPA demande de prêter une attention particulière aux produits d'assurance qui sont importants pour l'inclusion sociale ou financière. Et de citer les assurances pour voiture car ne pas pouvoir se déplacer est un handicap et nuit à l'employabilité. Les assurances santé peuvent empêcher celui qui ne peut en souscrire d'avoir accès à certains soins de santé parfois de base (dans des pays sans sécurité sociale). Les assurances habitation protègent contre la perte accidentelle de son logement, de sa propriété, en particulier pour les ménages qui se sont endettés pour y parvenir : elles ont un fort quotient d'inclusion. Ces assurances sont parfois une condition préalable à la location ou l'achat d'un logement. D'autres assurances ont aussi un impact sur la prévention de l'exclusion sociale, comme celles qui assurent un revenu de remplacement en cas de maladie ou incapacité. Oui, l'assurance joue un rôle social clé dans la lutte contre la pauvreté. Si l'IA doit intervenir dans ces produits d'assurance à forte inclusion, il y a un grand danger, prévient l'EIOPA.

L'EIOPA appelle aussi les compagnies d'assurance à accepter que des consommateurs ne veuillent pas partager avec elles des données très personnelles et très sensibles (c'est leur droit au niveau du GDPR). Les assureurs doivent leur permettre d'avoir accès à des produits d'assurance quand ces données ne sont pas strictement nécessaires pour estimer les risques. On songe aux clients qu'on forcerait à porter des capteurs pour avoir des données de santé. Tout le monde sera d'accord qu'une empreinte ADN, combinée à l'IA qui l'exploitera, ne puisse servir de préalable à la souscription d'assurance. Et si ces données sont nécessaires au produit d'assurance, le client doit pouvoir refuser et se voir offrir un produit alternatif, dit l'EIOPA. C'est aussi la question des clients qui n'ont pas d'affinité avec le numérique. Leur empreinte numérique est faible et ce manque de données peut nuire car l'IA est avide de données.

L'IA fera appel à d'autres données comme le score de crédit, la localisation géographique, l'occupation professionnelle, le niveau d'éducation. Ces données ont l'air neutre mais on sait que l'IA peut pénaliser ceux qui habitent dans des quartiers défavorisés : c'est Uber qui s'était rendu compte que les tarifs fixés par son IA augmentaient dès qu'il fallait prendre ou déposer un client dans un quartier « louche ». Un habitant d'une zone défavorisée qui veut déménager aura un risque crédit élevé alors que dès qu'il aura déménagé, le même outil d'IA lui donnera un score favorable. Les liens de causalité avec le risque encouru sont parfois faibles. Veut-on vraiment que l'IA utilise nos habitudes vestimentaires, nos habitudes de shopping, d'usage du téléphone et se mette à trouver des liens de causalité étranges ?

La détection de fraude

La détection de fraudes utilise aujourd'hui un large panel d'outils comme des scénarios, des arbres de décision, pour identifier les évènements à haut risque de fraude comme une déclaration de sinistre deux semaines après avoir souscrit à une assurance. Être soumis à une enquête approfondie pour suspicion de fraude est, d'autre part, un moment extrêmement émotif qui prend du temps. Via l'article 6 du GDPR, les assurances peuvent fouiner dans des informations sensibles et justifier de leur intérêt légitime à prévenir la fraude mais les outils IA en termes de fraude pourraient, comme pour la criminalité, augmenter les biais contre certaines minorités. Des clients pourraient être pénalisés sur base de leur réseau d'amis qui contiendraient des personnes à problème.

La gestion des déclarations de sinistres, enfin, a un coût très élevé pour les assurances mais c'est aussi le moment de vérité pour le client qui espère un dédommagement juste sans tracas ou suspicion. L'IA peut améliorer la prise de décision, l'automatiser la rendre plus fluide et éliminant les back stops à chaque fois que le dossier passe dans les mains d'un opérateur.

Deuxième principe : la transparence et le caractère explicable de l'IA utilisé dans l'assurance. Les firmes d'assurance doivent être capables d'expliquer les principes derrière les modèles d'IA qui calculent les primes d'assurance ainsi que les critères utilisés. La transparence et le caractère explicable de l'IA seront plus difficiles à assurer pour la détection de fraude car elle fonctionnera en mode machine-learning. Elle  devient plus boîte noire que l'IA qui serait utilisée pour le calcul des primes.

Attention aussi aux techniques de reconnaissance des documents et photos : le consommateur doit savoir s'il sera amené à soumettre une image pour déclarer son sinistre ou s'il pourra faire appel à un expert. La supervision humaine de l'IA, autre principe éthique de l'IA, devra se faire à plusieurs niveaux. Le comité de direction doit comprendre où et comment l'IA est utilisée dans son organisation. Il en porte la responsabilité ultime. Il doit communiquer sa vision et sa politique d'utilisation de l'IA dans l'organisation via sa stratégie. On ne peut juste laisser venir petit à petit l'IA dans son organisation. La compliance est impliquée pour vérifier que l'usage de l'IA est conforme à la régulation. Le risque est impliqué pour exercer une fonction de contrôle, de test et de feedback. Les fonctions actuarielles doivent tenir compte de l'IA qui affectera leurs activités. Enfin, l'EIOPA considère même qu'il faut un IA officier au même titre qu'un Data Protection Officer (DPO).

 L'IA doit être contrée par une supervision humaine s'il se termine par un refus de payer le dédommagement, si le montant des réparations est calculé de manière inexacte ou si le consommateur se voit imposer des choix trop restreints pour la réparation. La supervision humaine est recommandée si l'IA donne des conseils, elle est susceptible de changer le comportement et le style de vie des clients concernés via trop de proactivité.

L'EIOPA attire l'attention sur les données achetées à des tiers qui peuvent être de qualités différentes au regard de leur précision, absence d'erreur, de leur caractère complet et approprié. Les données tierces qui viennent des agences de crédit, des centres de recherche, des dépôt publics de données sont ici visées mais les données commerciales des distributeurs, des banques ou d'un Google.

Pour l'IA utilisée pour le calcul des primes et la souscription, si elle fait appel à des données de comportement, il faudra régulièrement la ré-entraîner car ces données de comportement sont sensibles, dynamiques et changeantes. Les données, ce sont aussi les images utilisées pour les déclarations de sinistre : il faudra former le déclarant à ce qu'est une image de bonne qualité pour éviter mauvaises estimations des dommages

Enfin, dernier principe, la robustesse et la performance et là, attention aux applications d' IA achetée à des tiers sur étagère. C'est surtout vrai pour calcul des primes car ces dernières vont dépendre de la bonne estimation du risque, des données disponibles et de l'éventuel impact d'un manque de performance du modèle. Quand on fixe les prix d'une nouvelle ligne de produits avec pas assez de données, comment veut-on que le modèle qui calcule les prix soit robuste et performant.

C'est avec un certain soulagement qu'on ferme le rapport de l'EIOPA : voilà un régulateur qui pointe non sans raison les avantages sociétaux de l'IA : des primes optimisées et plus abordables sur base des risques à couvrir mieux estimés, la promesse d'un combat plus efficace contre la fraude, aider l'assuré à prévenir la survenue d'un accident plutôt que de n'agir que quand il a eu lieu, accélérer la gestion des sinistres quand on n'a pas pu l'empêcher, détecter les fraudes, élargir la couverture des assurés avec ce qu'ils ont besoin, pas plus. On ne pourra simplement pas faire l'économie d'appliquer les principes d'éthique de l'IA qui font, heureusement, consensus.

_______

Pour en savoir plus : ARTIFICIAL INTELLIGENCE  GOVERNANCE PRINCIPLES:  TOWARDS ETHICAL AND  TRUSTWORTHY ARTIFICIAL  INTELLIGENCE IN THE EUROPEAN INSURANCE  SECTOR   A report from EIOPA´s Consultative Expert Group  on Digital Ethics in insurance

Sujets les + lus

|

Sujets les + commentés

Commentaires 2
à écrit le 06/12/2021 à 18:52
Signaler
Quand il s'agit de faire travailler l'argent a sa place, on fait appel a son intelligence et... quand elle fait défaut en prend l'artificielle!

à écrit le 06/12/2021 à 15:27
Signaler
Affinement de programmation des logiciels et non intelligence artificielle, quand une intelligence artificielle naitra c'est elle qui nous le dira et pas nous sinon ce ne sera pas une IA. On peut même supposer que si elle arrive ce sera par accident ...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.