Royaume-Uni : des suspects passés au crible d'une intelligence artificielle par la police

La ville de Durham (nord-est de l'Angleterre) va déployer un système pour tenter d'anticiper le passage à l'acte des suspects - et éviter les récidives.
Anaïs Cherif

2 mn

L'intelligence artificielle se base sur l'historique des infractions enregistrées par la police de Durham (nord-est de l'Angleterre), entre 2008 et 2012.
L'intelligence artificielle se base sur l'historique des infractions enregistrées par la police de Durham (nord-est de l'Angleterre), entre 2008 et 2012. (Crédits : Reuters)

Des suspects placés en détention analysés par une intelligence artificielle ? C'est la voie empruntée par Durham, ville de près de 50.000 habitants au nord-est de l'Angleterre. Baptisé Harm Assessment Risk Tool (Hart), ce système informatique a été conçu par la police locale en collaboration avec l'université de Cambridge, rapportait mercredi la BBC. Objectif : se faire aiguiller par l'intelligence artificielle pour décider de la mise en détention des suspects. L'outil les classe ainsi en trois catégories : "risque faible", "risque modéré" ou "risque élevé" de passage à l'acte.

L'intelligence artificielle se base sur l'historique des infractions enregistrées par la police de Durham, entre 2008 et 2012. Ces archives comprennent aussi des données personnelles, comme le genre ou le code postal de la personne inculpée. Selon un rapport d'étude, le système a été testé en 2013 sur 14.882 cas de détentions. Au cours de cette période, l'exactitude de l'outil était surveillée - mais il n'avait aucun impact sur la prise de décisions des officiers, (r)assure à la BBC Sheena Urwin, une des responsables du programme.

Sur-représentation des "risques élevés"

Les résultats ont été analysés pendant deux ans afin d'étudier le taux de récidive des suspect passés entre les mains du programme. Les prévisions selon lesquelles un suspect était à "faible risque" se révélaient exactes à 98% du temps, alors que les prévisions de "risque élevé" étaient correctes 88% du temps. Car le programme est prédisposé pour sur-représenter les cas de risques élevés.

| LIRE AUSSI : Justice : une intelligence artificielle rend des verdicts semblables à ceux des juges

L'algorithme sera utilisé dans un premier temps uniquement à titre informatif - des biais ayant déjà été relevés. Les données analysées sont uniquement celles de la police de Durham, qui n'a pas accès aux archives à l'échelle nationale. Conséquence : une personne déjà condamnée dans une autre juridiction ne sera pas détectée par l'outil comme ayant été déjà inculpée, ce qui pourrait fausser les prédictions. Aux Etats-Unis, une initiative semblable a été lancée dans plusieurs Etats. Selon une enquête publiée l'année dernière par le site ProPublica, l'algorithme présentait un large biais raciste envers les Noirs américains, davantage identifiés comme suspects par l'outil.

Anaïs Cherif

2 mn

Replay I Nantes zéro carbone

Sujets les + lus

|

Sujets les + commentés

Commentaires 2
à écrit le 11/05/2017 à 16:58
Signaler
Pour réduire les risques d'erreurs il faudrait combiner l'IA et l'intelligence humaine. Avec des précautions multiples, puisque qu'il s'agit de respects fondamentaux des libertés. Algorithme ou humain, dans les deux cas il faut qu'il ait des garanti...

à écrit le 11/05/2017 à 16:04
Signaler
Quand notre société s'enfonce dans l'obscurantisme ou comment des logiciels créés par des humains mettront des gens en prison qui n'ont rien fait. Il était vraiment temps que les anglais partent, une idée aussi inhumaine aurait aussitôt été adoptée p...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.