"L'IA peut menacer le contrat social" Michèle Sebag, CNRS

 |   |  1833  mots
(Crédits : Getty Images)
Manque de transparence, aggravation des préjugés, craintes pour l'emploi... Michèle Sebag, directrice du Laboratoire de recherche informatique (LRI) du CNRS, décrypte les peurs suscitées par une société de plus en plus gouvernée par les algorithmes, tout en appelant l'Europe à se lancer dans la bataille de l'intelligence artificielle.

LA TRIBUNE - On entend souvent que l'intelligence artificielle (IA) va révolutionner tous les secteurs, ce qui engendre son lot de craintes dans la société. Qu'en est-il réellement aujourd'hui ?

MICHÈLE SEBAG - L'intelligence artificielle est déjà partout. De nombreux services utilisent des algorithmes de prédiction, de recommandation, brassent de grandes quantités de données et s'en servent pour fournir une réponse automatique à un problème. La réalité, c'est que les gens sont confrontés à l'IA tous les jours, sans forcément le savoir. Les modèles économiques des géants du Net comme Google, par exemple, accélèrent cette acculturation. Grâce à des interfaces pratiques et simples, qui cachent la complexité de la technologie qu'il y a derrière, Google a imposé des services très populaires, qui, en retour, lui offrent de grandes quantités de données pour enrichir ses algorithmes et créer de nouveaux services. De manière générale, le modèle du Web est assez vertueux pour l'innovation. En donnant accès gratuitement sur un site en ligne, par exemple, aux données sur les symptômes des maladies, celui qui peut analyser grâce à un algorithme les demandes faites sur ce site peut voir...

Article réservé aux abonnés

Achetez l'article
Pour
0.49TTC
J'achète
Abonnez-vous
Accéder
Déjà inscrit ou abonné ? Connectez-vous
Se connecter

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 01/10/2019 à 17:09 :
Comment peut-on glorifier à ce point le rôle de l'intelligence artificielle, quand on a été confronté à quelques cas d'incohérence et de conclusions aussi absurde dans le cas que je décris avec ce qui suit:
Au début de l'année 2019 je m'étais inscrit en ligne pour visiter à Paris un salon dédié au développement des PME et à la création des entreprises. J'ai alors reçu une liste d'une centaine de noms de personnes que l'on me conseillait de contacter, pour soit disant avoir certains mêmes profils et centres d'intérêts que les miens. Des profils qui avaient été établis grâce à l'IA.
Conclusions et apres recherche en ligne, pas une seule de ces personnes, je me répète , pas la moindre personne de la liste ne présentait ni de pres ni de loin, ni les mêmes centres d'intérêts, ni les mêmes profils professionnels, ni la moindre activité qui puisse avoir le moindre point commun véritable avec ce que je suis et ce que je fais et ce que j'étais venu recherché dans ce salon ( en l' occurrence des partenaires et des investisseurs pour une nouvelle activité "deep tech" à exploiter inspirée de cas concrets de ce qui se développait avec succes depuis quelques années en Asie, pour laquelle pour diverses raisons j'étais particulièrement qualifié et bien informé et avoir été choisi comme expert). Un exemple qui démontre à quel point l' IA peut être totalement inopérante et dangereuse, surtout quand celle-ci doit exercer sa prééminence et sa dictature et étouffer le bon sens commun.
Ne serait-il pas grand temps d'aborder le numérique avec un peu plus de discernement, quand on constate déjà un nombre aussi impressionnant de beugues, et de malversations tres dommageables et tres contreproductives.
a écrit le 01/10/2019 à 13:26 :
Intelligence artificielle ou numérisation ? La première n'existe pas mais la seconde est bien moins vendeuse ! Un peu effrayante même...
a écrit le 01/10/2019 à 9:33 :
Pourquoi, ce n'est pas déjà le cas? l a délégation que fait chacun pour refuser le stock, refuser le service client autrement que virtuel n'est t'il pas le cas, dans la banque, dans les transports, dans ce que l'on va appeler le "service publique?

Donc il y aurait menace si ce n'était pas déjà le cas...

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :