Le Big Data va-t-il détrôner la génomique ?

 |   |  1077  mots
(Crédits : DR)
Le séquençage du génome a constitué une grande avancée dans la technique médicale. Le big data va-t-il le supplanter? Par Jacques Marceau, Président d'Aromates, Expert santé à la Fondation Concorde

Depuis les temps les plus ancestraux, le médecin a toujours établi son diagnostic et ses prescriptions à partir des informations que pouvait lui fournir le malade, complétées par son examen clinique.
Ces informations étaient alors limitées aux sens du médecin, en particulier l'ouïe, la vision, le toucher et même l'odorat dont Hippocrate recommandait l'usage. Sans oublier l'intuition.

L'apparition de la génomique

C'est à partir du XXème siècle et à la faveur du progrès technologique, que le nombre et les sources d'informations se sont diversifiées et que l'information du médecin s'est considérablement enrichie notamment grâce aux progrès de la biologie et de l'imagerie médicale. Puis, et plus récemment, de la génomique. C'est ainsi que, au fil du temps, le médecin dispose de données toujours plus nombreuses et précises pour l'aider dans son diagnostic et le guider dans sa prescription. Ces données, appelées « données de santé » sont utilisées dans un strict cadre médical, par des professionnels de santé et stockées dans des conditions rigoureuses de sécurité et de confidentialité.
Mais ça, c'était avant.

Des données de plus en plus pertinentes

Avant la rencontre entre les sciences de la vie et de la mathématique, puis celle des données massives et de l'algorithme.
Avant que l'on ait à la fois la capacité de capter d'énormes quantités de données hétérogènes et complexes, et d'en assurer le traitement pour en extraire une information pertinente. Des données issues des moyens traditionnels évoqués, mais aussi et de plus en plus, agrégées à celles produites par la jungle des objets connectés qui ne tardera pas à envahir nos vies, sans oublier ces milliards de données aujourd'hui sans intérêt médical, comme les services de géolocalisation de nos smartphones, de commerce et de paiement électroniques ou tout simplement de nos déplacements consignés sur une modeste carte navigo.

Toutes ces données, le plus souvent insignifiantes, mais qui, savamment traitées, mâchées et « crawlées » par de géniales formules mathématiques et de puissants outils numériques pourraient bien devenir beaucoup plus pertinentes que celles recherchées par les généticiens dans le tréfonds de nos cellules.

Plus seulement le résultat d'un examen

Ainsi, la donnée de santé ne sera plus seulement le résultat d'un examen ou d'un acte médical, voire d'un décodage du génome, mais aussi celui d'un traitement algorithmique destiné à mettre à jour une information médicale. C'est donc ici, et dorénavant, l'intention qui déterminera la nature de l'information puisque cette dernière sera fabriquée à dessein. Une démarche qualifiée d'« intentionnalité » par le philosophe Edmund Husserl, inventeur de la phénoménologie. Une approche philosophique très éclairante quand on parle du big data.

Derrière les phénomènes...

Car l'irruption du big data n'est ni anodine, ni fortuite dans un monde qui a basculé dans la post-modernité et où il faut désormais voir les phénomènes et bouleversements qui accompagnent le développement du numérique comme le signe d'une autre et profonde transformation, cette fois-ci sur notre vision du monde. Le big data, nouvel avatar de cette transformation, nous invite en effet à voir « ce qui est et tel que cela est ». C'est en ce sens, qu'il semble vouloir confirmer scientifiquement l'intuition d'Husserl et de sa phénoménologie qui nous invite à saisir les choses telles qu'elles se donnent pour discerner ce qu'il y a derrière les phénomènes, c'est-à-dire, derrière les choses telles qu'elles nous apparaissent. Là où la vérité se donne à voir toute entière dans l'apparence et à la surface des choses. Une proposition reprise par son contemporain Paul Valéry, qui affirmait que « Ce qu'il y a de plus profond en l'homme, c'est la peau. En tant qu'il se connait ».

Médecine personnalisée

Il est intéressant de constater que cette révolution de l'algorithme converge aujourd'hui avec une nouvelle approche de la maladie et des moyens de la combattre. L'expression la plus marquante de cette nouvelle approche est, sur le plan du médicament, l'arrivée de classes thérapeutiques comme les antirétroviraux ou l'immunothérapie, de nouveaux traitements comme les nanomédicaments, les anticorps monoclonaux ou les vaccins thérapeutiques, qui marient la vocation à combattre la maladie avec celle d'aider le corps à s'en débarrasser.

Ou à faire avec... Mais aussi, le développement de la «médecine personnalisée» qui permet d'ajuster le traitement «au terrain» et «à la réponse» du patient mais qui, visiblement et au regard d'essais cliniques récents (1) peine à trouver dans le décodage du génome les informations qui la rendrait moins iatrogénique et plus efficace dans la durée que les traitements traditionnels. Sans constituer la réponse universelle à ces questions, les technologies big data apporteront, et de toute évidence, des compléments de réponse qui permettront à la médecine personnalisée de le devenir vraiment.

Prévenir et...prédire

Le big data, c'est enfin, et c'est peut-être là le plus énorme, la possibilité, non plus seulement de prévenir mais encore de prédire. Ce qui transformerait la maladie perçue depuis la nuit des temps comme une fatalité en un événement prévisible, traçable et, espérons-le, gérable. Les promesses du big data sont ainsi immenses, et rappellent, à bien des égards celles des débuts de la génomique et à ce qu'André Pichot (2) qualifie de « fétichisation » des génomes. Car c'est bien dans la nature humaine que de transformer l'espoir d'une guérison en croyance et d'en déifier leurs objets. Non, l'algorithme ne sera pas la divinité de la post-modernité, pas plus que le génome ne l'a été de la modernité. N'en déplaise à ses grands prêtres transhumanistes de la Silicon Valley. Un simple outil, au service la médecine et du progrès thérapeutique. Et c'est déjà bien.
Car la vie ne se résout pas à un code, ni l'homme à un paquet de données. Enfin, je trouve plaisant de le croire.


(1) http://curie.fr/actualites/essai-shiva-bilan-perspectives-006289 et http://www.thelancet.com/journals/lanonc/article/PIIS1470-2045(13)70611-9/abstract
(2) « Devenir Humains » Edition Musées de l'Homme - Autrement, page 48

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 19/02/2016 à 7:55 :
JE NE SUIS PAS SCIENTIFIQE .MAIS JE SAIS QUE LE CORP HUMAIN EST AVANT TOUS CHIMIQUE ET ELECTRIQUE? ONT A DECOUVERT QU IL Y AVAIS UN CODE C EST FORMIDABLE? MAIS PEUT T ON CHERCHE DES REMEDES AVEC CES TROIS DONNEES ?QUE L ON CONNAIS MAIS QUE L ON NE MAITRISE PAS ENCORE PARFAITEMENT PAR DES MATHEMATHIQUES ? JE NI CROIE PAS? MAIS COMME EN SCIENCE INPOSIBLE N EXITE PAS? NOUS DEVONT VOIR ET EDUDIER CETTE NOUVELLE APROCHE SI CELA PEUT FAIR EVOLUEZ L HUMANITE? M r ALBERT EINSTEIN ETAIS UN SCIENTIFIQUE QUI TOUCHE A TOUTE LES SCIENCES . ET ON LA SOUVENT TRAITE D ILUMINE ALORS QUI ETAIS UN GENIE EN AVANCE SUR SONT TEMPT? CHERCHER ET CHERCHER ENCORE DOIT ETRE LE MOTEUR DE LA SCIENCE HUMAINE???
a écrit le 17/02/2016 à 10:21 :
j'avais discute y a qques annees avec des chercheurs en genetique; ils faisaient du datamining.... bon j'ai cru comprendre que ca restait succint ( genre drill up drill down, quoi!)
maintenant tt le monde s'essaie aux maths a la bonne franquette!
on va etre honnetes, c'est tres dur de faire parler des donnees ( le mythe du logiciel qui decouvre the needle in a haystack, ca n'existe pas)
le datamining demande un travail colossal, et les boites n'arrivent pas a en faire qqch ( c'est pr ca que bcp abandonnent)
alors le big data.......... ( oui je sais, mapreduce et hadoop sont sur toutes les levres, faut faire rever...)
a écrit le 17/02/2016 à 9:40 :
Laissons la bigdata s occuper de la somatique , et la connaissance génomique de déterminer la molécule sans effets secondaires adapter a chacun des patients en traitement . La lourdeur algorithmique pour le praticien ne se conçoit actuellement que pour les maladies lourdes dégénératives et létales .
Ai je bien résumé !!!!! Olivier .
a écrit le 17/02/2016 à 9:21 :
Il y a matière à plusieurs commentaires dans cet article.

D'abord invoquer le "big data" pour l'exercice de la médecine n'est pas très sérieux, cela a plus de sens de parler de "big data" en recherche médicale et là les scientifiques n'ont pas attendus les consultants pour explorer ces approches. Comme tout les autres mots mystérieux (cloud, deep learning, algorithme) dont sont avides les dirigeants et leurs consultants, ce que ça recouvre est tout sauf très précis. Il faut savoir qu'il ne s'agit pas simplement de "crawler" une énorme quantité de données et d'attendre qu'un résultat exploitable immédiatement en ressorte. Au contraire il faut "entraîner" des réseaux neuronaux ou Bayesiens, et cela pose deux problèmes rendant cette approche inutilisable par tous sauf par les très grandes entreprises: 1) la formulation du problème à résoudre et des critères d'identification de la solution doivent être parfaitement claire et opérationnelle, 2) Il faut des hommes-années d'opérateurs compétents sur le plan professionnel pour "entraîner" les réseaux.

"Big data" n'est donc pas une solution facile à mettre en œuvre, le progrès que ça apporte consiste juste à supprimer l'étape d'informatisation d'un problème, on remplace les codeurs informatique, qui ne sont jamais compétents sur la solution qu'ils codent, par des "entraîneurs" qui eux sont compétents. On a plus de chance d'aboutir à une solution efficace, mais ce n'est pas moins coûteux. Et le risque de "faux positif" est très réel et extrêmement coûteux.

Un autre commentaire consiste à réfuter le fait que la génomique soit utilisée au quotidien par les médecins. Nous savons tous que ce n'est pas le cas. Il y a deux raisons à cela: 1) Pour être utilisé un remède thérapeutique doit recevoir une autorisation de mise sur le marché, et c'est tout sauf simple et rapide. Le coût est de l'ordre de centaines de millions d'euros au minimum. 2) IL faut équiper et former les médecins, équiper les médecins coûterait des dizaines de milliards. Équiper les laboratoires d'analyse médicale en France, de matériel de séquençage génique, coûterait certes beaucoup moins, mais il faudrait quand même former les médecins à reconnaître les situations où il serait nécessaire de demander ces analyses et les aider à interpréter ces résultats. On estime qu'il faut au moins 10 ans pour cela pour implémenter de tels changements.

Un troisième commentaire concerne l'utilisation du "big data" pour la médecine personnalisée, par définition on parle là de médecine et non de recherche. Sur quoi porterait les données que le "big data" pour la médecine personnalisée est censé traiter? Comment imaginer une seconde qu'un médecin se sentirait capable d'exploiter sans risque une telle approche, comment intégrer cela dans un schéma d'organisation professionnelle où l'entretien dure un quart d'heure et est très faiblement instrumentalisé? N'y a t-il pas le risque d'une dérive où des non professionnels commenceraient à faire de la médecine (voir les affaires 23andme[1] ou theranos[2])

Alors, oui la "computational biology" ou à la "systems biology" qui sont des approches mises en œuvre depuis des années par les chercheurs, mais non aux mots clés fumeux qui sont contre productifs pour la société.

http://padiracinnovation.org/about/


[1] https://fr.wikipedia.org/wiki/23andMe
[2] https://fr.wikipedia.org/wiki/Theranos

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :