Ce que la santé peut tirer des big data

 |   |  1016  mots
(Crédits : Reuters)
Il devient possible de surveiller au quotidien des indicateurs de santé personnelle. Mais les big data bouleversent aussi les pratiques de recherche et la mise au point de nouveaux traitements. de Montcheuil, VP Marketing de Talend

Les big data font désormais partie du panorama de très nombreux secteurs d'activité. Si les principales innovations qui ont vu le jour ont concerné majoritairement le domaine du marketing, d'autres usages commencent à émerger dans une multitude de secteurs. Par exemple, comme nous l'avons vu récemment, tout l'écosystème de l'industrie automobile - depuis les constructeurs jusqu'aux conducteurs, en passant par les concessionnaires, les garagistes et les fournisseurs de contenus mobiles - est concerné par l'exploitation des big data. Un autre secteur est aujourd'hui à la pointe de la création de ces nouveaux usages : la santé. A l'instar de l'automobile, ces innovations sont liées à un autre phénomène à l'origine de la croissance des big data : l'internet des objets.

On ne peut améliorer que ce que l'on peut mesurer

La presse s'est largement fait l'écho de la palette de nouveautés - nombre d'entre elles présentées au CES de Las Vegas - dans le domaine du « Quantified Self » ou de la quantification de soi : santé connectée, hygiène de vie et entretien du corps, surveillance de l'évolution d'une pathologie, etc. Ce phénomène prend sa source dans le principe simple qu'on ne peut améliorer que ce que l'on peut mesurer.

Dans le passé, le seul indicateur mesuré régulièrement par les individus était le poids. Mais depuis deux ans, on assiste à une véritable explosion du nombre de dispositifs connectés qui nous permettent de mesurer notre rythme cardiaque, notre niveau de stress, les calories brulées, la distance parcourue lors d'un jogging, etc. Combinée à des applications mobiles qui collectent ces données et les présentent de manière conviviale, ces dispositifs offrent une image précise de notre état de santé. Et grâce aux big data, tout un chacun est en mesure de comparer ses propres données avec celles d'autres utilisateurs, afin de se situer par rapport au reste de la population.

 Au-delà de la "quantification de soi" : les pathologies et la recherche

Si la vague du Quantified Self s'adresse en premier lieu aux personnes en bonne santé, les big data n'oublient pas ceux qui souffrent de pathologies, notamment le diabète ou les problèmes cardiaques. Dans ce domaine également, les progrès récents sont spectaculaires. L'objectif étant d'améliorer le confort de vie des patients, ainsi que le suivi de la pathologie et de la qualité du traitement. Par exemple, il existe aujourd'hui trois types de stimulateurs cardiaques (« pacemakers ») : si le dispositif de base régule l'activité cardiaque, d'autres plus évolués récupèrent des données, consultables par le cardiologue lors des consultations.

Des pacemakers connectés: les données transmises en temps réel aux médecins

La dernière génération de pacemakers est même connectée : ils envoient en temps réel à l'hôpital ou au médecin des données qui permettent de réagir rapidement en cas d'anomalie ou tout au moins de contrôler à distance l'état de santé du malade. Même si le service n'existe pas encore, on peut imaginer aisément que dans un avenir proche, le médecin sera en mesure d'envoyer une ambulance s'il détecte un problème en temps réel.

Dans le même esprit, les nouveaux lecteurs de glycémie utilisés dans le cadre des traitements contre le diabète permettent bien sûr de mesurer le taux de glucose du patient, mais également de réguler les injections d'insuline via un contrôle régulier supervisé par le médecin. Là encore, les dispositifs permettent de collecter des données, de les analyser et de les présenter de manière intelligible, et en croisant ces informations avec d'autres, de détecter d'éventuelles anomalies, tout en améliorant les modèles et les algorithmes d'analyse au fil de l'eau.

Des tests cliniques à domicile

De son côté, la recherche médicale a de tous temps été basée sur l'analyse d'importants volumes de données. Les tests cliniques sont des études scientifiques permettant de mesurer l'efficacité et la tolérance d'un médicament en conditions réelles, en comparant la réaction des patients soumis ou non au traitement. Mais avec la multiplication des dispositifs de Quantified Self, il est aujourd'hui possible de réaliser ces tests sans obliger le « cobaye » à s'enfermer trois jours dans un hôpital : la mesure du rythme cardiaque, de la température du corps, etc. peut être réalisée à distance, ce qui forme un plus pour le confort des patients et rend même l'étude plus réaliste puisque les patients peuvent vaquer à leurs occupations habituelles.

Le recours nécessaire à l'expertise humaine

Enfin, on a beaucoup parlé récemment des limites du système mis en place par Google pour détecter des pandémies (« Google Flu »). Un article du Guardian a jeté un pavé dans la mare des big data en démontrant les limites d'un système basé uniquement sur les recherches des internautes. Si l'idée était intéressante, la réalisation du projet s'est révélée quelque peu simpliste. En revanche, d'autres initiatives comme celles du CDC (Center for Disease Control) aux Etats-Unis ou le Réseau Sentinelles en France sont basées sur la réalité du terrain et tirent parti d'informations remontées par les professionnels de santé.

Elles prouvent surtout que la collecte des données est une chose et leur analyse en est une autre. Ceci traduit l'un des plus importants débats concernant l'analytique : bien que les machines soient très utiles pour traiter des volumes de données qui ne cessent de croître, toute la valeur ajoutée de l'analyse provient principalement du travail des experts métiers, qui, maîtrisant toutes les subtilités d'un domaine particulier, sont les seuls capables de dégager de ces masses innombrables de données une véritable connaissance.

L'élément humain a encore de beaux jours devant lui, surtout s'il est en bonne santé !

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 30/04/2014 à 9:40 :
Encore un article sur le Big Data qui passe à coté du véritable enjeu, la nécessité de repenser de fond en comble comment organiser l'information pour que justement il soit ensuite possible de l'analyser (voire de tout simplement la rechercher de manière efficace!). D'une certaine manière le Big Data est un retour aux sources de l'informatique car au niveau fonctionnel on a pas beaucoup plus que de pouvoir stocker, rechercher ou effacer de l'information à partir d'une seule clef: le Big Data c'est très souvent l'abandon du système relationnel directement dans la base de données car les systèmes relationnels s'effondrent à cause des volumes d'information à traiter. Le Big Data c'est aussi arriver à des volumes d'information tellement énormes qu'on atteint les limites statistiques des taux d'erreur des médias de stockage et que les moyens de 'backup' conventionnels sont dépassés par les volumes. Ce sont tous ces aspects qui font que le Big Data n'est pas la solution magique à tous les problèmes, et encore moins quelque chose de simple à mettre en oeuvre, bien au contraire.
a écrit le 30/04/2014 à 8:31 :
Le système de facturation des cliniques et hôpitaux recense l'ensemble des séjours hospitaliers leur coûts et leur résultats. Dès lors il devient facile de repérer les établissements mal gérés mais aussi les hôpitaux,ou plus finement, les équipes dangereuses en matière de santé. Mais ces révélations mauvaise pour l'image de marque des maires présidents des CA des dits hôpitaux sont soigneusement dissimulés.

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :