L’analyse de la conjoncture économique devient l’art de prévoir le présent

 |  | 1333 mots
Lecture 7 min.
Marc Guyot et Radu Vranceanu
Marc Guyot et Radu Vranceanu (Crédits : Reuters)
OPINION. La nécessité pour les dirigeants d’être réactifs impose l’utilisation de données haute fréquence issues de la numérisation pour estimer le PIB en temps réel. Par Marc Guyot et Radu Vranceanu, professeurs à l'ESSEC (*)

Traditionnellement, l'indicateur favori des conjoncturistes pour appréhender l'activité économique est le produit intérieur brut (PIB), représentant le résultat final de l'activité de production des unités productrices résidentes à l'intérieur d'un pays, pendant une période de référence. Cet indicateur est publié avec une fréquence trimestrielle et avec un certain délai.

Ainsi, aux États-Unis et dans l'Union européenne, la première estimation du PIB trimestriel tombe 30 jours après la fin du trimestre et ne contient que des données encore très incomplètes, notamment en ce qui concerne le dernier mois du trimestre et le solde commercial.

Or, ce délai pose problème lorsque la décision de politique économique ou d'investissement doit être prise dans l'urgence. Tout particulièrement, la rapidité et l'ampleur de la crise économique associée à la crise sanitaire de la Covid-19 ont exposé le dilemme entre précision de la mesure de l'activité économique et rapidité de sa mise à disposition. En effet, les gouvernements ont besoin d'avoir une estimation la plus précise possible et en temps réel des retombées économiques des mesures sanitaires et/ou de soutien à l'économie.

Au plus près du « temps réel »

Dans ce contexte, différentes mesures « non-conventionnelles » de l'activité économique ont franchi la frontière des recherches académiques pour se retrouver dans les pages des journaux spécialisés. Issues de l'économie numérique, les données haute fréquence sur lesquelles repose l'analyse peuvent être produites par des firmes privées ou des organismes de régulation et contrôle.

On peut ainsi mentionner les données sur cartes de paiement - Affinity Solutions (États-Unis), Fable Data (Allemagne), Groupement des Cartes Bancaires (France) - utilisées pour estimer les dépenses de consommation, ou encore les revenus des PME (Whompy, États-Unis), les données de paiement interentreprise (Chaps System - Royaume-Uni), les données de caisses de supermarchés (Kagle pour Walmart), les données de gestion de fiches de paie (Paychek et Intuit), la gestion des horaires de travail (Kronos), les données de consommation d'énergie électrique, les données satellites sur la pollution ou l'éclairage nocturne, les données de trafic maritime, terrestre ou aérien, les données de tracking GPS des téléphones portables, etc.

Ces séries étant le plus souvent disponibles à fréquence journalière, elles sont usuellement présentées en tant que moyenne lissée sur sept jours pour éviter la saisonnalité hebdomadaire. Le délai de mise à disposition, qui varie de 24 heures à un maximum de deux semaines, s'approche au mieux de ce qu'on peut entendre par « temps réel ».

Google au centre de l'attention

Lors de la crise de la Covid-19, un ensemble de données à haute fréquence a tout particulièrement retenu l'attention des conjoncturistes. Fort de ses 80,6 % de parts de marché des systèmes opérateurs pour téléphones mobiles et de ses 92 % de parts de marché pour son moteur de recherche, Google peut localiser les utilisateurs et produire des données de mobilité fiables.

Depuis février 2020, le géant américain du numérique a rendu disponible les mesures journalières de mobilité et d'accessibilité selon six grands thèmes : fréquentation des commerces ou des parcs, mobilité, lieu de travail, etc.

Prises une par une, ces séries de données ne sont pas très utiles, car bien trop spécifiques. Que peut nous dire la fréquentation des salles de cinéma sur l'évolution d'ensemble du PIB, dans un pays où les cinémas ont été fermés pour des raisons sanitaires ? Que peuvent bien mesurer les données de mobilité sur le lieu de travail, dans une période où le télétravail est quasiment généralisé, évidemment peu de choses.

En revanche, un regard croisé sur une batterie d'indicateurs de ce type peut donner une bonne image de l'activité économique à un moment donné.

--

Au-delà de la simple présentation des données haute fréquence et de leur interprétation subjective directe, des équipes de chercheurs s'appliquent à les utiliser pour améliorer la précision des estimations du PIB en temps réel.

L'économétrie traditionnelle a dû évoluer pour faire face au défi d'utiliser ces données à haute fréquence. L'utilisation des données mensuelles pour prévoir un indicateur trimestriel (le PIB) a nécessité le développement des modèles de régression à fréquence mixte. Pour réduire le nombre de séries sans perdre de l'information utile, les chercheurs ont eu recours à l'analyse factorielle dynamique, comme dans les modèles de nowcasting (prévision du présent) de la Federal Reserve Bank of Atlanta ou Federal Reserve Bank of New York.

Autre exemple, Rendra Putra et Silvia Arini, tous deux chercheurs au FMI, ont développé un modèle de régression à fréquence mixte qui utilise les données de mobilité Google pour prévoir le PIB régional en Indonésie. James Sampi et Charl Jooste, chercheurs à la Banque mondiale, ont développé un indice d'activité basé sur les mêmes données de mobilité, puis ont utilisé un modèle à fréquence mixte pour prévoir le PIB en Amérique latine.

Une équipe de chercheurs américains des universités Harvard et Brown a quant à elle développé un système autonome de production d'indicateurs en temps réel relatifs à la consommation des ménages, au revenu des firmes et à l'emploi aux États-Unis, en s'appuyant sur l'information produite par des firmes de gestion des données au service du secteur privé, comme la gestion du personnel et/ou les systèmes de paiement (salaires et cartes bancaires).

Le nouvel horizon du machine learning

Des méthodes encore plus extrêmes peuvent être envisagées pour analyser les données à haute fréquence, compte tenu de leur nombre très significatif, de leur nature "atypique", du fait qu'il y a très probablement de nombreuses interactions entre ces variables, et des non-linéarités.

Les techniques de machine learning (apprentissage automatique) permettent de traiter un large ensemble d'informations non structurées par une théorie sous-jacente. En effectuant de multiples simulations, l'ordinateur trouve par lui-même, la meilleure manière d'utiliser l'information contenue dans ces données pour prévoir le PIB, autrement dit il se crée son propre modèle.

Des chercheurs du BEA (Bureau of Economic Analysis) ont montré qu'un ordinateur « nourri » en mode machine learning par un vaste ensemble de données, incluant le volume de recherches Google pour des mots sensibles comme « véhicule », « récession », « faillite » et autres permet d'améliorer la prévision rapide du revenu du Quarterly Service Survey. Nicolas Woloszko, chercheur à l'OCDE, utilise également les volumes de recherches sur 250 Google trends et une technique de machine learning (réseaux neuronaux) pour calculer un tracker hebdomadaire du PIB de 46 pays.

L'utilisation des données haute fréquence pour l'estimation de l'activité en temps réel n'en est qu'à ses débuts, et la question de savoir si les méthodes de machine learning sont plus efficaces que celles issues de l'économétrie traditionnelle n'est pas encore tranchée. On peut néanmoins d'ores et déjà affirmer que l'analyse de conjoncture devra composer dorénavant avec une utilisation mixte des statistiques officielles, des méthodes d'estimation rapide de ces statistiques officielles, et des données en temps réel que le développement de l'économie numérique a générées.

Ces avancées technologiques ne remettent toutefois pas en cause l'impératif pour le conjoncturiste de faire preuve de discernement pour ne pas devenir une simple chambre de résonance des techniques. Le bon sens ne peut pas être généré par un modèle, si sophistiqué soit-il.

The Conversation ________

Par Radu Vranceanu, Professeur d'économie, ESSEC et Marc GuyotProfesseur d'économie, ESSEC

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 18/02/2021 à 11:30 :
Quelque soit les données, elles sont inutiles si le voisin a les mêmes et/ou si elles sont fausses car leur vérité n'est vérifié qu'au résultat, la chance en moins!
a écrit le 16/02/2021 à 20:56 :
Comment peux t on contourner ces systèmes ?
Il suffit que les humains pensent A donc les GaFA vont penser avoir la donnée A , on paramètre sur le smartphone la donnée B , mais les humains au final feront la donnée D qu’il alternerons tous les jours avec d’autres données ( juste pour tromper les traqueurs de données ) , au résultat si la masse humaine fait «  ainsi » vos données au final n’auront aucune valeur et les entreprises devront se fier a leur feeling et non a des données volées aux populations .
a écrit le 16/02/2021 à 13:56 :
la donnée est un outil qui peut être terriblement efficace en effet, merci de le démontrer et en quelque sorte d'exorciser ce phénomène que la taxation des GAFAM exposerait plus comme un fléau que comme un service.

Ces multinationales n'en ont rien à faire que untel fasse tel truc à tel endroit mais que par contre tel groupe ou telle population fasse ceci ou cela peut être particulièrement intéressant comme vous le démontrez là.

C'est pour cela que notre consortium européen financier est en train de nous déposséder de cette précieuse marchandise sous prétexte de nous protéger, pour que eux seuls s'en fassent du fric. Vite un frexit quitte à devenir pauvres autant devenir libres.

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :