• Par Jérôme Callut
    • Associé et responsable de la recherche
    • DCM Systematics

La donnée : le carburant des portefeuilles

L’évolution de la gestion quantitative est intimement liée à l’envolée de la puissance de calcul. La précision, la profondeur et la multiplicité des modèles influent toujours plus sur la diversification, la performance et la gestion des risques. Il ne faut cependant pas oublier que le moteur ne peut pas tourner sans le data qui l’alimente, et que les innovations dépendent d’abord de la façon dont il est traité

Pour certains, la naissance de la gestion quantitative remonte à 1900, lorsque la thèse de doctorat de Louis Bachelier, mathématicien français, introduit pour la première fois l’utilisation des probabilités et statistiques dans le monde financier. Bachelier veut en l’occurrence mettre au point des outils capables de valoriser des options. C’est un travail précurseur du fameux modèle de Black-Scholes publié en 1973, qui martyrise depuis tous les étudiants en finance !

D’autres datent la naissance de la gestion quantitative à l’année 1954 lorsqu’Harry Markowitz soutient sa thèse de doctorat sur ce monument qu’est la théorie moderne du portefeuille. Markowitz y montre comment construire un portefeuille en tenant compte des performances espérées de titres, de leurs risques et de leurs corrélations. Dans les années 60, Sharpe, Treynor, Lintner et Mossin publient le modèle d’évaluation des actifs financiers – le fameux Capital Asset Pricing Model – qui formalise la relation entre la performance d’un titre et celle du marché. Puis, les travaux se focalisent sur l’investissement factoriel, notamment avec les travaux de Fama et French, qui perfectionnent la modélisation de la performance d’un titre en ajoutant plusieurs facteurs explicatifs tels que croissance, valeur et taille pour ne parler que des plus connus.

Tous ces travaux posent un cadre théorique indéniablement bienvenu et encore très utilisé de nos jours. Mais en pratique, à l’époque, peu de portefeuilles sont gérés sur la base de ces modèles, faute, entre autres, de données suffisamment fiables pour les alimenter.

 Il y a là une vraie carence, mais elle n’est pas appelée à durer.

La plupart des acteurs de la gestion quantitative évoqués plus haut, Fama en particulier, ont eu un rôle à jouer dans la formulation de l’hypothèse des marchés efficients. Le principe en est que le prix d’un actif financier reflète la totalité de l’information publique disponible. Le corollaire de cette hypothèse est qu’il est inconcevable de surperformer le marché sur le long terme.

Il ne s’agit que d’un fondement théorique mais, en 1976, John C. Bogle, CEO de la société d’investissement Vanguard, décide de le mettre en application. Il crée alors le Vanguard 500 Index, un fonds qui réplique la structure du S&P 500, où sont rassemblées les 500 plus grandes valeurs de la cote américaine.

L’objectif de Bogle n’est pas tant d’exploiter ce postulat académique que de donner la possibilité à l’homme de la rue de détenir des parts dans les plus grandes sociétés américaines sans avoir l’embarras du choix et des achats ligne par ligne. Le tout à moindre coût, dans la mesure où le caractère systématique de la gestion indicielle implique des coûts de production moindres, et par conséquent des commissions de gestion plus faibles.

Près d’un demi-siècle s’est écoulé et Vanguard figure désormais au deuxième rang, derrière BlackRock, des plus grands gestionnaires d’actifs dans le monde. Ses encours avoisinent les 8’000 milliards de dollars. Le Vanguard 500 Index Fund existe toujours alors que la durée de vie moyenne d’un fonds est d’à peine 9 ans. Plus qu’un succès individuel c’est le succès de ce type de gestion qui est frappant : depuis 2018, les actions américaines gérées de façon passive ont dépassé en proportion celles qui sont gérées de façon active.

 En associant la capacité de traitement de données qui permet la gestion indicielle et un autre progrès technologique, la négociation électronique des titres, l’une des plus grandes innovations du monde financier a pu voir le jour, à savoir les Exchange Traded Funds. Au départ, les ETFs répondent aux besoins des négociateurs de traiter toutes les composantes d’un indice en une seule transaction. Le premier d’entre eux, apparu en 1993, reproduit la performance du S&P 500. Connu dans toute l’industrie sous le nom de SPY, il compte aujourd’hui près de 350 milliards de dollars d’actifs sous gestion. 30 ans à peine après son lancement, le marché des ETFs dans son ensemble représente près de 6’000 milliards de dollars d’actifs, soit 10% des actifs mondiaux totaux en fonds ouverts.

 Aujourd’hui, les données disponibles et susceptibles d’être traitées sont innombrables. Alors que leur utilisation dans la gestion se concentrait sur l’évaluation des titres et la construction de portefeuilles, elles peuvent de plus en plus être utilisées dans l’analyse des actifs, de leur potentiel, pour aboutir à des décisions plus muries. L’analyse de photos satellites pour compter les voitures sur les parkings de Walmart, par exemple, ou la fréquentation des restaurants via OpenTable permettent de mieux anticiper les tendances inflationnistes. Il est alors possible de les intégrer dans la gestion bien avant la publication du CPI par le Bureau des Statistiques du Travail.

 Autrefois domaine réservé des gérants quantitatifs, de plus en plus de gérants dits qualitatifs font appel à des techniques de traitement de données pour identifier des opportunités d’investissement, voire pour étayer ou compléter leurs décisions. Les frontières s’estompent !

 On l’a vu, la première grande application pratique du traitement de données en masse en gestion a eu pour effet de démocratiser les fonds d’investissement et d’en faciliter l’accès à moindre coût. Nous sommes en train de vivre la deuxième grande transformation : elle porte davantage sur la capacité à mieux gérer, de façon encore plus informée. Le système d’information, souvent qualifié de « support » par les gérants qualitatifs, a fini par s’imposer chez eux comme l’un des éléments décisifs sur laquelle repose leur compétitivité, à parts égales avec l’expérience et la compétence de l’équipe de gestion.

 

Bio

Jérôme Callut

DCM Systematics

 Jérôme Callut est Associé et responsable de la recherche chez DCM Systematic Advisors à Genève. Avec Anthony Dearden, Jérôme a créé la stratégie Diversified Alpha et supervise son développement. Jérôme a travaillé chez Bluecrest Capital Management de 2008 à 2013 en tant que chercheur senior au sein de l’équipe de modélisation systématique, sur la stratégie BlueTrend (CTA). Il a notamment dirigé l’équipe en charge de la recherche pour les stratégies traitant les devises. Ses responsabilités comprenaient l’amélioration des stratégies existantes ainsi que la création de nouveaux modèles prédictifs. Jérôme possède un doctorat en Machine Learning de l’Université de Louvain. 

    Vous aimerez aussi

    Sphere

    The Swiss Financial Arena

    Depuis sa création en 2016, SPHERE anime la communauté des pairs de la finance suisse. Elle leur propose en français et en allemand différents espaces d’échange avec un magazine, des hors-série réservés aux Institutionnels, un site web et des évènements organisés tout au long de l’année pour aborder de nombreuses thématiques. Toutes les parties prenantes de la finance, l'un des plus importants secteurs économiques de Suisse, ont ainsi à leur disposition une plateforme où il leur est possible d’échanger, de s’informer et de progresser.

    Rue Barton 7
    Case postale 1806
    CH-1211 Genève 1

    P +41 22 566 17 31

    © 2023 Sphere Magazine

    Site réalisé par Swiss House of Brands