L’analyse des risques présents dans un portefeuille d’actifs ou dans le bilan d’une institution financière s’appuie sur des modèles dynamiques décrivant les évolutions des caractéristiques des actifs financiers (rendements, taux d’intérêt), et celles de facteurs de risque macroéconomiques (indices de marché, PIB), ou individuels (indicateur de défaillance, de fermeture de compte, de rachat de contrat).

Ces modèles sont utilisés pour calculer des mesures de risque, telles des Valeurs-à-Risque (VaR), ou pour fixer des niveaux de réserves dans le cadre des nouvelles régulations Bâle 3 ou Solvabilité 2. Comme ces modèles sont habituellement estimés sur des données historiques, les mesures de risque et les réserves qui en sont directement déduites correspondent à des situations standard. Il est rapidement apparu nécessaire de comparer ces résultats à ceux de situations non standard, dites stressées. Ces études de sensibilité s’appuient soit sur des scénarios, soit sur des analyses de réponses à certains chocs. Il est important de distinguer ces deux types d’approches.

Analyse par scénario ou par réponse à des chocs

Dans une analyse par scénario, le modèle estimé est conservé inchangé et les mesures de risque sont calculées de façon non stressée, c’est-à-dire conditionnellement à l’information sur le présent et le passé des variables pertinentes, et de façon stressée, sachant en plus une évolution future défavorable de certaines de ces variables. Cette approche a été par exemple suivie dans les stress tests récents demandés par la Banque Centrale Européenne.

Dans une analyse par réponse à des chocs, l’information servant aux calculs est inchangée, de même que le modèle, mais les paramètres de ce modèle sont modifiés. On compare alors les mesures de risque avec les valeurs estimées initiales et celles calculées avec ces valeurs stressées.

Les chocs sont souvent trop macroéconomiques

Dans les approches modernes, les chocs peuvent concerner les lois d’erreurs ne s’interprétant pas comme des innovations ou d’autres paramètres scalaires ou fonctionnels de ces modèles. Par exemple, certains paramètres peuvent s’interpréter comme des taux d’imposition, d’autres comme les objectifs d’inflation dans le comportement de fixation de taux directeurs par la banque centrale. On peut alors analyser les conséquences en termes de risque d’une modification de ces taux ou des objectifs d’inflation. Dans une telle optique, on cherche souvent des chocs sur les paramètres ayant des interprétations économiques.

Ainsi, on pourra chercher des innovations s’interprétant comme des chocs exogènes de productivité. Lorsque les chocs concernent des paramètres définissant le comportement de la banque centrale, on essaiera aussi de choquer en même temps d’autres paramètres pour tenir compte des ajustements des comportements des agents à ces changements de politique de la banque centrale ou à l’anticipation de ces changements. C’est la célèbre critique de Lucas [ Lucas (1976)].

Évidemment, il serait possible de combiner ces deux approches pour voir les effets de changement de politique économique en situation non standard.

Des questions encore en suspens

Dès que l’objectif est de comparer des mesures de risque comme la VaR, les calculs ne peuvent être conduits sous forme analytique et nécessitent de générer des trajectoires futures des variables. Ces générateurs de trajectoires, souvent appelés à tort générateurs de scénarios, sont souvent faciles à définir lorsque l’information concerne les seuls présent et passé des variables, mais demandent plus de technicité lorsque les évolutions futures de variables non fortement exogènes sont a priori fixées.

Les deux types d’analyse, par scénario et par réponse à des chocs, supposent que le modèle initial soit bien spécifié à la fois pour le passé et pour l’environnement stressé. Ils supposent aussi que les paramètres soient identifiables dans ces deux environnements. Les analyses ne peuvent ainsi fournir des réponses à des questions telles que les évolutions du risque dans un environnement permanent de taux bas, ou les risques liés à une sortie de la Grèce de l’Euro.

Concernant les taux bas par exemple, les modèles habituellement utilisés pour décrire l’évolution des taux sont incompatibles avec cette hypothèse de stress. De plus, même si ces modèles étaient modifiés pour obtenir cette compatibilité, on aurait trop peu de situations passées de taux bas comparables pour identifier de façon précise les paramètres. A de telles questions on ne peut répondre que par des “visions” d’experts sur le futur, sans support quantifié véritable, ou alors fournir la même réponse que Wiplosz : “Wait and see”, c’est-à-dire attendons d’avoir suffisamment d’information pour pouvoir donner des réponses raisonnables.

Adapter les chocs à la structure de l’entreprise

Les méthodes d’analyse et les générateurs de trajectoires reposent souvent sur des méthodologies datant des années 80, sans clairement distinguer les deux types d’analyse discutés ci-dessus, mais aussi sans clairement expliquer, dans le cas de portefeuilles incluant des dérivées, les cohérences ou manques de cohérence entre les générateurs sous probabilité historique et sous probabilité risque -neutre. De plus, les institutions financières laissent souvent à des sociétés de service le soin d’effectuer ces tests, donc ne font pas véritablement l’effort de construire et comprendre leur propre modèle. Elles commettent ainsi la même erreur que celle concernant la construction des ratings, erreur qui fut une composante importante de la crise financière de 2008.

Concernant la définition des chocs à effectuer, ceux-ci sont souvent suggérés par la Banque Centrale Européenne ou par des superviseurs à partir de leurs propres modèles, qui diffèrent sensiblement des modèles de risque des banques et compagnies d’assurance. De plus, ces derniers modèles peuvent eux-mêmes être très différents les uns des autres. Les chocs proposés ont alors des interprétations très différentes ainsi que les conséquences de ces chocs en termes de risques futurs. Alors que les scénarios ou chocs proposés sont “topdown”, les résultats qui reposent sur les modèles individuels sont “bottom–up”.

Finalement, les situations non standard extrêmes dépendent de l’environnement. Cette dépendance devrait être prise en compte et les stress être remis à jour régulièrement de façon cohérente. Ces situations non standard dépendent aussi des structures de bilan des entreprises. Les stress devraient en tenir compte et différencier les banques de dépôt, des banques d’investissement ou des compagnies d’assurance. En d’autres termes, ces chocs sont souvent trop “macroéconomiques”. Ceci apparaîtra clairement lorsque les stress seront conduits sur les actifs immobiliers, dont il est connu que les évolutions de prix sont très hétérogènes par type de bien et de localisation.

 

BIOGRAPHIE

Gourieroux

Christian Gouriéroux est professeur d’économie à l’université de Toronto et directeur du laboratoire de Finance-Assurance au CREST. 

 

 

 

 

 

Évènements rares : comment calculer l’imprévisible ?

Quel est le point commun entre l’explosion de Tchernobyl, la chute de Lehmann Brother et un État grec au bord de la faillite ? Tous ces événements étaient inenvisageables pour bon nombre d’experts. Et pourtant… Ils ont été lourds de conséquences. L’évaluation des risques portés par les événements extrêmes est donc devenue un enjeu qui nécessite de définir de nouveaux outils mathématiques.

D’après un entretien avec Emmanuel Gobet, et l’article “Rare event simulation using reversible shaking transformations” d’Emmanuel Gobet et Gang Liu.

La gestion des risques est souvent centrée sur les risques principaux. A l’inverse, les événements rares, dont la probabilité de réalisation est extrêmement faible, sont souvent jugés peu réalistes. Mais les faits récents sont venus contredire les lois empiriques de la statistique, redéfinissant la frontière entre possible et impossible.

Face aux dernières crises, les politiques de gestion des risques ont été remises en question. Désormais, elles doivent intégrer les événements “rares”, que ce soit pour quantifier la probabilité d’un tel risque, évaluer ses conséquences, ou prendre des mesures préventives. Mais un évènement rare est par définition difficilement observable : sa probabilité de réalisation est égale à 0,0001. Comment dès lors réussir à l’évaluer ?

Les méthodes statistiques se basent en effet sur un historique d’observations pour quantifier une probabilité. Toutefois, si événement s’est peu, voire jamais, produit, les statisticiens ne disposent pas des observations nécessaires à sa quantification. L’article d’Emmanuel Gobet vise à fournir une méthodologie permettant de répondre à de telles situations, lorsque l’on dispose d’un modèle.

Découper l’événement rare

Un événement est toujours la conjonction de plusieurs phénomènes aléatoires. Avant la crise des subprimes, par exemple, les observateurs constataient une hausse des prix de l’immobilier aux Etats-Unis ainsi qu’une absence d’acheteurs de qualité sur ce marché. La modélisation de ces phénomènes peut alors permettre de simuler l’évènement. Toutefois, de très nombreuses simulations sont nécessaires avant de parvenir à générer le scénario critique recherché. Le processus est chronophage et exige d’importantes capacités de calcul. Pour contrer ces difficultés, des techniques Monte Carlo avancées, baptisées d’échantillonnage préférentiel, permettent de biaiser la génération de scénario afin d’augmenter l’occurrence d’évènements rares. Mais leur utilisation demeure complexe. 

Si l’événement ne s’est jamais produit, les statisticiens ne disposent pas des observations nécessaires à sa quantification 

L’auteur a donc conçu une méthode, dite de splitting, visant à simplifier la simulation d’événements rares. Son principe est simple : découper un évènement rare en plusieurs événements non rares. “Pour évaluer le risque d’une perte de 30 milliards d’euros sur un portefeuille, il faudrait simuler des millions de scénarios avant de réussir à observer ce cas de figure, illustre Emmanuel Gobet. La méthode propose d’évaluer le risque d’une perte plus petite, par exemple 30 millions, donc plus plausible et facilement observable. Nous sélectionnons ensuite les scénarios correspondant à la perte recherchée ; nous les transformons (« shaker »), puis nous les utilisons pour générer des scénarios de plus grandes pertes. L’opération est renouvelée jusqu’à atteindre l’évènement recherché.”

Connaître l’origine de l’événement

Reposant sur deux algorithmes, l’un à base de transformation ergodique, l’autre mêlant sélections et transformations des trajectoires, cette technique permet de quantifier à la fois la fréquence et l’intensité de l’événement rare. Une de ses particularités est de résoudre la problématique de temporalité et du choix de la fréquence d’échantillonnage des trajectoires. Les autres méthodes calculent la probabilité d’un risque à une fréquence donnée : quotidienne, hebdomadaire, mensuelle… Le choix de cette fréquence est souvent arbitraire. Or, il n’est pas neutre. Opter pour une fréquence hebdomadaire plutôt que mensuelle peut modifier les résultats.

La méthode de splitting développée ici ne raisonne pas sur une fréquence, mais analyse la trajectoire complète d’un scénario : chacun d’entre eux correspond à une nouvelle courbe. Elle donne ainsi un éclairage sur l’origine de l’événement rare, en fournissant des informations sur la chronologie qui l’a précédé. Il est ainsi possible de savoir quel secteur ou agent a la plus grande probabilité de produire tel scénario. “C’est un outil de monitoring qui permet, par exemple, de voir quelle est la banque la plus sensible dans le cadre d’un stress test”, explique Emmanuel Gobet.

Prévenir les risques de toute nature

La méthode de splitting peut être appliquée à de nombreuses problématiques. Des travaux sont ainsi en cours pour évaluer les pertes d’un portefeuille de crédit, et calculer le risque de défaut conjoint des entreprises. Les auteurs l’utilisent également pour tester le risque de modèle, autrement dit pour estimer les conséquences d’une utilisation non pertinente d’un modèle financier. Mais les applications peuvent parfaitement dépasser le domaine financier : “La thématique du risque est aujourd’hui devenu transversale, souligne Emmanuel Gobet. Qu’il soit financier, économique, environnemental ou industriel, le risque doit être quantifié et évalué.”

Cette méthode de splitting constitue un outil supplémentaire pour la compréhension des scénarios extrêmes, en apportant notamment un éclairage sur leur origine et leurs conséquences. De telles informations sont évidemment précieuses au régulateur pour définir des règles prudentielles et éviter de nouvelles crises.

 

BIOGRAPHIE

Gobet-Emmanuel

 

 

Emmanuel Gobet est professeur de mathématiques appliquées à l’Ecole Polytechnique et membre de la chaire Risque financier.

Comment mesurer le risque systémique extrême porté par les marchés financiers ?

La structuration des marchés financiers est telle qu’une crise isolée peut rapidement se généraliser. Dans ce contexte, la chute d’un seul actif peut-elle entraîner avec elle l’ensemble du marché ? Quelle est l’amplitude du degré de contagion ? Comment mesurer le risque systémique porté par les marchés financiers ? Christian Robert et son co-auteur ont développé des outils statistiques permettant d’apporter un nouveau regard sur la mesure de ce risque extrême.

D’après un entretien avec Christian Robert et les articles “Systemic tail risk distribution” (en cours de finalisation) et “Likelihood based inference for high-dimensional extreme value distributions” d’Alexis Bienvenüe et Christian Robert.

Les recherches sur le risque systémique, ses mesures et sa régulation, se sont considérablement développées depuis la crise financière de 2008. Les régulateurs, les banques centrales, tout comme le monde académique, ont essayé de caractériser ses nombreuses facettes. Les mesures du risque systémique sont en effet multiples. Elles peuvent porter sur les institutions financières, via une analyse des données de marché ou des données comptables, sur les marchés financiers et leurs infrastructures, ou encore sur le degré d’interconnexion entre les institutions et les marchés. Toutes ces mesures doivent aider à identifier les acteurs susceptibles de contribuer, le plus, aux difficultés d’un système financier en période de crise.

Mesurer le degré de contagion…

Dans son article, Christian Robert s’intéresse au risque systémique porté par un marché d’actifs et cherche à mesurer les dépendances extrémales entre ces actifs durant une crise. Quel est le degré de contagion ? Dans quelle mesure, la chute d’un actif peut entraîner une forte baisse des autres actifs ? Quel serait le nombre de produits impactés par cette chute ?

Plus précisément, l’objectif est de modéliser l’évolution conjointe des actifs en période de crise, afin d’obtenir la distribution du nombre d’actifs subissant des pertes importantes lorsqu’au moins un actif voit son prix chuter. “Nous ne privilégions pas un produit financier plutôt qu’un autre, précise Christian Robert. Au contraire, nous regardons les dépendances qui existent entre les actifs, dans le cas d’un scenario de perte pour au moins un des actifs. Cette approche s’apparente à celle développée par Hartmann, Straetmans et de Vries (Journal of Empirical Finance, 17, 241–254, 2010) dans le cadre des marchés des changes.”

Il existe un risque de baisse généralisée et extrême de l’ensemble des actifs

…en intégrant l’ensemble du marché

Des mesures ont déjà été introduites pour quantifier les conséquences de la chute d’un actif sur le marché (comme par exemple la Contagion VaR), mais elles se concentraient sur un actif particulier, voire deux. La spécificité du travail présenté est d’utiliser la théorie des valeurs extrêmes dans un contexte de grande dimension afin de représenter le marché dans son ensemble : une centaine d’actifs sont ainsi considérés dans notre application. Dans un premier temps, l’approche développée, basée sur un modèle de type CAPM (modèle d’évaluation des actifs financiers), est utilisée pour obtenir une distribution théorique des actifs impactés, puis celle-ci est comparée à une distribution empirique calculée à partir de données américaines du marché actions. Les deux résultats sont concordants et font ressortir deux conclusions principales.

Il ressort, tout d’abord, que la dépendance entre deux actifs change au fil du temps, notamment en période de crise où elle peut s’accroître. Un paramètre pas toujours intégré dans les calculs de risque systémique : “La sensibilité d’un actif au risque de marché est souvent laissée constante dans les mesures de risques systémiques, explique Christian Robert. Mais nous montrons que cette sensibilité évolue en période extrême. Les calculs de risque doivent donc reposer sur des coefficients de sensibilité aléatoires.”

Un risque de baisse généralisée

L’étude révèle également que la distribution des actifs impactés par la chute d’au moins un actif est particulière. Intuitivement, il serait possible de croire que la distribution du nombre d’actifs impactés lors d’un évènement de crise décroit avec le nombre d’actifs touchés : il serait alors plus probable qu’un seul actif soit impacté plutôt que deux, que deux actifs soient touchés plutôt que trois, etc. Or, la distribution obtenue ne correspond pas tout à fait à ce schéma. Le risque ne décroît pas de façon continue. Au contraire, il augmente de manière significative lorsque que l’on s’approche de la queue de la distribution et que l’on considère la quasi-totalité des actifs. Concrètement, ces résultats montrent que la probabilité que l’ensemble du marché soit impacté par la chute d’un actif n’est pas nulle. Il existe un risque de baisse généralisée et extrême de l’ensemble des actifs.

En montrant les liens existants entre les actifs d’un marché financier, et leurs évolutions en période de stress, l’étude soulève une vraie problématique de contagion qui devrait probablement être mieux prise en compte dans les modèles de constructions de stress tests. Les stress tests menés récemment par la Banque Centrale Européenne ont ainsi permis d’évaluer la solidité de chaque banque de façon isolée. Mais le risque que tous les établissements subissent une crise au même moment existe et il serait donc utile d’agréger les scénarios de perte afin d’évaluer les conséquences d’une chute globale pour le marché.

 

BIOGRAPHIE

Robert-ChristianChristian Robert est professeur en statistique et en science actuarielle à l’université Claude Bernard Lyon 1. Il est également directeur du laboratoire de Sciences Actuarielle et Financière, et co-porteur de la chaire Management de la Modélisation

Comment améliorer les prévisions économiques ?

De quoi sera fait demain ? La conjoncture va-t-elle s’améliorer ? La consommation va-t-elle reprendre ? L’avenir économique reste une préoccupation majeure des dirigeants, comme des financiers qui ont besoin de disposer de prévisions de qualité. Clément Marsilli a développé une méthodologie permettant d’estimer l’évolution de la croissance grâce à l’analyse de données de différente fréquence.

D’après l’article de Clément Marsilli “Variable Selection in Predictive MIDAS Models” et un entretien avec l’auteur.

Politiques, industriels ou encore investisseurs scrutent les estimations de la croissance et ajustent leurs décisions en fonction des chiffres annoncés. La publication du PIB, faite chaque trimestre par l’Insee, est ainsi très attendue. Mais, si la prévision économique est un exercice essentiel, elle s’avère également très complexe.

Le calcul de tels indicateurs se base sur une multitude de données, de nature et de fréquence très différentes. Il s’appuie tout d’abord sur des données macro- économiques : production industrielle, consommation des ménages… Ces informations, dites “hard data”, sont divulguées tous les mois ou tous les trimestres. Le calcul du PIB intègre également des données issues d’enquêtes, appelées “soft data”, comme le climat des affaires, les investissements prévus ou encore le niveau de confiance des ménages. Ces données sont souvent publiées de façon mensuelle. A ces deux catégories, viennent s’ajouter les données relatives aux marchés financiers. Ces variables ont la particularité d’être disponibles en temps continu et d’être extrêmement volatiles. Elles sont, pour ces raisons, souvent ignorées des modèles de prévision, bien qu’elles aient un véritable impact sur l’économie réelle.

Gérer les multiples fréquences

Prévoir l’évolution de la conjoncture économique soulève ainsi de nombreuses problématiques. Comment intégrer des données de nature et de fréquence diverses à un seul et même modèle ? Comment sélectionner les données les plus pertinentes parmi la multitude d’informations disponibles ? Au sein des données sélectionnées, comment tenir compte de leur différence de valeur en termes prédictifs ? Toutes les données sélectionnées n’ont en effet pas le même impact sur la croissance. Il est nécessaire d’effectuer une pondération en fonction du poids prédictif de chacune.

Il est toujours difficile de gérer une crise

Dans ses travaux, Clément Marsilli s’est donc attaché à définir une méthode capable de sélectionner les variables pertinentes pour la prévision économique, dans le cadre de données multi fréquentielles. Pour ce faire, il s’appuie sur un modèle Midas. La particularité de ce modèle est de pondérer de manière optimale et parcimonieuse les données haute fréquence afin de les agréger. Le calcul est ainsi simplifié, et les résultats améliorés puisque le poids informationnel de chaque donnée est mieux pris en compte. Le modèle Midas est ensuite croisé avec d’autres techniques afin d’améliorer la sélection des variables, et par là même, la qualité des prédictions économiques.

Améliorer la sélection de données

Deux méthodologies sont ainsi mises au point : le Midas Lasso et le Midas Bayesien. Le premier introduit la pénalisation Lasso dans un modèle à mélange de fréquences. Cette technique présente l’avantage d’introduire de la sparsité, c’est-à-dire qu’elle possède un fort pouvoir de sélection des variables. La deuxième méthodologie repose sur l’utilisation de la technique Bayesien avec un modèle Midas. L’introduction de distributions des paramètres permet d’identifier la probabilité d’une variable d’être pertinente pour la prévision. Ces deux méthodologies sont ensuite appliquées à des données américaines, portant sur la période 2000-2012, afin de tester leurs prévisions. Leurs résultats sont comparés à ceux obtenus par deux autres méthodes “traditionnelles”.

La volatilité financière : une donnée essentielle

Les modèles Midas Lasso et Midas Bayesien s’avèrent très performants pour des prévisions sur la période en cours (nowcasting), comme pour des calculs intra-trimestriels par exemple. De manière générale, ils obtiennent de bons résultats pour des prévisions allant jusqu’à six mois. Outre la qualité des prévisions, l’avantage de ces méthodes est de mesurer empiriquement la contribution de chaque facteur au niveau de la croissance. L’étude montre ainsi que la volatilité financière a une forte influence sur la conjoncture macro-économique. Cette variable est systématiquement jugée pertinente par les modèles Midas et semble particulièrement importante pendant les périodes d’incertitude. Il en va de même pour la production industrielle et la consommation.

Quelle que soit la méthodologie utilisée, les modèles ont par contre toujours des difficultés à capter les évènements rares, qu’il s’agisse de phases de forte expansion (points hauts) ou de récessions (points bas). Ainsi, lors de l’éclatement de la bulle Internet en 2000 et de la crise de 2008, les prévisions faites par les modèles testés restent très au-dessus de la réalité. Anticiper ces périodes “hors normes” demeure un défi, mais en dehors de ces pics, la marge d’erreur des prévisions est assez faible.

Si le calcul d’indicateurs macro-économiques constitue la première finalité des modèles Midas Lasso et Midas Bayesien, ces derniers pourraient également servir pour des applications financières. En estimant le prix de clôture de marché à partir des données intra-journalières, ou en définissant un portefeuille optimal via l’évolution anticipée des actifs, ils pourraient représenter de précieux outils pour les investisseurs.

 

BIOGRAPHIE

Marsilli Clement 

 

 Clément Marsilli est économiste chercheur à la Banque de France.

Les rendements boursiers sont-ils prévisibles ?

L’analyse de certaines variables permet d’anticiper, en partie, l’évolution du prix des actifs. Un principe théorique parfois difficilement applicable en raison d’une quantité insuffisante de données. Face à ce constat, Julien Pénasse propose de mutualiser les informations locales et étrangères afin d’améliorer la prédictibilité des rendements

D’après un entretien avec Julien Pénasse et son article “Return Predictability: Learning from the Cross-Section”.

Comprendre les causes des variations de prix des actifs et anticiper ces fluctuations font partie des questions de recherche les plus actives en économie financière. Plusieurs travaux ont ainsi démontré qu’un grand nombre de variables économiques possédait un pouvoir prédictif sur les rendements des actifs : l’analyse de leurs évolutions peut ainsi permettre d’anticiper les rendements futurs. Pour les actions, c’est le cas notamment du ratio dividende/prix: “Le prix d’une action fluctue plus que le montant des dividendes anticipés, souligne Julien Pénasse. Cela signifie que le taux d’escompte varie dans le temps. Les actions sont des actifs de duration longue. Une variation même faible du taux d’escompte a donc des effets importants. Ce taux d’escompte reflète les anticipations et surtout les primes de risques exigées par les investisseurs. C’est cette prime de risque qui est prévisible, pas les rendements eux-mêmes.”

Pourtant, prédire les rendements boursiers via l’évolution de diverses variables reste un défi. Si le caractère prédictif du ratio dividende/prix de l’action est admis, il demeure difficile à détecter dans la pratique. En cause ? Une quantité souvent insuffisante de données disponibles, la plupart des analyses étant effectuées pays par pays.

Les données sont disponibles mais pas utilisées de manière pertinente 

Un mécanisme unique pour tous les pays

Comment dès lors élargir le champ des données ? Comment faciliter la lisibilité du ratio dividende/prix et le rendre plus visible ? Peut-on ainsi améliorer la prédictibilité des rendements des actions ? Telles sont les problématiques abordées dans les travaux de Julien Pénasse. Le chercheur propose une méthodologie qui analyse la prédictibilité des rendements, via un croisement d’informations. Au lieu de considérer chaque pays de façon isolée, il les intègre dans un seul et même modèle, appelé modèle échangeable. “Les données sont disponibles mais pas utilisées de manière pertinente, indique Julien Pénasse. Nous observons des situations similaires dans la plupart des pays. Si le même mécanisme économique est à l’origine de la prédictibilité des différents marchés, les informations portant sur un marché X nous informent également sur l’évolution du marché Y.”

Au niveau mathématique, il s’agit d’appliquer la régression des rendements actions sur la variable dividende/prix à plusieurs pays afin de mutualiser les informations. L’auteur fait ainsi l’hypothèse que les processus des différents pays sont des variables aléatoires qui partagent la même distribution.

Le modèle est appliqué aux marchés actions de 15 pays de l’OCDE. Sur la période 1990- 2010, ces prévisions sont comparées hors-échantillon aux rendements réalisés, pour déterminer si un investisseur aurait pu exploiter la prédictibilité en temps réel.

Des marchés plutôt homogènes

Bien que les gains soient relativement modestes, en ligne avec la littérature précédente, il en ressort que la méthodologie développée a un impact positif sur l’estimation des rendements. Les prévisions basées sur le modèle échangeable sont plus précises que celles des approches traditionnelles qui ignorent l’information croisée. L’étude analyse également les comportements des investisseurs, illustrés par l’évolution de la prime de risque, afin de déterminer s’ils varient fortement d’un pays à l’autre, ou au contraire, si les marchés sont relativement homogènes. De précédents articles indiquaient une forte hétérogénéité entre les pays. Mais, pour l’auteur, ces différences sont essentiellement dues au hasard. Les résultats de l’étude suggèrent en effet une relative homogénéité entre les pays. Les processus d’anticipation des investisseurs et, par conséquent, les processus de formation de la prime de risque sont assez similaires d’un marché à l’autre. La prédictibilité est ainsi plutôt faible dans les pays étudiés, et les primes de risque comprises entre 1 % et 5 %.

Sauf les Etats-Unis

Seules exceptions : les Etats-Unis et, dans une moindre mesure, le Royaume-Uni. Ces deux pays se démarquent par une prime de risque et une prédictibilité bien supérieures à la moyenne. Aux Etats-Unis, par exemple, la prime de risque s’élève à près de 8 %. Un chiffre qui témoigne de la surperformance du marché actions américain, ainsi que d’une plus grande volatilité des primes de risques. Un investisseur américain est donc incité à investir plus massivement en actions, mais aussi à arbitrer le marché de façon plus agressive.

Enfin, le fait d’intégrer les données internationales dans le calcul des rendements attendus modifie les stratégies d’allocation des investisseurs. Les rendements attendus tendant à s’homogénéiser entre les pays, le niveau d’allocation aux actions s’harmonise également.

Analyser chaque marché séparément revient à ignorer bon nombre d’informations pertinentes. Les marchés actions partagent en effet des processus de formation des primes de risque relativement similaires. Les investisseurs ont donc tout intérêt à inclure l’ensemble des informations disponibles dans leur analyse des rendements attendus des actifs. Les estimations en sont améliorées et les actions apparaissent par conséquent relativement moins risquées.

BIOGRAPHIE 

Penasse-Julien

 

Julien Pénasse est chercheur postdoctoral à l’Ecole Polytechnique. Il collabore également à l‘initiative de recherche “Allocation d’actifs à long terme.

 

 

 

 

Quelles solutions pour apporter de la pertinence aux stress tests réglementaires

Les stress tests réglementaires réalisés en 2014 ont été largement commentés et critiqués par les observateurs et les professionnels. Après avoir souligné certaines incohérences dans les scénarios, Omar Mehdi Roustoumi, manager et responsable du pôle Quantitative Finance chez MPG Partners, propose des pistes d’amélioration grâce à l’intégration du risque systémique et à l’utilisation des nouvelles technologies du Big Data et de la Data Science

 

Le second semestre de l’année 2014 a été animé par une série de stress tests annoncés par l’EBA (European Banking Authority). L’exercice a été réalisé sur un échantillon de 124 banques européennes dont les activités couvrent au moins 50 % du secteur bancaire domestique de chacun des Etats membres de l’Union Européenne concernés. La BCE s’est félicitée des résultats car “ seules” 25 banques ont échoué à ce stress test réglementaire. Les stress tests tels que définis par l’EBA suivent une approche dite “bottom-up” et ont pour objectif d’assurer la cohérence et la comparabilité des résultats à partir de méthodologies communes à toutes les banques.

Des scénarios macroéconomiques et des scénarios de marché censés représenter un état de crise sont émis par la BCE. Cet état de crise est défini relativement à un état “normal“. Les scénarios macroéconomiques concernent les prix de l’immobilier, le taux de chômage, l’inflation, le cours de la bourse (CAC 40 pour la France), les taux d’intérêt et la récession. Les scénarios de marché consistent à effectuer des chocs sur les facteurs de risques impactant les différents trading books de la banque. Ces scénarios sont communs à toutes les banques.Une fois ces scénarios émis, un certain nombre d’échanges bilatéraux ont lieu entre chaque banque et des représentants de la BCE afin de se mettre d’accord sur les périmètres et méthodologies de mise en place des stress tests.

La BCE a par la suite porté une attention particulière à ces stress tests en challengeant les banques et en examinant les résultats en détail..

Stress tests risques de crédit, de contrepartie et de marché

Tous les actifs exposés aux risques de crédit et de contrepartie sont concernés par ce stress test. Il s’agit ici de calculer la probabilité de défaut (PD) et la perte en cas de défaut (LGD) en fonction des scénarios retenus. Concrètement, il faut relier les séries temporelles des taux de défaut aux facteurs de risques macroéconomiques affectant chaque portefeuille, puis projeter ces taux sur chaque pas de temps trimestriel, à horizon trois ans avec les données de la BCE. Les modèles d’évolution des taux de défaut sont le plus souvent fondés sur des modèles économétriques de séries temporelles (modèles autorégressifs AR, Vectoriels AR, modèles vectoriels autoré- gressifs à corrections d’erreurs VECM…). Les stress tests marché pour une banque consistent à effectuer des chocs sur ses facteurs de risque de marché, en répliquant les scénarios de stress observés durant les principales périodes de crise. D’autres chocs hypothétiques sont également effectués selon un scénario “normal” et un scénario “adverse”. Il s’agit ensuite de calculer sur les différents portefeuilles de trading de la banque, les impacts en P&L de ces chocs.

Des scénarios incohérents

Comme pour les dernières éditions, ces stress tests ont été largement critiqués par les spécialistes du secteur bancaire. Le cas des taux d’emprunt d’Etat français en est une illustration. Le pire scénario proposé par la BCE est un taux d’emprunt à environ 4 % à horizon 2016. Or, pendant la crise de 2008, les taux ont frôlé les 6 %. Il paraît donc curieux d’effectuer un stress test avec un taux inférieur à celui de la dernière crise ! Un taux d’emprunt à 7 ou 8 % aurait été plus raisonnable comme scénario extrême, d’autant que d’autres pays européens ont connu des taux encore plus élevés. Sur le plan de la récession, le pire scénario proposé par la BCE est de -2 %. Or en 2009, elle était déjà de -2,5%. Ces critiques valent aussi pour les autres scénarios macroéconomiques. Concernant les stress tests marché, beaucoup de chocs relatifs définis par la BCE sont incohérents comme par exemple des volatilités de taux choquées à 10000 %. Les scénarios marché, contrairement aux scénarios macroéconomiques, sont ceux d’une méga crise. Un effort d’homogénéisation et de cohérence entre ces scénarios devrait être effectué par la BCE.

Mieux intégrer le risque systémique

En cherchant à mesurer les effets de scénarios macroéconomiques et de marché sur les expositions d’une banque prise seule, on ne prend pas en compte les effets de contagion qui peuvent se produire lors de la faillite d’une banque ou du défaut d’un pays. En 2008, la faillite de la banque Lehman Brothers a déclenché une réaction en chaîne qui a affaibli tout le système financier et engendré une crise dont on peine encore à sortir. Il conviendrait donc d’étudier la résistance des banques aux conséquences systémiques de la faillite d’une grande banque. Certains travaux de recherche reposant sur la théorie des graphes donnent quelques pistes intéressantes pour maîtriser ce “risque systémique”. Si demain JP Morgan faisait faillite, les impacts seraient désastreux sur beaucoup plus de banques que les 25 qui ont échoué aux stress tests. Sans prendre en compte ce risque, l’exercice des stress tests reste incomplet.

Les enjeux de la qualité des données

Enfin, les conditions de production de ces stress tests soulèvent des questions. En effet, les stress tests sont en général modélisés et produits par les équipes risque sur des données répliquées du front office. La collecte et l’agrégation de ces données s’effectue depuis une multitude de sources, à des fréquences et avec des techniques différentes. Leur stockage également.

Cette diversification engendre des problématiques d’exhaustivité, de fiabilité et d’intégrité des données ainsi qu’une grande lourdeur dans les calculs. La production et la certification des données en deviennent également compliquées et parfois altérées. À l’heure où les banques réfléchissent à industrialiser les calculs des stress tests et toutes les métriques réglementaires, les moyens de production sont souvent d’un autre temps, remettant ainsi en question la pertinence des résultats et, parfois, la possibilité même d’obtenir des résultats. Rares sont aujourd’hui les banques capables d’appliquer des stress tests sur des positions passées, comme cela a été demandé par le régulateur.

Il est donc grand temps pour les banques de profiter de tout l’arsenal technologique offert par le Big Data et la Data Science afin de fiabiliser et d’optimiser tout le processus de production des stress tests, mais aussi de toutes les autres mesures de risques réglementaires ou économiques.