menu fermer

Évaluation des Modèles Mathématiques en Finance

Cahier
les emplois sont liés aux mathématiques

A partir des années 80, l’introduction des mathématiques dans les pratiques financières a accompagné une modernisation profonde de tous les compartiments de la finance. Cette modernisation a favorisé les progrès de l’économie dite réelle. La finance contemporaine a, en effet apporté la capacité de gestion des risques économiques qui était nécessaire au développement de l’économie, de l’investissement et du commerce mondiaux. Cependant, cordonnier bien mal chaussé, l’industrie financière, n’a pas su piloter, ni même mesurer la montée des risques qui se développaient en son sein. De telle sorte qu’après 25 ans de progrès, la sphère financière a entraîné le monde dans la plus grave crise économique mondiale depuis celle de 1929.

 

La place importante des modèles mathématiques dans le pricing des dérivés de crédit qui furent au centre de la crise, et plus généralement le caractère obscur des formules utilisées, ont fait des mathématiciens et de leurs modèles des boucs-émissaires idéaux pour expliquer les origines de la crise.

Evidemment, la réalité est plus complexe, mais il est indéniable que le manque de recul des quants sur les modèles et les mathématiques qu’ils utilisaient a joué un rôle important dans l’absence de maîtrise des risques financiers pris par les institutions financières. Comprendre ce qui avait dysfonctionné sur le plan mathématique a été dès lors essentiel et fut à l’origine de la création de l’Initiative de Recherche “Evaluation des modèles mathématiques utilisés en Finance” en partenariat avec le Crédit Agricole.

Les équipes scientifiques ont souhaité apporté leurs réflexions sur les modèles mathématiques utilisés et plus généralement sur la place des mathématiques en Finance. Ce dossier présente les premiers résultats.

 
Professeur au Collège de France
Responsable de l’initiative de recherche Evaluation des Modèles Mathématiques
 
 

La formation des quants : un enjeu post-crise

Le conseil scientifique de l’Initiative de Recherche “Evaluation des Modèles Mathématiques en Finance” s’est penché sur la question épineuse de la formation des analystes quantitatifs (ou quants) et a émis des recommandations importantes afin de faire évoluer les formations actuelles (Graduate Programs) et de guider la création de nouvelles formations. Pierre-Louis Lions, qui a présidé le conseil scientifique lors de ces travaux, répond aux questions des Cahiers Louis Bachelier.
 

Pouvez-vous nous éclairer sur les raisons qui ont poussé le conseil scientifique de l’Initiative de Recherche à se saisir de la question de la formation des quants ?

Depuis le début des années 80, les mathématiques financières n’ont cessé de transformer les pratiques professionnelles dans les salles de marché. Les ingénieurs financiers et autres analystes quantitatifs, bref ceux que l’on nomme les quants, sont devenus des acteurs familiers et importants des salles de marché. Assez soudainement, en quelques mois, avec la crise des subprimes, on a vu naître une profonde défiance envers les modèles mathématiques et ceux qui en font usage. Dans certains pays, comme en France, les accusations furent même violentes ! S’il apparaît aujourd’hui que la modélisation n’était pas forcément responsable de tous les maux, et fut avant tout un bouc-émissaire, nous sommes convaincus que des progrès doivent être faits dans l’utilisation des mathématiques par les institutions financières. Ces progrès passent en grande partie par une meilleure formation des quants qui souvent n’ont pas su avoir un regard critique sur les modèles qu’ils utilisaient. Nous avons donc décidé d’analyser un grand nombre de programmes de formation, tout particulièrement les curriculums des formations les plus côtées à l’échelle internationale, et nous en avons tirés des enseignements pour l’avenir.

Quels sont les principaux griefs que vous faites aux formations actuelles ?

 

Toutes les formations ont leurs spécificités et nous n’avons pas voulu distribuer les bons et les mauvais points. De manière générale, les reproches que nous faisons à la plupart des curriculums sont de trois ordres : le poids trop important accordé au pricing de dérivés dans les cursus, un enseignement souvent trop théorique, et enfin les interactions trop peu nombreuses entre les mathématiques, l’économie, la finance, les statistiques, et l’informatique.

 

Les quants ne sont-ils pas pourtant amenés à développer des pricers dans leur vie professionnelle ?

 

Si, bien sûr. Et, de toute façon, le plus célèbre des modèles est le modèle de Black et Scholes qui est un modèle de pricing d’options. Il est dès lors naturel que le pricing de produits dérivés occupe une place importante dans la formation des quants. Les mathématiques ont toutefois aussi eu une importance considérable pour la gestion de portefeuille, l’allocation d’actifs, la gestion des risques, les problèmes d’exécution, les marchés de l’énergie,… et nombreux sont les cursus qui ne présentent que les outils mathématiques (linéaires) essentiels au pricing, reléguant ainsi l’optimisation convexe ou encore le contrôle optimal stochastique au second plan. De surcroît, en ne présentant que les outils utiles au pricing, la plupart des cursus n’apportent paradoxalement pas le recul nécessaire aux futurs quants pour comprendre la nature très particulière des modèles de pricing, qui sont des modèles phénoménologiques. L’invocation récurrente de la théorie de Black-Scholes ne doit pas faire oublier qu’en pratique, le modèle de Black-Scholes ne sert qu’à transformer des prix en volatilités implicites… et non à donner des prix.

 

Dans votre rapport, vous insistez en effet sur la différence entre la modélisation en physique et la modélisation en finance…

 

Cette différence est fondamentale. La plupart des modèles de pricing de produits dérivés s’attachent en effet à “expliquer” le prix d’un produit en donnant une dynamique virtuelle au prix du sous-jacent. On est bien loin de la mécanique ou de la thermodynamique, même si les équations aux dérivées partielles utilisées en finance sont souvent proches de celles utilisées en physique. Cette différence est souvent mal comprise et cela est lourd de conséquences : les futurs quants doivent absolument acquérir un regard critique sur les modèles qu’ils seront amenés à utiliser. De ce point de vue, trop de programmes de formation se contentent de présenter des modèles de référence dans chaque domaine, faute de temps nécessaire. Afin de permettre aux étudiants d’avoir le recul nécessaire sur les modèles, ceux-ci doivent être formés aux méthodes numériques et statistiques pour backtester les modèles, les calibrer, en comprendre les limites de validité, etc… Aussi, la gestion des risques doit représenter une place beaucoup plus importante dans les formations, avec un focus particulier sur le risque modèle qui est souvent absent des curriculums.

 

Comment concilier l’enseignement d’un plus grand nombre de théories avec la nécessité que vous évoquiez de réduire le caractère théorique des enseignements ?

 

Tout d’abord, nous avons la conviction profonde que les formations devraient être dispensées sur deux ans et non pas sur un an comme c’est le cas aujourd’hui de la plupart d’entre elles. Cela laisserait le temps à la fois d’approfondir les aspects mathématiques et de ne pas se limiter aux aspects théoriques. Des études de cas sur la construction de modèles et leur calibration/validation devraient être envi­sagées, en n’omettant pas d’analyser les limites et les échecs de la modélisation qui sont tout aussi importants à connaître, voire plus importants, que les succès. Afin de jeter des ponts entre la théorie et la pratique, la réa­lisation de projets en collaboration avec les praticiens devrait aussi être plus répandue, tout comme les stages qui devraient toujours faire partie inté­grante des cursus.

 

Votre troisième grief portait sur le nécessaire élargissement des curriculums à d’autres disciplines que les mathématiques…

Oui, c’est essentiel. On peut citer quelques exemples de sujets mathé­matiques qui mériteraient d’être plus présents dans les programmes (pro­cessus de Lévy, larges déviations, équations différentielles stochastiques rétrogrades,…) mais la priorité pour les formations en mathématiques fi­nancières devrait être d’élargir l’offre de cours en s’associant aux dépar­tements de statistiques, d’économie ou d’informatique… même si pour l’informatique l’offre de cours est sou­vent déjà très correcte. Introduire plus d’économétrie, plus de statistiques et plus d’analyse des données est pri­mordial. Plus loin des mathématiques, donner aux futurs quants des bases en microéconomie et en macroéco­nomie est important, tout comme leur permettre d’acquérir des connais­sances de bases liées à l’univers professionnel qui sera le leur (comp­tabilité, régulation, finance d’entreprise,…). Ce nécessaire décloison­nement disciplinaire est un exercice difficile au sein des universités et ce d’autant plus que les programmes ne peuvent pas être figés dans le marbre. Les besoins de l’industrie n’ont en effet pas cessé d’évoluer au cours des 20 dernières années et un équilibre n’est pas en passe d’être atteint en raison des nouvelles problématiques issues de la crise et des évolutions de la régulation. Les programmes doivent donc sans cesse être révisés en fai­sant s’asseoir autour de la table les membres de plusieurs départements universitaires.

 

Votre rapport va au-delà de la simple formation des quants. Il traite aussi de leur place au sein des institutions financières. Quelles sont vos recommandations ?

Les quants sont souvent assignés à des desks spécifiques. Ceci est parfois nécessaire et n’est pas un problème en soi. En revanche, afin de garantir une certaine indépendance et afin de veiller à l’intégrité professionnelle des quants, il serait préférable qu’ils ne dépendent pas hiérarchiquement de desks spécifiques mais reportent plutôt à un niveau hiérarchique supérieur. De même, il est souhaitable que les rémunérations ne soient pas uniquement indexées sur les P&L des desks auxquels ils sont associés. De ce point de vue, l’évaluation des quants pourrait être réalisée en collaboration avec des experts indépendants. Nous insistons dans le rapport sur le rôle que pourrait jouer ces experts. Notamment celui d’intermédiaire entre les quants et la direction de la banque. Il est en effet impossible aux directions générales de comprendre dans les détails ce que les quants font, mais des experts externes, indépendants, pourraient permettre d’apporter une vision globale sur les travaux des quants, vision qui est parfois absente.

 
 
 
Référence

Le rapport du conseil scientifique : “On the training of quants”. http://www.idr-emma.org
 
 
 
 

Value at Risk : confronter théorie et pratique

Centrale en gestion des risques notamment pour des raisons réglementaires, la Value at Risk (VaR) n’est pas calculée de la même manière dans toutes les institutions financières. Une revue de la littérature académique sur les méthodes de calcul de la VaR a été réalisée. Ensuite, une série d’interviews avec les membres de la direction des risques de plusieurs grands groupes bancaires et de l’autorité de régulation a permis de confronter le savoir académique aux pratiques bancaires et à l’expérience des acteurs du secteur.

La Value at Risk, ou VaR, est certainement la mesure de risque la plus communément utilisée dans l’industrie financière. C’est en effet un concept très simple, qui, pour un portefeuille donné, un horizon de temps donné, et un seuil p, donne le niveau de perte qui ne devrait être dépassé que (1­p) % du temps. Nonobstant ses défauts notables (notamment l’absence de sous-additivité), la VaR est centrale en gestion des risques et joue un rôle majeur dans la détermination du capital réglementaire.

Mais, si la VaR est un concept simple et largement utilisé, sa définition n’est pas constructive. La distribution théorique du PnL d’un portefeuille n’est en effet pas observable et doit donc être estimée. De surcroît, les portefeuilles considérés sont le plus souvent complexes. Ainsi, calculer la VaR d’un portefeuille est à la fois un pro­blème de statistiques et un problème de modélisation.

Les académiques et les praticiens dis­tinguent en général trois familles de méthodes pour calculer la Value at Risk : les approches historiques, les méthodes paramétriques (aussi appelées méthodes analytiques) et les méthodes de type Monte-Carlo. Toutes ces méthodes ont en commun une première étape qui consiste à choisir des facteurs de risque à même de permettre un pricing précis du portefeuille. Les étapes suivantes sont ensuite spéci­fiques à la méthode choisie.

 

Les approches historiques rejouent les variations passées des facteurs de risque pour évaluer ce qu’aurait été, par le passé, l’évolution du PnL du portefeuille actuel. Une distribution de PnL est ainsi obtenue et la Value at Risk est alors estimée comme un quantile empirique de cette distribution ou via une interpolation entre deux points de cette distribution empirique. Les simula­tions historiques sont utilisées par de nom breuses banques avec un historique qui est en général de 1 à 2 ans.La principale raison invoquée pour le choix d’une approche historique est que la méthodologie est comprise par tous et les chiffres obtenus sont ainsi peu contestés. Une meilleure raison d’utiliser des simulations historiques est que cela permet de ne pas recourir à un modèle paramétrique pour la loi jointe des facteurs. Toutefois, les approches historiques de base ont de nombreux défauts dont l’hypothèse sous-jacente de réalisations i.i.d.1 et le biais d’asymétrie.

Bien que ne reposant en apparence sur aucun modèle, les approches historiques de base font en effet l’hypothèse implicite que les réalisations des facteurs de risque sont i.i.d.. Cette hypothèse est contestable, du fait par exemple des effets de type clustering de volatilité. Pour aller au-delà de l’hypothèse i.i.d., des approches ont été développées, comme celle de Hull et White ou les simulations historiques filtrées de Barone-Adesi et al. qui remettent à l’échelle les variations des facteurs de risque pour tenir compte des niveaux actuels de vola­tilité. Bien que plus rigoureuses, ces mé­thodes sont souvent considérées, notam­ment par le régulateur, comme étant trop procycliques.

Le second problème des approches his­toriques est que l’estimation de la VaR ne repose que sur une petite partie de l’information disponible. En particulier, lorsque l’on calcule la VaR à 99 % d’un portefeuille en utilisant 1 an de données (soit environ 250 points), la VaR va être déterminée par les valeurs de la 2e ou 3eplus grande perte. D’un jour à l’autre, si l’on suppose que la composition du portefeuille reste inchangée, une nouvelle réalisation ne va donc que très rarement modifier la VaR si la réalisation est inférieure à la VaR précé­dente, et la changer, potentiellement drastiquement, dans le cas contraire (c’est le biais d’asymétrie). Pour corriger ce biais, le recours à la théorie des valeurs extrême est utile. La méthode consiste alors à esti­mer un quantile moins loin dans la queue de distribution (par exemple 90 %) et à déduire de cette estimation une estimation du quantile d’intérêt (ici 99 %) grâce à un estimateur de queue (comme l’estimateur de Hill). Malheureusement, la théorie des valeurs extrêmes semble n’être que très ra­rement utilisée alors même qu’elle permet­trait d’obtenir des estimateurs plus stables et plus précis de la VaR.

 

La deuxième famille de méthodes pour estimer la VaR est la famille des méthodes paramétriques. Les méthodes paramé­triques approximent le PnL du portefeuille à l’aide des Grecques et suppose que les facteurs de risque sont distribués selon une distribution donnée (le plus souvent gaussienne). La Value at Risk est alors estimée en formule fermée ou via des méthodes numériques simples. Le principal avantage des méthodes paramétriques est qu’elles ne nécessitent pas de réévaluation du por­tefeuille à chaque scénario et sont dès lors très rapides. Toutefois, les estimations de VaR ainsi obtenues dans le cas de porte­feuilles complexes et non linéaires sont souvent absurdes. Avec l’accroissement des capacités de calcul et l’accès aisé à des outils de calcul parallèle, les méthodes paramétriques ne devraient plus guère être utilisées, excepté peut-être pour obtenir des approximations de la VaR utiles dans le cadre de méthodes de réduction de va­riance pour des simulations Monte-Carlo. (cf. infra).

Les méthodes de Monte-Carlo constituent justement la troisième classe de méthodes pour estimer la Value at Risk. Elles sont largement utilisées par les praticiens qui considèrent ces méthodes comme étant bien plus forward-looking que les méthodes historiques. Les méthodes de Monte-Carlo considèrent une distribution paramétrique pour les facteurs de risque (souvent cali­brée sur les réalisations passées, ce qui limite l’aspect forward-looking). On tire alors, selon cette distribution, des valeurs pour les facteurs de risque avant de pricer le portefeuille en accord avec les valeurs de ces facteurs… et ce, un grand nombre de fois. Le principal avantage des simu­lations Monte-Carlo est que le nombre de tirages n’est pas limité à l’équivalent de 1 ou 2 ans de données, comme c’est le cas pour les simulations historiques. Par consé­quent, l’estimation du quantile devrait être plus précise. Cependant, bien que, théori­quement, toutes les distributions soient utilisables pour les variations des facteurs de risque, le choix est souvent fait d’un vecteur gaussien, ou au mieux d’une copule gaussienne pour la structure de dépendance. Ceci a notamment pour conséquence d’ignorer les dépendances de queue qui peuvent pourtant modifier fortement la VaR.

Il est important de noter que les méthodes de Monte-Carlo nécessitent une grande capacité de calcul. En fait, les banques qui ont choisi de recourir à des simulations Monte-Carlo ont souvent investi dans des infrastructures pour le calcul parallèle afin de pouvoir fournir quotidiennement des chiffres de VaR. Pour accélérer les calculs, l’utilisation de techniques de réduction de variance est possible. Des méthodes d’important sampling ou de stratification sont par exemple décrites dans les travaux de Glasserman, Heidelberger et Shahabuddin. De manière surprenante, les méthodes de réduction de variance ne semblent pas être utilisées en pratique pour la VaR.

 

En conclusion, le choix entre des simula­tions historiques et une approche Monte-Carlo repose sur un arbitrage entre le nombre de scénarios et la précision du modèle pour la structure de dépendance des facteurs de risque. Notre but n’est pas de recommander l’une ou l’autre méthode, la réponse dépendant d’ailleurs sûrement de la nature du portefeuille. Toutefois, que ce soit pour l’approche historique ou la méthode de Monte-Carlo, les praticiens de­vraient profiter des avancées académiques et utiliser la théorie des valeurs extrêmes ou les méthodes de réduction de variance.

 
1. Indépendantes et identiquement distribuées
 
Référence

La revue de littérature réalisée : “Computing the Value at Risk of a Portfolio: Academic literature and Practionners’ response.” http://www.idr-emma.org
 
Pour aller plus loin…

  • G. Barone-Adesi and K. Giannopoulos. Non parametric VaR techniques. Myths and realities. Economic Notes, 30(2):167–181, 2001.
  • J. Boudoukh, M. Richardson, and R. Whitelaw. The best of both worlds. Risk, 11(5):64–67, 1998.
  • L. De Haan and L. Peng. Comparison of tail index estimators. Statistica Neerlandica,52(1):60–70, 1998.
  • P. Glasserman, P. Heidelberger, and P. Shahabuddin. Importance sampling and stratification for Value-at-Risk. Citeseer, 1999.
  • P. Glasserman, P. Heidelberger, and P. Shahabuddin. Portfolio Value-at-Risk with heavy-tailed risk factors. Mathema-tical Finance, 12(3):239–269, 2002.
  • B.M. Hill. A simple general approach to inference about the tail of a distribution. The Annals of Statistics, 3(5):1163– 1174, 1975.
  • J. Hull and A. White. Incorporating volatility updating into the historical simulation method for Value-at-Risk. Journal of Risk, 1(1):5–19, 1998.
  • F. Jamshidian and Y. Zhu. Scenario simulation: Theory and methodology. Finance and Stochastics, 1(1):43–67, 1996.
 
 

Mesures de corrélation : grande dimension, haute fréquence et représentation

Gestion de portefeuilles, gestion des risques, pricing d’options sur plusieurs sous-jacents, … en finance, les corrélations sont omniprésentes. Mais sont-elles bien estimées ? Les chiffres obtenus sont-ils bien analysés ? Les concepts utilisés par les financiers sont-ils les meilleurs ? Pour répondre à ces questions, une revue de la littérature sur les mesures de dépendance a été menée durant plusieurs mois et de nombreux praticiens interviewés.

 

Que ce soit en finance, en statistiques ou en génomique, estimer la corrélation, ou plus généralement la structure de dépendance entre plusieurs variables aléatoires est essentielle. Mais pour mesurer cette structure de dépendance, il faut d’abord la définir. Car si l’on parle de corrélation, la majorité des gens entendra corrélation linéaire, autrement nommée corrélation de Pearson, et définie dans le cas de deux variables aléatoires comme la covariance des variables divisée par leur écart type respectif.

De manière générale, on caractérise la structure de dépendance entre deux variables par une fonction appelée copule. Mais cette copule n’est pas une mesure simple puisqu’il s’agit d’une fonction et non d’un nombre. A partir de cette copule, on définit donc des statistiques plus simples comme le rho [mettre la lettre grecque ici] de Spearman (c’est-à-dire la corrélation des rangs), le tau [mettre la lettre grecque ici] de Kendall, les statistiques de Goodman et Kruskal ou des mesures de dépendances de queue qui servent à appréhender les risques extrêmes. Ces statistiques, si elles sont plus rarement utilisées que la corrélation linéaire, ont le mérite de n’être fonction que de la structure de dépendance entre les variables et non de leurs lois marginales respectives.

 

Ce n’est pas le cas de la corrélation linéaire et cela a des conséquences souvent ignorées des praticiens. Ainsi, la corrélation (linéaire) entre deux variables est souvent comparée à -1 ou 1 alors même que les bornes maximales et minimales dépendent des lois respectives des deux variables et peuvent être plus proches de 0 que de -1 ou 1. Ces habitudes viennent évidemment du cadre gaussien pour lequel la corrélation résume à elle seule la structure de dépendance et varie entre -1 et 1.

Si, malgré sa capacité à ne mesurer que des dépendances linéaire, la corrélation de Pearson intervient partout en finance, c’est du fait de l’omniprésence de la variance comme mesure de risque. Dès lors, l’estimation précise d’un coefficient de corrélation ou d’une matrice de corrélation est primordiale.

Dans le cas d’un coefficient, on sait que l’estimateur usuel est le plus souvent biaisé et on sait depuis Fisher que le biais peut être corrigé en partie, tout comme l’asymétrie de la distribution de l’estimateur. Mais en finance, le problème majeur est souvent d’estimer des matrices de corrélations ou de covariance entre un grand nombre N d’actifs car l’on doit alors estimer un nombre important, à savoir N(N-1)/2, de paramètres (les corrélations deux à deux) qui est le plus souvent peu ou prou du même ordre de grandeur que le nombre NT de données utilisables pour les estimer (T étant l’horizon de temps considéré pour ce calcul qui est limité pour de multiples raisons parmi lesquelles, la vraisemblance des hypothèses de stationnarité des corrélations). Ce problème est particulièrement important en gestion de portefeuille, où, dans la théorie de Markowitz, l’inverse de la matrice de covariance joue un rôle central. De nombreuses méthodes ont été proposées pour améliorer l’estimation des matrices de covariances dans une optique d’allocation d’actifs. Tout d’abord des méthodes à facteurs qui donnent une structure particulière à la matrice de covariance. Ces méthodes qui sont à l’œuvre dans la plupart des logiciels commerciaux n’apportent rien pour estimer la matrice de covariance mais des études ont montré qu’elles étaient utiles pour l’estimation de son inverse. Ensuite, le shrinkage, qui est la méthode la plus connue pour « nettoyer » une matrice de corrélation, consiste à considérer une combinaison convexe de la matrice de corrélation empirique et d’une matrice de corrélation choisie a priori. Enfin, la théorie des matrices aléatoires a permis de développer des méthodes spectrales pour le nettoyage des matrices de corrélation en tâchant de distinguer dans le spectre d’une matrice de corrélation empirique ce qui relève de l’information et ce qui relève du bruit. Cette approche, développée par des physiciens (cf. notamment les travaux de J.-P. Bouchaud et de ses coauteurs) et non par des statisticiens fournit des résultats très satisfaisants. La théorie des matrices aléatoires a d’ailleurs aussi permis de développer des méthodes pour choisir l’horizon de temps optimal pour l’estimation de matrices de corrélation.

 

Si la gestion de portefeuille a su bénéficier des apports des scientifiques (statisticiens et éconophysiciens) sur les mesures de corrélation pour améliorer les méthodes d’allocation et la mesure du risque dit out-of-sample, d’autres pans de la finance quantitative ne sont pas en reste, même si les avancées sont moins connues. Ainsi, la mesure de la corrélation à l’échelle de la haute fréquence a pu bénéficier de nombreuses nouvelles approches d’économètres et de statisticiens.

Du fait du caractère asynchrone des données tick à tick, la covariance empirique est marquée par un biais vers 0 de plus en plus important à mesure que la fréquence d’observation s’accroît : c’est l’effet Epps. Pour résoudre ce problème, plusieurs approches ont été proposées dont une approche de type Fourier par Malliavin et Mancino. Toutefois, l’approche la plus utilisée pour estimer une corrélation sur des données asynchrones est celle de Hayashi et Yoshida qui donnent leur nom à un estimateur. Il est à noter si ces estimateurs permettent de ne pas opérer à une synchronisation des séries, ils ne sont néanmoins pas robustes à la prise en compte d’un autre effet lié à la haute-fréquence : la présence d’un bruit de microstructure qui, s’il ne génère pas de biais comme dans le cas de la volatilité (signature plot) fait exploser l’écart-type des estimateurs cités plus haut. Pour atténuer le bruit de microstructure, des travaux récents ont proposé des méthodes de sous-échantillonnage, de double-échantillonnage ou de pre-averaging à l’aide d’estimateurs à noyaux. Il s’agit là d’un domaine de recherche récent, en pleine évolution.

Enfin, pour finir, les travaux sur les mesures de dépendance, ont récemment pris un tour nouveau. Les travaux des statisticiens confrontés dans d’autres disciplines – biologie, linguistique, traitement d’image, et maintenant « big data » (pour utiliser le terme de vulgarisation désignant les nouvelles données issues du développement du web, et plus particulièrement du web 2.0 et des réseaux sociaux) – à la problématique générale de la structure de dépendance, ouvrent des voies nouvelles qui vont certainement amener les métiers de la Finance à renouveler leurs méthodologies quantitatives, en particulier sur les questions de risques et de gestion d’actifs basées sur l’analyse des dépendances. Par exemple, les techniques de théorie des graphes (spanning tree, clustering et représentations graphiques,..) se développent et vont prendre une place grandissante. Les problématiques de données « sparse » qui sont dominantes dans les « big data » font émerger très rapidement des méthodologies nouvelles dont les retombées seront très probablement très importantes dans tous les domaines financiers concernés par les dépendances (bien nombreux comme nous l’avons rappelé plus haut). Il est donc probable que le domaine des corrélations et des dépendances évolue très fortement dans les trois ou cinq années qui viennent.

Référence

La revue de littérature réalisée : « Correlation and dependence measures: Academic literature and selected financial applications ». http://www.idr-emma.org
 
Pour aller plus loin…

 
  • J.P. Bouchaud and M. Potters. Financial applications of random matrix theory: a short review. Arxiv preprint arXiv:0910.1205, 2009.
  • K. Christensen, S. Kinnebrock, and M. Podolskij. Pre-averaging estimators of the ex-post covariance matrix in noisy diffusion models with non-synchronous data. Journal of Econometrics, 159(1):116{133, 2010.
  • L. Zhang. Estimating covariation: Epps effect, microstructure noise. Journal of Econometrics, 160(1):33-47, 2011.
 
 
 
 

Pricing de CDO : retour à la réalité

La modélisation financière des dérivés de crédit est apparue, avec la crise des subprimes, comme l’un des échecs majeurs des mathématiques financières en ce début de siècle. Malgré la disparition du marché, une analyse « post-mortem » des modèles pour la gestion des portefeuilles de dérivés de crédit et notamment pour le pricing de CDO synthétiques a été menée afin de tirer des enseignements des erreurs commises… pour l’avenir.

 

Avec l’émergence des dérivés de crédit multiname (tels les CDO) et leur présence de plus en plus importante dans les livres des banques à la fin des années 90 et au début des années 2000, de nombreux modèles de « pricing » sont apparus dans la littérature académique. Historiquement, les modèles initialement proposés dans la littérature étaient inspirés de ceux utilisés pour les obligations présentant un risque de défaut. Ce furent soit des modèles centrés sur la dynamique des intensités de défaut, soit des modèles dits structurels – inspirés de Merton et de ses options réelles. Les premières approches à intensité de défaut (intensity-based models) ont très vite été critiquées car elles ne permettaient pas d’obtenir une corrélation suffisamment grande entre les défauts des différents sous-jacents1. Quant aux approches structurelles (par nature dynamiques), elles ont abouti au célèbre modèle de Li, modèle à la base des modèles à copules2 utilisées par les praticiens… jusqu’à la disparition du marché.

Le modèle de Li (ou modèle de la copule gaussienne à 1 facteur) consiste à modéliser la survenance d’un défaut à travers le franchissement d’un seuil par une variable aléatoire gaussienne (dite latente) ; les variables latentes des différents sous-jacents étant corrélées deux à deux à un même niveau de corrélation rho. Le succès du modèle de Li tient d’abord au fait que, s’agissant d’un modèle à copules, on peut calibrer d’abord les paramètres propres à chacun des sous-jacents, puis le paramètre rho, appelé abusivement corrélation, résumant de manière frustre la structure de dépendance entre les défauts. Il tient ensuite et surtout au parallèle fait avec le modèle de Black et Scholes pour les options ; parallèle abusif sur lequel nous reviendrons.

L’utilisation du modèle de la copule gaussienne à 1 facteur a évolué au cours du temps. La calibration du paramètre de corrélation rho a d’abord été faite, dans le cas d’un CDO synthétique sur iTraxx ou CDX, tranche par tranche (c’est la compound correlation). Toutefois, l’impossibilité de calibrer le modèle aux spreads de marché ou, à l’inverse, l’existence de plusieurs paramètres de corrélation compatibles avec les spreads de marché a fait évoluer les pratiques (sans parler des arbitrages et des difficultés à traiter dans ce cadre des tranches non standards). La calibration de la corrélation s’est en effet par la suite faite uniquement sur des tranches de type equity, une tranche mezzanine étant alors vue comme la différence de deux tranches equity. Cette approche (dite base correlation) garantit l’unicité du paramètre rho. Néanmoins, elle a rapidement été critiquée lorsqu’il n’existait pas de paramètre de corrélation à même d’aboutir à la calibration aux spreads de marché. Aussi, à l’instar du smile de volatilité pour les options, l’existence d’un correlation skew a motivé la recherche de nouveaux modèles. Des articles ont montré que l’utilisation d’une copule double-t ou d’une copule NIG (Normal Inverse Gaussian) permettait de réduire le correlation skew. D’autres copules ont été proposées comme la copule de Student, des copules archimédiennes ou la copule de Marshall-Olkin. Aussi, des approches à corrélation stochastique ou à corrélation locale ont été proposées. Enfin, notamment pour obtenir des modèles applicables aux tranches senior et super-senior, l’hypothèse d’un taux de recouvrement constant (arbitrairement supposé égal à 40%) a été abandonnée et des modèles à taux de recouvrement variable ou stochastique ont été proposés.

Le modèle de la copule gaussienne à 1 facteur est resté l’une des références majeures dans les salles de marché et les praticiens parlent volontiers d’un modèle faisant consensus. A l’instar du modèle de Black et Scholes grâce auquel on peut comparer les prix d’options très différentes via les volatilités implicites qui découlent des prix, les praticiens ont apprécié le fait de pouvoir coter des tranches de CDOs très diverses grâce à un unique paramètre : le paramètre de corrélation rho de la copule gaussienne. Or, la copule gaussienne est connue pour ne pas permettre de dépendance de queue. Aussi, n’utiliser qu’un facteur pour modéliser plus de 100 sous-jacents est une approximation très discutable. Enfin, et surtout, un parallèle avec le modèle de Black et Scholes a été fait en matière de gestion de portefeuille et de couverture alors même que le marché des dérivés de crédit est par essence un marché très incomplet3.

 

Le modèle de Black et Scholes est en effet abusivement considéré comme un modèle de pricing mais c’est, rappelons-le, un modèle de coût : un modèle donnant le coût de réplication (c’est-à-dire de production) d’un produit ayant un payoff donné. Le fait que ce coût soit aussi le prix de l’option vient ensuite, par exemple, de l’hypothèse d’absence d’opportunité d’arbitrage. Dans le modèle de Black et Scholes, comme dans tous les modèles de marché complet, la couverture et le pricing sont par essence les deux faces d’une même pièce : la couverture contre le risque de prix du ou des sous-jacents coûte le prix du produit. Cette logique ne saurait évidemment être à l’œuvre pour des dérivés de crédit multiname tant le nombre de risques qui ne sauraient être couverts est grand. Dès lors, les modèles proposés dans la littérature sont des modèles calibrés sur des prix (en pratique sur des spreads) et non des modèles de pricing. Surtout, leur utilisation en matière de couverture est infondée et se révèle en pratique particulièrement hasardeuse, ce qu’ont montré les très rares articles traitant de la couverture en sus du « pricing ». Un portefeuille de dérivés de crédit multiname couvert contre le risque de corrélation dans un modèle de type copule à 1 facteur, et potentiellement contre d’autres risques, reste particulièrement exposé au risque… de modèle ! Un risque trop souvent négligé.

L’échec majeur des analystes quantitatifs eu égard aux CDOs et la défiance envers les modèles qui s’en est suivie ne viennent pourtant pas du manque de sophistication des modèles4. Il faut plutôt blâmer les erreurs faites dans l’interprétation des modèles, apprendre la leçon des parallèles infondés faits avec le modèle de Black et Scholes, et revenir au B.A.BA économique : lorsqu’un actif n’est pas réplicable, son payoff n’est pas intrinsèquement associé à un prix et la couverture ne peut être que partielle. En ce sens le cas des options (même si le modèle de Black et Scholes est évidemment une approximation) est l’exception et non la règle. La formation des analystes quantitatifs, centrée partout dans le monde sur le pricing d’options, a certainement joué un rôle majeur dans les erreurs commises.

 

Aussi complexes soient-ils, des modèles, dits de « pricing », calibrés sur des prix de marché, ne peuvent pas permettre de gérer des portefeuilles de produits complexes en marché incomplet avec succès. Une approche financière, de gestion de portefeuille, et donc de gestion des risques, se révèle indispensable.

1. Des modèles plus récents avec processus d’intensité AJD ont montré de meilleurs résultats.

2. En théorie des probabilités, la loi jointe d’un ensemble de n variables aléatoires peut être décrite par les n lois marginales des variables aléatoires sous-jacentes auxquelles on adjoint une fonction, appelée copule, caractérisant la dépendance entre ces variables aléatoires.

3. cf. l’incapacité en pratique à couvrir des risques tels que le jump to default ou la valeur du taux de recouvrement.

4. Il est à noter que la littérature académique a proposé de nombreux modèles autres que les modèles cités ci-dessus, comme des modèles de contagion ou des modèles top down.

Référence

La revue de littérature réalisée :  » Copula methods and CDO pricing models « . http://www.idr-emma.org
 
Pour aller plus loin…

  • R. Cont and Y. Kan. Dynamic hedging of portfolio credit derivatives. 2008.
  • D. Li. On default correlation: a copula function approach. Journal of Fixed Income, 2000.
  • A. Lipton and A. Rennie. Credit correlation: life after copulas. World Scientific, 2007
  • G. Meissner. The De_nitive Guide to CDOs. Risk Books, 2008.
  • A. Mortensen. Semi-analytical valuation of basket credit derivatives in intensity-based models. 2005.
 
 
 

Liquidité : la grande oubliée

Les modèles mathématiques couramment utilisés par les banques ont été développés dans une période de liquidité abondante et correspondent donc à une représentation simpliste de la réalité. Le but de cette étude est de réaliser un inventaire critique de notre compréhension du concept de liquidité, en confrontant les théories économiques à l’expérience accumulée des praticiens. Nos modèles sont-ils taillés pour expliquer l’instabilité chronique de la liquidité ?

 

Une caractéristique essentielle de la liquidité bancaire est son caractère profondément instable. Celle-ci peut connaître une succession d’états. Elle connait bien sûr, la plupart du temps, des états de relatif équilibre. Elle a alors un coût, celui de renoncer pendant une période donnée à un actif, coût mesuré par la différence de prix, à qualité de risque comparable, entre actifs très liquides et actifs moins liquides. Ce prix de la liquidité détermine les quantités échangées. En d’autres termes, la liquidité s’échange comme un bien économique quelconque.

Elle connaît aussi des états extrêmes, d’abondance et de pénurie, qui se sont succédés durant les quinze dernières années. Ainsi, et jusqu’à ce que la crise de 2007 se concrétise, a dominé une impression de liquidité abondante et presque gratuite. Jusqu’au début des années 2000, la liquidité — mesurée par exemple par le spread Euribor contre swap EONIA — ne valait quasiment rien jusqu’à un à deux ans et restait peu onéreuse au-delà (jusqu’à 30 bp à 10 ans, par exemple). Elle était également très peu volatile et s’échangeait entre tous les acteurs, sans discrimination significative. 

 

Cet état d’abondance a duré plus de vingt ans et a eu un certain nombre de conséquences, tant sur la gestion des banques que sur l’organisation du marché. Il conférait d’abord un rôle distinct aux grandes banques systémiques. Leur taille pouvait leur permettre de faire circuler la liquidité d’un point à un autre du globe sans coût de frottement. Les devises étaient ainsi parfaitement fongibles. On pouvait, via l’utilisation de dérivés — eux aussi liquides — emprunter sur le marché américain du dollar à 18 mois pour le ramener en euro au jour le jour. Ces grandes banques étaient, par ailleurs, presque les seules à emprunter à la BCE, bien qu’elles étaient liquides. Tant qu’elles étaient excédentaires en liquidité, les banques systémiques la redistribuaient.

Une autre conséquence significative de l’abondance de liquidités fut de permettre aux grandes banques de financer à bon compte un certain nombre d’activités de marché, notamment celles d’arbitrages pour compte propre. Des actifs auxquels il aurait fallu adosser des financements longs étaient ainsi financés à court terme. On peut parler d’un business model d’arbitrage de liquidité qui n’était entravé ni par la réglementation, ni par le prix de la liquidité. A ceci s’ajoute le développement des activités de titrisation qui ont permis un accroissement du levier des banques, via le hors-bilan.

Cette situation est assez bien comprise par la théorie économique qui parle de compromis entre liquidité et levier. Rappelons que le rôle traditionnel des banques est de financer des actifs risqués et illiquides via des dépôts non risqués et liquides. C’est le modèle désormais classique développé par Bryant (1980) et Diamond & Dybvig (1983). Cette transformation du risque est la cause de la fragilité inhérente du système bancaire et la justification de sa régulation. Ainsi, par exemple, du concept de « too big to fail » dont le rôle est de prévenir les paniques bancaires. Il est rationnel pour les banques, conscientes que les banques centrales fourniront des liquidités en cas de crise, d’avoir un levier élevé, aux dépends de sa liquidité. Plus précisément, face à un accroissement du levier chez ses concurrents, la « meilleure réponse » d’une banque consiste à augmenter, elle aussi, son levier (Tirole, 2011). S’ensuit, via la concurrence entre banques, une spirale qui peut les conduire à engager des risques excessifs et en même temps à provoquer un tarissement de la liquidité, au niveau des banques puis du marché. 

 

C’est un lent tarissement qui commence en 2001, après les attentats. Au préalable, notons que la plupart des banques systémiques, qui fournissaient largement le marché en liquidité dans les années 80, sont alors majoritairement déficitaires en liquidités. En cause, le développement des SICAV et de l’assurance-vie — qui remplacèrent par exemple l’épargne intermédiée bancaire — et surtout la hausse conséquente et endogène des prix immobiliers. Le 11 septembre, les systèmes de règlement interbancaires se bloquèrent suite à l’effondrement des tours, interdisant les échanges de liquidité entre banques. Des accords de swaps entre banques centrales puis la reprise du clearing restaurèrent ensuite la liquidité. Mais la croyance en la fongibilité des devises fut rompue.

Malgré l’instauration de limites en devises et un suivi plus strict de leur liquidité, les banques ne tirèrent que partiellement la leçon du 11 septembre. Et pour cause : toute réduction du levier aurait été sanctionnée en termes de part de marché. Avec l’effondrement des bourses, les liquidités ont continué à abonder, alimentées par des politiques accommodantes des banques centrales. Les taux courts restant faibles, les banques ont poursuivi leurs politiques de levier, qui ont logiquement réduit leur liquidité. Ainsi le faible coût de la liquidité a alimenté la disparition de cette même liquidité. A ceci s’ajouta l’introduction de Bâle 2 qui renchérit le coût des prêts interbancaires. 

Ce lent tarissement est brusquement interrompu par la crise de 2007 qui a provoqué un assèchement de la liquidité en portant l’attention sur la solvabilité des contreparties, après la faillite de Lehman. Si le passage de l’abondance à la pénurie s’est produit de façon absolument brusque, il faut noter que cette rupture a pu être partiellement anticipée. Un certain nombre de signes avant coureurs — un changement de comportement chez des prêteurs de banques privées, les craintes concernant le marché immobilier américain — étaient accessibles aux grandes banques qui avaient à la fois la taille et l’organisation permettant de collecter et d’analyser une information souvent « privilégiée ». 

C’est la capacité d’analyser une grande quantité d’information qui distingue aujourd’hui les banques systémiques, qui sont souvent capables de prévoir les variations de liquidité. L’information, autrefois secondaire, est aujourd’hui décisive sur le marché monétaire. Celui-ci est aujourd’hui caractérisé par un régime d’instabilité. Seuls les money market funds interviennent sur le marché monétaire, à présent porté à bout de bras par les banques centrales. La discrimination entre acteurs de marché et la volatilité sont réapparues : il semble que risque de crédit et risque de liquidité soient de plus en plus indissociables. 

Trois notions économiques éclairent de façon complémentaire ce nouveau régime de la liquidité. D’abord, le concept classique de panique bancaire, c’est à dire de « course aux guichets » auto-réalisatrice, peut se généraliser au marché interbancaire. Brunnermeier (2009) a montré que n’importe quel marché qui avantage les premiers retraits de fonds pouvait être caractérisé par une telle course. Ensuite, la notion d’antisélection : quand il est impossible de différencier les banques solvables des autres, les banques de bonne qualité se retirent du marché. A nouveau, un simple doute sur la solidité des banques peut suffire à provoquer la disparition du marché monétaire1. Enfin, le concept d’épargne de précaution peut expliquer le comportement de certaines banques qui, trop prudentes, précipitent l’effondrement du marché2.

A noter que ces théories sont capables, dans une certaine mesure, d’expliquer le caractère prédictible des crises de liquidité. La théorie économique demeure cependant balbutiante, s’agissant d’interroger les interactions entre ces différents concepts. Reste ainsi à améliorer l’intégration entre microéconomie et macroéconomie. La régulation microéconomique des banques doit être en mesure de quantifier ses propres effets macroéconomiques, de mêmes que les modèles macroéconomiques ne peuvent plus ignorer des phénomènes microéconomiques tels que l’antisélection. La théorie économique offre néanmoins un certain nombre de concepts dont les banques — qui intègrent à présent le coût de la liquidité dans leurs modèles — pourraient tirer profit. 

 
1. Voir le célèbre papier sur les voitures d’occasions « The Market for « Lemons » » (Akerlof, 1970). Malherbe (2013) utilise un mécanisme de ce type pour montrer que le marché d’actifs qui peut s’assécher de façon autoréalisatrice.
2. Voir par exemple, Franklin Allen, Carletti, and Gale (2009).
 
Référence

 » Liquidity, Banks, and Markets: a Decade of Experience « . http://www.idr-emma.org
 
Pour aller plus loin…

  • Allen, Franklin, Elena Carletti, and Douglas Gale. 2009. “Interbanking Market Liquidity and Central Bank Intervention.” Journal of Monetary Economics 56 (5) (June): 639–652.
  • Brunnermeier, Markus K. 2009. “Deciphering the Liquidity and Credit Crunch 2007–2008.” Journal of Economic Perspectives 23 (1) (January): 77–100.
  • Bryant, John. 1980. “A Model of Reserves, Bank Runs, and Deposit Insurance.” Journal of Banking & Finance 4 (4) (December): 335–344.
  • Diamond, DW, and PH Dybvig. 1983. “Bank Runs, Deposit Insurance, and Liquidity.” The Journal of Political Economy 91 (3): 401–419.
  • Diamond, DW, and RG Rajan. 2005. “Liquidity Shortages and Banking Crises.” The Journal of Finance 60 (2): 615–647.
  • Malherbe, Frederic. 2013. “Self-fulfilling Liquidity Dry-ups.” Journal of Finance.
  • Tirole, Jean. 2011. “Illiquidity and All Its Friends.” Journal of Economic Literature 49 (2) (June): 287–325