menu fermer

Risque systémique

Cahier
Lorsqu’un risque systémique apparaît, il est souvent déjà trop tard, car le rôle de chaque entité dans le système global n’est pas considéré
 
Comment résoudre la problématique des risques systémiques ? Cette vaste question ne cesse de diviser les praticiens, les experts et les pouvoirs publics, sans pour autant qu’un consensus ne se dégage. Le durcissement des règles prudentielles à l’égard des établissements financiers, en termes de ratios de capital ou de prises de risques, reste pour le moment, la priorité des décideurs. Est-ce la bonne solution, alors que les régulations précédentes et actuelles ont montré leurs limites ? Comment catégoriser les risques systémiques ? Comment lutter contre leur apparition? Par quels moyens les détecter ? Comment les réduire ? Comment gérer et compenser les risques de contreparties, alors que certaines ont une importance cruciale pour la viabilité du système bancaire et donc économique ?
Autant de questions qui restent en suspens depuis l’éclatement en 2008, de la plus forte crise économique de ces quatre-vingt dernières années.
 
Il faut dire que les risques systémiques ne se réduisent pas seulement à l’expression « Too big to fail » (trop grand pour faire faillite), communément utilisée depuis 2008, tantôt pour désigner des établissements financiers importants ou encore des Etats ayant des problèmes de liquidités (Espagne et Italie par exemple).
En effet, les risques systémiques ont des facteurs multiples et dynamiques. Pour les contrer,  des moyens forts et des régulations appropriées sont nécessaires. Mais, actuellement, ils sont insuffisants, comme en témoignent les effets toujours palpables de la crise. Ces problèmes doivent être traités bien plus en amont. Or, en général, les risques systémiques ne sont pris en compte que lors de leurs apparitions, entraînant des dégâts considérables sur l’économie (effondrement des marchés boursiers, frictions sur le marché interbancaire, faillites en cascades, récession, chômage de masse…). A ce titre, l’Institut Louis Bachelier (ILB), créé en 2008, présente de nombreux travaux de recherche en finance. Ceux-ci proposent des recommandations concrètes aux pouvoirs publics, afin de mieux cerner les risques systémiques.
Ainsi, Christian Gouriéroux, met en lumière les failles des régulations actuelles, tout en apportant des solutions pour mesurer les risques systémiques. D’autres chercheurs chevronnés tels que, Gaëlle Le Fol, professeur de finance à l’Université Paris-Dauphine, Bruno Biais, membre de la Toulouse School of Economics et Stéphane Crepey, maître de conférences au Département de Mathématiques de l’Université d’Evry-Val-d’Essonne, apportent leurs contributions, dans le but d’analyser les problèmes de liquidités et les risques de contrepartie. A ce titre, la dernière édition des Cahiers de l’ILB traite des sujets variés qui ont pour point commun le risque systémique.
 
Enfin, un évènement international a eu lieu les 22 et 23 mars 2012 pour débattre de ces enjeux, toujours plus importants, en ces temps peu glorieux. Il s’agit du cinquième Forum International des Risques Financiers (Financial Risks International Forum), organisé par l’ILB et ses fondations l’Institut Europlace de Finance et la Fondation du Risque.
Cette année, le thème majeur a porté sur les risques systémiques, plus que jamais d’actualité.
 
 

Comment modéliser les risques de contrepartie des produits de gré à gré ?

D’après un entretien avec Stéphane Crépey et son article "A BSDE Approach to Counterparty Risk under Funding Constraints" (pré-publication Université d’Evry numéro 326, 2011).
 
« Depuis la crise de 2007-09, l’intérêt pour le risque de contrepartie a explosé, car on s’est rendu compte que la résilience d’une banque à des turbulences financières majeures dépendait largement de sa capacité à correctement estimer et couvrir ce type de risque », explique Stéphane Crépey.
Or, en pratique, les valorisations et les couvertures des risques de contrepartie des produits de gré à gré, effectuées par les grandes banques d’investissement, sont très complexes à réaliser. Stéphane Crépey a donc développé une nouvelle méthode mathématique pour estimer ces risques de contrepartie, centrée sur la notion de CVA (Credit Valuation Adjustment) en intégrant les coûts de financement et d’illiquidité des banques.
« Pour estimer le risque de contrepartie en présence de contraintes de financement, il faut se concentrer sur l’une des parties du contrat (ou portefeuille de contrats sous l’égide d’un même Credit Support Annex), par exemple la banque, et étudier explicitement le « système » qu’elle constitue avec sa contrepartie et son bailleur de fonds », indique l’auteur.
Concrètement, les banques doivent entre autres :
  • adopter des modélisations dynamiques pour calculer les CVA,
  • mettre en place un bureau central propre au CVA chargé de collecter les données, de valoriser et couvrir les risques de contrepartie,
  • traiter à part la CVA sur les produits dérivés de crédits.
 
La crise a mis en lumière la fragilité des acteurs financiers et le risque de contrepartie, mais comment l’estimer et le couvrir ? Stéphane Crépey développe une nouvelle méthode de valorisation et de couverture du risque de contrepartie, associée aux produits de gré à gré en présence de coûts d’illiquidité. Il préconise une approche globale du problème centrée autour de la notion de CVA (Credit Valuation Adjustment, qui est utilisée en pratique par les grandes banques d’investissement. 
 
Le risque de contrepartie est le risque que, dans un contrat financier entre deux parties, le débiteur refuse ou se trouve dans l’impossibilité d‘honorer tout ou partie de ses engagements. Par « contrat », il faut entendre en réalité un portefeuille de contrats liés entre eux par un CSA (Credit Support Annex). Le CSA précise comment est constituée une garantie (au travers d’appels de marges) et quel sort est réservé aux liquidités restantes en cas de défaut de l’une des deux parties. Il a pour objet d’atténuer le risque de contrepartie. Mais, d’un point de vue modélisation financière et simulation numérique, le risque de contrepartie crée un challenge considérable. Il oblige à modéliser de manière cohérente et dynamique, puis à simuler l’ensemble des facteurs de risques et des positions relatifs à des milliers de contrats regroupés sous un même CSA, comprenant des produits dérivés sur tous types de marchés. « Depuis la crise de 2008-09, l’intérêt pour le risque de contrepartie a explosé, car on s’est rendu compte que la résilience d’une banque à des turbulences financières majeures dépendait largement de sa capacité à correctement estimer et couvrir ce type de risque, explique Stéphane Crépey. À la Chaire Risque de Crédit (NDLR : fondée en janvier 2008 par la Fédération Bancaire Française et la Fondation Institut Europlace de Finance, dirigée par Monique Jeanblanc, également professeur à l’Université d’Evry), nous nous sommes beaucoup investis sur ce thème, ces dernières années ». Stéphane Crépey s’est d’abord intéressé au sujet, en tant que partenaire académique d’un projet d’élaboration d’une plateforme indépendante de valorisation et gestion des produits dérivés de crédit, dans le cadre du pôle de compétitivité mondial Finance Innovation. « En un sens, nous avons commencé par le plus difficile car les dérivés de crédit sont ceux qui posent le plus de difficultés dans ce domaine du fait de leur dépendance, avec le risque de défaut des deux parties ».
 
Une approche à forme réduite du risque de contrepartie
L’auteur traite ici de la valorisation et de la couverture du risque de contrepartie associé aux produits dérivés de gré à gré autres que dérivés de crédit. « C’est a priori plus facile. On peut tabler sur une moindre dépendance entre le contrat et le défaut des deux parties pour se placer dans des cadres mathématiques où l’on s’autorise des hypothèses plus fortes, qui permettent d’aller plus loin et ouvrent la porte à de puissantes méthodes numériques ». En dépit de la complexité du problème de départ, l’idée est de traiter le défaut des deux parties dans une approche dite à forme réduite pour le ramener à des équations de structure assez classiques. Toutefois, cette simplification théorique ne satisfait pas entièrement Stéphane Crépey et devrait donner lieu à d’autres recherches. « Pour résoudre ce problème, on s’autorise une certaine liberté par rapport à l’arbitrage. Même si a priori, c’est en seulement théorie, il est possible d’en tirer parti pour arbitrer la banque ».
 
Avoir une vision globale du problème
Le problème est compliqué, car il convient de prendre en compte les contraintes de financement de la banque et les coûts d’illiquidité associés. Stéphane Crépey modélise les interactions entre les deux parties du contrat et la tierce partie qui finance la banque. « Pour estimer le risque de contrepartie en présence de contraintes de financement, il faut se concentrer sur l’une des parties du contrat (ou portefeuille de contrats liés par un CSA), par exemple la banque, et étudier explicitement le « système » qu’elle constitue avec sa contrepartie et son bailleur de fonds. On ne peut se contenter de considérer le contrat en lui-même, indépendamment des caractéristiques spécifiques de ces trois parties prenantes. On doit aussi avoir une vision claire des trois piliers, d’importance potentiellement égale que représentent le contrat en lui-même, son portefeuille de couverture et son portefeuille de financement », explique-t-il
 
CVA : de la pratique à la théorie
Dans la pratique, les desks des traders n’ont une vision précise que de leur propre activité et n’ont pas la vue d’ensemble, particulièrement des données agrégées nécessaires au bon calcul des cash-flows liés aux CSAs (appels de marge). C’est pourquoi la tendance, dans les grandes banques d’investissement, est de constituer un desk central propre au CVA, chargé de récupérer ces données, d’estimer et de couvrir le risque de contrepartie. « Cette allocation des tâches entre les différents trading desks d’une banque d’investissement et le CVA desk motive mon approche mathématique du risque de contrepartie. La méthodologie d’estimation et de couverture du risque de contrepartie qui émerge en pratique dans les banques s’avère aussi utile pour analyser le problème mathématiquement », conclut Stéphane Crépey.
 
Méthodologie

Stéphane Crépey a développé une méthode de valorisation et de couverture du risque de contrepartie en présence de contraintes de financement centrée sur la notion de CVA (Credit Valuation Adjustment). Cette méthode utilise des techniques mathématiques d’équations stochastiques différentielles rétrogrades (EDSRs) et d’équations aux dérivées partielles (EDPs), dans une approche à forme réduite du risque de défaut des deux parties du contrat. Les résultats de ses travaux font émerger des préconisations concrètes pour gérer les risques du contrat dans leur ensemble, ou uniquement leur composante CVA, en fonction de l’objectif de la banque.

 
Recommandations 

  • Au plan organisationnel, il est recommandé de mettre en place, au sein du « front-office », un CVA desk chargé de collecter les données des différents trading desks et de calculer les corrections aux valorisations et couvertures hors risque de contrepartie de ces derniers. Une vue globale est nécessaire, notamment pour bien traiter les aspects « appels de marges » dans le cadre d’un CSA.
  • Privilégier une modélisation dynamique pour ces calculs de CVA. En effet, la CVA est une quantité optionnelle par nature, qu’on ne peut pas gérer correctement par l’application d’un simple « spread » de crédit.
  • Recourir pour ces modèles à des techniques d’EDSRs qui complètent utilement les techniques plus classiques d’EDPs. Ceci vaut au plan théorique pour l’analyse du problème, mais aussi au plan numérique pour pouvoir faire face à des problèmes de grande dimension.
  • Traiter à part le cas de la CVA sur les produits dérivés de crédit, pour lesquels la dépendance entre portefeuille de référence et défaut des deux parties crée une situation particulière.
 
A retenir

  • Une bonne estimation et une bonne couverture du risque de contrepartie sont particulièrement importantes dans le contexte de crises financières.
  • La prise en compte des coûts de financement complique le problème.
  • Une approche mathématique et numérique cohérente et efficace est cependant possible.
  • La CVA est non seulement une réalité pratique importante pour les banques, mais également un concept utile pour l’analyse mathématique du risque de contrepartie.
 
Cahier de l’ILB N° 5, Article de Stéphane CREPEY
 
Article de recherche lié

 

Comment compenser les risques de contrepartie ?

D’après un entretien avec Bruno Biais au sujet de son article « Clearing, counterparty risk and aggregate risk » (Toulouse School of Economics (CNRS CRM – IDEI)). Octobre 2011
 
 
 
Synthèse
L’importance des risques de contrepartie a été révélée par les crises économiques et financières débutées en 2007. Les faillites en cascade de plusieurs établissements financiers, la défiance sur le marché interbancaire et l’interdépendance des acteurs du secteur ont failli mettre au pas la finance internationale.
 
Pourtant, des systèmes de compensation des risques de contrepartie existent à travers les contrôles des autorités, les appels de marges et les chambres de compensation. Ces dernières doivent être centralisées pour avoir une meilleure efficacité, d’après l’article de Bruno Biais : « Dans une chambre de compensation centralisée, les risques de contrepartie peuvent être mutualisés, un peu comme dans une compagnie d’assurance classique ».
 
Néanmoins, les systèmes de compensation centralisée ne permettent pas de mutualiser les risques de contrepartie en présence de risque agrégé et d’aléa moral, qui est un problème courant pour les compagnies d’assurances. Ces limites peuvent être contournées grâce aux recommandations de Bruno Biais, telles que la recherche, par les agents, de contreparties solvables et résistantes à un choc agrégé ou encore l’absence d’assurance totale contre les risques de défaut pour limiter les prises de risques excessives liées à l’aléa moral.
 
Le risque de contrepartie est un enjeu majeur pour les investisseurs, mis en exergue par la crise financière et les faillites bancaires. Comment les systèmes de compensation affectent-ils ce risque et sa répartition ? Les systèmes de compensation centralisée permettent de mutualiser le risque de contrepartie. Cet avantage de la compensation centralisée trouve ses limites en présence de risque agrégé et du fait des problèmes d’aléa moral. 
 
Au sens strict, la compensation a pour but de déterminer les positions des différentes contreparties (nombre de contrats ou d’actions achetés ou vendus, montants, entités…), impliquées dans une transaction. Au sens large, la compensation comprend aussi les transferts d’actifs entre les parties, la transmission d’information aux régulateurs, les appels de marge et dépôts de garantie, ou encore le traitement des défauts de contrepartie. C’est sur ce dernier aspect, et sur l’analyse du risque de contrepartie, que se concentre l’analyse de Bruno Biais. A réalisation donnée des risques, le système de compensation n’élimine pas les pertes, mais il influe sur leur partage. Le système de compensation peut créer de la valeur, s’il conduit à une meilleure répartition des risques ou des pertes.
Il faut noter que la compensation sur les marchés spot (au comptant) diffère de celle des marchés dérivés. Sur les marchés dérivés, les contrats ont une maturité beaucoup plus longue et dépendent d’évènements difficiles à prédire, comme par exemple le défaut déclenchant les Credit Default Swap (CDS). Ces caractéristiques impliquent que le risque de contrepartie est important et difficile à gérer. L’article de Bruno Biais propose une modélisation abstraite, mais les effets économiques mis en lumière s’appliquent bien au marché des CDS, qui a pris énormément d’ampleur, au cours des dernières années.
La compensation peut être décentralisée ou centralisée. Dans la première situation, un agent compensateur s’interpose entre le vendeur et l’acheteur du contrat. Il peut, moyennant rémunération, les assurer contre le risque de contrepartie. Dans le deuxième cas, la plateforme de compensation centralisée (CCP) s’interpose entre tous les acheteurs et les vendeurs de contrats (par exemple de CDS.) Pour participer à la CCP, les membres doivent payer une cotisation. Le montant ainsi obtenu par la CCP peut être utilisé pour effectuer les paiements dus par des contreparties qui font défaut. Ainsi, les cotisations des membres à la CCP peuvent s’analyser comme des primes d’assurance. La compensation centralisée présente plusieurs avantages, dont la diminution de certains coûts et surtout la mutualisation des risques de contrepartie entre les différents membres : « Dans une chambre de compensation centralisée, les risques de contrepartie peuvent être mutualisés, un peu comme dans une compagnie d’assurance classique », souligne Bruno Biais.
En 2009, les leaders du G20 ont décidé d’instaurer une compensation centralisée sur les marchés dérivés, avec comme date butoir fin 2012. Mais, l’auteur n’est pas sûr que cette échéance pourra être respectée.
Néanmoins, la meilleure répartition des risques de contrepartie induite par la compensation centralisée, présente des inconvénients, en présence de risque agrégé et d’aléa moral.
 
La compensation centralisée n’est pas une assurance contre le risque agrégé
La mutualisation est vaine dans le cas d’un choc agrégé, provoquant une série de défauts. « La mutualisation des risques de contrepartie protège les acheteurs de CDS, contre les risques idiosyncratiques, mais il est impossible d’assurer le système contre un risque agrégé, macro-économique. Ce risque n’est pas mutualisable », remarque Bruno Biais. Pour minimiser les conséquences d’un tel risque, il faut que les agents recherchent des contreparties solvables et robustes, qui ne feront pas défaut lors d’un choc agrégé.
 
Les incitations à la prudence et au contrôle des risques sont indispensables
Or, si une CCP assure entièrement ses membres contre le risque agrégé de contrepartie, elle les dispense de la recherche de contreparties solvables. « Nous sommes en présence d’un problème bien connu par les compagnies d’assurances : l’aléa moral, qui conduit un agent complètement assuré à réduire ses efforts de prévention des risques», constate Bruno Biais. L’auteur détaille des exemples d’incitations permettant de limiter l’aléa moral des entités financières.
« Pour obtenir un système idéal de compensation des risques de contrepartie, plusieurs conditions sont requises. Certes, d’une part, il faut que la compensation soit centralisée. Mais d’autre part, il faut aussi que les acteurs financiers soient incités à rechercher des contreparties solvables et solides et à contrôler les risques. Cette contrainte d’incitation peut exclure l’assurance totale contre le risque de contrepartie », conclut-il.
 
Méthodologie

Dans son article, Bruno Biais s’est efforcé de dégager ce que seraient les caractéristiques d’un système de compensation optimal. Tout d’abord, il a résumé le contexte institutionnel et la littérature existante sur les systèmes de compensation des risques. Ensuite, à partir, de méthodes classiquement utilisées en micro-économie pour analyser le partage des risques, l’assurance, et les problèmes d’aléa moral et d’incitations, il a introduit un modèle simplifié, pour étudier trois scénarios différents de risques et de systèmes de compensation:

  • Dans le premier scénario, le plus favorable, il n’y pas de risque agrégé, ni d’aléa moral. La compensation est bilatérale ou centralisée.
  • Dans le second scénario, il existe un risque agrégé, mais pas d’aléa moral.
  • Dans le troisième scénario, il y a à la fois risque agrégé et aléa moral.
L’analyse et la comparaison de ces trois cas permet de distinguer quel type de problème les systèmes de compensation peuvent ou non résoudre, et à quelles conditions.
 
Recommandations 

  • Le risque de contrepartie doit être compensé de manière centralisé.
  • Les incitations aux contrôles et à la maîtrise des risques doivent être préservées.
  • La chambre de compensation centralisée a un rôle proactif de surveillance à jouer, en contrôlant la prise de risque de ses membres.
  • La chambre de compensation centralisée est un acteur systémique. Son montant de réserves et de capital doit être important et suffisant.
  • Les appels de marges sont nécessaires pour limiter les positions risquées, et doivent conduire à des liquidations (au moins partielles) de position, en cas d’exposition au risque excessive.
 
A retenir

  • La chambre de compensation centralisée permet une meilleure répartition des risques de contrepartie. Mais, elle peut réduire les incitations de ses membres à faire des efforts pour rechercher des contreparties solvables et contrôler les risques de contrepartie.
  • Les risques agrégés ne sont pas mutualisables.
  • Une chambre de compensation centralisée ne doit pas assurer totalement ses membres contre les risques de défaut, afin de préserver les incitations à la recherche de contreparties solvables et à la maitrise des risques.
 
Cahier de l’ILB N° 5, Article de Bruno BIAIS
 
Article de recherche lié 

 

Estimer le profil de liquidité des actions

D’après un entretien avec Gaëlle Le Fol et son article « When Market Illiquidity Generates Volume » (Université Paris-Dauphine, juillet 2011), co-écrit avec Serge Darolles et Gulten Méro.
 
 
Synthèse
La liquidité des marchés est un paramètre très important pour les investisseurs. Mais, la simple observation des volumes d’échanges – largement utilisée par les professionnels – n’est pas une bonne mesure de la liquidité. En effet, les impacts des flux d’information et des chocs de liquidités sur les volumes ne sont pas clairement décomposés, alors qu’ils ont des incidences différentes sur les échanges quotidiens.
C’était sans compter sur le nouveau modèle économétrique (MDHL) développé par Gaëlle Le Fol. Celui-ci donne la possibilité de déterminer les volumes quotidiens occasionnés par les flux d’information et ceux motivés par les chocs de liquidités.
Ce modèle confère donc des avantages multiples. La omposition des volumes quotidiens devient plus visible. Dès lors, les actions les plus sensibles aux chocs de liquidités se distinguent et, par conséquent, leur degré d’illiquidité. « Nos travaux permettent ainsi d’extraire la liquidité des actions individuelles », confirme Gaëlle Le Fol.
En estimant le profil de liquidités d’un panier d’actions, le modèle MDHL peut aider les professionnels du trading à haute fréquence à établir des stratégies de stock-picking.
 
La liquidité quotidienne est un critère majeur d’investissement, mais comment la mesurer ? C’est une des réponses apportées par le nouveau modèle économétrique (MDHL) développé par Gaëlle Le Fol et ses co-auteurs. MDHL permet de mesurer la liquidité journalière d’un panier d’actions, en observant les variations de prix et les volumes d’échange quotidiens. Ce modèle permet de déduire la présence ou non de chocs de liquidités à un instant donné. 
 
De nombreuses études théoriques considèrent deux types d’investisseurs qui interviennent sur les marchés, selon deux stratégies de trading bien distinctes. La première est basée sur les flux d’information parvenant quotidiennement au marché et qui dictent les décisions d’investissement. La seconde est l’arbitrage lors de chocs de liquidités (différence de timing entre acheteurs et vendeurs qui déstabilise momentanément les marchés) et concerne les teneurs de marché (market makers). « Un market maker tire ses profits de ses multiples arbitrages de liquidités tout au long de la journée. Il doit gérer son portefeuille de façon à parvenir à un stock d’inventaire proche de zéro en titre et en cash, en fin de séance. A l’inverse, l’autre type d’investisseur a un horizon d’investissement différent, il achète et vend en se basant sur l’information disponible. Par conséquent, les variations de prix et les volumes d’échanges dépendent à la fois des flux d’information et des chocs de liquidités », explique Gaëlle Le Fol.
Mais comment déterminer leurs effets respectifs sur les volumes et la volatilité des actions ? C’est l’une des réponses qu’apporte le nouveau modèle économétrique (MDHL), développé par Gaëlle Le Fol.
 
Les marchés ne sont pas totalement liquides
Pendant longtemps, la littérature économique et financière ne s’est pas intéressée à la question de la liquidité. Ainsi, le modèle standard MDH a, pour hypothèse de base, la parfaite liquidité des marchés. Or, en pratique, des chocs de liquidités interviennent fréquemment au cours d’une journée. Pour tenir compte de cet aspect, Gaëlle Le Fol propose de modéliser les effets de ces chocs de liquidités sur les échanges intraquotidiens et quotidiens pour y analyser leurs incidences sur les volumes. « Théoriquement, en fin de journée, les frictions de liquidité ne sont plus un problème, car les teneurs de marché ont joué leur rôle en fournissant les liquidités manquantes au marché», estime l’auteur.
 
L’arbitrage augmente les volumes d’échanges
Lorsque des chocs de liquidités apparaissent sur les marchés au cours d’une journée, des arbitrages sont effectués par les grands investisseurs institutionnels. « Notre contribution principale est de proposer une analyse des effets à la fois de l’information et de l’arbitrage de liquidité sur la volatilité et les volumes d’un ensemble d’actions. Nous avons montré que les volumes engendrés par la correction des frictions de liquidité s’ajoutaient aux volumes qui se seraient échangés s’il n’y avait pas eu de problème de liquidité. Ainsi, les chocs de liquidités sont des facteurs d’augmentation des volumes quotidiens », commente Gaëlle Le Fol. Encore faut-il pouvoir les mesurer…
 
Le modèle MDHL va plus loin et propose un indicateur de liquidité
« L’observation des volumes ne constitue pas une bonne mesure de la liquidité, alors qu’elle reste largement utilisée en pratique. En effet, nos recherches montrent que les volumes quotidiens contiennent à la fois de l’information et des chocs de liquidités. L’évolution des prix intra-day (et leur volatilité) révèle également l’information et les chocs de liquidités, mais ces derniers sont résorbés dans la journée par les arbitragistes de liquidité et les  variations des prix journaliers ne reflètent que les  flux d’information arrivant sur le marché.», précise-t-elle. 
Justement, le nouveau modèle économétrique MDHL permet de décomposer les volumes quotidiens en deux paramètres : ceux issus des flux d’information et ceux qui sont provoqués par des chocs de liquidités. « Nos travaux permettent ainsi d’extraire la liquidité des actions individuelles ».
Concrètement, le modèle a été appliqué sur les données quotidiennes du FTSE100 (volatilité et volumes) prises entre janvier 2005 et juillet 2007. MDHL est apparu plus performant que le modèle standard MDH, grâce à l’inclusion des deux facteurs latents que sont l’information et les chocs de liquidités. Les résultats obtenus confirment ceux des précédentes études, qui ont montré, à un niveau agrégé, l’existence d’une relation positive entre les variables volatilité et volume. 
Gaëlle Le Fol et ces co-auteurs montrent que cette covariance positive dépend à la fois de l’information et des chocs de liquidités. Grâce au modèle MDHL, il est possible de déterminer quelles est la part des volumes quotidiens, qui dépendent des chocs de liquidité. Ces chocs peuvent être fréquents et de faible ampleur, ou plus rares mais de grande ampleur. La mesure proposée permet d’estimer quel est le profil (ampleur, fréquence) de liquidité qui concerne les actions étudiées.
 
Méthodologie

Pour établir ce nouveau modèle économétrique (MDHL), Gaëlle Le Fol a, dans un premier temps, distingué deux stratégies de trading : les traders actifs utilisent les flux d’informations disponibles sur le marché tandis que les teneurs de marchés se focalisent sur l’arbitrage de liquidité. Ces stratégies n’ont pas les mêmes effets sur la volatilité et les volumes et doivent être modélisées différemment. Ensuite, elle a prolongé la microstructure GM (établi par Grossman et Miller en 1988) à la fréquence quotidienne d’échanges, afin de modéliser l’effet des chocs de liquidités sur ces mêmes échanges. Elle a ainsi pu étendre le modèle économétrique standard MDH qui ne tient compte que des chocs d’information pour y incorporer l’impact des chocs de liquidités dans la relation entre volatilité et volume quotidiens. Ce nouveau modèle permet donc de décomposer les volumes quotidiens engendrés par l’information de ceux générés par des problèmes d’illiquidités. MDHL a été testé sur des données relatives au FTSE100, à partir d’une méthode statistique classique (dite des moments généralisés).
 
Recommandations

  • L’utilisation de MDHL permet de mesurer, de manière statique, la liquidité d’un ensemble d’actions à un instant donné. Cela permet de distinguer les actions les plus concernées par des chocs de liquidités.
  • Les actions peuvent ainsi être classées en fonction de leur degré d’illiquidité, grâce à la décomposition des volumes quotidiens, selon qu’ils émanent de l’information ou des chocs de liquidités.
  • La mesure proposée permet d’estimer quel est le profil (ampleur, fréquence) de liquidité qui concerne les actions étudiées.
  • Le profil de liquidité desactions peut aider à la construction d’une stratégie de stock-picking dans le cadre du trading à haute fréquence.
 
A Retenir 

  • Les deux stratégies de trading basées sur l’information et l’arbitrage de liquidité n’ont pas les mêmes effets sur la volatilité et les volumes quotidiens.
  • Les seuls volumes quotidiens ne permettent pas de mesurer la liquidité.
  • Le modèle MDHL donne une meilleure compréhension de la composition des volumes quotidiens
  • Le modèle MDH standard est un cas particulier du modèle MDHL, en l’absence de chocs de liquidité.
  • MDHL permet d’extraire la liquidité d’un portefeuille d’actions. 
 
Cahier de l’ILB N° 5, Article de Gaëlle LE FOL
 
Article de recherche lié

 

Les autorités publiques face aux risques systémiques

D’après un entretien avec Christian Gourieroux et son article « Allocating Systemic and Unsystemic Risks in a Regulatory Perspective » (CREST/Université de Toronto, septembre 2011)
 
 
Synthèse
Par définition, un risque systémique a des répercussions et des conséquences désastreuses sur le système financier dans son ensemble. Les pouvoirs publics se doivent d’identifier, de calculer et de répartir ce type de risques pour éviter les crises financières à répétition.
Cependant, les régulations de Bâle I et II en matière de gestion et d’identification des risques systémiques restent insuffisantes, selon l’article de Christian Gouriéroux.
En effet, actuellement, les distinctions entre risques systémiques et non systémiques sont trop minces malgré leurs effets différents sur le secteur financier. Pis encore, les risques systémiques sont calculés individuellement pour chaque établissement financier et sans considérer leurs interconnexions. En outre, les modes de calculs des risques systémiques et non systémiques ne sont pas assez performants : « la crise a fait apparaître le défaut de formule de la réglementation actuelle », admet l’auteur.
Les pouvoirs publics ont donc l’obligation de surveiller les risques systémiques avec une attention particulière. Ceux-ci doivent d’abord être calculés dans leur globalité avant d’être répartis par établissement financier.
Les régulateurs ont également la liberté de fixer les variables de contrôles des risques systémiques en fonction des cycles économiques et des prises de risques souhaitées.
 
Comment les autorités publiques peuvent-elles déceler les risques systémiques ? Cette question est devenue cruciale depuis la chute de Lehman Brothers et l’avènement de la crise des dettes souveraines. Par le biais de ses travaux, Christian Gourieroux distingue les composantes des risques ayant une importance systémique ; il identifie la participation de chaque établissement bancaire au sein du système financier global et propose des solutions alternatives aux régulateurs, par rapport aux normes actuelles.
 
Depuis l’éclatement des crises économiques et financières en 2007, les critiques sur la viabilité du système bancaire mondial se sont multipliées. Les pouvoirs publics se sont efforcés de le réguler, via l’introduction de nouveaux régulateurs (Conseil de stabilité financière aux Etats-Unis par exemple) ou par la mise en place des fameux tests de résistance  bancaires (stress test), en vain. Les doutes persistent, tandis que les risques ne faiblissent pas. 
D’ailleurs, les règlementations de Bâle I et II présentent de nombreux inconvénients, comme par exemple, une inadéquation des réserves obligatoires (ou capital requis) des banques pour couvrir les risques extrêmes. En effet, la part de ce capital mis en réserve auprès des banques centrales n’est pas allouée spécifiquement aux risques systémiques. Ainsi, lorsque le risque d’une seule entité augmente, en raison d’un choc spécifique, sa demande en actifs liquides s’accroît et peut être aisément satisfaite par le marché. En revanche, la présence d’un choc systémique amplifie la demande d’actifs liquides de plusieurs banques en même temps. Conséquence : elles sont souvent obligées de vendre des actifs à bas prix dans la panique pour satisfaire les demandes de réserves règlementaires, accélérant ainsi la spirale baissière, les effets de cycle et les crises. 
En outre, lorsqu’un risque systémique apparaît, il est souvent déjà trop tard, car le rôle de chaque entité dans le système global n’est pas considéré. « La méthode standard de calcul des risques s’effectue à partir d’une approche bottom-up : la valeur du risque propre (VaR pour Value at Risk) est calculée pour chaque établissement financier, puis additionnée selon leur nombre. Cette méthode présente des inconvénients, car le risque de chaque banque est considéré comme isolé. Or, en pratique, c’est loin d’être le cas. Nous avons donc privilégié une approche top-down, qui permet d’identifier le risque systémique dans sa globalité, puis de le répartir entre les différentes entités financières », explique Christian Gourieroux. Et d’ajouter : « Le principal message de cet article est d’éviter l’utilisation d’une mesure du risque naïve comme la VaR pour calculer les niveaux de réserves individuelles et globales du système ».
 
Risques systémiques et non systémiques : deux modes de calculs distincts 
Les risques systémiques et non systémiques ont des causes et des conséquences très divergentes. Ils nécessitent donc des méthodes de calculs différentes. « Il faut séparer le calcul du risque spécifique à chaque établissement et celui du risque systémique. Ce dernier doit être lissé sur un cycle beaucoup plus long (un an par exemple), comparé à celui de trois mois habituellement retenu, afin d’éviter les effets pro cycliques non désirés. La crise a fait apparaître le défaut de formule de la réglementation actuelle», estime Christian Gourieroux. 
 
Les régulateurs doivent agir de manière à être utile à la politique économique
« Il y a plusieurs façons de calculer les montants des réserves nécessaires pour contenir un risque systémique. En effet, les régulateurs ont de grands degrés de liberté dans la fixation des modes de calcul du risque global, ainsi que dans le processus de réallocation entre les différentes banques. Par ailleurs, les pouvoirs publics disposent également de nombreuses variables de contrôle, selon l’ampleur des prises de risque souhaitées ou selon la quantité de crédits voulue dans l’économie », souligne Christian Gourieroux. 
En clair, les marges de manœuvre des régulateurs dépendent des objectifs de politique économique qu’ont les gouvernements et les banques centrales (celles-ci ont, pour la plupart d’entre elles, des objectifs à respecter en termes d’inflation et/ou de croissance économique). 
Par conséquent, les variables de contrôle retenues par les régulateurs devraient être plus ou moins contraignantes, en fonction du cycle économique (croissance, stagnation, récession), de l’environnement des affaires et du marché immobilier. 
Ce type de question a pour objet d’être débattu au sein des institutions publiques, car il n’y a pas qu’une seule, mais de multiples façons de répartir les risques systémiques entre les différents acteurs financiers d’un pays ou d’une zone géographique. Pour l’heure, la réglementation actuelle ne tient pas compte de ces aspects.
 
Méthodologie

Christian Gourieroux s’est intéressé à la notion de risque systémique et plus particulièrement à sa répartition entre les différents établissements financiers. A partir d’une approche top-down (de la macro- vers la micro-économie), il considère le risque systémique dans sa globalité, pour le répartir ensuite entre les différentes banques. 

Puis, il introduit trois axiomes très importants (la décentralisation, l’additivité et la compatibilité des réserves en fonction des risques couverts), afin de dégager une répartition cohérente du risque systémique entre les différents acteurs financiers. 
Ensuite, il effectue des calculs de sensibilité, en dérivant une formule désagrégée en termes d’établissements, de risques systémiques et non systémiques, en utilisant des modèles de facteurs linéaires et non-linéaires. Son but : identifier les composantes systémiques et non systémiques du risque global.
Enfin, il considère le lien entre le capital requis des banques, exigé par les régulateurs et les indicateurs objectifs de risques, avant de conclure par des propositions alternatives.
 
Recommandations

  • Le risque systémique d’un établissement diffère de son risque spécifique.
  • Les réallocations des réserves systémiques vers les banques dépendent du niveau de risque systémique global.
  • Bien que les données des établissements soient centralisées chez le régulateur, il faut permettre à chaque établissement d’effectuer ses propres calculs de montants de réserves systémiques, tout en assurant la confidentialité sur la composition des portefeuilles des banques concurrentes (axiome de décentralisation). 
  • Les mesures de régulation des risques systémiques décrétées par les autorités ne doivent pas être contournables lors de fusions-acquisitions ou de scissions entre les établissements financiers (axiome d’additivité).
  • Si un établissement financier est moins couvert contre le risque systémique, ses réserves ont l’obligation d’être augmentées (axiome de compatibilité avec les risques).
  • Les facteurs non linéaires peuvent avoir une influence importante sur les risques systémiques. Cette non linéarité doit être prise en compte lorsque les bilans incluent de nombreux produits dérivés (options, risques de crédits).
 
A retenir

  • Les règles du comité de Bâle I et II (Bâle III n’entrera progressivement en vigueur qu’en 2013), ne font pas assez de distinctions entre les risques systémiques et non systémiques, en raison notamment de divergences entre les approches prudentielles au niveau macro- et micro-économique. Elles impliquent notamment des effets pro-cycliques non voulus.
  • Les régulateurs disposent de nombreux degrés de liberté dans la fixation des variables de contrôle, en fonction des cycles et du contexte économique.
 
Cahier de l’ILB N° 5, Article de Christian GOURIEROUX
 
Article de recherche lié
 

Comment ajuster les risques dans des portefeuilles de titres ?

D’après un entretien avec Christian Gouriéroux et son article « Granularity Adjustment for Risk Measures: Systematic vs Unsystematic Risks » (CREST/ Université de Toronto, septembre 2010).
 
 
Synthèse
Les portefeuilles détenus par les établissements financiers peuvent contenir plusieurs milliers de contrats individuels (contrats d’assurance-vie, prêts…), avec des risques plus ou moins élevés. Dès lors, le calcul des risques d’un portefeuille de titres variés peut sembler complexe, mais indispensable pour les banques.
Christian Gouriéroux s’est intéressé à ce sujet en se basant sur les régulations existantes, en prolongeant le principe de granularité (modèle mathématique) et en appliquant des facteurs multiples et dynamiques aux calculs des risques, bien plus proches de la réalité. Ces derniers peuvent être, par exemple, des résiliations de contrats ou encore des défauts qui peuvent avoir des incidences sur l’ampleur du risque d’un portefeuille de titres.
« Pour un nombre grand, mais fini de contrats, il est nécessaire et préférable d’appliquer, dans la formule de calcul, un correctif selon le principe de granularité, qui prend en compte des facteurs dynamiques et non linéaires », affirme le chercheur.
Pour l’heure, cette nouvelle méthodologie n’est pas encore appliquée, malgré une technologie disponible et opérationnelle. Pourtant, elle permettrait de mieux calculer les risques dans les portefeuilles de prêts d’entreprises ou hypothécaires par exemple.
 
Les risques systémiques préoccupent de plus en plus la sphère financière, mais comment mesurer le montant des réserves de portefeuilles comprenant des centaines de milliers de contrats individuels, afin de contenir ces risques ? Christian Gouriéroux s’est penché sur cette question, en appliquant le principe de Granularité. Mais, fait nouveau, il a tenu compte de facteurs multiples et dynamiques, tandis que les régulations actuelles (Bâle II, Solvency II) suggèrent des modèles à un facteur statique, bien trop éloignés de la réalité.
 
Le principe de granularité a été introduit pour des modèles à un facteur statique, lors des discussions de Bâle II, au début des années 2000. Cette méthode permet de décomposer n’importe quelle mesure du risque d’un grand portefeuille, en somme de la mesure du risque asymptotique, dans le cas d’un nombre infini de contrats individuels, et d’un terme correctif. Cette mesure du risque asymptotique est appelée CSA (Cross-Sectional Asymptotic) et identifie les effets non diversifiés des risques systémiques dans un portefeuille de titres. A l’inverse, le correctif de granularité (GA) prend en compte les effets des risques individuels spécifiques et leurs effets croisés sur les risques systémiques, lorsque le portefeuille est grand, mais comporte un nombre fini de contrats. « Le correctif de granularité sert à mesurer les risques spécifiques, tandis que le CSA capture le risque systématique », résume Christian Gouriéroux. Néanmoins, ces modèles avec un seul facteur de risque statique sont trop restrictifs pour analyser la complexité et les dynamiques des risques systémiques. 
 
Les risques sur de grands portefeuilles de titres sont difficilement mesurables
Les mesures standards du risque comme la VaR sont utilisées pour calculer le capital minimum requis des banques, afin de couvrir les risques d’investissement (pilier 1 de Bâle II). Elles servent également à contrôler le risque, via des modèles de risque internes (pilier 2 de Bâle II). Cependant, ces mesures du risque sont compliquées à utiliser numériquement dans le cas de grands portefeuilles de contrats individuels. « Procéder à des simulations pour calculer le montant des réserves d’une banque, dont le portefeuille contient de nombreux contrats individuels (prêts, MBS, CDOs, CDS, cartes de crédits, contrats d’assurance-vie…), peut  prendre un ou deux jours», affirme Christian Gouriéroux. 
En effet, de nombreux facteurs tout aussi variés que les titres auxquels ils sont adossés, entrent en ligne de compte, comme par exemple les résiliations de contrats, les défauts de paiement, ou encore les remboursements anticipés de crédits. « Pour un nombre grand, mais fini de contrats, il est nécessaire et préférable d’appliquer, dans la formule de calcul, un correctif selon le principe de granularité, qui prend en compte des facteurs dynamiques et non linéaires », ajoute-t-il.
 
Le principe de granularité étendu à des facteurs de risques dynamiques est plus pertinent
« Dans l’approche standard de la régulation de Bâle II, les risques sont classés, en fonction de la probabilité qu’un emprunteur fasse défaut. L’aspect incertain du taux de recouvrement des créances n’est pas pris en compte. Dans cette approche standard, le régulateur fixe les taux de recouvrement, sans qu’il ait nécessairement les données chiffrées pour de telles estimations. Dans l’approche avancée de Bâle II, des bases de taux de recouvrement sont construites et devraient être utilisées pour trouver les facteurs influents sur les défaillances et les taux de recouvrement», avertit Christian Gouriéroux. 
Pour mettre en lumière l’incohérence de ne pas incorporer l’incertitude sur le taux de recouvrement d’un emprunteur, dans les mesures du risque actuelles, l’auteur donne un exemple concret : « Si une entreprise a beaucoup de problèmes et qu’elle est structurellement défaillante, sa probabilité de défaut augmente et son taux de recouvrement diminue. Inversement, quand une entreprise ne rencontre que des difficultés de trésorerie, son taux de recouvrement est beaucoup plus grand que dans le premier cas. Mais, une banque créancière peut la déclarer en faillite, même si cette entreprise est capable de rembourser le capital restant dû. Cela crée artificiellement une sorte de remboursement anticipé, faisant augmenter la probabilité de défaut de cette firme, tandis que la perte diminue. Ces deux composantes du risque peuvent donc avoir une relation négative ou positive, selon les différentes situations des entreprises. Par exemple, au bout de deux ans, les start- up ont souvent des difficultés de financement à court terme, d’où une relation négative entre ces composantes du risque, en raison de la méfiance des banques à leurs égards ».
Pour analyser ces différents paramètres, un modèle à facteurs multiples et dynamiques est indispensable.  « Des facteurs dynamiques sont nécessaires pour analyser conjointement les défauts et les taux de recouvrement d’un portefeuille de prêts d’entreprises, dans de grands portefeuilles de titres. C’est ce que nous avons appliqué dans les calculs de nos correctifs de granularité», conclut Christian Gouriéroux.
 
Méthodologie 

Christian Gouriéroux prolonge l’approche de granularité à une structure composée de facteurs multiples et dynamiques, dans le but de calculer les montants des réserves de très grands portefeuilles.
Dans un premier temps, il introduit un modèle de risque à facteurs multiples et statiques, pour calculer le correctif de granularité (GA pour Granularity Adjustment en anglais) de la VaR (une mesure standard du risque). Le GA est facilement utilisable pour les nombreuses autres mesures du risque existantes. Puis, le GA est appliqué aux modèles classiques de risque de crédit à facteurs statiques et multiples. 
Ensuite, cette analyse est étendue à des modèles de risque à facteurs dynamiques. Dans cette structure, deux GA sont nécessaires. Le premier concerne la VaR conditionnelle avec la valeur du facteur supposée être observée. Le second prend en compte le fait que la valeur du facteur n’est pas observable. Enfin, Christian Gouriéroux considère des modèles à facteurs dynamiques, avec une probabilité stochastique de défaut et un taux de recouvrement stochastique en cas de défaut et dérive les GA correspondants.
 
Recommandations  

  • La crise financière a montré que les risques systémiques doivent être distingués des risques non systémiques. Dans une nouvelle organisation, ces deux types de risques pourraient être supervisés par différents régulateurs.
  • Les récentes études sur le principe de granularité ont montré que la technologie était maintenant opérationnelle, pour l’application de modèles à facteurs non linéaires et dynamiques. Mais, cette méthodologie n’est pas encore mise en place.
  • Les modèles de risques à facteurs statiques supposent que les observations passées ne sont pas instructives pour prédire les risques futurs, contrairement aux modèles à facteurs dynamiques.
 
A Retenir 

  • Les anciennes études sur la granularité et les régulations actuelles se sont restreintes aux seuls modèles statiques.
  • Les modèles de risques à un facteur statique sont trop restrictifs pour analyser la complexité et les dynamiques des risques systémiques.
  • Les facteurs de risques systémiques peuvent être multidimensionnels. 
 
Cahier de l’ILB N° 5, Article de Christian GOURIEROUX
 
Article de recherche lié