menu fermer

Marchés financiers: vers une redéfinition des risques

Cahier

Ces dernières années, l’activité des marchés financiers a été profondément modifiée par les deux crises traversées (subprimes et dettes souveraines), avec une attention particulière portée au risque de contrepartie, au collatéral et au risque de liquidité.

Les ajustements de valorisation (CVA et DVA), pour tenir compte du risque de défaut des parties dans des contrats de produits dérivés de gré à gré, ainsi que du coût de financement de ces contrats (coût de funding FVA), à comparer au coût des appels de marges dans le cadre du trading centralisé au travers de chambres de compensation, sont ainsi devenus des préoccupations essentielles des banques.

Le marché des produits dérivés de crédit a aussi été largement affecté. Les marchés électroniques et le trading haute fréquence ont continué à prendre de l’ampleur, posant des questions cruciales et inédites sur les risques.

Les récentes évolutions réglementaires ne font que souligner davantage le besoin urgent de se munir d’outils quantitatifs pour mieux comprendre et gérer ces risques.

La Chaire FBF Marchés en mutation vers une refondation des risques en finance, co-dirigée par Nicole El Karoui, Nizar Touzi (Ecole Polytechnique) et Monique Jeanblanc (Université d’Evry), est le fruit d’une synergie sur ces thèmes des équipes de recherche en mathématiques financières de l’Ecole Polytechnique (Centre de Mathématiques Appliquées) et de l’Université d’Evry (Laboratoire de Mathématiques et Modélisation d’Évry).

La Chaire a pour ambition d’apporter des réponses appropriées à ces nouveaux challenges de modélisation et de calcul, pour contribuer à refonder la gestion des risques financiers, dans toutes leurs multiplicités et complexités.

Les plateformes électroniques vont-elles remplacer les teneurs de marché ?

Les marchés financiers ont fortement évolué ces dernières années. Plus encadrés, ils utilisent aussi de plus en plus les plateformes électroniques, facilitant ainsi la rencontre entre acheteurs et vendeurs et accélérant la fréquence des transactions. Cette nouvelle structure remet en cause le rôle traditionnel des teneurs de marché: trouvent-ils encore leur utilité ? Comment redéfinir leur fonction sur des marchés massivement électroniques ? D’après l’ouvrage de Charles-Albert Lehalle et Sophie Laruelle “Market Microstructure in Practice” et un entretien avec Charles-Albert Lehalle.

Les progrès informatiques et le boom d’internet ont considérablement modifié les marchés financiers. Les échanges électroniques se sont ainsi multipliés, et peu à peu, ces derniers prennent le pas sur les transactions de gré à gré. Ce mouvement est encouragé par les régulateurs qui voient dans cette nouvelle façon d’opérer un bon moyen de remédier au manque de transparence.

La crise a en effet révélé l’opacité de certaines transactions et le risque qui en découle. D’importantes positions ont pu s’accumuler sur des actifs sans que les autorités en soient alertées. Des réglementations ont donc suivi afin de migrer une partie des opérations de gré à gré vers les plateformes électroniques.

L’objectif est clair: améliorer la visibilité de ces transactions et permettre ainsi de mieux les contrôler. La directive européenne MIF (Marchés des instruments financiers), dont la deuxième version (MIF 2) est actuellement en cours d’implémentation, va d’ailleurs dans ce sens.

Mais paradoxe de la situation, cette migration progressive des transactions vers les plateformes électroniques, censée sécuriser les marchés, a également favorisé l’essor du trading haute fréquence. Une forme de trading qui suscite inquiétudes et critiques.

Des teneurs de marché encore utiles ?

C’est dans ce contexte de révision réglementaire que Charles-Albert Lehalle a analysé les récentes évolutions de la microstructure de marché et les questions que ces changements font naître, en particulier sur le rôle des teneurs de marché et des traders haute fréquence.

En acceptant de prendre une position à l’achat pour la revendre un peu plus tard, le teneur de marché facilite le lien entre acheteurs et vendeurs, et fournit de la liquidité. Mais grâce aux plateformes électroniques, la rencontre entre les deux parties est désormais facilitée.

Les vendeurs peuvent plus aisément fractionner leurs achats ou leurs ventes, et réussir ainsi à placer leurs opérations. Le besoin de teneur de marché semble moins évident…

L’auteur s’interroge donc sur la pertinence de leur intervention sur des marchés financiers massivement électroniques : les teneurs de marché sont-ils encore utiles, ou plus précisément quand le sont-ils réellement ? Poser cette question revient à examiner le niveau de liquidité : à quel moment est-il insuffisant ? Comment les teneurs de marché peuvent-il l’accroître ?

Construire des segments de liquidité

La réponse est variable et doit s’entendre actif par actif. Certains produits sont assez volatiles et sensibles à de nombreux évènements extérieurs. Chaque nouvelle information a un impact sur le prix. Plus ces informations sont fréquentes, plus les cours sont fluctuants, et plus les teneurs de marché sont utiles.

Ainsi, les actions sont influencées par une quantité d’information survenant de façon quasi quotidienne: sortie d’un nouveau produit, changement de stratégie, apparition ou disparition d’un concurrent, etc. Pour de tels actifs, le rôle des teneurs de marché est primordial mais également complexe à définir.

Le processus de formation des prix étant continu, il est difficile de déterminer à quel moment précis les besoins en liquidité sont importants.Au sein même des actions, des différences existent en termes de niveau de liquidité. A contrario, les taux de change sont relativement stables. Leur évolution est essentiellement liée aux changements des taux directeurs des banques centrales.

Les besoins de liquidité sont ponctuels et centrés sur ces périodes. L’intervention des teneurs de marché devraient donc se concentrer sur ces moments précis. Traders haute fréquence: danger ou nécessité Cette nouvelle organisation des marchés a également généré le développement de nouveaux acteurs.

Soutenu par l’électronisation des transactions, les traders haute fréquence prennent de l’ampleur. Un mouvement qui devrait continuer de croître avec la montée en puissance des bourses électroniques. En effet, plus les transactions électroniques progressent, plus la fréquence des transactions augmente.

Cette accélération des échanges génère des interrogations quant aux possibles impacts négatifs des traders haute fréquence sur la stabilité du marché. Sont-ils dangereux ? Faut-il les contrôler ? Le sujet fait débat.

Les règles doivent être plus strictes pour des actifs très liquides, où les teneurs de marché doivent réellement prouver leur utilité.

Pour l’auteur, ces questions doivent être replacées dans le cadre, plus général, de la microstructure de marché. Les traders haute fréquence gèrent, comme tout autre teneur de marché, une partie du jeu d’enchère entre vendeurs et acheteurs, assurant une rencontre, à la milliseconde, entre l’offre et la demande: “A ce titre, ils ont leur utilité”,estime Charles-Albert Lehalle. “Toutefois, une réglementation est certainement nécessaire, mais elle doit s’appuyer sur la définition du métier de teneur de marché”.

Autrement dit, l’encadrement doit s’ajuster en fonction des besoins en liquidité. Les règles devraient être plus strictes pour des actifs très liquides, où les teneurs de marché doivent réellement prouver leur utilité, et plus souple pour les autres.

Il s’agirait dans un premier temps de répartir les produits financiers au sein de segments de liquidité. Puis, dans un second temps, d’instaurer des règles adaptées à chaque catégorie. “Le régulateur dispose de différents outils pour freiner ou accélérer les échanges, explique le chercheur.

Les titres les plus liquides peuvent par exemple être soumis à un pas de cotation1 plus élevé, ou à des frais de transaction plus important.” Le débat sur les évolutions réglementaires ne doit en tous cas pas se limiter au cas particulier du trading haute fréquence, mais considérer le marché et ses acteurs dans leur globalité afin de redéfinir au mieux le rôle de chacun.

1. Ecart minimal entre deux cours de cotation directement consécutifs. La cotation peut par exemple évoluer centime par centime.

BIOGRAPHIE

lehalle

 

 

Manager” à Capital Fund Management (CFM), Charles-Albert Lehalle est un expert de la microstructure de marché et du trading optimal.

 

 

 

Comment intégrer le nouveau contexte bancaire ?

La crise a révélé la fragilité des banques. Ces dernières doivent désormais intégrer leur propre risque de crédit dans la gestion de leur financement, comme de leurs couvertures. De nouvelles problématiques qui nécessitent de revoir les méthodes traditionnelles de calcul des ajustements liés au risque de contrepartie.
D’après le livre “Counterparty risk and funding: A tale of two puzzles” de Stéphane Crépey, Tomasz R. Bielecki, Damiano Brigo et un entretien avec Stéphane Crépey.

Le 15 septembre 2008, Lehman Brothers fermait officiellement ses portes. La chute du géant américain a mis fin au mythe de la banque insubmersible, obligeant les acteurs financiers à revoir leur gestion des risques. Les banques, comme les autres investisseurs, peuvent désormais tomber en faillite.

Résultat, le risque de défaut d’une contrepartie devient bilatéral et génère des besoins de couverture supplémentaires.Le financement des banques est également impacté.

Si, auparavant, les établissements financiers empruntaient et prêtaient au même taux, le taux sans risque, ils sont aujourd’hui confrontés à un coût d’emprunt plus élevé. Le pricing des taux n’est donc plus linéaire.

Gérer de nouveaux risques

Face à cette nouvelle configuration, les banques ont besoin d’outils innovants afin de calculer leurs frais de financement.

Quelles sont les conséquences de ce nouveau pricing sur le financement des banques ? Comment inclure ces paramètres dans le calcul du coût de financement ? Comment gérer les spécificités de certains produits comme les dérivés de crédit? Répondre à ces questions devient encore plus crucial avec le développement du trading centralisé et des chambres de compensation.

Face aux différents modes de trading (trading centralisé et trading bilatéral), les banques doivent pouvoir réaliser une évaluation fine du coût respectif de chaque mode afin d’ajuster leur stratégie. Les travaux de Stéphane Crépey et ses coauteurs visent à définir des méthodes pertinentes pour répondre à ces problématiques.

Des calculs de base…

Les chercheurs ont mené leurs travaux en plusieurs étapes. Tout d’abord, ils ont mis au point une technique mathématique capable de résoudre la problématique de pricing non symétrique (conséquence de la différence entre le taux prêteur et le taux emprunteur).

Basée sur l’approche à forme réduite en risque de crédit et sur la notion mathématique d’équation différentielle stochastique rétrograde (EDSR réduites), cette technique permet aux banques de calculer le coût de financement de leurs opérations courantes. Toutefois, elle s’avère insuffisante pour des produits complexes soumis à des risques particuliers.

Les banques doivent pouvoir évaluer le coût respectif du trading bilatéral et du trading centralisé

En effet, dans certains cas, les moments où la contrepartie a le plus de risque de faire défaut correspondent à ceux où la contrepartie garantit le plus d’argent. C’est ce qu’on appelle le “wrong way risk” ou risque de dépendance adverse. Les dérivés de crédit (CDSs et CDOs), en particulier, en sont l’illustration.

Les phénomènes de contagion de crédit génèrent un effet de dépendance. Ainsi, si une banque fait faillite, l’établissement qui assure la couverture de son crédit a une forte probabilité d’être également en difficulté. Les deux parties dépendent des mêmes marchés. Or, les méthodes traditionnelles d’EDSR réduites ne fonctionnent pas dans ce cas-là.

…aux opérations les plus complexes

En s’appuyant sur la méthode dite de copule, les chercheurs ont modélisé la dépendance des différentes parties. Le modèle définit la probabilité, à l’instant t, que les deux parties fassent défaut en même temps. Il est ainsi possible d’évaluer la perte potentielle pour la partie ayant acheté le produit. La formule a ensuite été rendue dynamique afin de calculer le coût de la perte potentielle, à tout moment de la vie du produit.

Enfin, les auteurs sont parvenus à marier la méthode de copules dynamiques et celles d’EDSR réduites afin d’inclure à la fois la problématique de financement et le wrong way risk (risque de dépendance) dans le calcul du prix de la couverture.

Grâce à ce modèle, les banques peuvent ainsi calculer l’ensemble des frais liés à l’achat de produits dérivés. Plus généralement, les travaux présentés apportent une réponse à la complexité des calculs des ajustements liés au risque de contrepartie (CVA, DVA, FVA).

Les banques d’investissement revoient actuellement leurs méthodes d’évaluation de ces ajustements pour d’une part, mieux tenir compte de la volatilité des marchés, et d’autre part, inclure leur propre risque de crédit. La création d’un service dédié, le XVA desk, entre dans ce cadre et doit servir à collecter les données et définir les couvertures.

BIOGRAPHIE

Stéphane

 

Stéphane Crépey est professeur au département de Mathématiques de l’Université d’Evry, où il dirige le master d’ingénierie financière (master M2IF).

Ses intérêts de recherche actuels sont la modélisation financière du risque de contrepartie, la finance numérique, ainsi que les questions mathématiques connexes dans les domaines des équations différentielles stochastiques rétrogrades et équations aux dérivées partielles.

 

Comment évaluer les produits dérivés de gré à gré de façon pertinente ?

Les méthodes d’évaluation des produits dérivés diffèrent d’une banque à l’autre. Des divergences qui ne sont pas sans conséquence puisqu’elles se répercutent directement sur les obligations en termes de fonds propres réglementaires, et donc sur les bilans des établissements. Face à ces constats, Jean-Paul Laurent et ses co-auteurs s’interrogent sur la méthode la plus pertinente pour évaluer les dérivés. Comment définir le taux d’actualisation des flux futurs en fonction des différents mécanismes de collateralisation ? D’après la présentation “Panorama des problématiques actuelles relatives à l’évaluation des swaps” et un entretien avec Jean-Paul Laurent.

Les produits dérivés de gré à gré représentent un marché considérable; et pourtant, leur évaluation est sujette à débat. Les méthodes utilisées, pas toujours transparentes, varient d’une banque à l’autre. Un choix qui n’est pas sans conséquence sur les comptes.

Selon que l’approche choisie privilégie la “juste valeur”1 ou la “valeur prudente” 2, les obligations en termes de fonds propres réglementaires sont plus ou moins importantes. Les méthodologies utilisées ont donc une influence notable sur la mesure de la profitabilité et des risques de pertes sur les portefeuilles, ainsi que sur la manière dont les banques apprécient et gèrent leurs risques.

Ainsi, plus un taux d’actualisation est élevé, plus la valeur d’un portefeuille “typique” de produits dérivés de taux d’intérêt est faible. Une modification, même minime, du taux d’actualisation peut générer un impact de plusieurs centaines de millions d’euros sur les bilans des banques, à l’instar de ce qu’a connu JP Morgan.

Début 2014, la banque d’affaires a enregistré une dépréciation d’1,5 milliard de dollars sur son portefeuille de produits dérivés OTC, suite à une réévaluation des coûts de financement. Les régulateurs, dont l’Autorité Bancaire Européenne, se sont saisis du sujet et planchent actuellement sur l’instaura-tion d’un cadre d’évaluation pour ces produits.

Définir une méthode pertinente

Les travaux de Jean-Paul Laurent et de ses co-auteurs s’inscrivent dans ce contexte. Ils visent à proposer des méthodes de valorisation des produits dérivés, et à expliciter le cadre conceptuel ainsi que les hypothèses relatives à ces évaluations.

La problématique est d’autant plus complexe que les contrats considérés sont variés: par exemple les appels de marge, destinés à diminuer le risque de contrepartie, peuvent être symétriques (chacune des parties peut être amenée à transférer un dépôt de garantie appelé collatéral) ou asymétriques (l’une des deux parties bénéficie d’une exemption de l’obligation de mettre des fonds de côté, laissant l’autre exposée à un risque de contrepartie).

De même, les devises et les taux de décote utilisés changent en fonction de l’accord bilatéral signé par les parties. Tout l’enjeu est donc de disposer de méthodes d’évaluation pertinentes pour l’ensemble de ces contrats.

Une modification du taux d’actualisation peut avoir un impact de centaines de millions d’euros sur le bilan des banques

La situation est en effet très hétérogène en fonction des contrats et des produits. L’évaluation des dérivés traités par les chambres de compensation est relativement simple, car elle s’appuie sur un marché liquide de référence.

Le taux d’actualisation se déduit directement des cours de compensation utilisés pour calculer les appels de marge. Le modèle tend à passer au second plan. L’évaluation des produits non compensés est au contraire bien plus complexe. Elle ne s’appuie pas uniquement sur des données observables sur le marché.

Certaines informations, comme le coût de financement des banques, ne sont pas aisément disponibles et ne peuvent pas non plus se déduire facilement de données de marché. Dans ce cas, l’évaluation dépend de paramètres dont la validité peut prêter à discussion.

Réduire les paramètres arbitraires

Dans un premier temps, les chercheurs ont réalisé une synthèse des principales méthodes utilisées, en faisant le lien entre la méthodologie d’évaluation, les prix des transactions et les taux observés sur les marchés. Puis, ils ont élaboré un cadre de calcul pour l’évaluation des différents produits dérivés, soumis à des accords de collatéralisation.

Le modèle proposé répond ainsi à plusieurs objectifs. D’une part, il garantit une cohérence entre les prix des produits négociés, quels que soient la contrepartie et le mode de collatéralisation adopté (via une chambre de compensation ou via un accord bilatéral).

D’autre part, il réduit au minimum le nombre de paramètres arbitraires utilisés. Ces paramètres ne s’appuient pas directement sur les prix de marché, et sont donc difficilement vérifiables, alors que leur incidence sur la juste valeur ou la valeur prudente peut être conséquente.

En se basant au maximum sur les données de marché observables, en particulier sur les taux d’actualisation communiqués par les chambres de compensation, le modèle réduit les risques d’erreur sur les évaluations des produits dérivés les plus complexes. Plus transparent, le cadre de calcul devient un véritable outil de pilotage du risque pour les banques et une source d’information plus fiable pour les régulateurs et les analystes financiers.

BIOGRAPHIE

JPL

 

 

Jean-Paul Laurent est professeur à l’université Paris 1 Panthéon – Sorbonne où il anime le pôle finance du laboratoire de sciences de gestion.

Ses recherches portent sur la modélisation des risques financiers.

 

 

Quel est l’impact du collatéral sur la valorisation des dérivés ?

La gestion du risque de contrepartie s’est traduite par une utilisation accrue de collatéral. Mais les actifs, pouvant jouer ce rôle de garantie, deviennent rares et coûteux. Les investisseurs doivent pouvoir calculer ces frais supplémentaires afin d’adapter leur stratégie et ajuster la valorisation de leurs portefeuilles. D’après un entretien avec Andrea Pallavicini et l’article de Damiano Brigo et Andrea Pallavicini “Nonlinear consistent valuation of CCP cleared or CSA bilateral trades with initial margins under credit, funding and wrong-way”

Toute protection a un coût. La règle vaut aussi pour le secteur financier. Afin d’éviter des faillites en cascade, le régulateur a encouragé l’utilisation de collatéral lors des transactions de dérivés. Ces actifs jouent le rôle de garantie contre le risque de défaut de la contrepartie.

Les échanges de collatéral, qu’ils soient organisés par contrat (CSA) pour les opérations bilatérales, ou traités par les chambres de compensation, ont ainsi considérablement augmenté ces dernières années. Si cette procédure vise avant tout à sécuriser les marchés, elle n’est pas sans conséquence pour les bilans des établissements financiers.

Les sommes en jeu sont en effet considérables et ne cessent de croître. La levée des fonds devient donc plus complexe et coûteuse, générant une augmentation du prix d’entrée sur le marché.

Définir les coûts d’entrée…

Reste encore à connaître précisément le montant de cette hausse. Quel est le montant des coûts de financement liés à la constitution du collatéral ? Quelle méthode utilisée pour réaliser le calcul ? Au final, quel est l’impact des coûts de financement sur la valorisation des produits dérivés ? Les coûts de financement constituent en effet une composante directe de la valeur des dérivés mais demeurent difficiles à évaluer.

Ils ne se résument pas toujours à un surcoût qui viendrait simplement s’additionner au prix de transaction sans coût de financement. C’est pourquoi un modèle spécifique d’évaluation est nécessaire. Andrea Pallavicini a ainsi développé une méthodologie qui considère les coûts de financement comme étant un ajustement de valeur à intégrer au portefeuille de négociation.

La formule obtenue considère la couverture contre le risque de contrepartie (CVA et DVA) ainsi que le risque de dépendance (wrong-way risk effect). Applicable tant pour les transactions bilatérales que pour les transactions gérées par les chambres de compensation, elle permet d’évaluer les transactions de dérivés en intégrant les différents coûts de financement.

L’objectif est de connaître le prix d’entrée sur un marché

Pour construire son modèle, l’auteur s’est d’abord appuyé sur les différentes règles réglementant les mécanismes d’appel de marge. L’ISDA (Association Internationale des Swaps et Dérivés) et les chambres de compensation imposent certains standards.

Parmi eux, l’obligation de rémunérer les comptes de collatéral à un taux d’intérêt spécifique, ou celle de distinguer les garanties en fonction du marché de la transaction (crédit, matières premières, change , etc.) en plaçant les montants de collatéral associés sur des comptes distincts. Le chercheur a ensuite intégré les différents paramètres du coût de financement.

Ce dernier dépend de nombreux facteurs, comme la stratégie de l’investisseur, sa qualité de crédit (credit quality) ou encore la politique du Trésor ; les taux des prêts du Trésor impactant directement les coûts de financements des investisseurs.

…pour ajuster la valeur des portefeuilles

“L’objectif n’est pas de trouver un prix d’équilibre pour l’ensemble du marché mais de connaître le prix d’entrée sur un marché, précise Andrea Pallavicini. En réalité, il n’existe pas de prix unique car les frais sont variables selon les acteurs. Le procédé peut être comparé au coût de construction d’une maison neuve.

Chaque construction a un prix spécifique mais celui-ci est calculé selon une liste connue de paramètres”. Le modèle développé détermine ainsi la liste des coûts qu’un investisseur serait amené à payer durant toute la durée de vie du produit financier: de l’achat du titre, à sa revente, en incluant, entre les deux, les éventuelles fluctuations du marché.

Grâce à cette méthodologie, les traders peuvent déterminer le coût interne lié à la conclusion d’une transaction et connaître ainsi leur frais d’entrée sur un marché. Ces informations sont indispensables afin d’estimer, au plus juste, la valeur des portefeuilles de dérivés.

Elles sont également nécessaires au bon fonctionnement des politiques de régulation. Afin de réduire le risque de contrepartie, de plus en plus de transactions sont garanties par des systèmes d’appels de marge, gérés par les chambres de compensation.

Pour être efficace, une telle procédure demande de bien évaluer les portefeuilles, et donc d’intégrer les coûts de financement sur toute la durée de vie du titre.

BIOGRAPHIE

Andréa

 

Andrea Pallavicini est professeur invité au département de Mathématiques de l’Imperial College de Londres.

Ses travaux portent sur les modèles de perte dynamique, l’évaluation des risques de contrepartie, les modèles de taux d’intérêt, et le pricing des produits dérivés exotiques.

 

 

Quel impact aurait une taxation des transactions financières sur la volatilité du marché ?

Contrôler la volatilité et réduire ses excès sont devenus des enjeux centraux pour assurer le bon fonctionnement des marchés et limiter les risques systémiques. L’instauration d’une taxe sur les transactions financières est parfois présentée comme une réponse à ces problématiques. Mais connait-on réellement l’impact d’une telle mesure ? Quels seraient ses effets sur le niveau de transaction et le degré de liquidité ?
D’après l’article d’Albina Danilova et Christian Julliard “Information Asymmetries, Volatility, Liquidity, and the Tobin Tax”, ainsi qu’un entretien avec Albina Danilova.

Les soubresauts des prix des titres donnent des sueurs froides aux investisseurs. La crise des subprimes a, plus que jamais, remis la question de la volatilité au cœur des préoccupations économiques. La crainte d’être confrontée à nouveau à une forte fluctuation des valeurs, et par conséquence à une baisse de la liquidité, ressort.

C’est dans ce contexte qu’apparaissent des propositions de taxe Tobin sur les transactions financières. Ces projets sont souvent présentés comme des outils pour baisser la volatilité, et ainsi mieux appréhender et contrôler le risque financier des marchés.

Mais comment réduire un phénomène encore mal compris aujourd’hui… Quels facteurs sont à l’origine de la volatilité ? Comment la quantifier et comment déterminer les excès ? Si certains éléments sont connus, de nombreuses réponses manquent encore.

L’asymétrie d’information accroît la volatilité

L’étude d’Albina Danilova et de Christian Julliard vise à compléter ces connaissances afin de mieux comprendre les causes de la volatilité. Elle se centre plus précisément sur les liens entre asymétrie d’information, coût de transaction, volume et nombre de transactions, volatilité et liquidité.

Elle analyse également, d’un point de vue théorique, l’impact potentiel d’une taxe sur les transactions financières sur ces différents paramètres. Le premier point analysé porte sur la relation entre la qualité de l’information fournie au marché et la volatilité.

Les auteurs constatent que la volatilité a tendance à s’accroitre lorsque les écarts entre la valeur fondamentale d’un actif et les estimations des investisseurs sont importants. A contrario, lorsque les investisseurs évaluent au plus près la valeur d’un titre, la volatilité demeure faible.

Le rôle de l’information est donc primordial pour assurer une juste formation des prix. Si l’asymétrie d’information entre les traders est importante, les prix du marché deviennent moins informatifs, ce qui augmente la volatilité et réduit la liquidité.

Les conséquences d’une taxe Tobin

Les auteurs ont ensuite analysé l’impact potentiel d’une taxation des transactions financières. Les effets sont doubles. D’une part, la taxe augmente mécaniquement le coût de transaction et accentue, de ce fait, le bid-ask spread, à savoir l’écart entre le prix d’achat et le prix de vente d’un titre fixé par un teneur de marché.

L’augmentation de cet écart implique une progression de la volatilité au niveau de chaque transaction et par conséquent une réduction de la liquidité.

Une taxe Tobin réduit la volatilité durant les périodes de stabilité économique mais l’augmente durant les crises financières.

En ce sens, une taxe des transactions financières aurait des effets négatifs sur le marché. Mais l’impact total s’avère en fait plus complexe à évaluer. Si la volatilité au niveau de chaque transaction augmente, cela ne signifie pas nécessairement que le niveau global de la volatilité augmente.

Il est en effet nécessaire d’inclure le nombre de transaction dans l’analyse. Car la taxe a une deuxième conséquence: elle réduit le niveau d’activité du marché. Les coûts augmentant, les transactions baissent.

Avec une taxe, la volatilité par transaction est donc plus forte, mais les opérations sont rares, tandis qu’en l’absence de taxe, la volatilité par transaction est faible mais les ordres sont nombreux.

Des effets variables selon les actifs

Il est ainsi difficile, sur le plan théorique, de déterminer précisément l’impact d’une taxation des transactions financières sur les niveaux de volatilité et de liquidité du marché. L’étude démontre néanmoins qu’une taxe ralentit le processus d’ajustement des prix.

Lorsque la valeur fondamentale d’un actif évolue, un certain nombre de transactions est nécessaire pour que le prix du marché soit corrigé. Or, comme une taxation financière réduit le nombre d’opérations, le processus d’ajustement est plus long.

Dans leur recherche, Albina Danilova et Christian Julliard n’émettent pas de jugement quant à la pertinence, ou non, d’une taxation des transactions financières. Ils mettent cependant en avant plusieurs points.

Si une telle taxe contribuerait à réduire la volatilité durant les périodes de stabilité économique, elle l’augmenterait durant les périodes de crise, et irait donc à l’opposé du but recherché par les pouvoirs politiques.

En outre, dans le cadre d’un projet de taxe Tobin, ils soulignent l’importance d’évaluer, en amont, l’impact d’une telle mesure via une analyse actif par actif; les conséquences variant en fonction du degré d’asymétrie d’information et du niveau de friction.

Il est donc primordial de mener des études complémentaires afin de mesurer ces deux paramètres pour les différents actifs.

BIOGRAPHIE

Albina

 

Arrivée au département de Mathématiques de LSE en 2009, Albina Danilova est professeur associée.

Ses recherches portent sur l’asymétrie d’information, le pricing des dérivés, les calculs stochastiques, les délits d’initiés, le contrôle stochastique et la théorie d’équilibre.