menu fermer

Information en finance et assurance

Cahier

La quantification des risques financiers, ainsi que l’élaboration de stratégies destinées à les couvrir, dépendent fortement de la perception du risque par un investisseur donné, ou plus précisément de l’information dont il dispose pour l’évaluer. L’information représente ainsi un élément clé de la modélisation financière. Dans la plupart des modèles financiers, l’accent est mis sur le choix de la mesure de pricing. Le marché est supposé choisir cette mesure dans un contexte de marché incomplet de façon à ne pas générer des arbitrages, et l’information est supposée commune et donnée à l’avance.

Peu d’études ont été conduites pour étudier l’influence de l’information sur l’évaluation des produits financiers. lors de la crise financière, il a été mis en évidence que la faillite de grosses compagnies avait un impact important sur les compagnies dont on estimait qu’elles n’étaient pas ou peu corrélées à l’entreprise faisant défaut, et que l’information liée à ce défaut devait impérativement être prise en compte. il s’agit donc bien d’une modélisation de l’information, permettant d’atteindre une modélisation d’une dépendance.

Un événement extrême, de faible probabilité, peut impacter la modélisation, avant et après sa venue, et l’information liée à cet événement est un élément important de la compréhension de la dynamique des prix. Mettre en valeur ces relations est un enjeu complexe.

Le  semestre  thématique  “information  en  Finance  et  assurance”  fut  l’occasion  d’échanges  et  de  collaborations scientifiques entre chercheurs de différents domaines (mathématiques financières, économie, assurance) travaillant sur le sujet. il s’est articulé autour des 5 thèmes suivants, dont les principales contributions sont illustrées dans le présent cahier.

  • Information partielle : modéliser, via des techniques de filtrage, l’impact d’une d’information incomplète.
  • Information privée : comprendre comment la connaissance d’une information privilégiée modifie le comportement d’un
  • Théorie des jeux : comprendre comment la connaissance d’une information privilégiée modifie les interactions possibles entre les
  • Information asymétrique et assurance : confronter les points de vue financiers, économiques et actuariels pour mieux identifier les risques de modèle, tant au niveau du choix du modèle utilisé, que du choix des informations
  • Modèles d’équilibre Kyle et Back : étudier l’existence d’équilibres financiers lorsque les agents ont des informations différentes, qui peuvent être des informations privées ou

Bonne lecture!

 

Caroline Hillairet et Monique Jeanblanc, organisatrices du semestre thématique “Information en Finance et Assurance” Plus d’information sur http://www.informationinfinanceandinsurance.org/

Comment une information privée impacte le comportement des joueurs ?

De nombreux travaux académiques analysent l’impact des déséquilibres d’information sur le marché. en se basant sur la théorie des jeux, ils abordent notamment la question de l’utilisation stratégique d’une information privée. D’après un texte de Fabien Gensbittel.

Les agents économiques ne disposent pas tous du même niveau d’information. Les coûts d’investissement d’une entreprise, par exemple, sont connus de cette dernière mais pas de ses concurrents. De même, un employeur ne peut observer en permanence ses salariés. Il ne connaît donc pas parfaitement le niveau d’effort de chaque employé. S’il souhaite créer une incitation, sa seule possibilité est de conditionner le salaire versé au résultat.

En formalisant les interactions entre les agents (appelés joueurs), les modèles de la théorie des jeux cherchent à définir les équilibres dans ce contexte de problème d’information. Autrement dit, ils visent à déterminer la ou les stratégies qui permettent de satisfaire au mieux l’ensemble des joueurs.
Ces derniers sont en effet stratégiques, ils cherchent à optimiser un certain critère (généralement leur paiement ou utilité espérés), et, rationnels, ils ont la capacité de résoudre un problème d’optimisation complexe.

Quelle valeur pour une information privée ?

L’étude des équilibres dans ces modèles est délicate et soulève plusieurs questions d’inté- rêt pour la recherche. Plusieurs d’entre elles ont été abordées lors du semestre thématique “information en Finance et assurance”, comme la valeur d’une information privée ou l’uti- lisation stratégique de celle-ci.

L’objectif pour le joueur est de contrôler la manière dont son information est révélée

Jérôme renault a ainsi étudié la valeur d’une information privée dans un jeu à somme nulle, c’est-à-dire un jeu où les intérêts des joueurs sont totalement opposés. En situation d’information incomplète, la valeur de cette information correspond au paiement optimal que peut se garantir le joueur a dans le jeu. Cette approche permet d’ordonner différentes structures d’information en fonction de leur qualité (ou valeur) du point de vue du joueur a, mais aussi de les différencier de manière quantitative, c’est-à-dire de mesurer l’effet précis d’une variation de la structure d’information sur la valeur du jeu.

Bluffer pour optimiser son information

Au-delà de la valeur intrinsèque de l’information, de nombreux travaux s’intéressent à la manière optimale de l’utiliser. L’objectif pour le joueur est de contrôler la manière dont son information est révélée au marché afin de maximiser son profit. Il a donc tout intérêt à “bluffer” de manière à cacher son information. Par exemple, si un joueur connaît la valeur d’une variable X  (disons  0 ou 1) qui est positivement corrélée à la qualité d’un projet risqué, et décide d’investir dans le projet à la première étape du jeu uniquement si X = 1, l’observation de son comportement révèle complétement son information. Introduire un aléa dans la décision d’investir (par exemple investir avec probabilité  3/4  si  X = 1 et 1/4 si X = 0) permet de brouiller les cartes, et autorise une plus grande marge de manœuvre.

L’utilisation stratégique des informations privées n’est pas sans conséquence pour le marché. Bernard de Meyer montre ainsi comment ces stratégies expliquent en partie les fluctuations des prix. Il considère un marché composé de deux agents : un agent de taille importante qui bénéficie d’un accès privilégié à l’information, et un acteur plus petit, moins bien informé. L’agent principal sait que son comportement est observé. Il va donc instaurer une stratégie afin de dissimuler son information privée et introduire un aléa dans ses actions. Les évolutions du prix sont donc expliquées par le comportement optimal du joueur informé, et non comme la conséquence de chocs aléatoires indépendants.

Même s’il est extrêmement simplifié, ce modèle a l’intérêt de prouver l’impact de l’information sur les prix et de proposer une méthode d’évaluation d’actifs basée sur ce constat.

Evaluer des options avec une information asymétrique

Les problèmes d’information ont également un impact sur  l’évaluation des actifs, et notamment des options. Fabien Gensbittel a ainsi étudié l’évaluation des options dites israéliennes, à savoir des options où l’émetteur peut se rétracter à tout moment sous réserve de verser une indemnité à l’acheteur. Il s’agit là encore d’un jeu à somme nulle puisqu’émetteur et acheteur ont des intérêts opposés.   Les décisions des deux parties se réduisent à un temps d’arrêt : temps d’annulation pour l’émetteur, temps d’exercice pour l’acheteur. Il est assez naturel dans ce type de problème de considérer que l’information sur la qualité de l’actif sous-jacent est asymétrique. Et là encore, les stratégies optimales prescrivent d’introduire un aléa dans la prise de décision, et non plus d’exercer au-delà d’un certain seuil déterminé, comme c’est souvent le cas dans les problèmes d’arrêt à information complète. Concrètement, en l’absence de problème d’information, l’émetteur retire son offre au-delà d’un certain seuil de prix,  connu  et  fixé.  L’asymétrie d’information pousse les acteurs à bluffer : l’émetteur ne s’arrêtera pas à un seuil de prix fixe mais à un “seuil aléatoire”.

Jeux à somme non-nulle à information incomplète

Les problématiques d’information incomplète existent également dans les jeux à somme non-nulle, autrement dit les jeux où les intérêts des joueurs ne sont pas forcément opposés.

Dans ce cas, une forme de coopération entre les joueurs est possible. Comment, dans ce contexte, l’information privée est-elle utilisée ? Un résultat classique est l’existence d’équilibres appelés plan-joints, qui s’apparentent à des contrats entre les deux joueurs où l’information privée n’est utilisée qu’une fois au début du jeu.

Ce type d’équilibre fonctionne en quelque sorte sur le principe de la menace. Des règles sont définies au début du jeu. Si un joueur ne les respecte pas, il sera pénalisé par les autres joueurs tout au long du jeu.

Néanmoins, les équilibres plan-joint ne représentent qu’une partie des équilibres, car on peut construire des exemples de nature différente où l’information est révélée petit à petit tout au long du jeu.

Modèle de Kyle : l’impact de l’information sur le prix d’équilibre

Certains investisseurs bénéficient d’informations privilégiées, leur permettant de mieux évaluer la valeur d’un actif. Comment cette information influence-t-elle l’équilibre du marché ? Quels avantages offre-t-elle ? Le modèle de Kyle fournit des éléments de réponse. D’après un texte de Kerry Back.

La  question du prix d’équilibre est fondamentale en économie, et de nombreux travaux tentent de  la  formaliser. Le modèle de Kyle s’inscrit dans cette problématique, en faisant le lien entre la formation du prix, établi par l’offre et la demande, et l’information dont disposent les agents. Tous ne sont pas en possession des mêmes éléments. Un investisseur local, par exemple, connaîtra, a priori, mieux le marché qu’un investisseur étranger.

Comment l’information disponible, ou les différences de niveau d’information entre les agents, peuvent-elles influer sur l’activité des marchés financiers ? Comment cette information est-elle intégrée dans le prix ? Quels sont les bénéfices retirés d’une information privilégiée ? Le prix d’équilibre en est-il modifié ? Telles sont quelques-unes des questions auxquelles s’attache la théorie de Kyle qui modélise l’impact de l’information sur la liquidité et le prix d’un  actif.

Un agent privilégié et stratégique

Kyle considère un marché, sur lequel est vendu un actif risqué. Trois types d’agents interviennent dans les échanges : un trader “privilégié”, des liquidity  traders  et un market maker.

Le trader “privilégié” bénéficie d’une information privée sur la valeur de l’actif. Il connaît sa valeur à la date T1 et donc le prix de vente ou d’achat potentiel à cette date. L’agent informé est stratégique et cherche à maximiser le profit qu’il peut tirer de son information. Il prend donc en considération l’impact de son ordre sur le prix

 

Plus le marché est liquide, plus le  profit  de l’agent informé est important

du marché, et effectue ses transactions de sorte à ce que son information soit révélée au marché le plus tardivement possible.  Il ne vendra pas, par exemple, l’ensemble de ses titres en une seule opération afin d’éviter une chute des cours. Toutefois, via  ses transactions à l’achat ou à la vente, il fournit nécessairement un signal au marché ; une partie de son information étant transmise au prix de l’actif.

De leur côté, les liquidity traders ne disposent pas d’information sur la valeur de l’actif. Ils fournissent de la liquidité, en participant aux échanges, mais ne donnent pas de signal au marché et n’ont donc pas d’impact sur le prix.

Enfin, le market maker observe les flux de transaction, sans distinguer la demande du trader informé de celle des liquidity traders. Il fixe le prix en fonction de la demande globale de l’actif à l’instant T, et de l’estimation de sa rentabilité espérée. il n’y a pas de saut juste avant l’annonce du prix. le   marché   incorpore correctement l’information et la formation du prix est juste.

Déterminer le prix d’équilibre

Le modèle de Kyle se distingue ainsi du modèle de Merton, l’une des références des modèles d’équilibre de marché qui lui fait l’hypothèse d’une symétrie d’information. Le premier considère des agents neutres vis-à-vis du risque et ayant un impact sur le marché. D’où la volonté de l’agent informé de mener ses transactions “en douceur”. Le second, au contraire, considère des agents averses au risque n’ayant aucun impact sur le prix.

L’objectif du modèle de Kyle est de déterminer comment l’information de l’agent privilégié se transmet au prix, et de définir ainsi le prix d’équilibre V.  Le  prix  V1 de l’actif à l’instant T1 est en effet connu. A partir de cette information, comment estimer le prix V au fil du temps ? le modèle montre que lorsque le  prix  V1  suit  une loi  dite  gaussienne  (dont  la distribution est donc uniquement déterminée par la moyenne et la variance), la formule est explicite et facilement calculable.

Une information plus ou moins valorisée

Le  modèle  fournit  également un éclairage sur les bénéfices apportés par l’information privée. Ces derniers peuvent ainsi être renforcés par plusieurs éléments.

Tout d’abord, le profit de l’agent informé est d’autant plus grand que le marché est liquide : autrement dit, plus le marché intègre rapidement l’information, plus celle-ci est bénéfique au trader privilégié. Son profit s’accroît également avec le bruit du marché. Plus le bruit est important, plus l’information privée sera dévoilée tardivement au marché, et plus l’agent pourra en tirer profit.

Enfin, plus la variance du prix V1 est forte, plus les valeurs probables du prix d’équilibre V sont larges. Il est alors plus difficile pour les traders non informés de faire une juste estimation de V. Le gain pour l’agent privilégié est donc plus fort.

Le  modèle de Kyle  connaît de nombreuses extensions. Il existe ainsi des formules qui intègrent plusieurs agents informés, ou un agent informé, mais ne connaissant pas exactement le  prix  V1. D’autres considèrent un prix V1 qui ne suit pas une loi gaussienne, ou encore un marché composé d’un actif risqué ainsi que d’un dérivé. Quelles que soient les variations, le modèle de Kyle constitue en tout cas une avancée dans la compréhension du rôle de l’information sur les marchés, et sur la formation du prix d’équilibre.

 

 

 

 

 

 

Lutter contre le délit d’initié grâce à la modélisation

Grâce à une information privée, un agent peut réaliser d’importants profits pour un minimum de risque. En permettant de mieux comprendre l’utilisation de cette information, la modélisation aide à lutter contre les délits d’initiés. D’après un texte de Philip Protter.

La SEC (securities and exchange commission), l’organisme fédéral américain de règlementation et de contrôle des marchés financiers, définit le délit d’initié comme “le fait d’acheter ou de vendre un titre ou une valeur en violation des obligations fiduciaires et/ou de confiance, tandis que l’on dispose d’informations confidentielles, non-publiques, concernant ladite valeur.  Le  délit  d’initié  peut aussi englober le fait de divulguer des informations confidentielles à un tiers, le fait pour le tiers de négocier des titres, objets des dites informations confidentielles, ainsi que le négoce de titres par toute personne qui détournerait de telles informations à son profit.”

Si ces contours sont clairs, le délit d’initié demeure difficile à prouver et donc à sanctionner. La modélisation mathématique pourrait-elle permettre de mieux cerner le comportement des fraudeurs, et ainsi de mieux les détecter ? Plusieurs travaux de recherche ont été menés sur ce sujet.

Pas de profit sans risque ?

Le processus de modélisation repose en effet sur la notion d’information. On peut ainsi considérer qu’une collection d’événements, appelée Ft, représente l’ensemble des informations publiques concernant le  marché  financier  et disponibles à un moment t. Un initié possède, par définition, une information privée sur un événement ne faisant pas partie de cet ensemble. Il peut s’agir, par exemple, d’un investisseur qui a connaissance de l’avancée des tests cliniques d’un nouveau médicament. Sa collection d’événements observables devient alors plus grande que la collection de référence Ft.

 

Un agent initié peut réaliser des profits sans prendre de risque, ou presque

Traditionnellement, les modèles sont construits sur la notion d’absence d’arbitrage. Autrement dit, ils considèrent qu’il est impossible de réaliser des profits sans assumer une part de risque. Le risque nul n’existe pas. Mais il arrive qu’une information privée puisse créer des opportunités d’arbitrage, ou du moins des situations très proches de l’arbitrage. En l’occurrence, si un investisseur sait à l’avance qu’une compagnie va mettre sur le marché un nouveau médicament, ses chances de réaliser une plus-value sont très fortes, et son risque faible…

Tirer    profit    d’une    information privée

L’initié peut ainsi tirer avantage de son information de plusieurs manières. Dans l’exemple présenté, la solution la plus simple est évidemment d’acheter, ou de vendre, des actions de la compagnie pharmaceutique selon les résultats du test. Mais l’information peut aussi guider l’achat de produits dérivés ou d’options. Ces dernières donnent le droit d’acheter ou de vendre un titre dans le futur à un prix fixé. Bien utilisée, une option peut ainsi générer d’importants profits pour un investissement modeste, et ce, sur une courte période.

Les  informations supplémentaires ont en effet un impact sur l’estimation du prix d’un actif. Un agent évalue les flux futurs d’un actif, via la collection d’informations disponibles. Si sa collection devient plus grande, sa perception du marché est modifiée : l’estimation du prix évolue, ainsi que l’évaluation de la probabilité d’un événement, comme la survenance d’une faillite par exemple.

Détecter une valeur hors norme

L’auteur étudie ainsi un modèle qui calcule la “juste valeur” d’un actif et ses propriétés (variance, écart- type, etc.) en prenant compte de l’information disponible, modélisée pour un agent initié par un grossissement de filtration. Il est ainsi possible d’analyser les déviations des cours par rapport à cette valeur. La filtration modélise ici l’information de l’initié et permet de montrer comment tirer profit d’une information  privilégiée. L’agent est en mesure de savoir si une option est sous ou sur évaluée. Il ajuste ses investissements en conséquence, augmentant de ce fait considérablement ses probabilités de profits. Le modèle permet également de quantifier l’avantage obtenu par l’initié grâce à son information privilégiée.

Toutefois, comprendre, via une analyse mathématique, comment certains utilisent une information privée peut aider le régulateur à détecter les délits d’initié et à poursuivre les contrevenants. En effet, en évaluant la valeur normale de l’actif, le modèle quantifie en quelque sorte un niveau d’alerte : si une transaction s’effectue à un prix trop éloigné de la valeur normale, elle peut être le fruit d’un délit d’initié.

Or, lutter contre les délits d’initié est primordial pour garantir la fluidité des transactions financières. Le marché doit apparaître comme juste. Dans le cas contraire, s’il est perçu comme défaillant ou corrompu, peu d’investisseurs accepteront de participer aux échanges. Les agents perdront confiance et la liquidité sera réduite. le rôle de l’etat est donc de garantir le bon fonctionnement du marché, en réduisant l’asymétrie d’information et en luttant contre les délits d’initié.

 

Comment pallier au manque d’information grâce au filtrage ?

Approche de la statistique moderne, le filtrage permet de résoudre de nombreuses problématiques d’information imparfaite. que ce soit dans le cadre des objets connectés, de la navigation satellite, ou du calcul de risque en finance, ses applications sont multiples. D’après un texte de Thorsten Schmidt.

Appareils connectés, GPS, systèmes de monitoring médicaux, robots mobiles, ces  technologies se créent une place dans nos quotidiens, et leur utilisation devrait être encore renforcée par la numérisation en cours. Or, tous ces objets ont un point commun. Ils fonctionnent de façon dynamique, avec une émission de signal qui évolue continuellement au cours du temps. La prédiction du signal est ainsi plus complexe et nécessite des outils mathématiques adaptés.

La  technique  du  filtrage  répond à cette problématique. Thorsten Schmidt, professeur à l’Université de Fribourg fait le point sur cette méthodologie aux multiples applications : qu’est-ce qu’un problème de filtrage ? Comment cette technique s’est-elle développée ? Quelles solutions peut- elle apporter ?

Contrairement à la statistique classique, le filtrage vise à évaluer un signal dynamique dont l’observation est perturbée par un bruit : comment calculer une estimation juste malgré une observation bruitée ? Il s’agit par exemple de définir la position d’un robot qui se déplace au cours du temps. Le robot n’est pas dans le champ de vision de son propriétaire. Il n’est donc pas directement observable. Toutefois, le propriétaire dispose des données GPS, qui correspondent ici à une observation bruitée. Le but est d’optimiser les informations fournies par le GPs afin de calculer la position du robot au cours du temps.

L’avantage principal de la méthode de Kalman est de donner une formule explicite et de faible dimension

Le filtre de Kalman

La théorie du filtrage est née dans les années 40, sous l’impulsion d’Andrey N. Kolmogorov et Norbert Wiener. Le premier a étudié la problématique en temps discret, tandis que le second l’a abordé en temps continu. Il a ensuite fallu attendre les années 60 pour connaitre de nouvelles avancées avec Rudolf E. Kalman.

L’approche de Kalman  fait  office de référence en matière de filtrage. En se basant sur les lois gaussiennes, le modèle établit une relation linéaire entre l’information et le signal. L’information correspond aux observations bruitées : prix, données, etc. L’avantage principal de cette méthode est de donner une formule explicite pour calculer le signal, simplifiant ainsi fortement le procédé.

L’une des utilisations les plus célèbres, et les plus anciennes, du filtre de Kalman remonte à la mission Apollo. Le modèle a été utilisé pour préparer le voyage de Neil Amstrong vers la lune ainsi que son retour, notamment pour déterminer à quel moment précis la fusée devait rentrer dans l’atmosphère. Il est aujourd’hui utilisé dans la plupart des outils de navigation satellite, tout comme dans les smartphones ou les jeux vidéo.

Le  filtre  de  Kalman  ne  peut  toutefois être employé que pour les cas linéaires. Certains auteurs ont ainsi étendu le cadre linéaire en utilisant des approximations au niveau local.

La méthode particulaire de filtrage

Enfin, des méthodes numériques ont été développées pour les problématiques non linéaires ne pouvant être résolues ni par le filtre de Kalman ni par ses extensions. Parmi elles, figure la méthode particulaire de filtrage. Celle-ci estime la distribution du signal via un procédé de réduction statistique, dit “discrétisation”, qui consiste à découper une série de données en un certain nombre de classes, représentées par des particules. A l’image de la méthode de Monte Carlo, cette approche repose sur la loi des grands nombres et la simulation d’expériences répétées. Dans un premier temps, les valeurs sont estimées grâce aux observations disponibles. Chaque valeur utilisée est associée à un poids de conditionnement. Puis à chaque simulation, les pondérations sont ajustées en fonction des résultats obtenus. Les particules se déplacent librement à partir de l’algorithme de dynamique du modèle; ce qui est possible dans la mesure où la position exacte de chaque particule est connue. On calcule alors la position moyenne pondérée des particules à partir de leur poids théoriques respectifs.

Un large champ d’application

Les techniques de filtrage constituent des outils précieux afin de pallier aux imperfections de l’information. Ces problématiques sont courantes, en particulier dans le domaine financier. En effet, qu’il s’agisse de calibrer un modèle, de valoriser un portefeuille d’actifs, ou de définir les stratégies de couverture, les données utilisées sont toujours incomplètes. Le filtrage permet de traiter ce type de question. Il est notamment employé pour calculer le risque de crédit. Une entreprise est en effet reconnue en faillite lorsque sa valeur fondamentale est trop basse. Mais cette information n’est évidemment pas connue des  acteurs  du  marché. Les  observations sont bruitées, puisque pas  entièrement  disponibles.  Le filtrage peut alors servir à estimer le risque de crédit à partir des différentes sources d’information disponibles. Croiser les données des rapports trimestriels, du cours des actions, ou encore du prix  des  options  permet d’évaluer la probabilité de défaut de la société.

Les modèles de filtrage ont donc un large champ d’application et fournissent des éléments de réponse à de nombreuses problématiques. Nul doute que les recherches vont se poursuivre afin d’accroitre les performances de ces méthodes et algorithmes, et de faire ainsi face à de nouveaux challenges.

 

Asymétrie d’information et assurance

Par Hansjörg Albrecher

Hansjörg Albrecher a étudié les mathématiques appliquées et l’astronomie à Graz, Limerick et Baltimore avant de recevoir son doctorat de la Technische Universität Graz en 2001. Il a ensuite enseigné à Graz, Leuven et Aarhus avant d’être nommé directeur d’équipe en mathématiques financières et directeur adjoint du Johann Radon Institute de l’Académie des Sciences de l’Autriche à Linz et professeur de mathématiques appliquées à l’assurance à la Universität Linz (JKU). En 2009, il a été nommé professeur des sciences actuarielles à HEC de l’Université de Lausanne.

Ses domaines de recherche incluent la théorie du risque, la modélisation du risque dans l’assurance et la réassurance, la modélisation des catastrophes naturelles, les mathématiques financières, la simulation stochastique, et plus généralement, les applications de la théorie des probabilités. Il a publié plus de 100 articles dans ces domaines et est co-auteur de deux ouvrages : Ruin Probabilities (deuxième édition, 2010) et Quantitative Methods for Financial Markets (2013).

Dr. Albrecher est rédacteur au sein d’Insurance: Mathematics and Economics depuis 2010, corédacteur-en-chef du European Actuarial Journal et de la revue Statistics and Risk Modeling, depuis 2011. Il siège au comité de rédaction de plusieurs autres revues scientifiques et collections d’ouvrages.

C’est la nature même de l’activité d’assurance que de disposer d’un niveau d’information limité à propos des risques à assurer et les informations supplémentaires sont toujours les bienvenues. Il en est de même pour l’activité de la réassurance. La réassurance est une opération par laquelle une société d’assurance (le “cédant”) s’assure auprès d’une autre compagnie d’assurance (le “réassureur”) pour une partie des risques qu’elle porte. Il s’agit donc là avant tout d’une activité d’assurance. Cependant, si l’assurance et la réassurance partagent des caractéristiques communes, il existe de nombreuses différences structurelles, notamment en ce qui concerne l’information sur les risques inhérents aux polices réassurées. De plus, dans la mesure où les opérations de réassurance impliquent de multiples acteurs, l’asymétrie d’information constitue un élément important à prendre en considération. La gestion du risque traite cette asymétrie de diverses manières, que je propose  de  commenter  en  fonction  du  degré  d’information disponible.

Asymétrie d’Information entre Nous et le Monde Naturel

Nous avons souvent besoin de quantifier le risque de l’assureur pour déterminer une échelle de primes équitable, pour définir des stratégies solides de gestion du risque ou pour déterminer les Solvency Capital Requirements, le niveau minimum de fonds propres exigés. Dans chacune de ces situations, les pertes potentielles constituent une issue future incertaine. Mettant de côté la question quasi-philosophique de savoir si l’incertitude (sur l’occurrence et le montant des sinistres futurs pour l’assureur) est due à une insuffisance d’information ou alors si elle est plutôt liée au caractère intrinsèquement aléatoire des issues, nous nous trouvons généralement face au workflow suivant :

INCERTITUDE > RISQUE > DONNEES > MODELES

La différence entre l’incertitude et le risque (selon la définition de l’économiste Frank Knight) est que le risque peut être quantifié, c’est-à-dire que l’on peut en principe déterminer la distribution de probabilité pour le risque en question. Après avoir déterminé quelles caractéristiques constituent les risques à quantifier, on cherche la probabilité pour que ces risques se réalisent, en partant d’observations du réel, en général de données historiques. Pour chaque risque à évaluer, le problème classique réside dans la détermination de la pertinence des données et de leur degré de perti- nence. Une difficulté supplémentaire réside dans le fait que la nature des risques peut évoluer dans le temps; et que, pour appréhender cette évolution, l’on doit pouvoir faire appel à des méthodes statistiques capables d’identifier les éléments non-stationnaires inclus dans les séries de données et à des informations réelles connexes dont on dispose (modifications des clauses contractuelles, contexte environnemental, etc.).

De longues années d’expérience nous ont appris à qualifier les différents types de risque et à tirer des relations causales entre eux. Ainsi, nous avons pu développer les modèles qui servent de base à l’évaluation de risques associés.

Bien qu’en général, les modélisateurs soient conscients des limites de la modélisation, la principale motivation derrière cette approche est la conviction qu’il est possible de quantifier précisément les risques et que toute imperfection ou lacune dans un modèle résulte de données insuffisantes ou plus généralement d’informations insuffisantes concernant la nature des risques et les relations entre eux. On pourrait dire que le développement de modèles de risque par les assureurs constitue une tentative de réduire l’asymétrie d’information en général et de l’information disponible pour nous.

Asymétrie d’Information entre Assurés et Assureur

Quand un assuré et une compagnie d’assurance concluent un contrat au terme duquel l’assuré paie une prime (basée sur un calcul déterministe) contre des sinistres spécifiés dans le contrat, il est clair que chaque partie dispose d’informations différentes ; mais, dans ce cas, l’asymétrie d’information existe des deux côtés. En principe, la compagnie d’assurance dispose de plus d’expérience des risques à assurer (modèles idoines), ce qui lui permet (en y rajoutant la mutualisation des risques) de gérer efficacement les risques à assurer bien que, pour certains produits, les assurés préféreraient plus de transparence (voir par exemple [12]).

L’assuré, quant à lui, dispose dans la plupart des secteurs de beaucoup plus d’information concernant son profil de risque que ce qu’il communique à l’assureur et il pourrait même en influencer le résultat par le biais de son comportement. Un exemple en est l’assurance maladie où il existe une asymétrie d’information intrinsèque concernant l’état de santé de l’assuré (cf. [22] et [19, 21] pour des études sur certains types d’assurance-vie). Aussi telle asymétrie peut être la conséquence de nouvelles réglementations (cf. [23]). Le secteur de l’assurance automobile a une longue pratique de réduction de l’asymétrie d’information concernant le profil de risque des assurés, via le système de bonus-malus, qui a l’avantage supplémentaire d’inciter les assurés à conduire prudemment. La tendance actuelle est de pousser le dispositif plus loin encore avec la collecte d’informations réelles sur la conduite des assurés, via des systèmes télématiques embarqués,(cf. [18, 6]). C’est une excellente illustration de comment une quantité importante de données supplémentaires peut être, et sera certainement, utilisée pour concevoir les futurs contrats d’assurance (une tendance parfois appelée Le Big Data dans l’Assurance). L’exploitation des données inclut l’analyse approfondie des écarts de comportement des assurés (cf. [16, 20]), et le développement d’applications se servant de ces informations à des fins commerciales (cf. [17]).

Asymétrie d’Information entre Assureur et Réassureur

Comme les assureurs n’aiment pas partager des données et statistiques concernant les sinistres, dans le cas de nombreux contrats de réassurance non proportionnels, l’assureur ne communique au réassureur qu’une partie des données concernées, c’est-à-dire seulement les données sur les sinistres engageant ou pouvant engager la garantie. Cette asymétrie d’information laisse le réassureur dans l’obligation de créer son modèle prédictif avec des données censurées (cf. [2]). En pratique, les réassureurs tentent de compléter les données censurées avec des données collectées à partir de portefeuilles similaires (parfois obtenues grâce à un contrat de réassurance proportionnelle couvrant des risques similaires d’une même importance). Les subtilités relatives à l’évaluation des risques et la détermination des primes de réassurance varient en fonction du type de contrat et la méthodologie choisie (méthode par expérience vs. méthode par exposition etc. [1]). Une autre source d’asymétrie d’information tient dans le fait que les sinistres passés sont souvent comptabilisés à leur valeur “d’engagement” (i.e. la valeur des indemnités réellement versées plus une estimation raisonnable des indemnités restant à verser) ; et celle-ci peut s’avérer significativement différente de la valeur finale des indemnités. Dans des secteurs d’activité où le règlement des sinistres peut prendre de nombreuses années, on comprend facilement que les réassureurs ne peuvent pas compter exclusivement sur les données concernant le montant réel final des indemnités versées mais doivent également prendre en compte la valeur (estimée) des engagements dans l’élaboration de leurs modèles. Cette situation pose de réels défis statistiques et peu de recherche théorique existe sur le sujet actuellement (cf. [2]).

Asymétrie d’Information entre Assureur et Investisseur

Des actionnaires actuels ou potentiels des sociétés d’assurance fondent leurs décisions d’investir sur les chiffres financiers et commerciaux et des indicateurs de performance mais, en général, ces chiffres ne traduisent pas l’intégralité de la structure de risque des assureurs et réassureurs. Compte tenu des Solvency Capital Requirements, une société doit tenir compte du coût de lever et conserver ce capital. Ce coût aura un impact sur nombre de décisions de stratégie et de gestion, y compris la décision de recourir à la réassurance. Le taux du coût du capital est influencé non seulement par le profil du risque mais également par la structure de l’information. Par conséquence, le taux du coût du capital est bien le résultat de l’offre et la demande sur le marché mais tient également compte de règles et directives en matière de reporting financier, telle la constitution de réserves pour pertes et pour sinistres survenus mais non encore déclarés. Pour une discussion d’un point de vue actuariel voir [5,14].

Un autre domaine de recherche qui s’intéresse activement aux aspects pratiques de l’asymétrie d’information est la titrisation des risques d’assurance, en particulier celui de catastrophes naturelles et, plus récemment, le risque de longévité. La titrisation transfère le risque d’assurance aux marchés des capitaux et constitue donc un instrument particulièrement utile lorsqu’il s’agit de risques de grande ampleur ayant de fortes corrélations où les contrats de réassurance traditionnels ne sont pas économiquement viables, compte tenu du coût monumental des capitaux. L’histoire des produits de titrisation illustre parfaitement comment l’évolution des attitudes envers l’asymétrie d’information (dans ce cas précis entre émetteur et investisseur) a modifié les produits et leur attractivité. Des déclencheurs anciens basés sur l’expérience effective de pertes des compagnies individuelles et des indices sectoriels ont évolué vers des déclencheurs paramétriques calculés en tenant compte de quantités physiques liées aux catastrophes, comme la vitesse du vent, la pression atmosphérique, etc. Alors que les déclencheurs paramétriques diminuent l’asymétrie d’information (qui, dans le cas des déclencheurs spécifiques à chaque entreprise, était significative), ils augmentent le risque de base, c’est-à-dire le risque que le déclencheur ne reflète pas l’expérience réelle de l’émetteur, ce qui réduit l’efficacité du produit pour l’émetteur. Comme on pouvait s’y attendre, l’activité de ce marché a connu une certaine volatilité dans le temps, avec une forte augmentation des volumes dans des périodes où le marché traditionnel de la réassurance ne pouvait pas faire face à ce type de demande (cf. [9, 11]). La valorisation de ces produits se situe à la frontière entre assurance et finance. C’est également un sujet de recherche très intéressant sur le plan théorique (cf. [7, 15, 4, 8] et [10, 24]).

Asymétrie d’information entre Assureurs et Concurrents

Enfin, comme dans toute activité économique, il existe une concurrence entre assureurs pour un nombre limité de clients (assurés) et il existe également une asymétrie d’information naturelle entre assureurs concurrents concernant le profil du risque, l’appréciation des conditions marché, l’approche méthodologique du risque et la détermination des primes. Parmi des approches récentes, on peut citer la détermination des primes d’assurance, via une analyse fondée sur la théorie des jeux tenant compte d’une prévision de la politique des primes des concurrents, des comportements à risque des assurés, et des contraintes réglementaires en matière de fonds propres (voir [13]), le tout dans un contexte d’informations  incomplètes.

L’objectif de ce court chapitre était de mettre en lumière plusieurs domaines de recherche dans les sciences actuarielles où l’asymétrie d’information joue, directement ou indirectement, un rôle important. Cette liste est forcément incomplète ; mais elle souligne l’importance de la modélisation d’information dans le secteur de l’assurance et de la réassurance, qui est également l’objet de très nombreux projets de recherche en cours.