menu fermer

Quels choix de modélisation pour une gestion des risques plus efficace ?

Cahier

La Chaire d’Excellence “Management de la modélisation en assurance” a été créée en septembre 2010 et a depuis contribué à la recherche au meilleur niveau international dans le domaine de l’assurance et de la gestion des risques.

Le projet initial était basé sur le constat que la réforme Solvabilité 2 allait induire de profonds bouleversements au sein des compagnies d’assurance en termes de modélisation. Il s’appuyait sur l’idée que les décisions en matière de gestion financière, d’investissement, de réassurance, de tarification, allaient reposer de plus en plus sur l’utilisation de modèles quantitatifs sophistiqués et interdépendants. Idem pour les politiques de provisionnement, de distribution des bénéfices, pour les choix de croissance interne ou externe, et la
gestion des risques.

Ce premier projet pluridisciplinaire, associant des chercheurs d’horizons variés (économistes, actuaires, statisticiens, financiers) vient d’être renouvelé pour une période de 5 ans sous l’intitulé Data Analytics and models for Insurance et associe également des chercheurs spécialisés dans le datamining.
Il s’agira, au-delà des axes originels de la chaire, de s’intéresser au data analytics et à sa gouvernance pour la création de valeur dans les entreprises d’assurance. La chaire travaillera également sur l’interaction entre les modèles prédictifs et de simulation. L’objectif de ces recherches est de faire le lien entre la collecte de nouvelles données sur les assurés, la modélisation de leurs comportements et la prise en compte de ces comportements dans les modèles de projection.

Le présent cahier est l’occasion de présenter une synthèse des réflexions développées au cours des 5 premières années de la chaire afin d’en illustrer la diversité.
Bonne lecture !
Jean-Paul Laurent / Frédéric Planchet / Christian Robert

Bâle III parvient-il à harmoniser la mesure du risque de crédit ?

Face aux écarts constatés dans les mesures de risque de crédit, le régulateur a imposé certaines contraintes de modélisation. Ces nouvelles règles sont-elles efficaces ? Parviennent-elles à réduire la dispersion des résultats ? La réponse est nuancée…

D’après l’article “trading book and credit risk: how fundamental is the basel review?” de Jean-Paul Laurent, Michael Sestier et Stéphane Thomas, ainsi que d’un entretien avec Jean-Paul Laurent.

Dans la lignée d’une gestion plus prudente et plus sûre, l’encadrement des risques de crédit dans les activités de marché s’est renforcé au cours des dernières années. Les banques doivent désormais intégrer ce risque dans le portefeuille de négociation (dans lequel sont enregistrés les actifs détenus à des fins de transaction à court terme), et prévoir la stratégie de couverture associée. Mais les modèles utilisés pour calculer les provisions de fonds propres changent d’une banque à l’autre ; si bien que pour une exposition identique au risque, les résultats diffèrent entre les établissements.

Une forte disparité des résultats…

Le régulateur a constaté l’importance de ces écarts suite à l’envoi d’un ensemble de portefeuilles tests aux principales compagnies (documents du  comité de Bâle et de l’European Banking authority, sur la variabilité des actifs moyens pondérés). Les besoins en fonds propres qui découlaient des mesures du risque de crédit pouvaient varier de 1 à 4 pour un même portefeuille d’actifs. Une telle variabilité a poussé les autorités à réagir, encadrer les modèles de mesure de risque de crédit et rendre comparables les résultats des banques gérant des portefeuilles similaires.

Les modèles sont hypersensibles aux situations extrêmes

Bâle III prévoit ainsi certaines préconisations quant aux choix de modélisation, que ce soit pour le calcul du taux de recouvrement en cas de défaut, le niveau
de dépendance entre les évènements de défaut (niveau de corrélation), ou la probabilité de défaut. Les contraintes du régulateur sont-elles efficaces ? Permettent-elles d’obtenir une mesure du risque plus homogène entre les banques ? Les auteurs ont souhaité évaluer l’impact de ces préconisations, en particulier celles portant sur le calcul du niveau de dépendance.

Un seuil de confiance trop élevée ?

Les règles de calcul du niveau de dépendance traitent de plusieurs points. Tout d’abord, Bâle III impose l’utilisation d’un modèle de corrélation à deux facteurs.  Une contrainte qui n’en est pas vraiment une, selon les chercheurs… “Le fait d’utiliser deux facteurs ou plus pour le calcul de la corrélation change peu les résultats en termes de risque” note Jean-Paul Laurent.

Le texte fixe également le seuil de confiance de la mesure. Le risque de crédit doit ainsi être évalué avec un seuil de confiance de 99,9 % à horizon d’un an. Ce niveau, particulièrement élevé, revient à inclure le risque d’un évènement se produisant une fois par millénaire. “A un tel niveau, les résultats de calcul de risque varient beaucoup d’un modèle à l’autre, prévient Jean-Paul laurent. Les modèles sont en effet hypersensibles aux situations extrêmes. Nous avons constaté des écarts allant du simple au triple dans les résultats obtenus.” Un seuil de confiance de 99 %, à un horizon d’un an, resterait élevé puisqu’il inclurait la probabilité événements centenaires, mais présenterait l’avantage de réduire fortement la dispersion entre les différents modèles. En outre, il serait possible de compenser l’abaissement du seuil de confiance par une augmentation de la réserve de fonds propres : pour un même niveau de risque les provisions passeraient par exemple de 100 à 150. Le niveau de protection serait alors similaire, mais les mesures de risque réalisées par les banques seraient plus comparables.

Des données à harmoniser

Enfin, le dernier point réglementé concerne le type de données utilisées pour établir les corrélations. Le comité de Bâle autorise deux catégories de données : le
niveau de rentabilité des actions et le changement de spread des Credit Default  swaps (CDS : forme de dérivé de crédit). Or, pour un même scénario, les résultats changent fortement selon qu’un établissement utilise la rentabilité des actions ou les spread des CDS. Si le régulateur souhaite améliorer la comparabilité des résultats, il serait nécessaire d’harmoniser les données utilisées.

L’efficacité de la réglementation sur la mesure du risque de crédit est donc mitigée. Si les contraintes sur les facteurs de corrélation n’ont que peu de conséquences, le niveau du seuil de confiance imposé ainsi que les données autorisées expliquent en grande partie la dispersion des résultats. Un seuil de confiance légèrement plus faible et des données de nature identique favoriseraient la comparabilité des mesures.

Les auteurs vont par ailleurs poursuivre leurs travaux afin d’évaluer l’impact des probabilités de défaut et des taux de recouvrement.  Les recherches  devraient ainsi déterminer l’effet de chaque facteur sur la dispersion de la mesure du risque de crédit, permettant de mieux qualifier la qualité des modèles
utilisés par les banques.

Jean-Paul Laurent

JPL

 

Jean-Paul Laurent est professeur à l’Université Paris 1 Panthéon – Sorbonne où il anime le pôle finance du laboratoire de Sciences de Gestion. Il est également membre du Laboratoire d’excellence Régulation financière (labex Refi). Ses recherches portent sur la modélisation des risques financiers et la réglementation prudentielle.

 

 

 

Valorisation des assurances-vie : comment mesurer la volatilité ?

Les pratiques de valorisation économique s’inspirent fortement des logiques des marchés financiers, générant par là-même, des résultats très fluctuants. De tels choix de modélisation compliquent les processus de prise de décision des assureurs. Comment adapter une logique court terme à une gestion de long terme ?

 

 Les marchés financiers ont pris une importance considérable dans l’économie mondiale. L’économiste François Morin a ainsi montré, à partir des comptes de l’année 2002 de la Banque des règlements internationaux (BRI), que le montant des échanges annuels nécessaires à l’économie réelle (échanges de biens et de marchandises, échanges commerciaux) était de 40,3 teradollars, tandis que l’ensemble des transactions entre les banques s’élèvait lui à 1 150 teradollars. 

Un tel phénomène de financiarisation se répercute nécessairement sur les logiques de valorisation des activités économiques : alors qu’un actif était initialement comptabilisé à sa valeur d’acquisition, il est désormais valorisé selon le prix de vente potentiel défini par les marchés à l’instant t. Ces logiques de valorisation, conçues initialement pour calculer le prix des produits dérivés, se retrouvent aujourd’hui dans les référentiels financiers et prudentiels, notamment dans la directive Solvabilité 2. Mais, si ces choix de modélisation sont légitimes pour des activités de trading, ils s’avèrent moins adaptés aux assurances-vie dont la gestion s’opère sur plusieurs décennies… Les difficultés techniques posées par la transposition en assurance de l’idée d’absence d’arbitrage et de réplication de flux qui en découlent sont bien identifiées. 

 

Les assureurs ne peuvent baser leurs décisions sur des données extrêmement fluctuantes.

 

Les modèles s’affinent progressivement pour fournir des résultats reflétant aussi correctement que possible les conséquences en termes de valorisation des Valorisation des assurances-vie : comment mesurer la volatilité ? actions de l’assureur, notamment en termes d’attribution de participation aux bénéfices pour les contrats d’épargne. Il ne s’agit plus de discuter du bien-fondé de ces règles de valorisation mais d’en intégrer les résultats dans le processus de prise de décision. 

 

Distinguer volatilité intrinsèque et volatilité parasite.

la volatilité importante des différents indicateurs, notamment des fonds propres économiques et du ratio de couverture du capital de solvabilité requis 1 par Solvabilité 2, constitue une difficulté majeure pour les dirigeants des organismes d’assurance. Ces derniers ne peuvent pas, en effet, baser leur processus de décision sur des données extrêmement fluctuantes. Le régulateur a partiellement pris conscience de cette situation, en distinguant la volatilité qui reflète des risques portés par l’assureur, d’une volatilité “parasite” liée à des fluctuations de marché qui seront lissées sur le moyen terme. Afin d’atténuer les effets de cette dernière, deux mécanismes ont été introduits : la correction de volatilité (art. 50 du règlement délégué 2015/35) et l’ajustement égalisateur (art. 53 du même règlement). 

 

Se baser sur l’historique des prix 

 Les travaux académiques montrent également que les choix de calibrage du générateur de scénarios économiques ont un impact direct et important sur la volatilité de l’évaluation. Ainsi, la pratique la plus courante consiste à réaliser un calibrage sur la base de prix instantanés. Il est pourtant possible d’estimer les paramètres sur un historique de prix (et non sur le dernier prix connu) afin de réduire la volatilité de l’évaluation. L’objectif n’est pas de “casser le thermomètre”, mais bien de distinguer la composante informative de la volatilité du bruit. Pour prendre leurs décisions, les assureurs ont besoin d’extraire l’information pertinente des indicateurs issus du bilan économique. En d’autres termes, ils doivent lisser la valeur brute issue du calcul réglementaire. 

Il faut noter que cette situation est propre aux approches économiques, qui s’appuient sur des modèles de valorisation et non, comme les comptes sociaux, sur des valeurs réalisées pour établir le bilan. L’ORSA fournit sans doute un cadre dans lequel inscrire la recherche de ce qui, dans la variation de valeur de l’actif net, doit être attribué au résultat et ce qui relève de fluctuations de valeur non affectables au résultat.

En effet, l’ORSA implique de projeter le bilan selon différents scénarios et permet, sous réserve d’y intégrer une modélisation stochastique des facteurs de risques financiers, de mesurer ex-ante la volatilité des indicateurs à laquelle s’attendre autour d’un scénario central. Dès lors, l’analyse de la tendance et des écarts entre la volatilité exante et la volatilité mesurée expost fournit les éléments de base pour construire des mesures de performance. Ce sujet devrait donner lieu à de nombreux travaux dans les années à venir.

1. On peut observer sur ce point que la volatilité de l’exigence de capital (SCR) est beaucoup plus faible que celle des fonds propres (dans un ratio de 1 à 10).

 

BIOGRAPHIE

Capture

 

 

Frédéric Planchet est professeur de sciences actuarielles à l’ISFA et associé fondateur du cabinet d’actuariat conseil PRIM’ACT. Plus d’informations : http://www.ressources-actuarielles.net/

 

 

 

Gestion du risque : définir une zone plutôt qu’un seuil

Les mesures de risque comme la VaR ou la probabilité de ruine reposent souvent sur une approche très binaire: l’entreprise est-elle au-dessus ou en dessous de son seuil de solvabilité ? Une logique peut-être un peu restrictive…Stéphane Loisel et son co-auteur proposent une nouvelle mesure basée sur le temps moyen passé sous le seuil de solvabilité.

 

D’après l’article “Properties of a risk measure derived from the expected area in red”, de Stéphane Loisel et Julien Trufin, ainsi que d’un entretien avec Stéphane Loisel.

Les assurances sont tenues à une réglementation de plus en plus stricte quant à leur gestion des risques. Mais sait-on réellement définir une situation risquée ? Le risque peut-il se réduire à une notion de ligne rouge à ne pas franchir ou faut-il élargir cette perception ? En fonction du niveau de risque pris, les assureurs ont l’obligation de constituer un montant de capital de solvabilité requis (SCR), majoré d’un certain pourcentage. Le but est de n’entamer le SCR qu’en cas d’incident important. Cette réserve initiale est calculée selon des méthodes issues de la théorie de la ruine économique, qui se définit comme “la survenance d’un scenario défavorable, pouvant conduire à l’impossibilité, pour la compagnie, de faire face à certains de ses engagements, aussi bien envers ses assurés que ses actionnaires, voire à devoir cesser son activité pour cause d’insolvabilité”. Il s’agit alors de déterminer la réserve initiale de sorte à contrôler le risque de ruine, autrement dit le risque que les montants provisionnés soient inférieurs aux dettes.  

 

Le risque, c’est être longtemps sous le seuil de solvabilité ou être très en-dessous.

 

Sortir d’une vision binaire du risque 

“Cette approche repose sur une vision très binaire du risque, sou- Gestion du risque : définir une zone plutôt qu’un seuil. Les mesures de risque comme la VaR ou la probabilité de ruine reposent souvent sur une approche très binaire : l’entreprise est-elle au-dessus ou en dessous de son seuil de solvabilité ? Une logique peut-être un peu restrictive… Stéphane Loisel et son co-auteur proposent une nouvelle mesure basée sur le temps moyen passé sous le seuil de solvabilité. ligne Stéphane Loisel. Elle est en outre assez court-termiste puisqu’elle se place sur un horizon d’un an dans Solvabilité II, alors que les assureurs fonctionnent selon une gestion de long terme. Aussi, dans nos travaux, nous posons l’hypothèse que le risque ne se définit pas comme le fait d’être sous le seuil de solvabilité mais comme le fait d’être trop longtemps sous le seuil ou très en-dessous”. Les auteurs établissent ainsi la notion “d’aire moyenne rouge”, à savoir la surface qui représente le temps passé en-dessous du seuil de solvabilité. Etre dans l’aire rouge génère un coût pour l’assureur qui doit donc prévoir un budget de risque du groupe en vue du paiement des pénalités.

Dans ce contexte, les chercheurs s’intéressent tout d’abord à la réserve initiale minimale que son indicateur de risque “aire moyenne rouge”, établi sur un certain horizon de temps, ne dépasse pas le seuil fixé au préalable. Les propriétés de ce capital en tant que mesure de risque sont ensuite étudiées, notamment la problématique de la sous-additivité d’une telle mesure de risque.

 

 Optimiser la réserve initiale ou le budget de risque

 Le modèle proposé donne ainsi l’allocation optimale de réserve qui permet de minimiser l’aire moyenne rouge. Il prend en compte la problématique de la fongibilité du capital, à savoir la capacité de déplacer rapidement les capitaux d’une entité à l’autre. En effet, les groupes d’assurance sont généralement constitués de différentes divisions, géographiques et métiers. Or, si l’une d’entre elles fait face à un sinistre important, elle ne peut pas toujours recevoir rapidement des fonds des autres entités. Dans une seconde étape, les auteurs reformulent la problématique sous l’angle du budget de risque. Ils conçoivent une nouvelle mesure capable d’établir l’allocation optimale de budget de risque. L’assureur fixe ainsi le montant global des pénalités qu’il accepte de payer. Puis, il voit comment répartir ce budget entre les différentes entités, de sorte à respecter la limite de risque qu’il a choisie. Calculable, cette mesure valorise
les queues de distributions de façon dynamique, c’est-à-dire qu’elle inclut le coût associé à un risque ainsi que sa volatilité.

Un risque très volatil, ou un risque dont la réalisation générerait d’importants coûts financiers, est ainsi fortement pénalisé. La taille du portefeuille, et donc le niveau de mutualisation des risques, sont également pris en compte. 

 

Revoir les besoins de solvabilité 

 In fine, les chercheurs démontrent que les deux approches aboutissent au même résultat. Répartir un montant de réserve initiale est équivalent au fait de rechercher la meilleure allocation du budget de risque global : il s’agit, dans les deux cas, en absence de saturation, d’égaliser le temps moyen passé sous le seuil de risque pour les différentes branches. Si la mesure de l’aire moyenne rouge n’est pas utilisable par les assureurs en temps continu sans recourir à des proxies, car elle implique de connaître la valeur économique de la compagnie en temps réel, elle met en lumière les insuffisances des mesures utilisées : une vision très binaire du risque et un horizon trop court-termiste.

Par ailleurs, une version simplifiée de l’aire moyenne rouge pourrait être envisagée et s’intégrer dans les réflexions liées aux besoins globaux de solvabilité et à l’allocation de capital de réserve. Il s’agirait par exemple, de répartir le coût engendré par l’immobilisation du capital. Le modèle peut aider à déterminer combien doit payer chaque entité du groupe en fonction de sa contribution au risque global.

 

BIOGRAPHIE 

Capture3

 

Stéphane Loisel est professeur en actuariat et gestion des risques à l’ISFA, de l’Université Claude Bernard Lyon 1. Il est aussi membre de la Chaire BNP Paribas Cardif “Management de la modélisation en assurance”, titulaire de l’Initiative de recherche “Actuariat Durable” financé par Milliman Paris et porteur du projet ANR LoLitA (Longevity with Lifestyle Adjustments). Ses domaines de recherche principaux sont la théorie du risque, le risque de longévité, Solvabilité II et l’ERM (Enterprise Risk Management), le comportement des assurés et la compétition entre assureurs.

 

 

 

Assurance : comment détecter une rupture dans la fréquence des sinistres ou l’intensité de mortalité?

La mutualisation des risques, un principe fondamental en assurance, conduit les assureurs à estimer un risque moyen, en vue de la tarification. L’estimation de la fréquence des sinistres et de leur ampleur est donc un des outils de base de l’assurance. L‘un des enjeux est alors de détecter de manière robuste les instants de changements de “régime” (appelés aussi instants de rupture) de ces paramètres afin d’adapter rapidement les tarifs et la gestion des risques à cette évolution.

 

D’après l’article de Nicole El Karoui, Stéphane Loisel, et Yahia Salhi “Minimax Optimality in Robust Detection of a Disorder Time in Poisson Rate” et un entretien avec Yahia Salhi.

Une recrudescence des accidents, une augmentation du nombre de catastrophes naturelles sur une région, ou encore une baisse rapide de la mortalité des assurés, voici quelques-unes des raisons qui entraînent une hausse du prix de certains produits d’assurance. Un assureur structure en effet ses produits en fonction de l’estimation de la fréquence des sinistres : plus ceux-ci sont nombreux, plus la prime sera élevée. Pour calculer ce risque de sinistralité, les compagnies utilisent un processus mathématique, dit processus de Poisson.

Au vu d’une longue expérience, il est considéré que les sinistres surviennent au hasard, mais avec une certaine similarité permettant d’estimer la fréquence moyenne (intensité) des sinistres par intervalle de temps: par exemple, compte tenu de son historique l’assureur peut l’estimer à 10 sinistres par an.

Il s’agit de détecter le plus rapidement possible une rupture tout en ayant un temps moyen fixé jusqu’à la fausse alarme

De même, dans le cadre d’assurances-vie, la compagnie part, par exemple, d’une intensité de mortalité “réglementaire” (par exemple les tables TGHF05 en France) pour déterminer celle de la population de son portefeuille. Les caractéristiques de cette dernière ne sont en effet pas les mêmes que celles de la population de référence. L’assureur choisit donc un taux d’abattement pour relier les deux intensités de mortalité.

 
Signaler un changement rapidement…

Cette hypothèse sur la fréquence de la sinistralité joue un rôle primordial en assurance, à la fois dans la tarification des produits et dans la gestion des risques sous-jacents. Il est donc important d’être en mesure de bien estimer cette fréquence mais surtout de la mettre à jour dès lors que le flux des données le suggère.
Les recherches de Yahia Salhi et ses co-auteurs visent à répondre à ces problématiques. Plus précisément, l’objectif est de mettre en place une procédure de détection permettant de tirer une alarme dès lors que l’intensité change. Il s’agit de détecter une sur-sinistralité, autrement dit un passage d’une moyenne de 10 sinistres par an à une moyenne de 12 sinistres par an, ou au contraire une baisse des décès correspondant à une accélération des améliorations de longévité.

 
…tout en limitant les fausses alarmes

A cette fin, les auteurs introduisent le formalisme de la détection rapide et robuste. “La détection des ruptures dans les modèles dynamiques a suscité un intérêt grandissant, notamment en surveillance statistique, détection des signaux et en contrôle des procédés industriels, explique Yahia Salhi. Elle répond à un besoin des risk managers de mieux contrôler l’évolution de leur risque. L’objectif principal est de diagnostiquer des anomalies pouvant survenir tout au long de l’évolution du système.” On parle ici de système au sens large. La surveillance consiste à détecter d’éventuelles anomalies d’une façon séquentielle.

La détection rapide répond à une double problématique : déclencher l’alarme le plus tôt possible afin de permettre au superviseur de prendre des décisions adéquates dans les plus brefs délais; tout en limitant les fausses alarmes, à savoir le déclenchement d’une alarme alors qu’aucun changement n’a eu lieu. Cette problématique est abordée par la formulation minimax qui mêle les notions de temps moyen jusqu’à la fausse alarme et le retard de détection. La qualité d’une procédure de détection sous ces deux approches est alors appréciée sur sa capacité à détecter le plus rapidement possible une rupture tout en ayant un temps moyen fixé jusqu’à la fausse alarme. En prenant en compte ces deux mesures, l’approche minimax est formulée moyennant un problème d’arrêt optimal.

 
Des applications financières comme industrielles

Dans leurs travaux, les auteurs démontrent l’optimalité de la méthode dite de CUSUM pour la détection d’un changement dans l’intensité d’un processus de Poisson. La méthode était déjà utilisée mais l’optimalité n’avait pas été prouvée jusqu’ici.
Cette méthode de détection rapide trouve de multiples applications, en particulier dans le secteur assurantiel. Qu’il s’agisse d’assurance-vie ou non vie, elle signale une rupture d’intensité de sinistre au sein du portefeuille. Les compagnies sont ainsi en mesure de mieux gérer leurs risques, en ajustant leur prix, et en mettant rapidement à jour leurs hypothèses de travail, sans pour autant sur réagir à une fausse alarme.

Au-delà du secteur financier, la méthode CUSUM a également des applications industrielles, que ce soit pour détecter une perturbation sur un réseau ou une intrusion dans une zone aérienne par exemple.

 

BIOGRAPHIE

yahia-salhi-recadreYahia Salhi est maître de conférence associé à l’ISFA, de l’université de Lyon et chercheur associé à la chaire BNP Paribas Assurance “Management de la modélisation en assurance”. Il est titulaire d’un doctorat en mathématiques appliquées de l’Université de Lyon et d’un master spécialisé en sciences actuarielles et financières. Yahia est également ingénieur civil des Mines. Ses intérêts de recherche portent sur les mathématiques appliquées à l’actuariat, les risques de longévité et de mortalité, la dépréciation des actifs sous les normes IFRS, au comportement des clients dans le domaine de l’assurance ainsi qu’au risque de modèles.

 

Normes IFRS : Comment définir les paramètres de dépréciation optimaux ?

Les règles d’enregistrement des dépréciations de titres financiers laissent une libre part à l’interprétation. En particulier, les pratiques sont très différentes d’un groupe d’assurance à l’autre. Comment ces choix impactent-ils les résultats de la compagnie ? Comment déterminer les paramètres les plus adaptés à sa stratégie ?

 

D’après l’article “Some characteristics of an equity security next-year impairment, Review of Quantitative Finance and Accounting” de Julien Azzaz, Stéphane Loisel et Pierre Thérond, ainsi que d’un entretien avec Pierre Thérond.

Depuis 2005, les normes comptables IFRS régissent la communication financière des entreprises cotées en Europe. Elles codifient notamment l’enregistrement des plus-values ou moins-values latentes des actions “disponibles à la vente”, regroupées dans la catégorie AFS (Available for sale).

Pour cette catégorie de titres, les plus-values latentes (différence entre la juste valeur à l’année N et la valeur d’achat) sont comptabilisées dans les fonds propres, sans impact sur le résultat. Toutefois, lorsque cette différence est négative et fait apparaître des moins-values latentes, elle doit, sous certaines conditions, être matérialisée en perte dans le compte de résultat.

Selon, les normes IFRS, une perte latente doit être inscrite en résultat si la baisse de la juste valeur par rapport à la valeur d’acquisition est “significative”, ou si cette baisse est “prolongée”. Ces deux critères, assez imprécis, laissent une marge de manœuvre importante aux entreprises quant aux paramètres d’application de ces règles. Or, selon les paramètres fixés, le résultat comptable diffère. La définition de ces critères est d’autant plus essentielle pour les sociétés que les dépréciations ne peuvent être reprises. Ainsi, lorsqu’une dépréciation est enregistrée en année N aux résultats, elle ne pourra pas être compensée l’année suivante par une plus-value latente puisque celle-ci s’inscrira en fonds propres.

 

Des pratiques disparates

Face à ce contexte réglementaire, comment les compagnies d’assurance interprètent-elles et appliquent- elles ces normes? Quels paramètres fixent-elles pour définir une baisse “significative” et une baisse “prolongée” ? Quel est l’impact de ces critères sur les dépréciations enregistrées ? Le papier fournit quelques éléments de réponse afin d’analyser la mise en œuvre de la réglementation et les conséquences sur le compte de résultat.

Dans un premier temps, les auteurs ont observé les pratiques des assureurs et constaté de fortes disparités entre elles. Les paramètres utilisés pour définir une baisse significative ou prolongée sont en effet très variables d’une compagnie à l’autre. Pour Axa ou Allianz, par exemple, une baisse significative est égale ou supérieure à 20 %, tandis que, pour Generali ou CNP, il s’agit d’une baisse d’au minimum 50 %. De même, une baisse prolongée s’enclenche dès 6 mois chez Axa alors qu’elle ne s’applique qu’à partir de 36 mois chez Generali.

Les paramètres utilisés sont très variables d’une compagnie d’assurance à l’autre

Les critères utilisés ont évidemment un impact sur les pratiques de dépréciation. Plus les paramètres sont bas, plus les dépréciations sont fréquentes mais de faible ampleur. Au contraire, si les paramètres sont élevés, elles sont plus rares mais plus fortes.
Pierre Thérond et ses co-auteurs ont développé une formule mathématique permettant de décrire l’impact du niveau des paramètres sur les dépréciations. En fonction des critères retenus, il est ainsi possible de calculer le montant attendu des dépréciations sur l’année et de connaître la distribution de ces dernières.

 

Gérer au mieux les dépréciations

Une telle méthode peut faciliter la gestion quotidienne des assureurs en permettant aux directeurs financiers de mieux anticiper les dépréciations et d’actualiser les provisions au jour le jour. Mais elle s’insère également, en amont, dans la définition de la stratégie de la compagnie. Il s’agit alors, pour les assureurs, de s’appuyer sur cet outil d’aide à la décision pour choisir les critères de dépréciation les plus adaptés à leurs caractéristiques.

L’arbitrage est particulièrement difficile à trouver puisqu’il n’existe pas de paramètres optimaux uniques. Ces derniers doivent tenir compte des spécificités de l’entreprise, qu’il s’agisse de son activité, de ses besoins en liquidité, des objectifs fixés par ses actionnaires, ou encore du type de gestion de titres utilisé (dynamique ou non).

Ces premiers résultats ouvrent la voie à un outil plus complexe. Les auteurs poursuivent actuellement leurs travaux afin d’élaborer une formule intégrant un objectif visé par l’entreprise. Celle-ci serait alors capable de définir les paramètres optimaux selon les caractéristiques de la compagnie et le but fixé par les actionnaires, comme par exemple avoir un résultat relativement stable dans le temps. Les dépréciations doivent dans ce cas être régulières mais de faible ampleur.

Enfin, au-delà des applications opérationnelles, ce travail met en avant l’utilité des mathématiques financières dans la résolution des problématiques comptables. “Peu de recherches ont été menées sur ce sujet car il croise deux disciplines que sont la comptabilité financière et le calcul stochastique” explique Pierre Thérond. Les modèles mathématiques sont pourtant de plus en plus présents dans les référentiels comptables, renforçant la nécessité de ce type de recherche.

 

BIOGRAPHIE

TherondPierrePierre Thérond est docteur en sciences de gestion (Université Lyon 1) et actuaire diplômé de l’ISFA. Il est actuellement associé du Cabinet d’actuariat conseil Galea & Associés et professeur associé à l’ISFA, Université Lyon 1. Il intervient sur les problématiques associées à la mise en oeuvre de Solvabilité 2 et des normes IFRS, ainsi que sur des sujets de modélisation et de gestion des risques.