Eric SÉVERIN, Professeur des Universités, IAE de Lille, Université de Lille
David VEGANZONES, Associate Professor, OMNES Education, ESCE International Business School
Même si les modèles mathématiques élaborés pour prévoir les risques sont très sophistiqués, leur efficacité reste subordonnée à la qualité des hypothèses formulées sur le comportement des variables financières et des données sur lesquelles ils se fondent.
Au début du XXe siècle, la théorie de la distribution normale a été introduite dans le monde de la finance par le mathématicien français Louis Bachelier, qui découvrit que les variations successives des cours des actifs suivaient plus ou moins la loi normale. Le vocable « normale » s’est imposé car le modèle de distribution qu’il recouvre semble gouverner un très grand nombre de phénomènes mesurables.
Les techniques de gestion du risque couramment utilisées aujourd’hui trouvent leur origine dans la distribution normale. La « value at risk » (VAR), l’un des outils les plus courants et les plus fondamentaux de mesure du risque financier, permet d’estimer la perte potentielle maximale qu’est susceptible d’encourir un portefeuille pour une probabilité fixée. Les méthodes usuelles de calcul de la VAR font appel à des techniques de prévision qui supposent que le rendement des actifs obéit à un schéma de distribution normale (Duffie et Pan, 1997). Le modèle standard n’est pas inefficace ; il produit même des résultats remarquables. Depuis 1998, les autorités de tutelle ont autorisé les banques à utiliser ces modèles pour calculer le montant des fonds propres exigés par leur activité.
Cependant, ces modèles ne sont pas parfaits. Une estimation de VAR prédit la perte potentielle qui pourra être encourue sur un portefeuille avec un niveau de certitude de 95 %. Par conséquent, même lorsque le modèle fonctionne à la perfection, dans 5 % des cas, la perte peut être plus importante. On a pu déjà observer des événements dont la probabilité était très faible voire quasi-nulle, on peut citer le krach de 1987, la crise des surprimes en 2009, etc. Les exemples ne manquent pas.
Force est de constater qu’aucun modèle n’est en mesure de prédire l’avenir de façon parfaite. S’il est un domaine où la prévision est essentielle, c’est la faillite (Altman, 1968). En effet deux types d’erreurs peuvent se produire. Les erreurs de type 1 où un organisme financer va prêter des fonds à un emprunteur (firme ou particulier) qui ne sera pas capable de rembourser. De l’autre côté du spectre, on trouve les erreurs de type 2 où un organisme financier refuse de prêter par crainte de ne pas être remboursé alors même que l’emprunteur aurait été capable de le faire. Ces deux erreurs n’engendrent pas les mêmes coûts, l’erreur de type 1 étant bien plus coûteuse que l’erreur de type 2. Cet élément peut expliquer la prudence des banques en matière de prêts.
La quasi-totalité des modèles de faillite sont construits comme suit. On détermine une fonction (une règle de décision) à un instant t et on applique cette règle en t+1 pour savoir si une firme va ou non faire faillite. Cela suppose que le modèle est stationnaire et stable. La stationnarité suppose que la relation entre les variables est stable dans le temps et que leur distribution l’est aussi. D’un côté, le lien entre la variable dépendante (généralement celle qui indique un seuil de risque ou une probabilité de défaillance) et les variables indépendantes (les ratios…) est présumé stationnaire. La stabilité d’un modèle suppose qu’il ne change pas de manière significative lorsque de nouvelles données sont ajoutées. Qu’en est-il dans la réalité ?
La stabilité des modèles de faillite
La plupart des modèles de faillite perdent une capacité non négligeable de leur capacité de généralisation lorsqu’ils sont confrontés à des données provenant de périodes différentes de celles où ils ont été estimés et validés. Leur durée de vie est limitée et leur capacité à prédire à long terme (LT) reste faible. Pour pallier cet inconvénient, des travaux comme ceux de du Jardin et Séverin (2011) utilisent des réseaux de neurones pour accroître la stabilité des modèles dans le temps. Des trajectoires de faillite sont mises en évidence. La performance du modèle se trouve amélioré tant dans la prévision à court terme (CT) (1 an) qu’à LT (3 ans). Par ailleurs, c’est l’erreur de type 1 (la plus coûteuse) qui est significativement améliorée. Cela met finalement en relief que les modèles ahistoriques souffrent de faiblesses et que la dimension temporelle permet une amélioration des outils de prédiction.
La stationnarité des modèles de faillite
Lorsqu’on s’intéresse à la faillite, l’hypothèse de stationnarité implique que les variables explicatives ne sont pas impactées par des données exogènes (un choc économique, une augmentation du prix de pétrole, le taux de chômage, etc.). Or, il n’en est rien. En effet la modification de l’environnement (expansion/récession, modification technologique, changement de politique monétaire…) impacte données et variables caractérisant les firmes. La conséquence est une instabilité des modèles. Dans un autre travail, du Jardin et Séverin (2012) mettent en évidence que la qualité d’un modèle dépend de la correspondance entre sa construction et son utilisation. Ainsi, un modèle ayant été construit sur une période économique d’expansion aura une meilleure qualité prédictive sur une période d’expansion que sur une période de récession (on retrouve ce résultat concernant les périodes de récession). Par ailleurs, c’est l’erreur de type 1, économiquement la plus coûteuse, qui bénéficie de cette stabilité.
Que conclure de tout cela ?
Ces deux exemples montrent l’importance de la recherche dans la construction d’outils de décision précis et fiables. Ils soulignent aussi que les utilisateurs de modèles de prévision se doivent de rester vigilants quant à l’utilisation des outils mis à leur disposition.
Bibliographie
Altman E. Financial Ratios, Discriminant Analysis and the Prediction of Corporate Bankruptcy. Journal of Finance, 1968, 23, 589-609.
Duffie D., Pan J. An overview of value at Risk, Working paper, 1997, 85p. du Jardin P., Séverin E. Predicting Corporate Bankruptcy Using Self-Organising map: An empirical study to Improve the Forecasting horizon of financial failure model. Decision Support System, vol 53, n°1, 2011, p. 701- 711.
du Jardin P., Séverin E. Forecasting financial failure using a Kohonen map: a comparative study to improve bankruptcy model over time. European Journal of Operational Research, vol 221, Issue 2, September, 2012, p. 378-396.
Eric SÉVERIN
Professeur des Universités, IAE de Lille, Université de Lille
David VEGANZONES
Associate Professor, OMNES Education, ESCE International Business School, Esplanade du Général de Gaulle, Paris, France