Résumé

Cet article est une synthèse bibliographique qui décrit une démarche d’analyse du risque lors de l’évaluation financière et économique des projets. En premier lieu, l’article traite la notion de l’incertitude et du risque, puis l’implémentation d’un cadre d’analyse intégré du risque dans l’évaluation des projets. En second lieu, il explique l’origine et décrit le concept de la simulation de Monte Carlo et de la simulation non-paramétrique. Ensuite, il présente certains indicateurs et statistiques qui permettent d’exploiter et d’interpréter les résultats de la simulation. Enfin, il initie à l’analyse de sensibilité probabiliste qui provient de la simulation en abordant certains de ses outputs numériques et graphiques.


Mots-clés : Analyse du risque, Graphe en tornade, Simulation, Monte Carlo

NTRODUCTION

Aperçu historique

Autrefois, le hasard était perçu comme une simple donne de la nature, un dé qui définissait l’état de l’univers à chaque instant du futur rapatrié au présent, un vent qui conduisait les Hommes vers des contrées spatio-temporelles inconnues tels les navires dansant aux pas aveugles des vagues dans l’océan. A l’époque même de la renaissance, le futur était accepté comme un ensemble d’événements aléatoires échappant à tout contrôle humain.

Ce n’est qu’avec l’avènement des jeux de hasard que l’Homme a commencé à examiner la chance et le risque, et ce n’est que depuis la moitié du dix-septième siècle que des études pionnières ont commencé à apparaître, notamment avec Pascal, Fermat, Bernoulli, Gauss, Laplace et Bayes, dont les nombreux travaux mathématiques et statistiques ont permis d’appréhender actuellement le risque de manière plus élégante (Mun, 2006).

Le mot «risque» tient son origine du vocabulaire maritime, il provient de nom italien «risco» qui signifie «doubler un promontoire». De son étymologie, prendre un risque signifie affronter un danger en perspective d’obtenir un avantage, notion qui a été reprise dans les jeux de hasard avec l’expression «risque de perdre ou de gagner». Il est devenu avec Pascal, Fermat et Huyghens l’expression de la probabilité de l’événement multiplié par l’ampleur du gain ou de la perte. Au dix-huitième siècle, l’estimation du risque a conduit à développer l’assurance maritime (Tubiana, 1999).

L’aversion au risque et la peur de l’incertain ont traversé tous les siècles, alimentés en l’occurrence par les ruées, l’appât du gain, les événements et enjeux sécuritaires, alimentaires et sanitaires de chaque époque, mais rarement la sensibilité sociale et économique n’ont été aussi grandes que dans le présent. De notre époque, le risque est devenu un élément prépondérant du débat social, si bien que certains qualifient la société contemporaine de société du risque ou de précaution (idem). La méfiance du risque est devenue plus apparente que jamais et ressort pratiquement dans tous les domaines.

Sur le plan économique notamment, quoique le progrès technologique aie permis de réduire le risque physique sur les biens et services en offrant une meilleure maîtrise des processus productif, industriel et logistique des différentes filières, le développement démographique, le renchérissement du coût de la vie, l’émergence des bourses, des pratiques spéculatives, des marchés et instruments financiers, des marchés communs et libres, etc. ont grandement contribué à l’apparition d’un risque d’une toute autre nature, à l’origine de ce changement de paradigme. L’économie est devenue plus exposée au risque mais en même temps plus consciente, plus avertie et plus connaisseuse à son égard. Elle a su coexister avec le risque, caractériser et pricer les biens et services selon leurs niveaux de risque, et proposer une panoplie de produits d’assurance et de couverture sur le marché.

Il est à reconnaître que malgré l’actuelle prise de conscience, les instruments de protection offerts par le marché et les techniques de prévisions qui demeurent, hélas, limitée par les capacités humaines, lire le hasard et annuler le risque relève de l’impossible. En revanche, il est possible de mesurer l’ampleur et l’éventualité de ces risques à travers une évaluation d’impact et de proposer un active-management optimal et averse au risque apte à apporter plus de clairvoyance aux décideurs et aux investisseurs.

Risque et incertitude

Vis-à-vis des événements: Risque et incertitude sont deux notions très proches, mais fondamentalement différentes. La distinction entre les deux s’avère importante avant de procéder à la mesure de l’un et de l’autre. Prenons l’exemple de trois pays importateurs de sucre. Le pays A, possédant des capacités de stockage très importantes, fonctionne avec un stock outil équivalent à une année de consommation. Le pays B possède un stock outil équivalent à 1 mois de consommation et importe la moitié de son besoin en sucre. Le pays C également avec un stock outil d’un mois de consommation, importe quant à lui la totalité de son besoin en sucre. Suite à la perturbation du marché mondial sucrier, les cours du sucre brut vont enregistrer une fluctuation très importante. Les services chargés du suivi des cours ainsi que les opérateurs sucriers au niveau des trois pays ont exprimé le «même degré d’incertitude» sur l’évolution des cours du sucre brut. En revanche, ils ne courent «pas le même risque». Le pays A, par son stock très important, est couvert pour une année de consommation et ne se sent point menacé à moyen terme. Le pays B va subir cet aléa boursier sur la moitié de sa consommation, qu’il couvre par l’importation. Le pays C pour sa part, totalement importateur du sucre, subira cette fluctuation sur toute sa consommation. Quoique l’incertitude est la même pour les 3 pays, le risque sur chacun d’eux est différent. De cet angle-ci, l’incertitude ne traduit qu’un changement dans l’environnement, mais pas ses répercussions sur les acteurs économiques.

Le risque est un état supporté par un agent économique, et qui provient d’une incertitude. Si l’incertitude n’affecte pas l’agent économique, alors elle ne véhicule aucun risque (Mun, 2006). De ce fait, nous pouvons aussi définir le risque comme «l’impact de l’incertitude sur les objectifs» (ISO 31000).

Vis-à-vis du temps: Nous exposons à présent l’incertitude et le risque dans le temps. Supposons que le cours spot du sucre brut affiche actuellement 14,5 BRL/T (réal brésilien), et sa volatilité calculée à partir des données spot historiques est de 18,1%. Nous supposons que les conditions du marché resteront telles, que la volatilité moyenne sera maintenue à 18,1% pour les 5 prochaines années. Cela dit, le risque associé à ce produit est constant dans le temps, mais l’incertitude est grandissante. Nous pouvons prévoir que la cotation de demain sera comprise entre 14 et 15 BRL/T, mais pour les dates plus lointaines, l’intervalle d’incertitude s’agrandira de plus en plus. Il sera de [13,5; 15,5] BRL/T pour une projection d’un mois, [12; 17] BRL/T pour une projection d’une année, [10; 22] BRL/T pour une projection de 5 ans, etc. En se positionnant à la date t, la projection du risque dans le futur peut être uniforme, mais l’incertitude va s’accroître, car la distance entre le temps présent et futur sera de plus en plus grande, ce qu’on désigne par la notion de «cône de l’incertitude». A l’inverse, au fur que temps passe, l’incertitude se dissipe ou se réduit, car la distance entre le présent et le futur se rétracte, et la visibilité s’améliore, mais le risque porté par la variable demeure le même.

L’incertitude sur une variable se dissipe progressivement avec le temps, tandis que le risque en tant qu’attribue de cette variable subsiste, et celle-ci est toujours qualifiée de «variable risquée». Par ailleurs, le risque peut rester constant sur un horizon temporel donné, alors que l’incertitude est croissante à travers le temps (Mun, 2006).

Au niveau de l’analyse: Lorsque le risque et l’incertitude sont employés pour décrire les variables d’un projet ou le projet en lui-même, on dit que la valeur de cette variable ou de ce projet est «incertaine» par référence au large éventail de situations qui peuvent se réaliser. La notion d’incertitude se contente de désigner les différentes situations possibles dans l’absolu, mais elle ne fournit aucun renseignement sur leur probabilité d’occurrence. Il s’agit donc d’un renvoi à l’impact, mais non à l’éventualité. A titre d’exemple, si un scénario pessimiste est évoqué dans l’analyse, il serait judicieux qu’il soit précisé que celui-ci « ne se produit que très rarement», ou qu’il «se produit très souvent». Ainsi, la pondération des différentes situations incertaines par des fréquences espérées nous permet de basculer de l’incertitude absolue vers la notion de risque. On dit ainsi que tel scénario est très risqué ou peu risqué, pour éclairer le décideur sur les différentes issues du projet de façon plus réaliste.

En analyse de projet, l’analyse de l’incertitude renvoie à une visualisation des impacts des situations incertaines, sans les lier à leurs probabilités d’occurrence. La pondération de ces situations incertaines par des fréquences espérées nous permet de basculer de l’incertitude absolue vers le risque.

MATÉRIEL ET MÉTHODES

Cadre d’analyse intégrée du risque

Avant d’entamer les différentes méthodes d’analyse du risque, il est important de situer l’ensemble de ces techniques dans un cadre global qui relate comment celles-ci s’enchaînent dans un processus intégré d’analyse et de management du risque. Johnathan Mun (2005, 2006) a décrit le processus d’analyse du risque en 8 étapes qui sont les suivantes:

• Contrôle de gestion qualitatif: le management de l’entité (publique ou privée) commence par désigner les stratégies, les projets et les initiatives qui méritent de faire l’objet d’une analyse du risque, en accord avec ses objectifs propres, ses missions, ses moyens, sa vision stratégique et son environnement.

• Projections futures par régression et/ou séries chronologiques: Les valeurs futures des variables sont estimées par régression multivariée ou par projection d’une série chronologique si les données sont disponibles. Autrement, il est possible de recourir aux avis d’experts, la méthode Delphi, des hypothèses de travail, etc.).

• Analyse basique des cash-flows: un modèle d’analyse des cash-flows est établi pour le(s) projet(s) étudié(s) sur la base des projections des variables d’entrée du modèle, telles qu’établies lors de l’étape précédente. Les résultats obtenus sous forme d’une estimation à point unique représentent la situation la plus vraisemblable selon l’analyste.

• Analyse de sensibilité et simulation de Monte Carlo: Étant donné que l’analyse basique (ou déterministe) des cash-flows fournit une estimation unique, représentant une combinaison bien précise de valeurs reconnues incertaines, il y a des chances importantes que la réalisation du projet aboutisse à un résultat différent. Pour tenir compte de tous les cas de figures qui peuvent se produire, la simulation de Monte Carlo fournit tous les résultats possibles en «spectre continu», ainsi que leurs probabilités d’occurrence. Le résultat attendu du projet n’est donc plus présenté comme une valeur, mais comme une distribution continue de plusieurs valeurs probabilisées.

Le plus souvent, une analyse de sensibilité précède la simulation de Monte Carlo. Elle consiste à stresser les différentes variables d’entrée du modèle et d’en constater les effets sur les indicateurs de performance du projet. Les variables qui se révèlent très influentes à l’égard du projet sont dites «variables de succès» ou «variables critiques» et sont les premières à être intégrée dans la simulation de Monte Carlo.

• Identification et caractérisation des options réelles: La description des résultats et du risque du projet lors des étapes précédentes nécessite d’être convertie en une intelligence actionnable. Au début du projet et aussi pendant sa conduite, le manager devrait s’appuyer sur les forces et les opportunités propres du projet pour augmenter son profit d’une part, et couvrir ou réduire son risque d’autre part. Chaque projet, par ses caractéristiques notamment techniques, commerciales, financières et gouvernantielles, est en réalité unique et différent des autres projets. Il peut renfermer des optionalités qui n’apparaissent pas dans la simulation de Monte Carlo, mais que l’analyste aurait identifiés durant le contrôle de gestion qualitatif qu’il aura effectué au préalable. Il en apparaîtrait que le projet présente en l’occurrence une bonne opportunité d’expansion si le cas est favorable, de sortie ou de report si le cas est défavorable, d’échange, de changement d’échelle et cetera. Dès que l’analyste détecte une flexibilité particulière dans le projet qui permettrait de couvrir les risques révélés par la simulation de Monte Carlo, il devrait alors la soumettre à une analyse.

• Analyse et modélisation des options réelles: méthodologiquement, l’analyse par les options réelles est extraite de l’analyse des options financières. Les variables conventionnelles d’une analyse d’options financières sont remplacées par des variables analogues relatives au projet. Ainsi, la variable sous-jacente devient la rentabilité du projet, et la volatilité de l’actif devient la volatilité espérée du projet provenant de la simulation de Monte Carlo. Usuellement, la volatilité est mesurée par l’écart-type des incréments logarithmiques. La valeur obtenue reflète la valeur d’option stratégique du projet.

• Optimisation du portefeuille et des ressources: l’optimisation du portefeuille projets est une étape optionnelle de l’analyse. Elle consiste à définir un optimum rentabilité/risque pour l’ensemble des projets de l’entreprise. Son applicabilité dans le domaine de l’investissement agricole semble toutefois limitée à des cas particuliers.

• Reporting et mise à jour de l’analyse: L’analyse du projet est conclue par l’élaboration d’un rapport claire et concis, qui présente les hypothèses, les origines des données, le processus méthodologique, les résultats et leurs interprétations.

L’analyse du risque suppose que le futur est incertain et que le manager peut recourir à des corrections de mi-parcours, à mesure que les incertitudes sont levées et que certains risques deviennent connus, ce qui permettra de les inclure dans la mise à jour de l’analyse. Pour les projets à long terme, cette mise à jour peut être récurrente.

Risque et rentabilité

Dans les théories économiques et financières aussi bien que dans la pensée collective, le risque est considéré comme inhérent à l’acte d’entreprendre. Il est la justification même de la rémunération de l’entrepreneur, et la théorie financière a défini le rendement d’un investissement comme étant la somme de deux facteurs: le rendement de base sans risque et la prime de risque (Louisot, 2015), ce qui implique que la prise d’un risque donné nécessite une rémunération équivalente.

Les travaux d’Harry Markowitz (prix Nobel de 1990) sur la nature du risque et de la rentabilité ont révolutionné la manière de considérer ces deux éléments. Il y explique que rentabilité et risque sont deux variables corrélées. La recherche d’une rentabilité élevée ne peut se faire qu’avec une prise de risque supplémentaire. A l’inverse, la prise d’un risque important n’aura de consentement qu’en échange d’un rendement plus élevé, car les investisseurs ont de l’aversion envers le risque.

En considérant le rendement et le risque simultanément, Markowitz explique comment l’investisseur rationnel ne se borne pas à maximiser le rendement espéré tout en ignorant le risque, mais il choisit l’investissement (ou le portefeuille d’investissements) qui a le couple rendement/risque le plus optimal selon lui. Les différents investissements (ou portefeuille investissements) peuvent être représentés dans un graphique rendement/risque. Pour chaque rendement, il existe un portefeuille qui minimise le risque. À l’inverse, pour chaque niveau de risque, il existe un portefeuille qui maximise le rendement attendu. L’ensemble de ces portefeuilles est appelé frontière d’efficience de Markowitz. Les couples rendement/risque représentés sur la frontière représentent les investissements ou les portefeuilles d’investissements optimaux, alors que les couples rendement/risque dans la surface à droite de la frontière représentent des combinaisons non optimales qui, pour un risque donné, n’ont pas un rendement suffisant, ou qui, pour un rendement donné, ont un risque plus important (Figure 1).

SIMULATION DE MONTE CARLO 

Plusieurs analyses permettent d’apprécier l’incertitude. Il s’agit en l’occurrence, et nous citons à titre non-exhaustif, l’analyse de sensibilité, l’analyse de scénario et l’analyse du seuil de rentabilité. Toutefois, nous n’allons pas traiter ces méthodes-là dans cet article, mais nous ciblerons directement une méthode d’analyse du risque qui est la simulation de Monte Carlo.

Introduction à la simulation de Monte Carlo

La simulation de Monte Carlo, dont l’appellation fait référence à un quartier de Monaco célèbre pour ses jeux de hasard, est un outil d’analyse numérique qui s’est révélé puissant et pratique. Son concept est assez comparable à une simulation d’un jeu de roulette. En exécutant plusieurs lancers de billes, le joueur va générer une multitude d’événements de hasard, puis constatera les différents sorts réservés par la roulette en notant la fréquence de chacune. La simulation de Monte Carlo consiste ainsi à créer plusieurs futurs artificiels en exécutant des centaines voire des milliers de scénarios générés de manière supposée aléatoire. Plus le nombre de scénarios simulés (ou d’itérations) est important, plus l’image du futur se précise et les probabilités des différentes réalisations se stabilisent. Avec l’essor du progrès informatique qui a rendu facile les calculs les plus longs et les itérations les plus nombreuses, les méthodes de simulation ont libéré leur potentiel et ont permis de résoudre avec aisance des problèmes complexes qui se prêtent difficilement à la modélisation.

Le physicien Enrico Fermi est l’un des pionniers de la simulation numérique. Dans les années 1930, et notamment lors de la conception de la bombe atomique, il développa des techniques d’échantillonnage statistique pour prédire le résultat de ses expériences sur les neutrons. Le but du procédé était de simuler des transports aléatoires de neutrons et d’observer la fréquence de chaque collision, diffusion ou fission nucléaires, déclenchant à son tour une cascade de réactions sur les neutrons impactés. Cette recherche était limitée malencontreusement par les calculs longs et répétitifs qui étaient requis pour modéliser la réaction en chaîne et la simuler plusieurs centaines de fois. Plus tard, en 1946, le mathématicien Stanislaw Ulam vit l’opportunité d’utiliser le premier ordinateur électronique surnommé ENIAC pour rendre ces méthodes d’échantillonnage et ces calculs plus pratiques. Il proposa l’idée à John Von Neumann qui utilisa l’ENIAC pour implémenter la méthode de Monte Carlo. Apprenant la percée d’Ulam, Fermi conçu un ordinateur analogique sous le nom de «chariot de Monte Carlo» rebaptisé plus tard FERMIAC (Metropolis, 1987). En 1950, la simulation de Monte Carlo a été utilisée dans des travaux se rapportant au développement de la bombe à hydrogène, ce qui l’a rendue populaire dans les domaines de la physique et de la recherche opérationnelle. Actuellement, la simulation de Monte Carlo est utilisée dans différents domaines notamment la R&D, la génétique, la finance et l’économie.

Qu’est la simulation de Monte Carlo ?

Dans sa forme la plus simple, la simulation de Monte Carlo est un générateur de nombres aléatoires qui reproduit les aléas de la réalité plusieurs fois. La méthode consiste à prélever aléatoirement une valeur pour chaque variable, en tenant compte de sa distribution de probabilités, et d’obtenir ainsi une combinaison donnant lieu à un résultat particulier. En simulant ce processus des centaines ou des milliers de fois, nous obtenons une gamme de résultats avec leurs fréquences espérées (Figure 3).

La simulation constitue une alternative aux modèles mathématiques complexes. Elle permet de reconstituer la forme des modèles de manière empirique, tel le traçage d’une courbe en simulant plusieurs points qui lui appartiennent. Plus le nombre de points dessinés est important, plus la forme de la courbe tend vers la perfection du modèle. Dans plusieurs cas d’étude, le modèle mathématique n’existe pas ou alors il est très complexe à définir, et la simulation se présente dans ces cas-là comme étant le seul recours possible.

Application à l’analyse des projets

L’analyse déterministe des cash-flows (ou analyse coûts-bénéfices) fournit un résultat unique, le plus vraisemblable selon l’analyste, à partir d’une combinaison de valeurs qui sont toutefois incertaines (Figure 2). La large gamme de valeurs que peuvent prendre les variables du projet et leurs croisements fait qu’il y a d’importantes chances que la réalisation du projet s’achève sur un résultat différent. La possibilité d’obtenir le résultat délibéré par l’analyste, ou du moins, un résultat très voisin à celui-ci ne fait donc pas l’exclusivité. Quid des autres résultats probables qui représentent 60%, 50%, 40%, 30%, 20% de chances de la distribution de probabilité du projet et qui ne figurent pas dans l’analyse déterministe ?

Pour tenir compte de tous les cas de figures qui peuvent se produire, la simulation de Monte Carlo considère, pour sa part, tous les résultats possibles en « spectre continu », avec leurs fréquences espérées. Il s’agit en quelque sorte d’une représentation de tous les mondes parallèles du projet étudié. Le résultat attendu du projet n’est donc plus présenté comme une valeur (Figure 2), mais comme une distribution continue de plusieurs valeurs probabilisées. Comme il est explicité par la figure 3, en combinant tous les cas possibles des variables d’entrée on obtient une distribution de l’output final (VAN, TRI, etc.), qui renseigne sur la probabilité de chaque résultat.

Dans l’exemple présenté, le graphique généré par la simulation de Monte Carlo (Figure 4) montre que sur la base des distributions de probabilités des variables d’entrée, il y a 73% de chances que le projet soit viable, et 43% de chances que sa VAN soit supérieure à 100 000$.

La simulation de Monte Carlo est une simulation paramétrique. Elle utilise des modèles de distributions de probabilités (Figure 3), dont les paramètres (espérance, écart-type, aplatissement …) doivent être déterminés pour le démarrage de la simulation. Une alternative à la simulation paramétrique est la simulation non-paramétrique, qui se base quant-à-elle, non pas sur des modèles prédéfinis géométriquement, mais sur les données historiques des variables pour reconstituer leurs profils de fréquences. Aucun paramètre de distribution n’est requis dans la simulation non-paramétrique.

Simulation non-paramétrique

La simulation non-paramétrique est une alternative à la simulation paramétrique. Elle se base sur les données historiques des variables pour établir leurs distributions. Il est possible de l’utiliser en analyse de projet mais le plus souvent de manière partielle, en faisant une simulation mixte où l’on utilise des modèles distributions pour certaines variables, et les fréquences historiques pour les autres variables.

Chaque type de simulation présente des avantages et des limites. La simulation non-paramétrique est utilisée lorsque les probabilités sont bien renseignées à travers les données historiques, et que la distribution obtenue ne semble pas converger vers un modèle particulier qui constituerait la loi ou le profil utopique de la variable considérée.

La simulation paramétrique force quand-à-elle la variable à suivre une loi de distribution, ce qui est le plus souvent désiré. Elle a aussi l’avantage de ne pas nécessiter un traitement de données pour écarter les valeurs aberrantes contrairement à la simulation non-paramétrique. Mais elle se base souvent sur les données historiques pour déterminer la forme et les paramètres du modèle. Actuellement, les logiciels permettent de simuler une distribution non-paramétrique, et de l’ajuster à la distribution paramétrique qui semble la plus proche (Figure 5).

STATISTIQUES DU RISQUE

Mesure de la position centrale

Le moment de premier ordre permet de mesurer la position centrale d’une distribution. Les estimateurs conventionnels du moment de premier ordre sont la moyenne (espérance), la médiane et le mode. Les quantiles sont aussi des indicateurs de position, mais ils s’intéressent aux autres parties de la distribution plutôt que le centre. En analyse de projet, le moment de premier ordre renvoie communément à la rentabilité espérée (moyenne) ou à la rentabilité la plus probable (mode), qui sont des positions centrales au sein d’une distribution de plusieurs scénarios possibles.

Mesure de la dispersion

Le moment de second ordre mesure la dispersion d’une distribution. Les estimateurs conventionnels du moment de second ordre sont l’écart-type, la variance, l’étendue, le coefficient de variation et la volatilité parmi d’autres. En analyse de projet, les paramètres de dispersion sont des indicateurs du risque, car il s’agit de mesurer la dispersion des divers scénarios possibles. Dans le cas idéal, une dispersion nulle signifie qu’il existe un scénario unique, représentant une distribution de plusieurs réalisations superposées, et donc une absence totale du risque. A l’inverse, la présence d’une dispersion élevée signifie que les cas de figures possibles sont nombreux, éloignés, et de probabilités assez homogènes.

Parmi les estimateurs de la dispersion, l’étendue indique l’horizon des possibilités qui peuvent se réaliser, et donc le champ d’amplitude du risque (cf. Figure 13: Graphe en tornade à extrémités moyennes). Quant à l’écart-type et la volatilité, ce sont les estimateurs les plus utilisés en analyse du risque, et desquels dérivent d’autres indicateurs. Ils sont utilisés pour mesurer la variabilité moyenne dans les graphiques obtenus par la simulation de Monte Carlo. Deux variables ou deux projets peuvent en effet avoir le même moment de premier ordre (même rentabilité espérée), mais pas le même écart-type espéré (Figure 6). Le projet 2, avec l’écart-type espéré le plus élevé, sera par conséquent le plus risqué.

Figure 6: Moment de second ordre (Source: Mun, 2005)

Mesure de l’inclinaison

Le moment de troisième ordre mesure l’inclinaison de la distribution. Il est calculé par les coefficients d’asymétrie de Pearson, de Fisher, et de Yule et Kendall. Lorsque l’inclinaison est positive, la distribution est étalée vers la droite. A l’inverse, lorsque l’inclinaison est négative, la distribution est étalée vers la gauche (Figure 7). La moyenne se situe près de la borne étalée, du fait qu’elle subdivise la distribution en une partie à forte densité et une partie à valeurs éloignées. En analyse de projet, une asymétrie négative de l’output peut être préférée car elle signifie qu’il y’a un gain potentiel fréquent et limité en valeur, et une perte potentielle moins fréquente mais parfois sévère.

Si l’analyste ne tient pas compte du moment de troisième ordre et se limite à la rentabilité espérée et à la variabilité, il peut choisir par erreur un projet dont la distribution de probabilités est inclinée positivement. Par ailleurs, puisque la moyenne se situe près de la borne étalée, le projet dont l’inclinaison est positive aura paradoxalement une espérance supérieure au projet dont l’inclinaison est négative, d’où le fait que la médiane est un meilleur estimateur que la moyenne dans le cas d’une distribution inclinée.

Figure 7: Moment de troisième ordre (Source: Mun, 2005)

Mesure de l’aplatissement

Le moment de quatrième ordre mesure l’aplatissement d’une distribution. Il est calculé notamment par les coefficients d’aplatissement de Pearson et de Fisher. La figure 8 montre une distribution leptocurtique (pic plus relevée que la distribution normale). Elle se caractérise par une densité de probabilité plus épaisse au niveau des extrémités, et moins épaisse au niveau du corps majoritaire central de la distribution. En analyse de projet, cela signifie que les scénarios extrêmes (de pertes catastrophiques ou de gains extravagants) sont plus fréquents que dans la loi normale.

La distribution leptocurtique décrit un clivage. En allant du pic vers les extrémités, la pente n’est plus progressive mais elle est subite. Elle montre que les valeurs à proximité du centre sont relativement plus fréquentes, et qu’au-delà de ce périmètre central, la densité de probabilité devient subitement plus faible. Les scénarios loin du centre se voient attribuer des probabilités faibles et comparables, car ils sont considérés comme exceptionnels, ce qui fait que les scénarios extrêmes sont presque autant probables que les scénarios modérément loin du centre. A l’inverse, dans une distribution platicurtique, le transfert de probabilités depuis le pic vers les extrémités est plutôt progressif, les scénarios modérément distants du centre sont plus probables et les scénarios extrêmes sont plus rares.

Figure 8: Moment de quatrième ordre (Source: Mun, 2005)

MESURES DU RISQUE 

Probabilité d’occurrence

Cette approche est élémentaire mais pertinente. Elle consiste à calculer la probabilité d’occurrence d’une situation. En analyse de projet, il s’agit souvent de calculer la probabilité de réussir ou d’échouer. Par exemple, la figure 4 montre qu’il y a 73% de chances que le projet soit rentable. Supposons que deux projets ont le même coût d’investissement et la même rentabilité espérée. En analyse déterministe, le manager serait indécis face à ces deux projets. En analyse probabiliste, après avoir effectué la simulation de Monte Carlo, la préférence reviendra au projet A qui a 73% de chance de succès alors que le projet dénommé B a seulement 50% de chance de succès.

Écart-type et variance

L’écart-type mesure les écarts entre les points et le centre de la distribution et en donne une valeur moyenne. En analyse de projet, un écart-type ou une variance élevé(e) signifie une variabilité importante et donc un risque important. Toutefois, l’inconvénient de cet indicateur est qu’il inclue aussi bien les écarts positifs par rapport à la moyenne que les écarts négatifs. Ainsi, risque et opportunité seront mêlés dans un même indicateur.

Dans le cas d’une population: σ= √∑ni=1(xi-μ)²)/n

Dans le cas d’un échantillon: s= √((∑ni=1(xi-x̅)²/(n-1)

Semi-écart-type

Pour remédier à la limite de l’écart-type, le semi-écart-type permet de mesurer uniquement les écarts à la baisse. En analyse de projet, on calcule les écarts baissiers par rapport à la moyenne lorsqu’on veut mesurer le risque d’une réalisation inférieure à la prévision, qu’elle franchisse le seuil de non-viabilité ou pas. On peut aussi calculer les écarts baissiers par rapport au seuil de viabilité zéro pour mesurer le risque d’un échec financier ou économique du projet.

Coefficient de variation

Le coefficient de variation est le rapport de l’écart-type sur la moyenne. Conceptuellement, il consiste à diviser un écart-type absolu exprimé en valeur par la grandeur moyenne de la variable pour obtenir un écart-type relatif, exprimé en pourcentage. Le coefficient de variation est utilisé pour comparer deux variables d’échelles différentes ou d’unités différentes.

Volatilité

La volatilité est un indicateur de risque très puissant, qui est largement utilisé en l’occurrence dans le domaine de la finance et en analyse des options réelles. Elle se calcule par l’écart-type des rendements logarithmiques de la variable. Ledit rendement logarithmique ou rendement -au sens financier du terme- se calcule en faisant le logarithme du rapport entre la valeur de la date (t) et la valeur de la date antérieure (t-1). En prenant l’exemple de la variable prix, le rendement est égal au logarithme du rapport entre le prix à la date (t) et le prix à la date (t-1).

Rendement financier journalier (t): r(t) = ln (P(t))/(P(t-1))

Volatilité: σ= √(∑1n-1((r(t)-rm)²)/(n-1))

P(t): Variable à l’instant t (Exemple prix à l’instant t)

P(t-1): Variable à l’instant (t-1) (Exemple prix à l’instant (t-1))

rm: Rendement financier moyen

D’où provient cette formule? Pour l’exemple de la variable prix d’un actif donné. Normalement, le rendement d’un actif exprimé en valeur est la différence entre la valeur à la date (t) et la valeur à la date (t-1). En pourcentage, il s’écrit sous la forme suivante:

r(t) = (P(t)-P(t-1))/(P(t-1))=(P(t))/(P(t-1))-1

Lorsque r est petit:

r ≈ ln (1+r)

r ≈ ln (1+ (P(t))/(P(t-1))-1)

r ≈ ln ((P(t))/(P(t-1)))

Le développement ci-dessus montre que la forme logarithmique de la rentabilité n’est en fait qu’une simplification qui offre plusieurs avantages analytiques, à savoir que les propriétés du logarithme permettent notamment de convertir une rentabilité globale en une somme de plusieurs rentabilités journalières. Mais à l’origine, la rentabilité n’est que l’écart d’une valeur par rapport à la valeur précédente, ce qui fait que la volatilité se présente comme un écart-type d’incréments P(t)-P(t-1) qui a l’avantage de rapporter les variations à la valeur précédente, tandis que l’écart-type standard, qui rapporte les variations à la moyenne, sous-estime les variations retournant vers la moyenne et surestime les variations s’éloignant de la moyenne, dans le cas des processus temporels. En effet, la volatilité se calcul uniquement dans les processus temporels.

Value-at-Risk

Endémique du secteur de l’assurance, cette notion a été introduite sur les marchés financiers à la fin des années 1980 par Bankers Trust, puis démocratisée par la banque JP Morgan en 1993 à travers son service Risk Metrics. La VaR représente la perte maximale possible sur un actif, un portefeuille ou un projet à une probabilité donnée, sur une période donnée. Par exemple, prenons le cas d’un placement risqué d’une valeur actuelle de 1 000 000$, et dont nous avons établi la distribution de probabilité relative à son évolution quotidienne (horizon temporel choisi de 1 jour) (Figure 9). La VaR (95%) = 700 000$ signifie que dans 95% des cas qui peuvent se produire, il n’y aura pas de perte par rapport à la valeur actuelle qui soit supérieure à 700 000$. Ce décrochage maximal de 700 000$ à 95% par rapport à la valeur actuelle de 1 000 000$ correspond au premier vingtile de la distribution qui est la valeur de 300 000$. De même, la VaR (90%) = 650 000$ signifie que dans 90% des cas, la perte par rapport à la valeur actuelle n’excédera pas 650 000$. Elle correspond au premier décile de la distribution qui est la valeur de 350 000$.

Figure 9: Illustration de la Value-at-Risk (95%)

La VaR n’est autre que le quantile correspondant à la probabilité donnée, mais elle est vue de la perspective de l’écart par rapport à la valeur actuelle (ou espérée) au lieu de la valeur elle-même. Le concept de la VaR est simplement de mesurer le risque maximum de perte, en éliminant les 5% ou les 10% des cas extrêmes. A savoir que la distribution établie et la VaR calculée correspondent à un horizon temporel donné. Dans un choix d’investissement, on choisit le projet qui à la VaR la plus faible, d’autant que par ailleurs, une VaR faible signifie un moment de quatrième ordre faible, car les scénarios catastrophiques seront moins probables. Le calcul de la VaR peut se faire de manière paramétrique (en utilisant l’écart-type, le type de distribution et la probabilité choisie) ou de manière non-paramétrique en recherchant le quintile désiré directement de la série de données.

Scénario catastrophe

Cet indicateur consiste à calculer la perte maximale possible par rapport au fait de ne pas investir. Le scénario catastrophe est prélevé de la distribution de probabilité de la VAN du projet, en tronquant les 5% ou les 10% des scénarios jugés extrêmes ou aberrants. Le principe est très comparable à la VaR, avec la différence qu’il n’existe pas d’horizon temporel qui traduit une évolution chronologique de la rentabilité.

Rentabilité ajustée au risque

Le RAROC (Risk Adjusted Return On the Capital) permet de mesurer la rentabilité en y intégrant un ajustement au risque. Il s’écrit sous la forme d’un ratio de la différence entre la médiane (50e percentile) et le premier vingtile (5e percentile) sur l’écart-type. Son principe repose sur la considération du risque comme étant le degré d’éloignement entre la valeur médiane et l’extrémité de la distribution - en tronquant les 5% des scénarios extrêmes -, par rapport à la variabilité de l’output. Autrement dit, elle tente de répondre à la question: est-ce que la variabilité (l’écart-type) de l’output est plus expliquée par les petites variations très fréquentes, ou par les variations de grande ampleur ? Que représente la part des grandes variations dans la variabilité (écart-type) totale de l’output ?

RAROC = (P50-P5)/σ

ANALYSE DE SENSIBILITÉ STOCHASTIQUE

Graphe en tornade simple

Le graphe en tornade simple consiste à faire varier les inputs d’un pourcentage donné ou les simuler à des valeurs choisies (Figure 10). La longueur des barres renseigne sur l’étendue d’influence de chaque variable, cependant elle n’indique pas le sens de la corrélation. L’analyste peut choisir un pourcentage de variation uniforme à tous les inputs s’il veut juste comparer leurs degrés d’influence sur l’output, comme il peut opter pour des variations différenciées selon la volatilité de chaque input.

Figure 10: Graphe en tornade simple (réalisé avec: Top Rank, Palisade)

Connue également sous l’appellation «what-if analysis», l’objectif de cette analyse est de tester la sensibilité du résultat aux variables d’entrées dans des situations particulières, indépendamment de leurs probabilités d’occurrence, à titre exploratoire. Toutefois, ces éventualités ne sont pas forcément les plus probables. Et si on faisait varier chaque input selon son degré de volatilité propre pour refléter le risque réel? Les graphes en tornade suivants permettent d’intégrer la dimension stochastique dans le graphe en tornade pour tenir compte des probabilités des situations simulées.

Graphe en tornade à valeurs de régression

Au lieu de simuler des variations de 10%, 30% ou 50% arbitrairement, on fait varier chaque input de son écart-type espéré, puis on observe l’impact sur l’output en unités (Figure 11). L’objectif ici n’est pas de tester la sensibilité à une situation particulière mais de mesurer le risque réel d’une variable considérant à la fois sa variabilité et son influence.

Dans le graphe en tornade de la figure 11, la barre de l’input D est orientée vers la droite avec une valeur de 19 977$. Elle indique qu’une augmentation typique (ou espérée) de l’input D fait augmenter le résultat de 19 977$. Dans cet exemple, l’input D, qui est une variable de recette, est la variable la plus risquée du modèle de par son influence et sa variabilité. Sa variation à la hausse serait très favorable au projet tandis que sa variation à la baisse serait très défavorable au projet. Pour le cas de l’input B, la barre est orientée vers la gauche avec une valeur de -8000. Il s’agit d’une variable de coût qui indique qu’une augmentation typique de l’input B fait diminuer le résultat de 8000$.

Graphe en tornade à coefficients de régression

Cette analyse repose sur le même principe que la précédente. Elle consiste également à simuler des augmentations typiques en faisant varier les inputs de leurs écart-types espérés, mais l’impact sur l’output est exprimé en écart-type de l’output (Figure 12). L’objectif est de voir à quelle hauteur la variation espérée d’un input contribue-t-elle dans la variation espérée de l’output.

Dans le graphe de la figure 12, la barre de l’input D est orientée vers la droite avec une valeur de 0,80. Elle signifie qu’une variation typique (ou espérée) de l’input D fait varier l’output à 80% de sa variation espérée. De même, une variation typique de l’input A fait varier l’output à 40% de sa variation espérée.

Entre le graphe à valeurs de régression et le graphe à coefficient de régression, le classement des variables et les proportions des barres sont les mêmes. Le passage de l’un à l’autre passe seulement par un changement d’échelle, pour orienter la lecture du résultat vers la conclusion désirée. En multipliant les coefficients de régression par l’écart-type espéré de l’output, on obtient l’impact en unités.

Graphe en tornade à extrémités moyennes

Le graphe en tornade à extrémités moyennes est très ressemblant au graphe en tornade simple. La différence est que les limites de variation ne sont pas choisies arbitrairement par l’analyste pour effectuer des tests, mais elles représentent l’étendue de la distribution de la variable. Il s’agit donc d’extrémités supposées réalistes et non arbitraires. Pour le calcul, si l’analyste fragmente la distribution de la variable en 10 parties, le logiciel fait une simulation sur les 2 parties extrêmes de la distribution (les 10% inférieurs et les 10% supérieurs) pour calculer leurs moyennes, puis il simule ces 2 moyennes d’extrémités sur l’output sous forme d’un graphe en tornade (Figure 13).

A la différence du graphe en tornade à valeur de régression et du graphe à coefficient de régression, le principe ici est d’étudier, non pas les variations typiques des variables, mais leurs variations extrêmes. Le graphe à extrémités moyennes a pour objectif de montrer l’envergure du risque de chaque variable. Dans l’exemple de la figure 13, l’envergure du risque de l’input D sur l’output va de 4021 à 4679$.

RÉFÉRENCES BIBLIOGRAPHIQUES

Louisot J.P. (2015). Gestion des risques en 20 réponses, éditions Afnor.

Organisation Internationale de Normalisation (2018). ISO 31000.

Markowitz H.M. (1990). Foundation of Portfolio Theory, Nobel Lecture, December 7, 1990, Baruch College, The City University of New York, New York.

Metropolis N., Ulam S. (1949). The Monte Carlo method, Journal of the American Statistical Association, 44: 335-341.

Metropolis N. (1987). The beginning of the Monte Carlo method, Los Alamos Science Special Issue.

Mun J. (2005). Real Options Analysis: Tools and Techniques for Valuing Strategic Investments and Decisions, Second Edition, John Wiley & Sons, Hoboken, New Jersey.

Mun J. (2006). Modeling risk: Applying Monte Carlo Simulation, Real Options Analysis, Forecasting, and Optimization Techniques, John Wiley & Sons, Hoboken, New Jersey.

Tubiana M. (1999). L’éducation et la vie. Editions Odile Jacob, Septembre 1999, Paris.

Ulam S., Richtmyer R.D., Von Neumann J. (1947). Statistical methods in neutron diffusion, Los Alamos Scientific Laboratory report LAMS-551.

Ulam S. (1950). Random processes and transformations, Proceedings of the International Congress of Mathematicians 2: 264-275.

Winston W., Reilly T. (2015). Financial models using simulation and optimization. Volume 1, 4th edition, Palisade, New York.

Winston W. (2015). Financial models using simulation and optimization. Volume 2, 4th edition, Palisade, New York.