Tout le monde le sait : on ne peut pas parler du rendement d’un investissement envisager le risque qu’il nous fait prendre. Et aujourd’hui, l’investisseur averti raisonnera en termes de couple rendement/risque et non de rendement seul. Que recouvre exactement la notion de risque ? Comment peut-on l’estimer ?

La notion de risque est aussi à la base de l’ensemble des normes auxquelles sont soumis les distributeurs de produits financiers qui se voient aujourd’hui dans l’obligation de déterminer le risque admissible de leurs clients avant toute proposition d’investissement.

Que recouvre exactement cette notion de risque et comment peut-on l’estimer ? Dans la vie de tous les jours, elle est à la fois intuitive et difficile à appréhender dans toute sa complexité : il est à la fois synonyme de probabilité d’un évènement néfaste et de prise de décision malgré un danger potentiel connu d’avance.

En matière financière, il est traditionnellement associé à la notion de volatilité et à son corollaire : la possibilité de perte.

La volatilité, marqueur traditionnel du risque

La volatilité se définit comme l’écart type de la série historique sur une période déterminée. En clair, elle détermine l’amplitude de la série autour de sa valeur moyenne. Plus cette amplitude est forte et plus il existera un « risque » de perte important si on achète à un plus haut et que l’on revend à un plus bas. Ainsi un marché action qui sera soumis à de grandes variations sera-t-il considéré comme plus risqué (plus volatil) qu’un marché obligataire qui connaîtra de plus faibles variations.

L’assimilation du risque à la volatilité est rentrée dans les mœurs financières. A titre d’exemple, ce que l’on appelle graphiques rendement/risque sont en réalité des graphiques rendement/volatilité.

Mais ce calcul d’amplitude ne décrit qu’une partie du risque : si une amplitude forte implique un potentiel de perte important, elle implique aussi un potentiel de hausse tout aussi important. D’autant que l’historique n’est pas symétrique et que certains produits peuvent avoir une forte volatilité tout en maîtrisant les phases de baisse.

On peut aussi constater de grandes variations de la volatilité pour un même produit dans des phases de marché différentes ce qui n’en fait pas un indicateur absolu.

L’aversion à la perte

Le concept d’aversion à la perte a été mis sur le devant de la scène après la crise des subprimes de 2008. Il s’agit d’examiner non plus l’amplitude totale d’une série historique, mais sa capacité à résister aux baisses. En d’autres termes, on considère l’amplitude uniquement dans les périodes baissières.

Le max drawdown représente ainsi la perte maximale historique subie si l’on a eu la malchance d’acheter au plus haut et de revendre au plus bas. Cet indicateur est intéressant car il est très facilement compréhensible par l’investisseur même non averti. Un max drawdown plus faible que la moyenne des fonds comparables met en avant des fonds ayant su amortir les baisses. Ce que l’on appelle des fonds résilients.

On associe cette perte maximale à une autre donnée : le délai de recouvrement, qui correspond au temps (exprimé en jours) nécessaire au fonds pour revenir à son plus haut niveau. Une information toute aussi intéressante car elle donne une indication sur la capacité de rebond du support, une fois « l’orage » passé.

De la même manière, le Down Side Risk et le Béta baissier ne prennent en compte que les périodes baissières du fonds et calculent l’amplitude pour le premier et la sensibilité pour le second, dans ces phases défensives.

Pour chacun de ces indicateurs la philosophie reste similaire : ne plus penser amplitude mais raisonner baisse et amortissement de celle-ci.

La VAR : le risque comme probabilité

Une perte est facile à calculer en regardant le passé, mais elle est plus difficile à estimer dans le futur. Pour y parvenir, des modèles statistiques ont été développés par les mathématiciens (il existe d’ailleurs un corpus théorique important sur le sujet).

La méthode statistique la plus connue s’appelle la Value at Risk (VAR). Elle permet de calculer la perte théorique subie sur une période dans une certaine proportion de cas. On calculera par exemple la perte qui ne devrait pas être dépassée dans 95 % ou 99 % des cas sur la période déterminée.

Deux possibilités pour réaliser ce calcul :

  • On applique une formule simplifiée qui considère que les marchés sont « normaux » (c’est-à-dire que la répartition des rendements suit une loi normale) ;
  • On utilise un procédé plus précis mais beaucoup plus lourd en calculs, qui consiste à simuler plusieurs milliers de scénarios et voir comment le fonds se comporte (modèle Monte Carlo).

Ce deuxième modèle a pour avantage de tenir compte de la non-normalité constatée des marchés. Mais la lourdeur de sa mise en place la réserve aux professionnels de la gestion.

Les risques extrêmes cauchemar de l’investisseur

Le principal intérêt des modèles du type simulation Monte Carlo est de prendre en compte un phénomène qui est bien connu des investisseurs : le risque de krach.

Il s’avère que ce risque est plus important que ce qu’il devrait être si on suivait la loi normale. En clair : sa survenance est plus fréquente dans la réalité que dans le calcul théorique. Il suffit par exemple de se remémorer l’actualité depuis 2000 pour s’en rendre compte : fin de la bulle des technologiques en 2001, crise des subprimes en 2008, crise de la dette grecque en 2011... Nous avons connu trois crises boursières majeures en 10 ans ce qui est une fréquence beaucoup plus élevée que ce que décrit la théorie simplifiée.

Or, autant l’investisseur peut accepter le risque « normal » de son investissement, le considérant à juste titre comme le corollaire de la performance, autant il essayera de se prémunir face à ces risques extrêmes qui peuvent réduire à néant en quelques semaines des années d’épargne. Evidemment, il est difficile de se prémunir totalement du risque extrême, sauf à avoir une gestion tactique précise du portefeuille. Ce qui est rarement le cas dans le cadre de l’assurance-vie ou plus généralement dans les portefeuilles de fonds.

On peut néanmoins constater que même lors de la crise de 2008 au cours de laquelle les marchés action ont perdu plus de 50%, les mêmes marchés n’ont mis que 18 mois pour revenir à leur niveau d’avant la crise. Cela signifie qu’une personne ayant eu une gestion totalement passive et qui aurait gardé son portefeuille pendant 18 mois n’aurait ressenti aucun effet d’une crise boursière sans précédent. Cela introduit ainsi une notion très importante dans la gestion du risque : l’horizon temporel de l’investisseur. En la matière, la règle est simple : plus vous avez du temps devant vous plus vous pouvez prendre de risques, car plus vous aurez le temps que votre investissement rebondisse après une perte éventuelle.

L’avis du spécialiste Quantalys : le risque au centre de la réglementation

Après les déboires violents des marchés en 2008 et la méfiance généralisée envers la finance qui s’en est suivie, les régulateurs ont pris des mesures drastiques au niveau européen pour instaurer plus de transparence dans la vente de produits financiers.

En France, cela s’est traduit en 2013 par une nouvelle règlementation émanant de l’AMF, qui précise les éléments à prendre en compte pour déterminer le niveau de risque acceptable pour un investisseur, et qui interdit à l’intermédiaire financier de vendre des produits plus risqués que le profil déterminé.

Parmi les éléments retenus certains sont évidents comme l’horizon temporel de l’investissement. Mais d’autres critères sont plus complets voire intrusifs, comme la structure patrimoniale du client, sa situation personnelle, son niveau de connaissance et d’expérience en finance, sa volonté de prendre des risques ou ses objectifs financiers.

Tous ces éléments sont recueillis à travers un questionnaire devenu obligatoire et vont permettre de calculer le niveau de risque acceptable pour ce client et vérifier dans le temps que ses investissements sont conformes à ce niveau.

En savoir plus sur l'analyse de fonds avec Quantalys