Pierre-Charles Pradier
La notion de risque en économie
ISBN 2-7071-3908-4 Le logo qui figure au dos de la couverture ...
81 downloads
1401 Views
996KB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Pierre-Charles Pradier
La notion de risque en économie
ISBN 2-7071-3908-4 Le logo qui figure au dos de la couverture de ce livre mérite une explication. Son objet est d’alerter le lecteur sur la menace que représente pour l’avenir de l’écrit, tout particulièrement dans le domaine des sciences humaines et sociales, le développement massif du photocopillage. Le code de la propriété intellectuelle du 1er juillet 1992 interdit en effet expressément la photocopie à usage collectif sans autorisation des ayants droit. Or, cette pratique s’est généralisée dans les établissements d’enseignement supérieur, provoquant une baisse brutale des achats de livres, au point que la possibilité même pour les auteurs de créer des œuvres nouvelles et de les faire éditer correctement est aujourd’hui menacée. Nous rappelons donc qu’en application des articles L. 122-10 à L. 122-12 du Code de la propriété intellectuelle, toute reproduction à usage collectif par photocopie, intégralement ou partiellement, du présent ouvrage est interdite sans autorisation du Centre français d’exploitation du droit de copie (CFC, 20, rue des Grands-Augustins, 75006 Paris). Toute autre forme de reproduction, intégrale ou partielle, est également interdite sans autorisation de l’éditeur.
S
i vous désirez être tenu régulièrement informé de nos parutions, il vous suffit d’envoyer vos nom et adresse aux Éditions La Découverte, 9 bis, rue Abel-Hovelacque, 75013 Paris. Vous recevrez gratuitement notre bulletin trimestriel À la Découverte. Vous pouvez également retrouver l’ensemble de notre catalogue et nous contacter sur notre site www.editionsladecouverte.fr.
© Éditions La Découverte, Paris, 2006. Dépôt légal : avril 2006
Introduction
D
ans la mesure où le futur est incertain, les décisions économiques qui engagent l’avenir, par exemple l’investissement, sont soumises à des risques d’autant plus difficiles à évaluer que leur échéance est lointaine. Schumpeter a mis en avant le rôle de l’entrepreneur et les risques qu’il prenait en innovant ; Knight a insisté sur l’incertitude liée aux décisions de production ; Keynes a placé au cœur de son analyse les conséquences de l’incertitude sur les comportements des agents économiques, etc. L’époque contemporaine est plus préoccupée des risques liés à la finance ou aux retombées indésirables des activités industrielles, en particulier sur l’environnement ou la santé des consommateurs. Même l’inaction fait courir des risques : celui d’être dépassé par les concurrents, de voir la valeur des actifs qu’on détient s’éroder, puisque la monnaie même est soumise à l’inflation. En bref, le risque est partout dans l’économie. La théorie économique telle qu’elle s’est développée depuis la dernière guerre s’intéresse surtout aux risques liés à la production ou à la détention d’actifs financiers : pour les économistes néoclassiques, qui pensent que le capital produit de la valeur, ce sont les risques courus par le propriétaire du capital qui justifient sa rémunération. Le formalisme des modèles économiques est emprunté aux jeux de hasard (chapitre II). On oppose ainsi les décisions contre la nature, où interviennent les probabilités, aux jeux d’interaction dont s’occupe la théorie des jeux (dans ce cas, l’issue du jeu dépend de la décision conjointe de plusieurs acteurs, il n’est pas possible de considérer les décisions des autres comme un pur hasard, puisqu’elles obéissent à une rationalité). Nous verrons que la théorie économique, certes élégante, est doublement décevante : elle échoue à définir objectivement le risque et elle ne rend pas compte de sa prégnance dans la réalité,
4
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
Quelques rappels utiles Actualisation L’actualisation est un procédé de calcul par lequel on rapporte les sommes futures à des valeurs présentes ou actuelles (d’où le nom). Pour comprendre l’actualisation, on part souvent de l’opération inverse ou capitalisation, processus correspondant à l’idée commune selon laquelle l’argent (déposé, par exemple, sur un livret de caisse d’épargne), « fait des petits ». 100 i au 01/01/2006 placés à 2 % deviennent 100 × (1 + 2 %) = 100 × 1,02 = 102 i au 01/01/2007, puis 1,02 × 102 = 104 i 04 centimes au 01/01/2008, 1,02 × 104,04 = 106 i et 12,08 centimes au 01/01/2009, etc. Après n années, les 100 i seront devenus 1,02n × 100 i. Réciproquement, on peut donc affirmer que 102 i au 01/01/2007 valent 100 i au 01/01/2006, tout comme 104,04 i au 01/01/2008, etc. Bref, une somme quelconque à valoir n années après le 1er janvier doit être divisée par 1,02n pour être actualisée. Vocabulaire des probabilités Variable aléatoire est le terme technique pour désigner un phénomène dont le résultat n’est pas forcément connu (on parle par habitude de variables aléatoires certaines pour indiquer l’absence d’incertitude sur le résultat). En langage courant, on parle de perspective (aléatoire) ou de loterie, qui donne des résultats (on dit aussi issues ou paiements). Chaque résultat caractérise un état de la nature. Par exemple, le résultat du lancer d’un dé à six faces est une variable aléatoire dont les réalisations peuvent être 1, 2, 3, 4, 5 ou 6. Si le dé est régulier, chaque état du monde a une probabilité d’1/6 = 0,166… La probabilité peut être considérée de trois manières. Pour un fréquentiste, elle indique la fréquence limite d’apparition d’un phénomène : si on jette une infinité de fois un même dé régulier, alors on obtiendra chacune des faces une fois sur six… le problème étant que l’infini est un objet assez difficile à manipuler. Les subjectivistes préfèrent considérer que la probabilité indique un degré de croyance dans une hypothèse : on peut alors facilement définir la probabilité de sortie d’une face d’un dé sans recourir à l’infini. Le troisième point de vue est purement formel : la somme des probabilités des états du monde doit être égale à l’unité. Si le dé a six faces, on ne peut pas avoir une chance sur deux de tirer chacune des faces, cela n’a logiquement aucun sens. On représente donc les variables aléatoires par des familles de paiements et de probabilités associées : X = (xi,pi) iB[1,n] donne le paiement xi (qui peut être négatif) avec la probabilité pi. Les choses sont un peu plus complexes si l’on veut envisager des probabilités continues. Quand on se demande quelle température il fera demain, il n’y a pas de raison de considérer qu’il doit faire 17 ou 18 degrés et pas 17,5 ou même 17,314647 degrés. Pour cette raison, on peut considérer que la température est une variable continue, qui peut prendre toutes les valeurs entre, par exemple – 30 et 50 degrés. On peut poser que la probabilité est uniforme sur tout l’intervalle : dans ce cas, il va falloir répartir la masse de probabilité (qui vaut 1, rappelons-le), uniformément sur [– 30, 50]. En divisant 1 par la taille de l’intervalle, on obtient la densité de probabilité qui est une fonction (constante dans le cas présent) des valeurs prises par la variable aléatoire. On peut trouver que l’hypothèse uniforme est irréaliste, et vouloir une densité bien plus forte au centre de la distribution, par exemple. Les calculs de probabilités continues mettent en jeu le calcul intégral. Si l’on cherche à caractériser rapidement une variable aléatoire, on peut utiliser des indicateurs de position et d’échelle (ou de dispersion). L’indicateur de position le plus courant est l’espérance mathématique. On la calcule d’après la loi de probabilité de la
INTRODUCTION
variable : si X = (xi, pi)
i B[1,n]
5
alors E(X) = p1x1 + p2x2 + p3x3 +… + pn-2xn-2 + pn-1xn-1
n
+ pnxn = S pixi. Dans le cas des probabilités continues, si X est définie par une densité i=1
f(x) sur DX, alors l’espérance vaut E(X) = @xf(x)dx). Si l’on ne connaît pas la loi de la DX
variable, on peut calculer une moyenne empirique, et c’est ce que l’on fait en général pour se donner une idée des phénomènes aléatoires. De nombreux indicateurs de dispersion existent, mais le plus courant est la variance, qui représente la moyenne des carrés des écarts à la moyenne : V(X) = p 1 (x 1 -E(X)) 2 + p 2 (x 2 -E(X)) 2 + … + p n - 1 (x n - 1 -E(X)) 2 + p n (x n -E(X)) 2 = n
S p (x -E(X)) . 2
i
i
i=1
On utilise le carré pour éviter que les écarts positifs et négatifs se compensent. Évidemment, le carré donne un poids plus grand aux grandes déviations. Pour compter dans les mêmes unités que la moyenne, on peut utiliser l’écart-type qui est la racine carrée de la variance et que l’on représente généralement par la lettre grecque s. On peut calculer bien d’autres paramètres (par exemple, les moments : voir chapitre IV). Dans le cas des lois normales, l’espérance et la variance suffisent à caractériser la distribution de ces courbes en forme de cloche. Mentionnons, par exemple, la probabilité de s’éloigner de plus d’un écart-type de la moyenne : elle est d’environ 32 %. La probabilité de s’éloigner de plus de deux écarts-types de la moyenne est inférieure à 5 %, ce qui signifie à l’inverse que l’on a plus de 95 % de chances d’être à moins de deux écarts-types de cette moyenne. La probabilité de s’éloigner de moins de trois écarts-types autour de la moyenne est supérieure à 997 pour 1 000, etc. Sur le graphique 1, toutes les densités correspondent à des variables centrées (espérance nulle). La courbe en ogive a un écart-type de 0,5, donc 95 % de la masse de probabilité est comprise dans l’intervalle ]0 – 2 × 0,5 ; 0 + 2 × 0,5[, donc ]-1,1[, alors que pour la courbe d’écart-type 2, il faut prendre l’intervalle ]-4,4[ pour trouver la même masse de probabilité : la courbe est donc plus aplatie.
Graphique 1. Quelques écarts-types 1
0,8 σ = 0,5
Densité
0,6
0,4
σ = 1,0
0,2 σ = 2,0 σ = 5,0
0 –6
–4
–2
0 Déviation
2
4
6
6
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
La représentation du risque dans la théorie économique : choix individuel entre variables On représente les actions dont l’issue est incertaine, et donc soumise à un risque, par des variables aléatoires. Ainsi, la variable X = (xi, pi) i e[1,n] donne le paiement xi (qui peut être négatif) avec la probabilité pi. La somme des probabilités vaut 1 de sorte que tous les cas possibles sont décrits par leur paiement. Si le jeu est répété « un grand nombre de fois », alors on sait en vertu de la « loi des grands nombres » que les écarts à la moyenne vont se compenser. En moyenne, le résultat sera proche de l’espérance qu’on écrit : n p1x1 + p2x2 + p3x3 + … + pn-2xn-2 + pn-1xn-1 + pnxn = pixi = E(X). i=1 L’espérance mathématique représente la valeur E(X) de la variable aléatoire X. La notion de « grand nombre de fois » n’ayant pas grand sens pour les mathématiciens, on peut plutôt dire qu’il existe un nombre de fois (où le jeu est répété) tel que l’écart à la moyenne est inférieur à une borne choisie (avec une probabilité choisie, par exemple 99 %). Si on doit jouer moins que ce nombre de fois, alors on peut s’éloigner sensiblement de l’espérance mathématique. Il faut tenir compte de ce risque. En 1730, Daniel Bernoulli a proposé de modifier la valeur des paiements pour tenir compte du risque. Les paiements sont transformés par une fonction dite fonction d’utilité dont la courbure traduit la préférence ou l’aversion pour le risque du décideur.
S
Graphique 2. Aversion pour le risque Fonction d'utilité située au-dessus de la première bissectrice : goût du risque Fonction d'utilité située en dessous de la première bissectrice : aversion pour le risque
Valeurs
Paiements
On évalue alors l’état du décideur par son espérance d’utilité (et non plus son espérance mathématique). Quand on ajoute la variable à sa situation de départ, désignée par une richesse W, l’espérance d’utilité du décideur est : n
S p × U(x + W). i=1 i
i
Pour retrouver des valeurs, il faut utiliser l’inverse de la fonction. En particulier, on déduit la valeur de la variable aléatoire par différence avec la situation de départ.
(S n
EC(X) = U-1
)
pi × U(xi + W) – U(W) est l’équivalent certain de la variable X. i=1
INTRODUCTION
7
où il suscite des institutions spécifiques. En effet, l’évaluation du risque est subjective. Pour obtenir une mesure du risque, on laisse le décideur calculer la valeur d’une perspective aléatoire, son équivalent certain. En soustrayant cet équivalent certain à l’espérance mathématique, on obtient la moins-value due au risque, considérée comme une mesure du risque. Toutefois, cette mesure dépend de la fonction d’utilité du décideur : ce n’est donc pas une mesure objective du risque. Cette quantité représente seulement la disposition à payer de l’agent pour se débarrasser de ce risque auprès d’un assureur qui accepterait de le prendre en charge. Une autre particularité de la théorie économique est de considérer un système complet de marchés. Ce dispositif garantit l’existence d’un système de prix qui équilibre les transactions de tous les biens pour toutes les dates futures et tous les états de la nature. Cela signifie qu’il est possible de s’assurer contre tous les événements, contre tous les risques. Or, dans la réalité, il existe d’autres mécanismes que l’assurance et les marchés financiers car ceux-ci ne permettent pas tous les échanges de risques possibles. La théorie économique ne rend pas compte de ces institutions spécifiques qui prennent en charge le risque et elle ne propose aucune mesure de celui-ci. Pour avancer dans la compréhension de cet objet particulier qu’est le risque, nous avons choisi une approche historique. Notre enquête commence par une interrogation sur l’histoire du mot « risque » lui-même (chapitre I) et se poursuit par une présentation des théories économiques qui ont permis de l’étudier. D’abord liée à l’assurance (chapitre II), la théorisation du risque par les économistes prend au XIXe siècle l’allure d’une enquête sur la répartition des revenus (chapitre III). Au XXe siècle, le point de vue décisionnel devient dominant, que ce soit en finance (chapitre IV) ou dans la macroéconomie rénovée par ses emprunts à la recherche opérationnelle stochastique (chapitre V). Toutefois, on retrouve ensuite le point de vue de la répartition, qui conduit à des considérations macroéconomiques, en particulier sur l’inflation des actifs patrimoniaux et le risque financier systémique (chapitre VI).
I / Histoire du risque « Les études de mots ont une grande importance dans la science historique. Un terme mal interprété peut être la source de grandes erreurs. » Fustel de Coulanges [1892, p. 170]*
Comme l’écrivait le sociologue allemand Niklas Luhmann, « il n’existe pas d’étude compréhensive de l’étymologie et de l’histoire conceptuelle du terme [risque] » [Luhmann, 1990, p. 9], ce qui ne signifie pas qu’on ne trouve pas des éléments dispersés. Si l’on cherche dans des ouvrages savants une histoire du concept de risque, on trouvera en particulier deux éléments récurrents : une thèse moderniste et un roman nautique pour expliquer l’origine du mot.
Fables et mythes du risque La thèse moderniste : une légende bourgeoise Luhmann hérite de la tradition historique allemande de Sombart, Weber et tant d’autres. D’après lui, le concept de risque apparaît au début de l’époque moderne « pour indiquer une situation problématique qui ne peut être décrite avec une précision suffisante par le vocabulaire existant » [Luhmann, 1990, p. 10]. Cette période correspond donc à celle des grandes découvertes, de la réforme religieuse et de l’apparition du capitalisme. Weber [1908] défend l’idée d’une affinité entre la réforme religieuse et le * Les références entre crochets renvoient à la bibliographie en fin d’ouvrage.
HISTOIRE
DU
RISQUE
9
développement de l’esprit du capitalisme ; cette théorie a suscité une abondante controverse (voir Luthy [1961] pour un point de vue critique, Besnard [1970] pour une synthèse). La thèse moderniste constitue une illustration de cette séduisante construction intellectuelle : le développement du commerce, de l’assurance, des techniques financières modernes, coïnciderait avec la maturation de l’esprit du capitalisme à la suite de la réforme religieuse. La diffusion du mot « risque » serait une conséquence (ou un aspect) du développement du capitalisme. Un autre trait de cette doctrine consiste à lier le développement du capitalisme avec celui de la bourgeoisie : une classe sociale serait porteuse de pratiques nouvelles qui auraient bouleversé l’organisation sociale et politique. Ainsi Robert Pirenne, un des grands médiévistes du premier XXe siècle, considère-t-il que la classe des marchands se constitue d’« aventuriers sans attache avec la terre » ou de la « masse de va-nu-pieds à travers le monde ». Fourquet [1989] parle de légende bourgeoise pour qualifier le « scénario historique selon lequel le capitalisme marchand est un “corps étranger” à la société féodale […] ; il aurait surgi de lui-même au sein de cette société ». Même si la thèse moderniste est incompatible avec les travaux des philologues, ces derniers ont récupéré à leur compte cette légende bourgeoise dans un roman nautique. Le roman nautique d’une étymologie obscure Les dictionnaires étymologiques présentent une grande variété d’hypothèses pour expliquer l’origine du mot risque [Pradier, 1998]. La plus en vogue à ce jour avait été proposée par Diez [1853], elle est par exemple exposée par Rey et al. [1992] : « Certains rapprochent ce mot du latin resecare, “enlever en coupant” (h réséquer), par l’intermédiaire d’un latin populaire resecum, “ce qui coupe” et, de là, “écueil”, puis “risque que court une marchandise en mer”. » En castillan, qui est une langue latine, on remarque encore la proximité morphologique de l’écueil et du danger (tous deux riesgo). Outre ce « roman nautique », qui ne constitue qu’une conjecture, il existe une foule d’étymologies possibles. Trois filiations peuvent retenir notre attention. La première est avancée par Guiraud, qui observe que risque prend la succession de rixe ; mais ce glissement ne s’opère qu’en castillan et en langue d’Oc, et pas avant la fin du Moyen Âge. Une seconde piste, ouverte par les grands philologues allemands Schmitt et Wartburg, nous conduit
10
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
à Byzance. Mais, si l’on excepte un hapax en 1156 (cacorizico") dont la traduction est par nature douteuse, ce mot n’apparaît qu’au XIIIe siècle ; encore est-ce un italianisme notoire. Enfin, une origine arabe, proposée anecdotiquement dans le supplément du Littré, semble aujourd’hui la plus vraisemblable : elle fait dériver le terme du rizq, « provision, part de biens que Dieu attribue à chaque homme ». Malgré l’incertitude qui les entoure, ces recherches étymologiques conduisent à tenir pour certain que l’usage du mot « risque » est de loin antérieur à la fin du Moyen Âge, ce qui contredit la thèse moderniste. La phase qui suit l’apparition du mot, mieux documentée, est cruciale, puisqu’elle marque la cristallisation du sens et des usages. C’est pourquoi on s’intéressera de près à la diffusion du mot « risque ».
Autres sources, autre thèse Contrairement aux philologues des siècles passés, on peut maintenant compter sur un dénombrement quasi exhaustif des occurrences du mot « risque » dans les langues vernaculaires [Pradier, 1998] et même en latin [Piron, 2004]. L’Italie comme centre de diffusion Grâce aux travaux de Sylvain Piron, il est possible de remonter avant 1193. La Péninsule italienne constitue le centre du phénomène, sans qu’il soit possible de préciser quelle région constituerait le berceau de cette pratique. Gardons-nous de conclure hâtivement d’après l’origine géographique de la Carta Picena ou des documents des années 1150 cités par Piron [2004]. On pourrait également évoquer Amalfi, dont la brillante activité économique est attestée depuis le X e siècle ; cependant, les raids normands puis pisans, enfin le raz-de-marée de 1343, n’ont laissé aucune archive. Il est cependant possible de s’affranchir de ce biais de répartition des sources. On peut tenter de suivre les itinéraires de la diffusion du mot — et donc peut-être d’en retrouver le foyer. Ainsi Marseille, alors dans l’orbite économique et politique de Gênes, est-elle la première ville hors d’Italie à écrire reizego, puis vient le tour de la Catalogne, de la Provence et, à partir du XVe siècle, de la Croatie. C’est seulement après cette époque que les Germains puis les Castillans et Français d’Oïl vont apprendre à dire risque à l’italienne, c’est-à-dire dans un sens qui reste à définir, mais autrement que comme un succédané de rixe. Même
HISTOIRE
DU
RISQUE
11
si on n’a pas identifié l’origine géographique précise du mot « risque », on a au moins situé le centre le plus actif de sa diffusion sur le littoral tyrrhénien, dans les grands ports commerciaux que furent Gênes et Pise. Comme l’essaimage s’est fait au long des routes commerciales, il pourrait sembler que le mot soit un vocable des marchands. Dans l’Italie du
XIIIe
siècle
Piron considère comme évident l’usage économico-juridique du terme « risque », qu’il définit comme « l’imputation à un sujet juridique d’une charge financière éventuelle, liée à une entreprise au résultat incertain, mais qui n’a pas besoin d’être particulièrement hasardeuse ». Par-delà cette définition originelle, le duecento nous offre une palette de textes où le risque est mis en situation. Ce fonds groupe finalement assez peu de sources liées à l’activité économique, mais plutôt des textes politiques, juridiques et réglementaires, des œuvres littéraires. Tout ceci semble témoigner déjà d’une percolation du risque dans tous les domaines de la vie civile. La dimension judiciaire ou politique met en cause l’intégrité physique des individus menacée par la guerre ou par une justice mutilatrice dans ses châtiments ; la littérature, essentiellement d’inspiration courtoise, emploie également le mot « risque » pour indiquer la mise en danger volontaire du héros, amant éperdu [Mattaini, 2000] ou chevalier combattant [Vérin, 1982]. Les textes des XIIIe-XIVe siècles présentent donc le risque sous un jour paradoxal pour le lecteur du « roman nautique » : alors qu’on avait affirmé le rôle des marchands dans la diffusion du mot, on constate ici que la capacité à affronter le risque est considérée comme un trait aristocratique. Les valeurs de cette classe dominante déteignent sur ceux qui prétendent y entrer. Et le risque est donc peut-être un mot adopté par les marchands, soucieux d’insister sur le courage nécessaire à leurs expéditions. À partir du XIIIe siècle, alors que le mot se diffuse en Méditerranée avec les pratiques commerciales, il concerne déjà les marchandises elles-mêmes… Seule la littérature courtoise qui met en scène les chevaliers et le droit qui dit les châtiments garde encore le souvenir d’un risque qui menace l’intégrité physique de ses victimes. Avec l’essor des marchands, le mot « risque » désigne progressivement des dangers sans cesse plus nombreux car il est plus d’occasions d’exposer son argent que sa vie. Cette première époque nous permet de révoquer en doute les mythes de l’histoire du risque. D’une part, le roman nautique est
12
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
Le lien entre activités commerciale et militaire commerciale dans l’Italie médiévale Le premier aspect tient à la perméabilité entre les classes sociales, aussi bien qu’à la complexité de leur définition. Bien des marchands italiens du XIe siècle sont d’abord des combattants, qui accompagnent leur marchandise et la défendent contre les pirates barbaresques [Waley, 1969, p. 16] quand ils ne sont pas eux-mêmes des pillards, attirés par le prestige des reliques [Renouard, 1968b, p. 33], le butin que promet la destruction d’un nid de pirates, ou la flibusterie la plus éhontée. Ainsi, Renouard [1969] prend en exemple les Pisans dont la fortune passe par la mise à sac d’Amalfi en 1135 puis 1137, après une série de raids contre les Sarrasins au début du siècle (p. 167-169). Les chefs de ces expéditions aussi glorieuses que profitables sont qualifiés d’« entrepreneurs (imprenditori) maritimes », mais gare à l’anachronisme ! Ces entrepreneurs sont du même métal que ceux que décrit [Vérin, 1982], qui se trouvent être chevaliers au royaume de France, et n’avoir cure des affaires de marchands.
Que signifie donc « entrepreneur » ? Chez ces aristocrates en devenir, sur terre comme sur mer, « l’épreuve de la valeur individuelle dans la seule action » [Vérin, 1982, p. 42] constitue l’entreprise (l’impresa italienne rappelle l’« emprise » de l’ancien français), qui s’exprime comme la capacité à saisir l’occasion, la fortune, l’aventure. Ces mots sont récurrents, tant dans le lexique du roman courtois que des marchands florentins [Bec, 1967]. Il n’y aurait donc pas toujours une séparation nette entre marchands et guerriers dans l’Italie du XIe siècle, d’autant que les historiens insistent sur la pluriactivité des puissants [Renouard, 1968b, p. 65 ; Aurell, 1996, p. 71 et 75, ou, à propos des Porte-Glaive allemands, Dollinger, 1964, p. 44-45]. Un autre aspect de la proximité entre les armes et la fortune tient à la figure du condottiere. On considère d’ordinaire que celui-ci n’apparaît vraiment qu’au XIVe siècle, à une époque trop tardive pour notre récit. Mais avant que l’Italie n’ait été parcourue de compagnies d’aventure emmenées par de véritables entrepreneurs de guerre, avant que les noms de Fra Moriale, Niccolò da Tolentino ou Giovanni Acuto ne s’illustrent dans l’histoire militaire, les villes eurent recours à des
ramené à ce qu’il est : une histoire plaisante. La légende bourgeoise doit être infirmée : les marchands ne constituent pas une classe sociale distincte dès le XIe siècle, il est bien possible que le mot « risque » soit un terme des guerriers. D’autre part, la thèse dite « moderniste » se trouve entièrement contredite, puisqu’on doit admettre après Renouard, Le Goff et beaucoup d’autres, que l’esprit du capitalisme était bien vivant dans l’Italie du trecento.
La diffusion en Europe On peut distinguer deux périodes dans la propagation du mot « risque » : l’époque moderne où la désignation du mot s’étend
HISTOIRE
combattants mercenaires. Ainsi Waley [1969, p. 44-47] évoque-t-il la décision des consuls génois, en 1173, de « créer des chevaliers » pour éviter de payer les services de féodaux voisins. On est donc loin du cliché qui voudrait que les aristocrates ne se soucient que de leur honneur, quitte à se ruiner ou à perdre la vie. Si la noblesse française a hérité de la cavalerie franque un souverain mépris pour les affaires d’argent, obsédée du seul prestige symbolique que confèrent la victoire militaire et les dignités politiques, la noblesse italienne est plus récente dans sa constitution, plus douteuse dans son origine, mais aussi plus pragmatique dans son approche des questions financières. Les chevaliers italiens sont donc aussi des marchands qui vivent du louage de leurs armes. À partir du XIIIe siècle cependant, les classes sociales semblent se distinguer plus clairement. D’un côté, comme à Gênes, on ne crée plus massivement de chevaliers après 1211, la caste aristocratique devient dans l’ensemble moins perméable. De l’autre, la carrière marchande s’est institutionnalisée : au XIVe siècle, l’école « commerciale » (où l’on enseigne le calcul arithmétique à l’aide de l’abaque) s’est imposée comme une sorte de « second cycle »
DU
RISQUE
13
pour les enfants des marchands. Une fois leur éducation terminée, ceux-ci voyagent dans l’adolescence puis se sédentarisent [Melis, 1975, p. XIX]. Pour preuve, toujours au XIV e siècle, l’invention par les Génois de l’assurance dite « à simple cédule », matrice des contrats actuels, signifie que les marchands n’accompagnent plus systématiquement leur marchandise. La croissance économique rapide des XIe-XIIIe siècles entraîne l’ascension des nouveaux riches qui suscite une certaine jalousie, l’évolution des mœurs et de la place des arts provoque et révèle des tensions. Comme le fait observer Waley [1969, p. 54], « l’idée que les nouvelles couches de la population étaient décadentes et indignes de l’ancienne noblesse jouissait d’un grand crédit ». Mais la littérature réunit encore ces deux classes sociales que l’analyse sépare. Celles-ci forment d’abord le public du roman courtois venu de France et de Provence, bientôt supplanté par une littérature indigène (Dante, Boccace). On met en scène ces oppositions sociales sur un mode plein de subtilité. D’un côté, on raille la décadence des mœurs, de l’autre on exalte la valeur des chevaliers qui risquent leur vie au combat et en amour.
rapidement ; l’époque contemporaine où le mot est devenu principalement abstrait. Au XVIIe siècle, à côté d’un usage spécifique à la marine, on rencontre une acception économique générale : le mot « risque » apparaît dans une expression, une façon de parler comme on dit alors, fréquemment citée : « prendre une affaire à ses risques, périls & fortunes », pour dire « se charger de tout ce qui en peut arriver, se charger du bon & du mauvais succès », écrit le premier Dictionnaire de l’Académie française. On retrouve alors la formule consacrée « à ses risque et fortune », copiée littéralement de l’italien. Cette signification économique du risque — qui menace les avances de l’entrepreneur — apparaît comme une généralisation de l’usage maritime. Elle constitue, dans la France du XVIIe siècle,
14
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
le seul noyau sémantique stable autour duquel les diverses acceptions du mot gravitent. Plus encore, elle représente le seul cas où le substantif est utilisé seul, sans précisions additionnelles. Car, pour le reste, on ne rencontre que des façons de parler (expressions comme courir risque, se mettre en risque, là encore inspirées de l’italien). « Risque » n’est pas un terme courant au XVIIe siècle. Le concept de risque témoigne en fait d’un jugement sur la nature de la chose menacée. On hasarde une mise, on risque un placement ; la première décision est hasardeuse, la seconde, risquée. Une mise au jeu ou à la loterie, un bien assuré — sauf dans le cas des assurances maritimes — ne peuvent être regardées comme menacées par des risques : ce ne sont pas des investissements sérieux. S’il semble que la frontière entre assurance et pari soit rétrospectivement assez peu claire, comme le rappelle Boiteux [1968, p. 73-75], elle l’est pour les témoins du temps. Le substantif « chance », le verbe « hasarder » appartiennent au champ sémantique du jeu (cadentia est la chute des dés ou le point en latin, et azar désigne le point gagnant en arabe). Le terme « risque » a un aspect normatif : s’il justifie un profit, c’est en échange d’un travail, ou au moins dans le cadre d’une activité économique, fûtelle aventureuse ou même (au XVIIIe siècle) illégale. C’est seulement dans les années 1780, sous la plume des mathématiciens comme Condorcet et Tetens, que « risque » reçoit une désignation abstraite et générale, comme on le verra au chapitre suivant. Au XVIIIe siècle, une évolution linguistique accompagne les transformations sociales. Le mot est de plus en plus fréquemment utilisé et cet engouement touche d’autres termes du même champ sémantique : aventure, qui signifie « ensemble d’événements qui arrivent à quelqu’un », mais aussi danger et péril, dont la connotation négative est évidente, et à l’inverse, chance ou fortune. Cette vogue du vocabulaire de l’aléatoire témoigne d’une ère aventurière, celle des grands coups de finance (avec la banqueroute de Law, les tulipes de Hollande), des grands voyages (Cook, Lapérouse) et des histoires personnelles qui sont d’abord des aventures sociales (le film Barry Lyndon de Stanley Kubrick illustrant les biographies réelles ou imaginaires de l’Abbé Prévost, Casanova, Da Ponte, Beaumarchais et tant d’autres). L’aventure, qui s’identifie à la destinée d’un individu dans laquelle entre de plus en plus en plus évidemment un élément de volonté et d’habileté, quitte peu à peu le lexique de l’aléatoire, dans son sens neutre (ni bon ni mauvais) ; il est remplacé par hasard. Avant d’envahir le XXe siècle, « risque » connaît une éclipse très nette : la fréquence du mot dans la littérature a baissé de moitié
HISTOIRE
DU
RISQUE
15
entre 1750 et 1800. Est-ce à dire que le « siècle de la science » ne supporte pas le doute ? À partir de 1900, l’émergence de la société du risque constitue d’abord un phénomène linguistique. Ainsi, le risque est un « danger probable », mais c’est aussi dans la langue des assureurs la probabilité que se manifeste ce danger… ou l’espérance mathématique (chapitre II) du sinistre encouru. On confond donc le risque avec sa mesure (métonymie) et avec ce qu’il menace : les assureurs caractérisent chacun de leurs assurés comme des risques. Les bons conducteurs sont de bons risques, les chauffards, de mauvais risques. Ces métonymies qui vont de l’objet à sa représentation, ou de l’objet au sujet, permettent une grande variété d’emplois du mot « risque ». Signalons enfin qu’il n’est plus de désignation spécifique pour le mot, qui ne connote plus aucune activité particulière. Pour conclure ce chapitre, on peut rappeler que si la signification principale du risque reste inchangée, sa désignation s’élargit progressivement et tardivement, et bien plus tard en dehors de l’Italie que dans la Péninsule. On risque d’abord sa peau puis sa fortune. Enfin, à une époque où l’on croit investir en misant sur les valeurs mobilières d’une économie-casino, on risque aussi bien un euro sur une grille de Loto.
II / Le risque probabilisé « Pour juger de ce que l’on doit faire pour obtenir un bien, ou pour éviter un mal, il ne faut pas considérer le bien ou le mal en soi, mais aussi la probabilité qu’il arrive ou qu’il n’arrive pas, et regarder géométriquement la proportion que toutes ces choses ont ensemble. » Arnaud et Nicole [1660]
Les mathématiciens furent les premiers à employer « risque » dans un sens abstrait complètement dégagé de connotations normatives. L’abstraction ne s’est pas faite en un jour et il convient, dans cette histoire de la mathématisation des phénomènes aléatoires, de distinguer trois époques. Dans la première, le mot « risque » n’apparaît même pas alors qu’il est question de jeux de hasard. Dans la deuxième, les mathématiques sont explicitement appliquées à l’assurance et donc au calcul de risques. C’est cependant seulement dans la troisième période que la notion abstraite de risque apparaît, aux confins des conceptions économiques et statistiques de la décision.
Du problème des partis à l’espérance mathématique Le calcul des probabilités apparaît après la résolution par Pascal et Fermat du problème des partis que leur avait soumis le Chevalier de Méré. Ce problème consiste à répartir les mises d’un jeu interrompu avant son terme. Avant le mois de juillet 1654, de nombreux auteurs s’étaient essayés sans succès à résoudre des questions du même genre [Coumet, 1965] ou des questions de probabilité plus élémentaires encore (on cite généralement
LE
RISQUE
PROBABILISÉ
17
Cardan et Galilée à ce propos, voir par exemple Bernstein [1998]). L’enquête sur les raisons qui ont conduit à l’apparition du calcul des probabilités est passionnante. Coumet [1970] propose un récit détaillé de la « laïcisation » du hasard et de la constitution d’un droit des contrats aléatoires : le droit canon regroupe sous cette appellation les contrats où intervient un élément de hasard (jeux de société, loteries, assurances, prêts maritimes, rentes viagères, etc. ; tous ne sont pas licites, loin s’en faut). Précisons un peu l’objet de ces premiers calculs et la méthode employée. L’objet consiste essentiellement dans les jeux de hasard, comme en témoignent les titres de Huyghens [1657], premier ouvrage publié sur le sujet, ou de Montmort [1708]. C’est pourquoi le mot « risque » n’apparaît pas, bien qu’aujourd’hui on l’emploierait volontiers dans ces situations. Huyghens parle de chance dans les jeux de dé, Montmort de hasard ; Moivre [1711] et Bernoulli [1730] pour leur part cherchent une mesure du sort, ce dernier mot désignant les conséquences de la participation aux jeux (sort désigne de ce fait ce que les mathématiciens appellent une variable aléatoire). Si certaines traductions modernes ont cru pouvoir parler de mesure du risque, c’est un contresens car on a vu que ce substantif désignait alors exclusivement le champ de l’économique (sauf en italien, bien sûr). L’intérêt porté aux jeux de hasard tient à leur vogue dans l’aristocratie. Si l’on s’en tient à l’exemple français, les jeux sont interdits par Louis XIII et surveillés par une police sourcilleuse [Freundlich, 1995]. Dans cette société de cour, le pouvoir tolère toutefois les jeux, s’il ne les utilise pas comme un divertissement qui détourne la noblesse de ses penchants guerriers et la maintient dans une situation financière précaire. Le jeu envahit si totalement la conscience de l’élite, que même la question du salut fait l’objet chez Pascal d’un jeu métaphorique : c’est le fameux Pari [Pascal, 1670 ; Brunschvicg, 233 ; Lafuma, 418]. Après Pascal et Fermat, tous les probabilistes vont se délecter de résoudre des questions liées à des jeux de société bien connus (comme la Bassette, le whist, etc.), ou d’inventer des jeux imaginaires qui illustrent des problèmes mathématiques du temps (comme le fameux problème de Pétersbourg — voir infra). Condorcet [1785] juge d’ailleurs ces travaux d’une phrase sévère : « Les géomètres se bornèrent assez longtemps à la théorie des jeux de hasard, objet frivole en lui-même » (p. 601). Du côté de la méthode, le résultat des recherches de ces cinquante premières années est surtout le perfectionnement du concept d’espérance mathématique comme véritable mesure du sort,
18
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
Espérance mathématique On obtient l’espérance mathématique d’une variable aléatoire en multipliant chaque résultat possible par sa probabilité, en additionnant tous ces produits. Par exemple, dans le cas d’un dé à six faces, on a une chance sur six d’obtenir les points de 1 à 6, l’espérance mathématique s’écrit donc : 1 1 1 1 1 1 (proba) × 1 (point) + × 2 + × 3 + × 4 + × 5 + × 6 6 6 6 6 6 6 1 1 = × (1 + 2 + 3 + 4 + 5 + 6) = × 21 6 6 21 = 3,5. = 6 On peut dire de cette définition qu’elle est a priori dans la mesure où le calcul utilise les probabilités et des résultats connus d’avance. Il existe aussi une définition a posteriori qui consiste à faire la moyenne des résultats observés.
qui rassemble les notions éparpillées de juste prix, de jeu équitable, etc. L’expression « espérance mathématique » ne se dégage que progressivement dans sa généralité : ainsi, Jallais et Pradier [1997] détaillent par exemple les argumentations de Pascal et Huyghens qui sont encore loin du caractère systématique d’un manuel contemporain de probabilités. Car, en même temps que la notion d’espérance, on doit construire l’objet dont on peut calculer l’espérance comme objet mathématique, et non plus seulement juridique ou religieux. Si l’on s’intéresse maintenant aux fondements normatifs des théories, on observe un déplacement. Alors que la problématique des partis est essentiellement juridique — on cherche la juste répartition —, on constate rapidement une évolution. Déjà le Pari de Pascal se présente comme une décision raisonnable ; et c’est la raison qui constitue le devoir dans la phrase de la Logique donnée en exergue à ce chapitre. De manière générale, la norme de justice qui permet d’arbitrer entre des parties dans un procès va céder la place à une norme de raison censée permettre le choix entre les stratégies alternatives qui s’offrent à un individu [Jallais, Pradier et Teira-Serrano, 2004]. Au début du XVIIIe siècle, Jacques Bernoulli [1713], dans son Ars conjectandi publié à titre posthume, a établi la loi des grands nombres. Selon cette loi, la moyenne asymptotique (c’est-à-dire la moyenne qui résulterait d’un nombre infini de répétitions du tirage aléatoire) converge vers l’espérance découlant du calcul a priori. Cette convergence des définitions a priori et a posteriori de
LE
RISQUE
PROBABILISÉ
19
l’espérance mathématique rend le calcul utilisable dans l’étude des phénomènes réels, ouvrant la voie à des applications empiriques du calcul des probabilités. Dans la mesure où la convergence est asymptotique, il faut toutefois faire observer que les calculs à partir de fréquences empiriquement observées sont conçus comme de doubles approximations de ceux qu’on obtiendrait avec les vraies probabilités (la première approximation consiste à considérer les fréquences empiriques comme des probabilités ; la seconde à supposer que les probabilités calculées s’appliqueront dans la réalité).
Des assurances maritimes aux assurances sur la vie Les assurances, qui touchent par nature des phénomènes aléatoires, offraient dès l’origine un domaine d’application pour le calcul des probabilités : il s’agissait de calculer les primes avec exactitude. Si les assurances maritimes présentent peu d’intérêt pour le mathématicien, il n’en va pas de même des assurances sur la vie qui vont susciter une abondante littérature. Des assurances sans mathématiques Les assurances maritimes existaient sous la forme moderne du contrat dit à simple cédule depuis le XIVe siècle. Il n’est pas nécessaire d’être grand géomètre pour établir la valeur de ces primes : si sur une route, de dix navires il s’en perd un, alors on peut penser que les primes doivent être fixées au dixième de la valeur assurée. Un aller-retour était assuré en général pour un prix double d’un aller simple, on évaluait une assurance à temps en fonction du nombre de rotations qu’elle permettait de faire ; et les opérations d’assurance étaient suspendues dès que l’incertitude augmentait (rumeurs de guerre, recrudescence des attaques de pirates). Les marchands italiens pratiquaient donc les mathématiques actuarielles comme Monsieur Jourdain la prose, c’est-à-dire à leur degré zéro. La prime d’assurance s’identifiait à l’espérance mathématique, puisque c’était bien le produit de la probabilité du naufrage par la valeur du sinistre (navire plus cargaison). L’expression consacrée pour désigner cette quantité était le « prix du risque » [Tenenti et Tenenti, 1985] : on ne parle pas encore de risque simplement (la métonymie entre le phénomène et sa mesure ne fonctionne donc pas encore).
20
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
Primes d’assurance La prime d’assurance est la somme à payer pour s’assurer contre un sinistre. Le montant de la prime dépend évidemment de la probabilité du sinistre et de l’évaluation monétaire des dommages subis. On distingue dans la littérature les primes dites pures — qui correspondent au seul prix du risque — des primes chargées censées couvrir en plus les frais de gestion de l’assureur. De manière évidente, les primes pures correspondent à l’espérance mathématique du sinistre, que l’on considère jusqu’à la fin du XVIIIe siècle comme le « juste » prix du risque. Le calcul du chargement conduit à prendre en compte des éléments liés à la gestion de l’entreprise qui offre les assurances. La modélisation est bien plus tardive, elle est aussi plus arbitraire dans la mesure où ces éléments de gestion sont contingents à l’organisation de l’assureur et non essentiels au risque lui-même.
Des mathématiques aussi simples n’intéressaient guère les mathématiciens, et comme le talent de ceux-ci n’était pas utile aux marchands, il existe peu de textes sur l’évaluation des primes. Assurance-vie et séries C’est seulement avec la question de l’évaluation des assurances-vie que se développent véritablement les mathématiques actuarielles. En effet, il y a là un enjeu à la fois pour les gestionnaires qui ne peuvent évaluer les rentes au doigt mouillé, et pour les mathématiciens qui s’intéressent au formalisme des séries — sans parler de l’enjeu éminemment politique de ces questions dont témoignent des hommes comme Petty et de Witt [Le Bras, 2000]. Mais qu’est-ce que l’assurance-vie ? L’expression est trompeuse, parce qu’elle confond assurance-décès et assurance contre le « risque de vivre » (au-delà du moment où l’on ne peut plus subvenir à ses propres besoins). L’évaluation des primes d’assurance-décès nécessite seulement de connaître la probabilité de décéder dans l’année. En revanche, l’assurance-vie à proprement parler recouvre un grand nombre de possibilités, qui consistent en général à échanger un montant certain (la prime) contre une somme hypothétique. Dans le cas d’une rente viagère, cette somme hypothétique est un revenu annuel régulier payé au contractant qui peut ainsi se garantir un revenu régulier jusqu’à la fin de ses jours (dont la date est bien sûr inconnue à la signature du contrat). Un père de famille qui voudrait assurer à sa femme un revenu au cas où il viendrait à périr doit souscrire une rente de
LE
RISQUE
PROBABILISÉ
21
Table de mortalité Une table de mortalité retrace la chronique des décès dans une population donnée. En complément, on peut mentionner le nombre de survivants dans la population à intervalle régulier, on obtient alors une table de survie. On peut donner l’exemple de la table de Petty [1662] dite « table de Graunt ». Âge 0 6 16 26 36 46 56 66 76 80
Nombre de décès
Nombre de survivants
0 36 24 15 9 6 4 3 2 1
100 64 40 25 16 10 6 3 1 0
Évidemment, la table de mortalité se déduit par différence de la table de survie. Par abus de langage, on parle parfois d’une table de mortalité pour désigner un ensemble de tables (hommes et femmes, mortalité et survie, etc.).
veuvage, et s’il désire également protéger son ou ses enfants, il lui faudra prendre une rente sur plusieurs têtes. Bien sûr, il existait des évaluations traditionnelles pour les rentes viagères, puisque la table d’Ulpien donnait dès le IIIe siècle les barèmes applicables [Le Bras, 2000, p. 223-231]. Cependant, ces estimations étaient purement conventionnelles et ne pouvaient garantir la pérennité d’une institution qui aurait offert des rentes à ce taux. Pour évaluer tous ces contrats dans une perspective de rentabilité, il faut disposer d’une table de mortalité (encadré). Du risque-espérance au risque-dispersion Dans les années 1780, l’espérance mathématique du sinistre n’apparaît plus comme une mesure appropriée pour le risque encouru par l’assureur. La convergence asymptotique des paiements vers leur espérance n’était qu’une limite avant laquelle on pouvait faire banqueroute en cas de multiplication anormale des sinistres (il s’agit de l’occurrence rapprochée de sinistres qui n’ont pas une cause commune, car on exclut depuis toujours du champ de l’assurance les phénomènes anormaux qui modifient la
22
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
Évaluation des rentes Considérons la table de survie : on appelle St le nombre de survivants à l’âge t sur une population dont le dernier survivant décède à l’âge N. L’espérance de vie résiduelle d’un individu d’âge n est : N
N–n
S St t=n+1 ou Sn
S Sn + t t=1 . Sn
La valeur V d’une rente qui paye 1 i chaque année de la vie d’un individu d’âge n est obtenue en actualisant les paiements : N–n
V=
SS S
n+t
t=1
n
×
1 . (1 + r)t
Où r représente le taux d’intérêt courant. Dans le cas d’une rente de veuvage, si l’indice f désigne les valeurs de la table de survie de la femme et l’indice h celles de la table de survie du mari, on a : Nh – nh
V=
SS
nh
t=1
– Snh + t Snh
Nf – nf
S SS
nf + i
i=1
nf
×
1 . (1 + r)i
(la première fraction décrit la probabilité que le mari soit mort, et la seconde celle que l’épouse soit encore en vie).
« sinistralité » : cataclysmes naturels, guerres, etc.). Cette remise en cause de la portée pratique de la loi des grands nombres est le fait d’un petit nombre d’auteurs qui vont développer de nouvelles mesures qu’on appelle aujourd’hui des indicateurs de dispersion. L’idée fondamentale de ces auteurs est donc non plus seulement de situer la moyenne, mais de décrire les limites dans lesquelles les variations des phénomènes aléatoires peuvent fluctuer temporairement. On voit donc se développer d’un même pas la théorie de la gestion des entreprises d’assurances et la représentation statistique des phénomènes. Le problème essentiel qui préoccupe l’un de ces auteurs, Condorcet, est celui d’une accumulation néfaste de hasards. Une telle loi des séries (Benoît Mandelbrot, soucieux d’éviter la confusion avec les séries mathématiques, préfère parler de loi des erreurs en rafale) pourrait menacer la solvabilité de l’assureur. Pour éviter ce phénomène, Condorcet [1784] propose de fixer les primes de sorte que l’assureur n’ait qu’une chance extrêmement faible de ne pouvoir assurer les paiements. Il introduit donc un chargement sur les primes dont la fonction n’est pas seulement d’assurer les frais de gestion de l’assureur, mais aussi la sécurité des remboursements. C’est donc autant l’intérêt de l’assureur que celui de
LE
L’histoire des tables de mortalité L’histoire des tables de mortalité commence en 1662 avec la publication sous le nom d’un certain John Graunt d’un libelle intitulé Natural and Political Observations mentioned in a following Index and made upon the Bills of Mortality qui contient le premier exemple du genre. Comme l’a récemment montré Le Bras [2000], Graunt est un pseudonyme de William Petty, le père de l’arithmétique politique, c’est-à-dire de l’application de méthodes quantitatives aux questions politiques (y compris l’économique et le social). Malgré le titre de l’ouvrage du pseudo-Graunt, cette première table n’est pas déduite des observations, mais obtenue par un procédé a priori que Le Bras détaille dans son ouvrage. Pour que ces tables servent au calcul du prix des rentes viagères, il fallait qu’elles représentent les véritables lois de mortalité. Dupâquier [1996] dresse un inventaire méticuleux des progrès accomplis depuis la première table véridique, celle de Halley (l’homme de la comète) dressée d’après les observations de la ville de Breslau en 1693, jusqu’aux années 1760. Même s’il commet l’erreur classique d’attribuer la première table à Graunt, Dupâquier montre bien les enjeux de la recherche. Les auteurs en particulier sont conscients des problèmes liés aux biais statistiques : les populations qu’on observe pour constituer les tables de mortalité ne sont peutêtre pas représentatives des clients potentiels des compagnies d’assurances. Même si on a très vite compris que la durée de vie des hommes et des femmes n’obéissait pas aux mêmes lois, il restait de grandes incertitudes. Ainsi, on concevait que les acheteurs de rentes viagères le font parce qu’ils pensent vivre plus longtemps que la moyenne de leurs contemporains ; et si c’était
RISQUE
PROBABILISÉ
23
effectivement le cas, la compagnie d’assurances n’aurait pas pu honorer le paiement des rentes au-delà de l’âge moyen, elle aurait donc été conduite à la faillite : voici un risque embarrassant. Bernstein [1998] rappelle que les tables de mortalité (dite « de Northampton ») utilisées par Price avaient plutôt tendance à surestimer la vie moyenne (on considérait les rentiers ou d’autres populations favorisées), ce qui conduisait donc à surestimer le prix de vente des rentes viagères ; en revanche, la même table, utilisée par l’État pour vendre des rentes de veuvage, a causé des pertes très importantes (p. 131). Pour comprendre comment la même table de mortalité peut favoriser ou ruiner un assureur, présentons les principes d’évaluation de ces différents contrats. Dans le cas de l’assurancedécès, on va considérer seulement la probabilité de décès dans la période (nombre de décès divisé par nombre de survivants). Pour les rentes, les calculs sont bien plus ardus car ils combinent probabilité et actualisation ; on manipule donc des séries de deux sortes (espérance de vie résiduelle et valeur actuelle des annuités futures). On peut toutefois comprendre que si la table de Northampton surestimait l’espérance de vie, elle surestimait la durée durant laquelle il fallait verser la rente et donc augmentait la valeur V payée par le souscripteur. En revanche, on surestimait aussi le temps à attendre avant le paiement des rentes de veuvage. En surestimant le temps avant d’effectuer les versements, on diminuait leur valeur actuelle et donc on sous-estimait la valeur actuelle des annuités à payer.
24
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
l’assuré que vise Condorcet (les auteurs ultérieurs ne considéreront plus que le point de vue et les intérêts de l’assureur-commanditaire). Malheureusement, le marquis ne dispose pas d’un outil mathématique adapté à la poursuite de son idée. La difficulté analytique du problème tient ici au fait que l’on s’intéresse à un portefeuille de contrats d’assurance et donc à une somme de variables aléatoires. Il faut attendre la mise au point par Laplace d’une approximation des sommes de variables aléatoires (il s’agit de la méthode de Laplace et non du théorème central limite, voir Pradier [2003]) pour que la théorie du risque puisse se développer. Par « théorie du risque » ou « théorie mathématique du risque », on entend après Laplace ces calculs relatifs à la sécurité financière de l’entreprise d’assurances. Largement diffusés au XXe siècle [voir par exemple Cramér, 1930], ces calculs serviront de modèle à la législation prudentielle régissant les assurances (voir infra, chapitres V et VI).
Métaphores du risque Les progrès du calcul actuariel à la fin du XVIIIe siècle sont d’une grande importance théorique et pratique car l’analogie entre décision économique et décision statistique qui y apparaît structure durablement le discours des théories économique et statistique de la décision. La décision économique La naissance d’une conception abstraite du risque et de la décision se manifeste à l’occasion de la rencontre entre deux types d’applications des probabilités. Du côté des jeux de hasard, on pourrait craindre de retourner aux considérations futiles avec le problème de Pétersbourg, mais ce problème est perçu tout au long du XVIIIe siècle comme la pierre de touche des conceptions probabilistes. Si on calcule la mise du joueur conformément à la justice, par l’espérance mathématique, alors on doit convenir qu’il faut payer une somme infinie pour acquérir le droit à jouer : le paradoxe réside dans la contradiction entre la théorie (qui prescrit une mise infinie) et le bon sens (qui l’interdit). Une réponse selon la justice n’est toutefois pas entièrement satisfaisante, dans la mesure où elle n’a rien à faire dans un tel jeu. La plupart des auteurs proposent donc une réponse raisonnable, c’est-à-dire conforme aux intérêts d’une seule
LE
RISQUE
PROBABILISÉ
25
Problème ou paradoxe de Pétersbourg L’histoire commence avec une lettre du 9 septembre 1713 de Nicolas Bernoulli à Montmort, où le Bâlois propose un jeu particulièrement étrange : « A jette en l’air une pièce de monoye, B s’engage à lui donner l’écu, si le côté de la Croix tombe le premier coup, 2, si ce n’est que le deuxième, 4, si c’est le troisième coup, 8, si c’est le quatrième, etc. » L’étrangeté du jeu vient de ce que sa durée peut être (avec une probabilité infime) infinie. Montmort trouve bien la « chance de Paul », c’est-à-dire son espérance mathématique de gain : elle est infinie. En effet, A possède une chance sur deux de gagner un écu, une chance sur 4 d’en gagner 2, une chance sur 8 d’en gagner 4, etc. Son espérance mathématique vaut donc : A=
1 1 1 1 1 ×1+ ×2+ ×4+ × 8 +… + n – × 2n – 1 + … 2 4 8 16 2 +p
=
S 21 n=1
n
+p
× 2n – 1 =
S 21
= + p.
n=1
C’est la publication, en 1738, de l’article de Daniel Bernoulli dans les Mémoires de l’Académie des sciences de Pétersbourg, qui a conduit au nom actuel de ce problème initialement posé par son cousin. Le problème vient de ce qu’aucun joueur ne miserait ne serait-ce que 100 écus à ce jeu. La théorie de l’espérance ne rend donc pas compte du comportement des joueurs. Daniel Bernoulli propose, contre son cousin Nicolas, de ne plus raisonner en termes de juste prix du jeu, à l’aide de l’espérance mathématique. Il entend fonder la décision sur le bon sens mercantile. Considérant qu’un sou a plus de valeur pour un pauvre que pour un riche, il écrit que l’utilité U d’une somme est inversement proportionnelle à la richesse déjà possédée W, d’où : dU = b.
dW dW soit en intégrant #dU = #b. ⇒ U = b.lnW. W W +p
Dès lors, on peut évaluer le jeu en calculant V (W) =
S 21
n=1
n
× ln (W +2n – 1), où
W représente la richesse initiale de l’agent. Plus précisément, la valeur du jeu vaut exp V (W) — W (comme on a transformé la valeur des paiements par la fonction logarithme, il faut opérer la transformation inverse pour retrouver la vraie valeur). Bernoulli montre par des exemples que ce critère d’évaluation rend compte des pratiques des marchands, que ce soit en matière d’achat d’assurance ou de division des risques. Dès lors, sa théorie lui paraît une théorie de la décision rationnelle.
des deux parties. Sous cet angle, la question apparaît comme une question de décision économique : combien peut-on raisonnablement miser dans une opération qui proposerait la même distribution des gains que le jeu présenté ? La plus célèbre réponse au problème de Pétersbourg a été donnée par Daniel Bernoulli [1730], mais elle n’est ni la première
26
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
ni la seule [Jallais et Pradier, 1997]. Il est très important de remarquer que Daniel Bernoulli justifie son évaluation de la mise par des exemples empruntés au comportement des hommes d’affaires : il a donc bien quitté le domaine des jeux de hasard pour celui de la décision économique. Bernoulli a cependant été largement attaqué par d’Alembert et après lui Condorcet au motif que le choix de la fonction qui transforme les gains est arbitraire. Si d’Alembert a proposé une myriade de solutions exploratoires, en particulier une transformation des probabilités plutôt que des gains [Rieucau, 1998 ; Pradier, 2005a], Condorcet a choisi de justifier une seule approche où le risque joue un rôle cette fois enfin explicite : « Un homme raisonnable ne doit se livrer au commerce que dans le cas où il trouve une probabilité assez grande qu’il retirera ses fonds, avec l’intérêt commun et le prix de son travail. Il lui faudroit sans doute une probabilité à peine différente de la certitude de ne pas perdre la totalité de ses fonds […] » [Condorcet, 1784]. Le risque apparaît donc dans cette perspective comme la probabilité d’un événement désagréable. La décision condorcétienne consiste à rendre maximum le gain en limitant le risque à un niveau donné. À peu près à la même époque, Laplace retient le même critère dans un contexte différent. La décision statistique Le problème de Laplace est différent : à l’époque, il est question d’estimer la population du pays par sondage. On retrouve encore le dessein politique sous-jacent aux premiers calculs de mortalité, à une époque où l’on parlait plus volontiers d’arithmétique politique que d’économie politique [Martin, 2003]. Le dénombrement exhaustif (recensement) étant trop coûteux, sans compter les obstacles philosophico-politiques, on choisit d’obtenir la population totale comme un multiple du nombre des naissances (qui font déjà l’objet de statistiques, voir Bru [1988]). Il faut donc estimer un multiplicateur des naissances sur un échantillon de la population. Évidemment, plus l’échantillon est grand, plus fiable sera l’estimation, mais plus coûteuse sera l’enquête. Laplace propose donc de minimiser le coût de l’enquête tout en limitant le risque d’erreur à un seuil choisi arbitrairement — le problème est formellement identique à celui de Condorcet. Ainsi donc Laplace, en plus d’inventer les intervalles de confiance et la théorie des tests d’hypothèse, fait apparaître un concept de risque
LE
RISQUE
PROBABILISÉ
27
totalement abstrait et des outils mathématiques pour l’appréhender dans des situations diverses. La diffusion de ces travaux n’a cependant pas dépassé le cercle des mathématiciens, en particulier la grande école française de Poisson à Poincaré, qui discute ces problèmes au long du XIXe siècle.
III / Le risque de l’économie politique « Les économistes [classiques anglais] ont laissé à Marx les mains libres pour produire sa caricature du capitaliste rapace exploitant la force de travail. » Murphy [2003, p. 4]
Dès l’époque moderne, l’économie vulgaire est pétrie de dictons relatifs au risque : « Un bourgeois qui ne risque point son argent n’en peut retirer qu’au taux du Roy », écrivait Furetière.
Jeux de labour et du hasard Smith étudie, entre autres, le problème de la répartition : comment se forment les revenus (salaires, profits, rentes) des trois classes sociales (travailleurs, capitalistes, propriétaires terriens). Le philosophe écossais réduit la place du risque dans l’économie à un rôle marginal dans cette question de la répartition : en effet, le risque influence les revenus des individus, mais il disparaît à l’échelle macroscopique des classes sociales qui intéresse l’auteur en dernière analyse. À l’époque où Smith écrit, toute l’industrie textile vit au rythme des récoltes américaines de coton, de la tonte des moutons, etc. Ce caractère saisonnier ne crée pas seulement un rythme, il témoigne d’un risque véritable et omniprésent ; et Smith de citer encore les maçons « qui ne peuvent travailler par grand froid ni par mauvais temps ». Face à ce risque, la réaction des travailleurs consiste à exiger un revenu superactuariel (c’est-à-dire supérieur à l’espérance mathématique). Parlant du maçon, Smith continue : « En conséquence, ce qu’il gagne quand il est employé doit non seulement le faire vivre quand il chôme, mais encore lui offrir une compensation pour ces moments d’anxiété que la pensée de sa
LE
RISQUE
DE
L’ÉCONOMIE
POLITIQUE
29
situation précaire ne manque de lui occasionner. » La saisonnalité d’une activité entraîne donc une surrémunération (en termes d’espérance) par rapport au même travail (ou au même intérêt) s’il avait été permanent, ou par rapport à des travaux présentant une identité des « autres caractéristiques » (pénibilité du travail, difficulté d’apprentissage, crédit nécessaire, probabilité de succès). Le caractère superactuariel de la rémunération des risques ne doit pourtant pas être considéré comme un cas général. En effet, un second type de risque existe. Il concerne la probabilité de succès dans un emploi (« envoyez [votre fils] apprendre le droit, il y a au moins vingt à parier contre un qu’il ne pourra vivre de ce qu’il a appris ») ou un investissement (les profits du capital « sont en général moins incertains dans le commerce national que dans le commerce étranger »), opération qu’il compare explicitement à l’achat d’un billet de loterie. Smith expose la notion de jeu équitable (où l’espérance de gain égale la mise), et poursuit : « La loterie du droit est cependant loin d’être parfaitement équitable ; […] comme pour la plupart des professions libérales et honorables, elle est évidemment sous-récompensée en ce qui concerne le gain pécuniaire. » Il en va de même du capital : « Le taux de profit ordinaire croît toujours plus ou moins avec le risque. Toutefois, il ne croît pas dans la même proportion, et donc ne le compense pas tout à fait. » Quel mécanisme étrange est donc à l’œuvre dans cette affaire, quel phénomène explique la différence entre les réponses aux deux manifestations du risque ? Smith décrit sobrement « la confiance naturelle que chacun a plus ou moins, non seulement dans ses capacités, mais dans sa bonne fortune ». Quelques lignes plus loin, il est cependant plus acerbe : « L’outrecuidance et la suffisance dont la plus grande partie des hommes font preuve quand ils jugent leurs capacités sont un mal antique, remarqué par les moralistes et les philosophes de tout temps. La présomption absurde de la bonne fortune est passée plus inaperçue. » Dans le cas du maçon, une suffisance de cet ordre se traduirait bien vite par la ruine, et le maçon n’aurait d’autre issue pour survivre que de mendier. Mais les avocats, les chanteurs, les entrepreneurs aventureux, confiants dans leur bonne étoile, doivent souvent se contenter de revenus misérables — eu égard à leur qualification, à leur travail — quand quelques-uns sont dans l’opulence. Chez Ricardo, qui n’a pas le même penchant pour la philosophie morale, la place accordée au risque devient logiquement nulle : l’auteur n’emploie le mot que huit fois dans tout les Principes d’économie politique et de l’impôt. Mais l’absence de discours explicite
30
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
n’empêche pas Ricardo de sous-entendre : ainsi écrit-il qu’un homme « peut accepter de renoncer à une partie de son profit monétaire en contrepartie d’un emploi plus sûr, plus sain, plus facile ou présentant tout autre avantage réel ou imaginaire ». L’idée de prime de risque apparaît ici en creux, puisque l’auteur indique qu’on peut préférer un profit inférieur si le risque diminue ; et Ricardo d’évoquer discrètement la tonalité psychologique des développements de Smith sur la question (en indiquant la nature « réel [le] ou imaginaire » de la sécurité des emplois du capital).
La « tradition française » Face au déni (de l’importance) du risque, Schumpeter [1954] identifie une tradition française, qu’il caractérise par l’invention (et l’usage systématique) de la figure de l’entrepreneur : Cantillon, Turgot, Say seraient les membres de cette filiation théorique. De l’entrepreneur, on est tenté de glisser au risque et de relire la thèse de Schumpeter en la recentrant sur ce dernier concept. Cantillon : l’entrepreneur comme classe sociale Pour Cantillon, l’agent essentiel de l’économie — cause de la production et de la circulation des richesses —, c’est l’entrepreneur. Ce dernier se distingue du reste de l’humanité : des propriétaires terriens parce qu’il dépend de leurs revenus, des autres travailleurs parce qu’« [il est] à l’incertain » ou « à gages incertains » [Cantillon, 1755, p. 30-31]. Plus précisément, sa fonction consiste à « payer […] une somme fixe d’argent […] sans avoir la certitude de l’avantage qu’il tirera de cette entreprise » [Cantillon, 1755, p. 28]. Achat des facteurs de production pour un prix convenu, revente du produit à un prix inconnu au début de l’activité : l’entrepreneur est donc l’agent économique qui affronte le risque et obtient un revenu en dépit de ce risque ; début d’une lignée théorique qui, au-delà de Jean-Baptiste Say, s’épanouit chez Knight. Début vraiment ? Un tel entrepreneur est déjà présent chez Vauban, par exemple Vérin [1982, p. 105-120]. Quoi qu’il en soit, la distinction est approximative à force d’être exagérée : existe-t-il seulement un salarié dont les gages ne soient pas incertains ? À la mort de son maître, le Sganarelle de Molière déplore bruyamment ses gages perdus ; Da Ponte, au contraire, montre (à la scène 2 de l’acte I de son Don Giovanni) que la vie des valets s’accommode de gratifications inattendues. On peine à
LE
RISQUE
DE
L’ÉCONOMIE
POLITIQUE
31
recevoir la distinction autrement que comme un principe théorique. À cette première exagération approximative, Cantillon doit en ajouter une seconde. Pour être à l’incertain, l’entrepreneur ne devrait idéalement pas posséder de capital qui le garantirait contre les infortunes : « Si quelque habitant à gros gages ou quelque entrepreneur considérable a épargné du bien ou des richesses […], on pourra à juste titre le regarder comme indépendant jusqu’à concurrence de ce fonds » [Cantillon, 1755, p. 32]. Or il est dans l’ordre des choses, en ce XVIIIe siècle aventureux, que les entrepreneurs fortunés acquièrent des terres — c’est le cas de Cantillon luimême dont la vie, pour être mystérieuse, n’en évoque pas moins celle de son compatriote Barry Lyndon. Dans la mesure où l’entrepreneur est amené à accumuler, il échappe à sa condition, si bien que ce statut peut sembler transitoire par essence. Say : l’entrepreneur sans risque À vrai dire, la prétendue tradition française est peut-être un fantasme comme Menudo et O’Kean [2003] l’ont montré : « L’entrepreneur, comme quatrième agent de la production, n’appartient pas à cette tradition » (p. 1). S’il est inutile donc de perdre du temps auprès de Turgot, on considérera un instant Say, qui fait jouer à l’entrepreneur un rôle idéologique non négligeable. La Révolution française peut être analysée comme la substitution d’un ordre dynamique et juste à un ordre immuable et fondé sur l’héritage : « Une fortune acquise par un héritage, par le jeu, par une faveur de cour, une spoliation, n’est pas une fortune faite ; c’est une richesse perdue par les uns et gagnée par les autres » [Say, 1821, p. 388 n. 35]. Il n’y a cependant pas de risque ; les facteurs qui concourent à la production sont, comme chez Smith et Ricardo, au nombre de trois : « Chacun de nous est possesseur d’un fonds productif quelconque. Nous avons tous soit des fonds de terre, soit des capitaux placés, soit des facultés industrielles ; et probablement plusieurs personnes ici possèdent à la fois une partie de ces trois sources de revenus » [Say, 1818, p. 128]. À peine remarque-t-on que le « travail » s’est mué en « facultés industrielles ». L’entrepreneur se contente de combiner ces facteurs et tire son revenu de cette combinaison, pas d’un hypothétique risque. Ainsi Say peut-il conclure : « Il n’y a donc de moyen de faire véritablement une fortune nouvelle, que dans les entreprises industrielles ou des épargnes longtemps soutenues sur
32
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
les revenus que l’on a, quelle qu’en soit la source » [Say, 1821, p. 441] ; pour que la notion d’entrepreneur-risqueur pur puisse apparaître, il fallait que la capacité d’entreprendre fût effectivement découplée de la propriété du capital.
Les Américains avant Knight C’est aux États-Unis que les sociétés par actions fleurissent [Debouzy, 1972] car le vieux continent est resté suspicieux à leur égard [Pradier, 1997] : le terme « actionnaire » caractérise tout au long du XIXe siècle la crédulité de celui qui achète un billet de loterie [Pradier, 1994]. Cette particularité historique du capitalisme américain va susciter une innovation théorique remarquable [Pradier et Teira-Serrano, 2000]. Capital, risque et forme sociale En Europe, la figure du capitaliste l’a emporté sur celle de l’entrepreneur car pour entreprendre, il faut posséder du capital : le rôle des banques de second rang n’est pas encore de prêter, et les rentiers ne confient leurs économies qu’à l’État. Ceci reste vrai tant en France [Bergeron, 1978] que dans le reste de l’Europe [Landes, 1975] et explique la domination de l’entreprise familiale pendant la première révolution industrielle. Si le capitaliste n’est pas distinct sociologiquement de celui qui entreprend, il n’y a pas de raison pour la théorie de les distinguer. Le tableau change aux États-Unis. Non que les sociétés par actions y aient été inventées : elles existent en Europe mais sont soumises à des procédures d’autorisation qui les y rendent exceptionnelles pendant une bonne partie du XIXe siècle. Autre particularité américaine remarquable : au contraire de l’Europe, les États-Unis connaissent une période d’anarchie monétaire avec l’épisode de la banque libre (1837-1863) : 7 000 banques mettent en circulation des monnaies privées qui peuvent perdre toute valeur avec la faillite de l’établissement émetteur. Face à cette monnaie fiduciaire qui ne peut valoir, au plus, que sa valeur faciale, les titres d’entreprise représentent la possibilité — largement théorique — de voir leur cours dépasser leur valeur d’émission. La confiance des actionnaires américains s’explique d’abord par l’absence de monnaie fiable. En effet, les entrepreneurs américains se spécialisent rapidement dans l’extorsion au point de mériter la réputation de robber barons (barons pillards) [Debouzy, 1972].
LE
RISQUE
DE
L’ÉCONOMIE
POLITIQUE
33
Tout l’intérêt de cette configuration est que sont effectivement distinguées, bien avant Berle et Means [1932], la propriété du capital et sa gestion. Les excès manifestes qui accompagnent ce capitalisme particulièrement sauvage suscitent également une polémique autour de la rémunération des entrepreneurs. La réponse des économistes à la violence des troubles sociaux qui marquent la fin du XIXe siècle semble particulièrement pâle. Un faux classique Clark affirme que « les risques des affaires sont supportés à leur valeur actuarielle subjective » [Clark, 1892, p. 42]. Si cette formule est un peu obscure, elle signifie simplement que la prime de rendement liée à l’assomption des risques d’entreprise est calculée suivant le principe de Bernoulli. Clark envisage aussi le cas des risques des affaires, qu’il considère, comme les classiques, comme supportés par les capitalistes : « Il va sans dire que les risques de l’entreprise retombent sur le capitaliste. L’entrepreneur, comme tel, a les mains vides. Un homme qui n’a rien à perdre ne peut pas supporter un risque » [Clark, 1892, p. 46]. La nouveauté n’est pas dans l’accent mis sur la « question sociale », mais dans la nature précise de la question à laquelle l’auteur entend répondre : « Le bien-être des classes laborieuses dépend du montant qu’elles obtiennent ; mais leur attitude envers les autres classes — et, en conséquence, la stabilité de l’ordre social — dépend principalement de l’adéquation de ce montant, quel qu’il soit, avec ce qu’elles ont produit. […] La société est accusée d’“exploiter le travail”. “Les travailleurs, dit-on, sont régulièrement volés de ce qu’ils produisent. Tout ceci se passe sous couvert de la loi, et via le fonctionnement naturel de la concurrence.” Si ce chef d’accusation était justifié, tout honnête homme devrait devenir socialiste ; et son ardeur à transformer le système industriel mesurerait et exprimerait alors son sens de la justice » [Clark, 1899, p. 4]. Cette citation tirée de son ouvrage sur la répartition de la richesse fixe dès les premières pages l’enjeu de la théorie : décider si les thèses des socialistes marxistes sont justifiées ou non. La réponse de Clark ne laisse évidemment aucun doute : la libre concurrence conduit à une juste répartition (l’expression « justice sociale » date de la fin des années 1910). On mesure donc la différence avec le point de vue des auteurs anglais : les économistes classiques étaient conscients de l’existence de classes sociales et de l’antagonisme de leurs intérêts (en dehors des phases de
34
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
croissance qui pouvaient profiter à tous). Clark, au contraire, comme tous les néoclassiques, substitue à l’analyse de la société en classes une analyse de l’économie à partir des individus. Les faits sociaux, les rapports de force s’évanouissent donc sous les apparences de contrats entre individus dont les caractéristiques individuelles sont seules déterminantes. On pourrait s’étonner de voir si longuement citer Clark, qui exclut précisément le risque de son analyse : comme chez Say, l’entrepreneur ne produit à ses yeux qu’un service de coordination. Cependant, la structure de l’œuvre de Clark annonce celle de Knight. En effet, Clark oppose statique et dynamique : schématiquement, il apparaît que le profit est impossible dans l’état statique, que seule la dynamique lui permet de se constituer ; mais la théorie ne peut traiter que les phénomènes statiques. Knight reprendra cette opposition, mais en déplaçant la nature de la contribution entrepreneuriale de la coordination à l’incertitude.
Au risque de l’incertitude En 1921, deux ouvrages majeurs introduisent la notion d’incertitude. Cette coïncidence remarquable ne doit pas faire oublier les points de vue très différents de leurs auteurs. Frank Hyneman Knight : la distinction « canonique » Lorsque la thèse de Knight est publiée en 1921, la question sociale est passée au second plan et les néoclassiques ont été temporairement défaits. La distinction par Knight du risque et de l’incertitude est largement trompeuse car l’auteur américain reste vague dans les formulations. Ainsi écrit-il : « Nous pouvons aussi employer les termes de probabilité “objective” et “subjective” pour désigner respectivement le risque et l’incertitude » [Knight, 1921, p. 233]. Sous la plume de Knight, la « probabilité subjective » — très décriée à cette époque qui précède les travaux bayésiens de Savage et de Finetti — désigne une probabilité dénuée de base rationnelle (voir p. 225 : « il n’existe pas de fondement valide d’aucune sorte… »). Cependant, la fin de la phrase laisse supposer des raffinements : « …car ces expressions sont déjà en usage avec des significations parentes de celles que nous proposons ». Knight laisse entendre que sa distinction offrirait quelque chose de plus que ses « parentes » et cette affirmation a entretenu la
LE
RISQUE
DE
L’ÉCONOMIE
POLITIQUE
35
curiosité des commentateurs. On cite alors souvent une (des variantes de cette) phrase : « Pour conserver la distinction que nous avons ébauchée dans le chapitre précédent entre une incertitude mesurable et une autre qui ne l’est pas, on peut utiliser le terme risque pour désigner la première, et incertitude pour la seconde » [Knight, 1921, p. 234]. Certains auteurs que l’on pourrait qualifier de knightiens « fondamentalistes » s’appliquent alors à montrer que la pensée knightienne est incompatible avec les représentations néoclassiques du risque. Mais il paraît difficile de voir dans cette « précision » de l’auteur autre chose qu’une maladresse : une (densité de) probabilité, qu’elle soit objective ou subjective, est depuis Borel une fonction mesurable. Ce qu’entend Knight, c’est qu’il est impossible de déterminer objectivement cette probabilité : ni du point de vue du calcul logique ou mathématique, ni du point de vue des mécanismes cognitifs qui sont mis en jeu dans la formation du jugement de probabilité. Puisque la distinction knightienne semble grevée d’imprécisions, tournons-nous vers ses caractérisations. L’auteur les emprunte à l’assurance. Discutant le « degré d’unicité » des phénomènes, il écrit : « L’assurance s’occupe de ceux qui sont “à peu près” classifiables, ou montrent un degré d’unicité assez faible, mais les différentes branches de l’assurance montrent des variations dans la précision des mesures de probabilité qu’elles atteignent » [Knight, 1921, p. 247]. Knight décrit alors ces différentes branches : l’assurance sur la vie est presque « mathématique », l’assurance-maladie est plus aléatoire (l’assuré peut cacher une maladie ou un comportement à risque), les contrats les plus étranges du Lloyd’s ne peuvent reposer sur aucune statistique (assurance sur le « succès d’un couronnement », sur le climat d’une région inconnue) et enfin la vie des affaires, en plus de ne posséder aucune statistique, expose l’assureur à un risque moral — c’est-à-dire à la possibilité que l’assuré vaque mollement à ses affaires en attendant le remboursement des manques à gagner consécutifs à sa négligence. À la suite de ces exemples, l’auteur se garde de tracer une frontière nette entre risque et incertitude : la concomitance d’un risque moral et de statistiques valables constitue un problème, et Knight s’abstient d’indiquer dans quelle catégorie il faut ranger de telles situations. Knight indique clairement en revanche que la vie des affaires n’est pas assurable, et attribue ce phénomène à l’incertitude qui résulte de la concomitance du risque moral et d’une absence de statistiques valables. En présentant des
36
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
configurations dont on ne sait comment les classer, les caractérisations n’éclairent donc pas beaucoup la distinction knightienne. Une autre voie consiste alors à s’intéresser non pas à la nature des probabilités elle-même, mais à la situation de décision : « Nous devons observer que dans le cas où il n’y a qu’un seul tirage, il n’y a aucune différence pour la conduite entre un risque mesurable et une incertitude qui ne l’est pas » [Knight, 1921, p. 234]. Knight pense donc toujours à l’opposition entre assurance et vie des affaires. La connaissance des probabilités n’est pas tout, il faut également que les tirages aléatoires soient répétés afin que puisse jouer un principe de compensation : « Si la distribution des issues dans un regroupement de cas est connue, alors il est possible de se débarrasser de l’incertitude en regroupant, ou en “consolidant” les cas » [Knight, 1921, p. 233-234]. La terminologie employée par l’auteur ne paraît pas évidente, il faut entendre par « issues » (outcome) le concept d’événement (ou état de la nature) résultant d’un tirage aléatoire, et par « cas » (instance) un de ces tirages (une observation d’une variable aléatoire). Au bout du compte, on peut se demander si Knight ne se contente pas d’énumérer les éléments qui séparent les risques assurables de l’incertitude liée à la vie des affaires, essentiellement non assurable. Dans la mesure où la connaissance des probabilités et la répétition des tirages aléatoires indépendants sont deux conditions nécessaires à l’assurance d’un risque, il suffit qu’une de ces conditions manque pour que l’on puisse parler d’incertitude. Peut-être faudrait-il situer l’apport de Knight à un autre niveau : celui de la théorie de la connaissance. Pradier et TeiraSerrano [2000] font le point sur ce sujet, en montrant en particulier que Knight, bien que positiviste, s’oppose à la vision pearsonienne de la science : il ne pense pas que le progrès de la connaissance réduira l’ignorance à néant. Il suit donc le physiologiste et philosophe allemand Du Bois-Reymond sur le terrain de l’ignorabimus : il existerait des domaines qui résisteront à jamais à notre entreprise de connaissance. L’incertitude est consubstantielle à notre humanité, en ce qu’elle témoigne non pas seulement des limites de notre connaissance actuelle, mais aussi de la résistance de certains objets même à l’« intelligence de Laplace », comme le soutient Du Bois-Reymond. Ainsi, la distinction knightienne possède trois dimensions : elle touche à la théorie de la connaissance, à la définition de la probabilité et au caractère assurable des phénomènes économiques.
LE
RISQUE
DE
L’ÉCONOMIE
POLITIQUE
37
John Maynard Keynes La thèse que Keynes soutient en 1909 était certes une thèse de mathématiques, mais cette ébauche du Traité de la probabilité constitue également une impressionnante synthèse sur la théorie de la connaissance : Keynes se situe sous le patronage de Hume. L’auteur propose en fait de fonder l’induction sur une nouvelle conception de la probabilité dite logique, mais avant cela il décrit négativement les conceptions possibles de la probabilité : « On peut considérer que dans certains cas il n’existe pas de probabilité du tout [1] ; ou bien que les probabilités n’appartiennent pas toutes à un ensemble de grandeurs mesurables [2] ; ou encore que ces mesures existent toujours mais que, dans de nombreux cas, elles sont et doivent rester inconnues [3] ; ou que les probabilités sont mesurables, bien que nous ne soyons pas toujours capables de les déterminer en pratique [4] » [Keynes, 1921, p. 33]. Cette typologie en creux a le mérite de faire apparaître de manière simple les positions des différents théoriciens, par exemple celle du positiviste Karl Pearson, dont l’influence sur Knight est indéniable : son opinion est la dernière énoncée par Keynes [4]. Pour Pearson, qui est statisticien, l’accumulation des connaissances n’a pas de limite. Le progrès des connaissances consiste à « déterminer en pratique » les grandeurs qui ne le sont pas encore. Mais Knight lui-même tempère cette position par l’ignorabimus de Du Bois-Reymond, ce qui le met certainement dans la troisième catégorie : Knight pense qu’il existe des probabilités objectives mais que l’incertitude nous empêche de les connaître [3] (les knightiens fondamentalistes et antipositivistes argumentent en faveur du premier type [1], mais cette interprétation nous paraît insoutenable). Quant à Keynes lui-même, il se revendique de la seconde variété puisqu’il tient que certaines probabilités ne sont pas comparables [2] (c’est le sens dans lequel il faut entendre ce « mesurable »). La position de l’Anglais est assez délicate car elle est novatrice. Keynes tente de dépasser l’opposition probabilité objective/probabilité subjective dont les deux pôles sont grevés de paradoxes [Arrous, 1982]. Cette reconstruction, qui vise précisément à éviter les cercles logiques, appartient au grand mouvement axiomatique auquel participe Russell, ami de Keynes. Ce dernier propose de dépasser l’opposition objective/subjective en donnant une nouvelle définition logique de la probabilité :
38
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
« Posons que nos prémisses consistent en quelque ensemble de propositions h, et notre conclusion en quelque ensemble a, alors, si la connaissance de h justifie une croyance rationnelle en a de degré a, nous dirons qu’il existe une relation de probabilité de degré a entre a et h » [Keynes, 1921, p. 4]. La probabilité est donc une relation entre deux groupes d’énoncés : l’un constitue l’information préalable du sujet et l’autre, la description de l’objet probabilisé. Remarquons le caractère à la fois subjectif et objectif de la probabilité logique. L’ensemble de propositions h est propre à l’individu qui établit le jugement de probabilité. Dans la mesure où nous pouvons être caractérisés par nos connaissances, ces connaissances nous définissent en tant qu’esprit. Et on peut dire que la relation de probabilité repose sur un fondement subjectif. Toutefois, la relation entre les deux ensembles de propositions n’est pas subjective ou arbitraire, elle obéit aux lois de la raison. Si on peut conclure certainement de h à a, par exemple, alors la certitude est rationnelle ; et, si ce n’est pas le cas, d’autres raisonnements supporteront un degré de probabilité rationnel. C’est précisément cette raison universelle qui confère un statut objectif à la relation de probabilité. Il faut attendre la fin des années 1930 pour que Keynes définisse l’incertitude non plus en référence à des situations cognitives ou à leur formalisation logique, mais du point de vue économique. On connaît bien sûr la fameuse citation de l’article de 1937 : « Par connaissance “incertaine”, je n’entends pas distinguer ce que l’on considère comme certain de ce qui est seulement probable. Le jeu de la roulette n’est pas, en ce sens, soumis à l’incertitude, pas plus que ne l’est la perspective de voir tel Victory bond tiré au sort. L’espérance de vie, pour sa part, est seulement légèrement incertaine. Même le temps qu’il fera n’est que modérément incertain. Le sens que je donne à ce terme est celui qu’il prend lorsque l’on juge incertain la perspective d’une guerre européenne, le niveau du prix du cuivre ou du taux d’intérêt dans dix ans, la date d’obsolescence d’une invention récente ou la place des classes possédantes dans la société de 1970. Il n’existe pour toutes ces questions aucun fondement scientifique sur lequel construire le moindre calcul de probabilité. Tout simplement : nous ne savons pas » [Keynes, 1937, p. 113-114]. Un autre aspect de la désignation par Keynes de l’incertitude apparaît dans l’exemple célèbre du concours de beauté, tel qu’il est décrit dans la Théorie générale (il faut toutefois rappeler que le
LE
RISQUE
DE
L’ÉCONOMIE
POLITIQUE
39
Traité de la probabilité présentait déjà un exemple voisin). Il s’agit explicitement d’un risque endogène, qui ne peut être convenablement décrit par des probabilités car il résulte des interactions que décrit la théorie des jeux (que nous avions exclue en introduction du champ de cette enquête. Signalons toutefois que la théorie des jeux traite en général de situations simples avec peu de joueurs). Les conséquences (théoriques) de l’incertitude Chez Keynes, la mise en avant de l’incertitude accompagne la démolition de la statue du commandeur : l’entrepreneur, d’abord, est déchu de sa surhumanité démiurgique, il n’est plus comme chez Schumpeter le visionnaire de l’avenir. En proie aux « esprits animaux », il ne décide pas mais subit sa chimie personnelle. Aucun calcul ne pourrait le guider, car le calcul économique, deuxième victime de Keynes, repose sur les bases insanes d’une certitude qui n’existe pas. La théorie économique keynésienne se tient en deçà de cette lecture « radicale », qui a pris corps chez les héritiers hétérodoxes de Keynes. Ainsi, les postkeynésiens mettent l’incertitude « radicale » au cœur de leur critique de la théorie économique néoclassique. Un aspect de cette critique consiste à privilégier les institutions génératrices de coordination et de stabilité, plutôt que la déréglementation instituant une flexibilité délétère. Les « Autrichiens », héritiers de Friedrich von Hayek, donnent eux aussi une place prépondérante à l’incertitude, mais pour exprimer leur confiance dans les marchés, conçus comme des mécanismes adaptatifs, produits d’un ordre spontané. Postkeynésiens et Autrichiens se retrouvent sur la critique du calcul économique et de la mathématisation en général, mais leurs recommandations de politique économique sont radicalement opposées : pour les premiers, le politique doit ordonner l’économique afin de réduire l’incertitude ; pour les seconds, l’économique est un cosmos qui s’organise tout seul et qu’il faut préserver des interventions extérieures. Curieusement, Knight, avec le même accent sur l’incertitude et le même scepticisme visà-vis des mathématiques, a conduit au triomphe de ceux-ci. Les conséquences paradoxales de l’incertitude knightienne Avec le concept d’incertitude, Knight montre que la contribution de l’entrepreneur n’est pas mesurable : il faut donc abandonner la question de la répartition plutôt que de chercher à la résoudre [voir Pradier et Teira-Serrano, 2000]. Cette problématique
40
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
relève de la morale (de ce qui doit être), et non de la science positive (qui décrit ce qui est). Knight choisit de se consacrer à l’étude des phénomènes qui relèvent de la science positive, par exemple aux « institutions créées pour répondre à l’incertitude », c’està-dire essentiellement à l’entreprise. Pour l’Américain, les entrepreneurs ne sont pas les managers, qui reçoivent un salaire, mais les actionnaires. Mais il paraît difficile, au début des années 1920, à une époque où les actions se diffusent rapidement, de prétendre que tous les petits porteurs sont autant d’entrepreneurs à part entière. Knight distingue alors entre des actionnaires passifs et « un petit groupe d’insiders qui sont les vrais propriétaires de la firme ». À un échelon supérieur, la société tout entière constitue l’« entrepreneur ultime » de cette « machine à satisfaire les désirs ». Knight jouit d’une double filiation : aux États-Unis, il a rapidement bénéficié d’une position institutionnelle favorable, à travers la direction du département d’économie de l’Université de Chicago pendant plus de vingt ans (jusqu’à la fin des années 1940), puis la présidence de l’American Economic Association. Knight, également fondateur avec Hayek, Popper et d’autres de la très libérale Société du Mont Pèlerin, passe dans ces diverses institutions le témoin à une jeune génération de Friedman, de Stigler, qui seront les pères spirituels des fameux « Chicago boys » des années 1980 (Fonseca [2004] souligne pour sa part les différences qui séparent les deux générations). Knight possède également des disciples en Angleterre : alors que Risk, Uncertainty and Profit était passé complètement inaperçu à sa sortie en 1921, le livre fait l’objet, en 1929, d’un séminaire interne à la London School of Economics. Plus qu’ailleurs, le choix de cet ouvrage témoigne du virage néoclassique chez les économistes anglais.
Et après ?
À la fin des années 1950, Arrow et Debreu proposent un modèle qui résume et généralise les résultats de Hicks et Samuelson. La généralisation est suffisamment vaste pour réintroduire le risque et les entrepreneurs. La théorie est toutefois si permissive qu’elle laisse libre cours à des interprétations qui ne l’épuisent pas.
LE
RISQUE
DE
L’ÉCONOMIE
POLITIQUE
41
Le risque et l’équilibre général : la théorie de la valeur Bien qu’Arrow ait, dès le début des années 1950, envisagé le « rôle des valeurs boursières pour la répartition la meilleure des risques », c’est Debreu qui donne la version la plus générale du traitement de l’incertitude dans sa Théorie de la valeur, en particulier dans le chapitre VII. Cet ouvrage, qui est considéré comme l’exposé le plus abouti de la tradition walrassienne, présente de façon particulièrement claire l’inflexion par rapport à la problématique classique de la répartition. Dans la Théorie de la valeur, l’« incertitude » (c’est le terme employé par Debreu) provient de la coexistence de plusieurs états de la nature (Debreu [1959] parle encore d’événements) — dont un seul se réalisera — à chaque moment de l’avenir. Ces états de la nature sont autant de « mondes parallèles » puisqu’il existe en fait un système de prix d’équilibre (et éventuellement des fonctions d’utilité ou de production) différents dans chacun d’eux. Notons, comme certains exégètes knightiens l’ont suggéré, qu’on peut imaginer une incertitude plus radicale que celle de Debreu : dans un monde où le nombre des états de la nature n’est pas connu, les échangistes ne peuvent s’accorder sur la nomenclature des biens. Pour n’être pas totale, l’incertitude présente dans la Théorie de la valeur porte néanmoins sur tous les biens : premier point de la généralisation. Deuxième point, le profit est également possible. En effet, dans le souhait évident d’étendre la portée des travaux de ses prédécesseurs, Debreu a choisi de prendre en compte des ensembles de production convexes. Les rendements d’échelle constants (qui garantissaient chez Clark et d’autres la nullité du profit) sont un cas particulier : le modèle admet également des rendements d’échelle décroissants. Comme cette hypothèse impliquerait une multiplication du nombre des entreprises (afin d’obtenir l’échelle de production la plus petite possible), Debreu considère que ce nombre est fixe. Lorsque les rendements sont ainsi décroissants, un profit apparaît. D’une part, ce fait permet de rendre compte de l’existence de titres de propriété des entreprises (les actions) qui sont incessibles dans le modèle. D’autre part, on peut envisager la relation entre risque et profit, bien que Debreu se refuse à interpréter son modèle. Du fait que, dans la Théorie de la valeur, l’incertitude porte (potentiellement) sur tous les biens, elle concerne (potentiellement) tous les agents. Bien que l’extension du risque à tous les agents ne constitue pas à proprement parler une nouveauté [Pradier, 2000b], la rupture avec la problématique antérieure aux
42
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
années 1930 est perceptible. Le risque n’est plus le fait d’une catégorie d’individus, ni un phénomène marginal (au sens où il n’expliquerait que des différences de faible ampleur avec un monde certain) : c’est un trait constitutif de toute la réalité économique. Ceci traduit évidemment une certaine prise de conscience — on a suffisamment dit que le XXe siècle montrait à tout point de vue une prolifération du mot lui-même — mais aussi l’abandon des questionnements sur la répartition sociale. Cette fois, le modèle de l’économie dessiné par les marginalistes s’accomplit. Il n’existe plus que des individus, et ce sont leurs revenus individuels que le modèle s’applique à déterminer. De plus, la rémunération de chaque intrant est clairement établie. Mais si l’on considère, comme les économistes du début du siècle, l’assomption du risque comme un intrant, on se heurte à un problème particulier : les probabilités des différents états de la nature ne sont connues de personne. Chaque agent n’a donc qu’une perception subjective du risque, non pas seulement parce qu’il possède une fonction d’utilité particulière mais parce que ses probabilités personnelles lui sont propres. L’interprétation du modèle de Debreu peut se révéler conforme à une certaine lecture de Knight : le risque en tant que tel peut être rémunéré, mais la relation entre cette rémunération et l’incertitude constitue un fait inexpliqué. Ainsi le risque conserve un statut particulièrement insatisfaisant dans une optique de répartition parce qu’il n’existe pas d’étalon de mesure incontestable comme c’est le cas pour les quantités de biens ou de temps. Enfin, grâce au système complet de marché, les agents peuvent s’assurer en transférant des revenus d’un état du monde à l’autre : c’est le système complet de marché qui permet de gérer sans coût le risque, c’est-à-dire sans que la création d’institutions adaptées soit nécessaire. Le risque dans les manuels d’économie L’entrepreneur semble aujourd’hui aussi entouré de discussions et d’hésitations qu’à l’époque de la polémique du Quarterly Journal of Economics. Aslanbeigui et Naples font l’inventaire des incohérences : d’un côté, certains observent que l’« entreprise » (au sens d’intrant fourni par l’entrepreneur) est un facteur comme un autre, rémunéré à la valeur de son produit marginal (c’était la position de Clark) ; de l’autre, on affirme que l’entrepreneur a droit au « résidu » (comme le pensaient Hawley et Knight), c’est-à-dire à ce qui reste une fois qu’on a payé tous les facteurs de production à leur produit marginal. Ces deux
LE
RISQUE
DE
L’ÉCONOMIE
POLITIQUE
43
propositions ne pourraient être simultanément vraies qu’en imposant des conditions très spécifiques (l’homogénéité des fonctions de production, que Clark supposait sans le savoir, comme l’a montré Edgeworth). De plus, les auteurs de manuels ont du mal à s’accorder sur la spécificité du travail de l’entrepreneur : estelle innée (on la rapprocherait alors d’une dotation initiale) ou acquise (investissement en capital humain) ? Puisque la question de l’entrepreneur n’est pas traitée avec plus de succès en 1990 qu’en 1890, voyons ce qu’il en est du risque. Quatre-vingts ans après, il ne semble plus rester grand-chose de l’« analyse fondatrice de Knight » dans la vulgate économique. Onze manuels recensés par Aslanbeigui et Naples exposent le choix risqué en faisant l’hypothèse que les probabilités sont connues et que la prise de risque exige une rémunération proportionnelle : ce qui revient à ne tenir aucun compte du problème de l’estimation subjective pourtant formulé explicitement par Adam Smith et réaffirmé par Knight. De fait, la présentation standard de la relation entre risque et rendement semble être celle de Markowitz (qui se place dans un cadre statistique, voir infra, chapitre IV ), les auteurs la généralisent à tous les secteurs de la vie économique. En matière financière, seuls Baumol et Blinder doutent de la capacité des investisseurs à estimer le risque en insistant sur le caractère mimétique des anticipations : dans un marché haussier (bullish), il est à prévoir qu’un surcroît de risque entraîne un rendement plus faible en moyenne (ces auteurs amplifient donc l’analyse de Smith). Les discours sur l’entrepreneur et l’assomption du risque échappent donc à l’exigence de cohérence logique. De là à penser qu’ils jouent essentiellement un rôle idéologique, il n’est qu’à constater l’enthousiasme qu’a mis le mouvement patronal à récupérer les connotations positives du couple entrepreneur-risque. Dans cette perspective, on ne peut que saluer la tentative de Petit et Sauze [2005] qui sortent du point de vue exclusif de l’entrepreneur : le risque n’est pas uniquement dans l’accomplissement de la production (une fois payés les salaires) ou la réalisation de la production (une fois supportés les autres coûts). Le risque est aussi (et, comme le montrent ces auteurs, surtout) du côté des travailleurs, qui font face aux accidents, aux maladies professionnelles mais aussi parfois au harcèlement, à la déqualification, etc. Il est également du côté de la collectivité tout entière qui peut supporter les effets collatéraux des décisions de l’entrepreneur avec la pollution. Il n’est jamais trop tard pour entendre la plainte des sans-voix !
IV / La finance comme discipline : théories « Un bourgeois qui ne risque point son argent n’en peut retirer qu’au taux du Roy. » Furetière
L
a finance se construit comme discipline à la suite de son exclusion par les économistes. En cela, Markowitz joue un rôle particulier, puisqu’il est le premier exclu : son parcours est révélateur d’un mouvement de fond qui conduit à l’institutionnalisation de la finance, discipline où la notion de risque est centrale (voir chapitre IV, encadré « Typologie des risques financiers »). Deux grandes familles de modèles appellent des traitements différenciés.
Les modèles statiques
Il s’agit de modèles d’équilibre du marché des titres qui se sont développés depuis les années 1950.
Histoire d’une évidence L’idée selon laquelle les choix incertains s’apparentent à un arbitrage entre rendement et sécurité remonte probablement à la plus haute Antiquité [Covello-Mumpower, 1985] ; sa formalisation mathématique date de la fin du XVIII e siècle (voir le chapitre II ) ; enfin, son expression la plus célèbre est
LA
FINANCE
COMME
DISCIPLINE
:
THÉORIES
45
probablement la théorie de Harry Markowitz, qui lui a valu un « prix Nobel 1 » d’économie en 1990. Les travaux formalisés des économistes sur le risque commencent où Laplace s’était arrêté. Étudiant la question des réserves bancaires, Edgeworth [1888] écrit : « La solvabilité et le profit du banquier dépendent de la probabilité qu’il ne soit pas appelé à rembourser d’un coup plus d’un tantième de son passif » — c’est exactement la définition du risque qu’on a rencontrée dans les travaux du XVIIIe siècle (voir supra, chapitre II). Ces notions de profit et de solvabilité constituent des instances relatives à la banque de concepts plus généraux : rendement et de sécurité (antonyme de risque). Après Edgeworth, Wicksell puis Pigou s’intéressent à la représentation du risque. Hicks, pour sa part, cherche non seulement à décrire mais encore à ordonner les distributions de probabilités (en termes de préférences). Il hérite pour cela du concept de « moment ». Différentes méthodes des moments ont existé chez les mathématiciens [Pradier, 2000b], sans aucun rapport avec la décision économique (par exemple, Pearson ajustait des courbes aux données empiriques en utilisant les moments). Hicks a vaguement entendu parler de ces méthodes, dont il ne conserve que les moments afin de décrire les courbes de fréquence. Pour marquer cette nouvelle modalité de l’emploi des moments, nous avons proposé de parler d’analyse en termes de moments, dont l’« analyse espérance-variance » de Markowitz s’est avérée un cas particulier (restreint aux deux premiers moments). Peu après la communication de Hicks devant l’Econometric Society, Chambers [1934] représente des systèmes de préférences sur les moments. En étudiant le problème de l’investissement, il considère des variables aléatoires décrites par leurs moments. L’auteur n’est pas explicite sur la construction des variables agrégées. L’important est pour Chambers que la moyenne figure le rendement moyen, et que l’écart-type représente le risque. L’auteur commente ainsi une carte d’indifférence : « Si notre individu peut recevoir deux pour cent sans aucun risque, il sera indifférent entre ces deux pour cent sans risque et deux et demi pour cent avec un écart-type de un, etc. pour toutes les valeurs de la courbe d’indifférence notée (iii). »
1. Il n’existe pas de « prix Nobel » d’économie, mais un « prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel », qui n’a rien à voir avec la fondation de ce dernier. Sur cette étrange institution singeant les « sciences dures », voir Lebaron [2000, p. 20 et p. 246 sq. ; 2002].
46
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
Typologie des risques financiers Les risques liés à l’activité bancaire ont fait l’objet d’une description et d’une classification systématique dans un rapport du Comité de Bâle [1997]. Ce texte distingue (p. 20-22) trois types de risques. 1) Le risque de crédit concerne le non-paiement à temps par un emprunteur des intérêts ou du principal ; en général, risque de défaut, risque de contrepartie et risque de signature sont synonymes de risque de crédit. Le risque pays est pour sa part « lié au contexte économique, social et politique du pays de l’emprunteur », un bon exemple étant fourni par les emprunts russes dont le remboursement n’a pas été honoré après la révolution de 1917. Le risque de transfert est un cas particulier du risque pays, qui couvre l’impossibilité pour un emprunteur d’avoir accès à la monnaie étrangère dans laquelle il s’est endetté. 2) Le risque de marché est un effet sur le bilan des variations de cours des titres ou actifs détenus. Les banques qui opèrent en tant que teneurs de marché sont particulièrement exposées en cas de variations brutales (krachs). On distingue, suivant les instruments :
— le risque de change ; — le risque de taux (d’intérêt) ; — les autres risques de marché (en particulier sur les actions). 3) Le risque opérationnel peut conduire à des « pertes directes ou indirectes résultant d’une inadéquation ou d’une défaillance attribuable à des procédures, des agents, des systèmes internes, ou à des événements extérieurs » [Comité de Bâle, 2001]. Il résulte essentiellement du défaut de contrôle interne aux firmes ou d’errements dans la gouvernance, à quoi on peut ajouter : — le risque de liquidité qui provient du manque à gagner qui résulte de la vente précipitée d’actifs ou de la souscription de crédits coûteux pour honorer un paiement (par exemple, pertes de Vivendi-Universal quand elle revendit précipitamment des actifs au printemps 2002) ; — les risques légaux liés à la négociation de produits nouveaux encore peu ou pas réglementés, ou à l’évolution du droit, qui peut être rétroactif en matière fiscale ; — les risques de réputation, qui sont particulièrement dommageables aux banques car ce sont des organismes de crédit, lequel repose évidemment sur la confiance.
On aura compris que les courbes d’indifférence sont croissantes dans le plan (variance, espérance) ; ceci traduit le fait qu’on n’accepte un accroissement de risque qu’au prix d’une rémunération (moyenne) supérieure. Il est également un point que Chambers ne précise pas de façon explicite, mais que son graphique (3) montre, c’est que la prime de risque croît plus que proportionnellement avec le risque ; les courbes d’indifférence sont donc (légèrement) convexes si le rendement est porté en ordonnées. L’existence de cette carte d’indifférence permet d’envisager la résolution du « programme de l’investisseur ». Le reste de l’article construit ainsi un équilibre entre offreurs et demandeurs de capital.
LA
FINANCE
COMME
DISCIPLINE
:
THÉORIES
47
Graphique 3. Les courbes d’indifférence dans le plan (variance, espérance) Y v iv iii 6 5 4 3 2 1 0
ii i
X
À la suite de Hicks, Chambers est parfaitement conscient du caractère approximatif d’un modèle qui ne prend en compte que les deux premiers moments — tout comme Marschak qui est le premier à proposer et à justifier explicitement l’importance du coefficient d’asymétrie, auquel Hicks se rallie définitivement par la suite. Le modèle de décision canonique comprend donc, en plus du rendement et du risque, un facteur de potentiel, suivant l’exemple que donne Marschak [1938] : les gens « n’aiment pas […] les situations où la consommation de viande peut varier dans un intervalle important ; […] et (en témoignent les supercagnottes sur les matches de football), ils aiment les gains élevés à faible probabilité, c’est-à-dire une forte asymétrie à droite des gains ». Comme en témoignent les titres des articles de Chambers [1934], Hicks [1935] et Marschak [1938], le risque est d’abord pris en compte comme une modalité du choix de portefeuille (c’està-dire la répartition de l’épargne entre monnaie, obligations, actions). À l’époque où Keynes élabore sa courbe de préférence pour la liquidité, ces auteurs cherchent donc des fondements microéconomiques aux comportements décrits par Keynes. Pour tous ces économistes, le choix entre les actifs patrimoniaux (argent liquide, obligations, actions, investissements directs) n’est pas l’objet d’une aide à la décision : il n’est pas question d’aider un épargnant à se constituer un portefeuille de titres financiers adapté à ses besoins, mais seulement de comprendre comment les variables macroéconomiques agissent sur la demande des diverses catégories d’actifs. On peut qualifier d’économique ce point de vue puisque le but de la théorie est de guider les
48
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
politiques macroéconomiques. Il s’oppose à la théorie financière qui va rapidement se développer avec pour objectif de conseiller les choix de portefeuille des épargnants, et non plus de représenter ceux-ci pour étudier l’effet macroéconomique des chocs sur les variables de décision. Harry Markowitz et l’« analyse espérance-variance » Début 1950, Markowitz décide d’entreprendre une thèse à la Commission Cowles, qui compte alors le gratin de l’économétrie mondiale (économétrie au sens ancien d’économie mathématique en général). Marschak a déjà réfléchi au choix de portefeuille. Il décide de déléguer la direction de thèse à Tjalling Koopmans, un des fondateurs de la programmation linéaire. La véritable « innovation » de Markowitz s’inscrit dans ce contexte, elle est purement mathématique : il s’agit d’optimiser une fonction quadratique sous des contraintes linéaires. La méthode de Markowitz permet de résoudre le problème suivant : soit un certain nombre de titres financiers (des actions), caractérisés chacun par un rendement (mesuré par l’espérance) et un niveau de risque (variance), on veut trouver le portefeuille de rendement maximal pour un niveau de risque donné, ou le portefeuille de risque minimal pour un niveau de rendement donné (ces deux programmes sont en fait liés, on les dit duaux en programmation). La difficulté mathématique vient du caractère « quadratique » des programmes à résoudre : la variance est une moyenne de carrés, et il est bien plus complexe de manipuler des carrés que des fonctions linéaires (c’est-à-dire sans puissances) des variables. À l’époque où Markowitz écrit, au début des années 1950, il est même illusoire de penser appliquer effectivement l’analyse à de véritables données : il faut toute la puissance des ordinateurs de l’armée pour calculer les portefeuilles optimaux avec seulement une cinquantaine de titres ! Même si elle paraît encore inapplicable, l’analyse de Markowitz donne une interprétation mathématique d’un très vieux principe, selon lequel « il ne faut pas mettre tous ses œufs dans le même panier ». En effet, la résolution du programme conduit à choisir des portefeuilles diversifiés (plutôt qu’à tout miser sur un seul titre). Cela n’est pas très nouveau : Nicolas Bernoulli [1730] résumait déjà l’article de son cousin Daniel par ces mots ! En revanche, la raison qui conduit à la diversification chez Markowitz mérite d’être expliquée : les corrélations imparfaites entre les titres. Par exemple, face à une hausse des
LA
FINANCE
COMME
DISCIPLINE
:
THÉORIES
49
cours du pétrole, les compagnies pétrolières seront favorisées, quand les constructeurs automobiles verront leurs titres pénalisés ; typiquement ces valeurs devraient être corrélées négativement, il peut donc être intéressant de les détenir conjointement. Même des actifs dont la corrélation est positive mais pas complète vont mutuellement amortir leurs fluctuations, sans toutefois que les gains et les pertes se compensent complètement.
Le risque dans la finance après Markowitz Le Capital Assets Pricing Model (on écrit parfois en français modèle d’évaluation des actifs financiers ou MÉDAF) constitue la mise en forme canonique du modèle de Markowitz. Comme Sharpe [1964] l’indique lui-même (p. 442), son modèle présente essentiellement de vieilles notions dans des habits neufs : le taux sans risque (notion déjà présente chez Ricardo, qui considérait que c’était le taux servi sur les emprunts d’État qui ne connaissent pas de risque de signature), le caractère offensif ou défensif d’une valeur, que représente la droite du marché des titres. L’innovation essentielle du CAPM réside dans la droite de marché des capitaux, on en comprend l’idée en regardant la frontière efficiente : puisque celle-ci est concave, il est possible de tracer une tangente à la frontière passant par le taux sans risque. Dès lors, la frontière est entièrement en dessous de cette droite. Sharpe montre que le point de tangence est le portefeuille de marché, c’est-à-dire le portefeuille dont la composition est la même que celle du marché (parts égales aux capitalisations relatives des différentes valeurs). L’équation de la droite de marché des capitaux (Capital Market Line) est obtenue à partir de ces deux points que sont le taux sans risque (0, rf) et le portefeuille de marché (s ( ;rm), E ( ;rm)) (on rappelle que le risque est en abscisses et le rendement en ordonnées ; les tildes (~) désignent des variables aléatoires). Son équation est donc : E ( ;rp) = rf + (E ( ;rm) – rf).
s( ;rp) . s( ;rm)
Cette équation exprime le fait que, sur la DMC, un surcroît de rendement par rapport au taux sans risque rf s’obtient au prix d’un accroissement de risque proportionnel.
50
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
La résolution complète du programme de Markowitz [voir Quittard-Pinon, 1993, p. 75 sq.] Elle conduit à dessiner la frontière efficiente : c’est l’ensemble de ces portefeuilles de rendement maximal pour un niveau de risque donné (et respectivement…). On la représente dans le plan (variance, espérance). Seule la partie supérieure de l’hyperbole est intéressante, la partie inférieure (en
pointillés) présente des alternatives dominées. Le choix d’un portefeuille donné sur la frontière est une question de goût. Comme on l’a vu, on peut représenter les préférences pour le risque dans le même plan. Il est donc possible, étant donné que les préférences d’un agent sont connues, de déterminer quel portefeuille de la frontière il va préférer. Le graphique 4 représente un tel choix. On comprend pourquoi il était commode que les courbes d’indifférence fussent
Graphique 4. La frontière efficiente r, rendement
σ , risque Titres individuels
Frontière efficiente (partie dominante de l'hyperbole)
Courbe d'indifférence du décideur
Partie dominée de l'hyperbole
Comme cette DMC domine la frontière efficiente, on peut alors allouer son capital entre d’une part le portefeuille de marché et d’autre part le taux sans risque : c’est le théorème de séparation des deux fonds (two funds separation theorem). Si, de plus, le marché des capitaux est « parfait » (si on peut s’endetter sans limite au taux sans risque), alors l’ensemble des placements possible n’est plus limité au segment [taux sans risque, portefeuille de marché], c’est toute la demi-droite [taux sans risque, portefeuille de marché] qui est admissible. Une telle représentation des allocations optimales conduit évidemment à favoriser la gestion indicielle (c’està-dire la réplication par les OPCVM ou mutual funds, des indices de marché), comme le montre Walter [2004].
LA
FINANCE
convexes, car la frontière efficiente étant concave, ces préférences garantissent l’existence d’un seul portefeuille optimal. Le modèle suppose donc quelques hypothèses purement mathématiques, comme la non-singularité de la matrice des variances-covariances et l’existence d’au moins deux actifs ayant des rendements distincts (si l’on n’a que deux actifs différents, la frontière est un segment, éventuellement une droite si l’on autorise les ventes à découvert). Si on désire
COMME
DISCIPLINE
:
THÉORIES
51
appliquer la solution qu’il donne, on se heurte au problème de la divisibilité des actifs réels qui n’est pas infinie ; mais pour un portefeuille suffisamment important, on peut s’approcher de la frontière. On constate alors que la procédure de choix d’actifs de Markowitz donne un sens nouveau au vieil adage : la relation croissante entre risque et rendement n’est pas donnée, elle doit être construite. Markowitz affirme qu’elle peut l’être et donne la méthode pour le faire.
Graphique 5. Le CAPM r, rendement
Portefeuille de marché
Taux sans risque
σ , risque Titres individuels
Frontière efficiente
Droite de marché des capitaux
Outre qu’il renouvelle les prescriptions de Markowitz, Sharpe propose une analyse du risque qui innove par une décomposition de ce concept. Le CAPM permet d’exprimer la prime de rendement de chacun des actifs (par rapport à l’actif sans risque) comme une fraction de la prime de rendement du portefeuille de marché : E ( ;rj ) – rf = bj (E ( ;rm) – rf). Cette fois ;rj représente le rendement (aléatoire) de l’actif j. E ( ;rj) – rf est donc la prime de rendement moyenne de l’actif j par rapport au taux sans risque r f . Cette prime de risque est proportionnelle à la prime de risque du portefeuille de marché. Cette équation définit la droite de marché des titres dans le plan
52
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
(b,r). On voit donc que le rendement est proportionnel à b, qui mesure également le risque (voir encadré). Le CAPM apparaît donc d’abord comme une clarification de la notion de risque en finance, avec la décomposition du risque propre à chaque actif en risque spécifique éliminable par la diversification et risque systématique non diversifiable, non réductible. Le terme « risque » sans autre qualificatif est également caractérisé dans le modèle par un concept plus abstrait : le prix de marché du risque désigne le taux d’échange entre surcroît de rendement et surcroît de risque. C’est donc la pente de la DMC ; on peut l’écrire : l* =
E( ;rm) – rf . s( ;rm)
Remarquons que s’il existe un prix de marché du risque, si l’on peut représenter tous les titres comme une combinaison d’actif sans risque et d’un actif unique (qui serait l’actif risqué moyen), c’est parce que le modèle suppose l’équilibre du marché financier. C’est donc un modèle théorique où sont représentés les acheteurs et les demandeurs de titres. Le CAPM : modèle opérationnel ou langage ? Même si elle présente une élaboration remarquable, la spécification du concept de risque dans le CAPM flotte doublement. D’une part, si le risque s’entend comme la possibilité de pertes, c’est la dispersion des issues négatives ou inférieures à la moyenne qu’il faudrait considérer comme risque à proprement parler. Markowitz [1959] avait proposé la semi-variance comme mesure du risque, avant de montrer qu’elle apportait plus de complications que d’avantages. Cette spécification asymétrique du risque est l’objet d’un éternel retour, chez les théoriciens intéressés aux moments partiels comme chez les praticiens des approches dites downside risk ou shortfall. Cette dernière méthode retourne sans le savoir à Condorcet : au lieu de construire la frontière efficiente comme lieu des portefeuilles présentant le meilleur rendement pour un risque (variance) donné, on cherche le meilleur rendement pour une probabilité donnée de perte d’une somme donnée — il s’agit aussi d’un cas particulier de la Value-at-Risk dont nous reparlerons au chapitre VI. Notons que, si les rendements sont normaux, cette méthode est équivalente à celle de Markowitz. En revanche, si ce n’est pas le cas, l’approche shortfall
LA
FINANCE
COMME
DISCIPLINE
:
THÉORIES
53
est complexe à mettre en œuvre : il faut estimer la distribution de probabilité des portefeuilles sur données passées, ce qui signifie des calculs très importants. En outre, les résultats du modèle sont très sensibles aux données : la variance est une statistique de dispersion la plus efficace, alors que les densités de probabilité sont très peu robustes [voir par exemple Jacquillat et Solnik, 2002, p. 95]. Le CAPM, pour sa part, conserve la variance pour sa simplicité d’utilisation et son efficacité statistique, mais c’est insatisfaisant du point de vue de la définition. D’autre part, les modèles hérités du CAPM ne prennent en compte que le risque de marché lié aux actions, c’est-à-dire une part infime du risque lié aux activités financières (voir supra, encadré « Typologie des risques financiers »). Du côté des applications, force est de constater que le principe de réalité s’est appliqué plus rapidement aux financiers qu’aux économistes. À l’origine, le modèle de Markowitz et ses raffinements sont complètement théoriques : la masse de calculs à opérer sur la matrice des variances-covariances, matrice qu’il faut inverser, dépasse très largement les capacités de calcul disponibles. À peine Markowitz réalise-t-il à la fin des années 1950 une maquette sur les ordinateurs de l’Office for Naval Research ; la résolution grandeur nature du programme (avec tous les titres du marché financier) paraît une affaire de science-fiction. Pourtant, au fur et à mesure que la puissance de calcul devient disponible, soit dès le début des années 1970, les doutes apparaissent : les statistiques obtenues ne sont pas stables, le choix dicté par le modèle n’est pas optimal car le passé ne prévoit pas bien l’avenir sur les marchés financiers. En affirmant la nécessité de construire la relation entre risque et rendement, Markowitz marque un tournant dans l’analyse économique : la diversification n’est plus un moyen de diminuer le risque, elle est une nécessité pour l’individu rationnel. Le choix dicté par le modèle représente ce que seraient les préférences des agents si leur capacité de calcul étaient celles du théoricien (ou de l’ordinateur convenablement programmé).
Les modèles dynamiques Pour raisonner non plus sur des variables aléatoires mais sur des processus, il faut des outils mathématiques bien plus complexes. À la fin du XIXe siècle, Louis Bachelier a produit une innovation qui permet de représenter les fluctuations de la rente à 3 % (voir
54
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
première sous-section). Les contemporains accueillirent ces idées originales avec une condescendance teintée de mépris, si bien que la carrière de Bachelier fut aussi modeste que ses travaux furent peu diffusés. Lorsqu’au début des années 1970, un financier et un physicien retrouvèrent la piste empruntée par Bachelier, c’est une véritable autoroute qui s’ouvre à la finance de marché naissante (voir deuxième sous-section). Les techniques et la littérature se développent aussi rapidement que les marchés financiers. Malgré une créativité mathématique florissante, on peut regretter une élaboration souvent insuffisante des concepts théoriques de base, comme celui de risque (voir troisième sous-section). La thèse de Louis Bachelier Sous son aspect purement mathématique, la contribution de Bachelier s’articule autour de la notion de probabilité continue. Un exemple fera sentir la nature de cette innovation : au jeu de pile ou face, les gains sont discrets, c’est-à-dire que l’on gagne une (ou plusieurs) unité monétaire à chaque partie. L’idée de Bachelier est de réduire le gain à une quantité infinitésimale (la durée de chaque partie étant elle-même infinitésimale) pour que puissent s’appliquer les règles du calcul différentiel (ce qui ne va pas de soi car les trajectoires, pour être continues, ne sont pas forcément différenciables). Formellement, Bachelier considère que le dP prix d’un titre de rente (P), suit un processus tel que : = sdz. P dP C’est-à-dire que le taux de croissance du prix ( ) pour chaque P accroissement infinitésimal du temps (dt) est égal à un bruit blanc (on dit aussi processus de Wiener). Le bruit blanc lui-même peut s’expliciter comme dz = e BNN dt, où e est elle-même une variable aléatoire qui suit une loi normale centrée réduite. On voit donc que l’écart est proportionnel à la racine carrée du temps écoulé. Cette « loi de la racine carrée » rappelle les premiers travaux sur la dispersion, de Tetens [1785] à Regnault [1863]. Les applications de ce formalisme sont nombreuses en physique : diffusion de la chaleur, des ions dans une solution, etc. Le terme « diffusion » désigne d’ailleurs les processus stochastiques du type de celui considéré par Bachelier. Mais à l’époque où Bachelier écrit, ce formalisme n’existe pas encore et son sujet paraît exotique puisque sa thèse étudie les cours de la Bourse. Une manière plus littéraire d’exprimer la contribution de Bachelier à
LA
FINANCE
Les produits dérivés Les actions, les obligations sont des produits simples et anciens. Les premières correspondent à des parts de propriété du capital social des entreprises, les secondes à des reconnaissances de dette. Depuis le Moyen Âge au moins existent des produits plus complexes, comme par exemple les ventes à termes (forward) ou les options. De manière générale, une option est un instrument qui confère le droit (mais pas l’obligation) d’acheter (option d’achat ou call) ou de vendre (option de vente ou put) un actif sous-jacent pour un prix convenu, le prix d’exercice, à une date convenue (option dite « européenne ») ou jusqu’à cette date (option dite « américaine »). Depuis les années 1980, il existe en plus de ces options dites « vanilla », des options exotiques. Hull [2004, chapitre 19] recense une douzaine de catégories d’options exotiques, mais l’inventivité des chercheurs, structureurs et autres ingénieurs financiers ne connaît pas de limite en la matière. Les swaps constituent d’autres types de dérivés qui consistent à échanger des flux de revenus ou des produits. On peut également ranger les options par catégories d’actifs
COMME
DISCIPLINE
:
THÉORIES
55
sous-jacents. On remarque alors que le Moyen Âge a essentiellement connu des options sur commodities : les prêts à la Grosse (aventure) interdits par la décrétale naviganti de 1237 étaient remplacés par une option de vente de la marchandise à l’arrivée. Depuis la loi de 1885 sur les marchés à terme, on négocie légalement en France les options (autrefois appelées primes) sur actions. Mais ces produits étaient essentiellement l’objet de transactions de gré à gré, en dehors de marchés réglementés. Aux États-Unis, le Chicago Board Option Exchange est créé en 1973, en France, il faut attendre le milieu des années 1980 : 1987 pour les produits de taux (MATIF) et 1988 pour les actions (MONEP), qui sont aujourd’hui des compartiments d’Euronext. On observe maintenant des transactions de gré à gré sur des sous-jacents de plus en plus variés, y compris des données météorologiques ou des crédits souscrits par des particuliers (et non plus seulement les titres de dette d’État négociés sur le MATIF), etc. Signalons pour finir qu’un organisme de placement collectif utilisant des produits dérivés, par opposition aux portefeuilles de titres traditionnels, s’appelle en anglais un hedge fund. En français, on parle de gestion alternative.
ce sujet consiste à dire qu’il trace une courbe entre les points qui représentent les transactions effectives (dans un plan où le temps est en abscisses et les cours sont en ordonnées). Mais à quoi bon ? La modélisation des cours permet d’envisager l’évaluation de produits dérivés (ventes à terme, options). Il faut savoir qu’à l’époque, la place parisienne est la première place mondiale pour les produits de taux, c’est d’ailleurs pourquoi les emprunts russes ont été placés sur ce marché obligataire. Depuis l’émission en 1825 de l’emprunt finançant le milliard des émigrés, Paris est devenu le centre de l’émission des titres de rente ou obligations perpétuelles. Celles-ci permettent à leurs détenteurs de jouir de
56
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
revenus réguliers, dans la mesure où il n’y a pas d’inflation. La fortune des plus petits rentiers comme des grands seigneurs se compte alors en livres de rente, qui, déjà du temps de Balzac, désignent autant les revenus fonciers des aristocrates que les dividendes des placements acquis par les financiers parvenus. Les obligations perpétuelles, spécialité parisienne, sont des titres dont la valeur fluctue en raison inverse du taux d’intérêt, mais comme ce dernier est aussi stable en tendance que les prix, il n’existe pas de tendance longue significative des cours de la rente : à chaque instant, le cours peut augmenter ou baisser symétriquement (le bruit blanc est symétrique). Notons toutefois que l’hypothèse de nullité de l’espérance de variation propre à Bachelier n’est pas purement descriptive, elle comporte également une part normative : la spéculation sur la rente apparaît ainsi comme un jeu équitable (« l’espérance mathématique de toute opération est nulle », Bachelier [1914, p. 180]). Pour parvenir à l’évaluation des options, en quelques pages, Bachelier touche la notion de chaîne de Markov [Markov, 1906] et décrit par l’équation de la chaleur un processus qu’on appellera un (mouvement) brownien géométrique (diffusion dont l’équation est donnée dP = mdt + sdz, où mdt est appelé terme de dérive. En raison par : P de l’hypothèse nullité de l’espérance, Bachelier considère une dérive nulle). On parvient ainsi à l’évaluation d’une option d’achat : s–x s–x (s – x). F + s. s Mt F s Mt s Mt où s désigne le prix actuel du titre sous-jacent à l’option, x le prix d’exercice de l’option (actualisé), t la durée de l’option (en années ou fractions d’année) jusqu’à la date d’exercice, s la volatilité du titre, F la fonction de répartition de la loi normale centrée réduite.
(
)
(
)
Les développements de la finance de marché À la suite des travaux de Bachelier, on a vu les mathématiciens retrouver l’analogie entre diffusion de la chaleur et mouvement brownien [Einstein, 1905] puis perfectionner les mathématiques adéquates [Wiener, 1923 ; Kolmogorov, 1931] au point de développer un véritable calcul intégral stochastique [Itô, 1951 ; Kac, 1950]. Dès lors que l’outil est conçu, il devient possible de l’utiliser. Mais surtout, à côté des moyens techniques,
LA
FINANCE
COMME
DISCIPLINE
:
THÉORIES
57
il existe une « demande sociale » : pendant les années 1950, la capitalisation boursière américaine explose, avec le développement des fonds de pension et d’un actionnariat des classes moyennes ; puis, dans les années 1970, l’effondrement du Système monétaire international et la politique monétaire restrictive de la FED ont conduit au développement des instruments financiers de couverture, en particulier les dérivés de change et de taux. À partir de cette époque, la finance de marché explose littéralement. D’abord dans les revues scientifiques, où l’on assiste à l’épanouissement de modèles. Black et Scholes [1973] proposent d’évaluer le prix d’une option par la méthode du portefeuille répliquant : ils montrent qu’une option est équivalente à un portefeuille composé de l’actif et de monnaie, dans des proportions qui sont ajustées continûment. Si le taux de rendement de l’actif suit un brownien géométrique, alors l’intégration de l’équation de la chaleur permet d’évaluer le portefeuille répliquant (d’une option d’achat) par la formule suivante : s. F
(
2
ln
(xs ) + ( r + s2 ) t s Mt
)
– rt
– x. e . F
(
2
ln
)
(xs ) + ( r + s2 ) t . s Mt
On reprend les notations utilisées pour la formule de Bachelier, en ajoutant r, le taux d’intérêt sans risque. La nouveauté vient surtout de ce que la détermination de la volatilité est un véritable problème : celle-ci se définit comme l’écart-type annuel des rentabilités calculées sur la durée de vie de l’option quand celles-ci sont composées de manière continue… De telles données n’existent évidemment pas, puisque la vie de l’option est future. Il faut recourir au passé, qui prévoit mal l’avenir, comme on le sait. Ou alors, on peut « inverser » la formule de Black et Scholes pour calculer d’après le prix des options effectivement vendues, la volatilité dans ce cas dite « implicite » [voir par exemple Hull, 2004, chapitre 12]. Ce faisant, on considère que les prix des options observés sur le marché reflètent une application correcte de la formule. Ceci pose évidemment le problème du statut épistémologique de la théorie. L’article de Black et Scholes est remarquable pour deux raisons. D’une part, il illustre le rôle de la finance de marché : évaluer les produits financiers. Au moment où les instruments de couverture sur taux vont être amenés à se développer avec la destruction du SMI, il paraît nécessaire de pouvoir déterminer le prix à faire payer aux acheteurs d’options sur devises. D’autre part, la méthode du portefeuille répliquant permet d’évaluer d’autres
58
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
produits : Bouleau [1998] n’hésite pas à parler de « rupture épistémologique » à propos de cette innovation. De fait, cette innovation théorique va permettre l’accélération des innovations de produits chez les banquiers. Car les banques vont se livrer une véritable concurrence pour créer des produits financiers nouveaux [Lefort et Pradier, 1999], qu’il faut évaluer correctement pour empocher des commissions sans perdre ensuite sur la vente de ces produits. D’autres articles ont fait date en la matière : ainsi Harrison et Kreps [1979] puis Harrison et Pliska [1981] vont reconsidérer toutes les évaluations précédentes en recourant à la théorie des martingales (le terme « martingale » ne désigne pas ici une tactique pour gagner aux jeux de hasard, comme par exemple la fameuse martingale de Pascal, qui consiste à doubler la mise à chaque fois qu’on perd. Il s’agit d’une catégorie de processus stochastiques dont l’espérance des valeurs futures est donnée par la valeur présente ; typiquement, les browniens sans dérive comme ceux qu’a considérés Bachelier sont des martingales, mais il existe d’autres processus dotés de la même propriété). Si la modélisation semble avoir gagné en abstraction, l’ère du bricolage n’est pas close pour autant, car certains auteurs n’hésitent pas à aborder des questions pour lesquelles il n’existe pas de solution analytique, de « formule fermée », comme la formule de Black et Scholes. Il faut alors recourir à des procédés numériques pour approcher les solutions. Hull [2004] consacre plusieurs chapitres à ce sujet, dont il a été (aux côtés de Ho et Lee) l’un des pionniers dans ses articles avec White. Ces dernières références concernent en fait un sujet bien différent des options sur actions, il s’agit de l’évaluation des produits de taux. En la matière, un sous-domaine important est constitué par les modèles représentant la courbe des taux, c’est-à-dire les différents taux d’intérêt en fonction de leur maturité. Là encore, le calcul stochastique trouve un champ d’application, puisque le point de départ de ces modèles est la représentation du taux court par un processus stochastique. À la suite de Vasicek [1977], on recense de nombreux articles dont Bisière [1997] dresse un panorama remarquable. Cette famille de modèles ne permet pas d’évaluer directement les produits, elle a plutôt pour objet de quantifier l’impact d’une déformation de la courbe des taux sur le bilan des engagements d’une institution : ceci concerne donc indirectement le risque de marché lié aux variations de taux. La multiplication des marchés, des produits, des intermédiaires s’appuie sur une législation en constante et rapide évolution pour
LA
FINANCE
COMME
DISCIPLINE
:
THÉORIES
59
s’adapter aux demandes des professionnels [voir Jégourel, 2005 ; Cartapanis, 2004]. Les volumes des transactions connaissent une croissance exceptionnellement rapide [BRI, 2004b, p. 21-22] : la valeur des contrats dérivés de gré à gré (OTC) s’élevait à 220 000 milliards de dollars en juin 2004, contre 100 000 milliards trois ans plus tôt. Enfin, une littérature professionnelle se développe autour des chercheurs bancaires, si bien que la production de modèles d’évaluation ou de représentation atteint une densité et une profondeur extraordinaires. Comme les chercheurs dans les revues scientifiques, les banques ou les institutions financières se livrent d’ailleurs une véritable concurrence en matière de publications. L’oubli du risque Avec une pertinence remarquable, Jean-Philippe Bouchaud [1995] dénonçait dans un article du Monde le déni du risque dans les modèles de la finance de marché. Pour cet auteur, physicien d’origine comme Fisher Black, tous les modèles reposent sur des hypothèses qui nient l’existence du risque. Par exemple, pour évaluer une option par la méthode de Black et Scholes, on fait l’hypothèse que cette dernière est équivalente à un portefeuille composé de l’actif et de monnaie, dans des proportions qui sont ajustées continûment. Cet ajustement continu, au sens où la droite réelle est continue, est évidemment une hypothèse très forte. Dans la réalité, on réajuste à intervalles discrets. Le hedging en temps réel n’existe pas plus que les courbes de cours : il existe des transactions repérées par des points discontinus. L’hypothèse d’ajustement continu, comme celle de hedging parfait en temps réel, ou encore celle d’absence d’opportunité d’arbitrage, disent toutes que les cours varient continûment sans jamais faire de sauts. L’histoire a montré que le temps est granuleux, que les cours des titres font des sauts, bref que la continuité est une hypothèse théorique commode qui revient à nier une partie des risques de marché. Dans la réalité, les variations brusques peuvent entraîner des pertes, voire des situations d’illiquidité, comme ce fut le cas des banques européennes après la crise russe à la fin de l’été 1998 [MacKenzie, 2001 ; Giraud, 2001]. Cette crise est d’autant plus symbolique qu’elle a conduit LTCM à la faillite (voir encadré). Un tel accident est bien la preuve que la science des options a négligé le risque. Bouchaud et Potters [1997] systématisent la critique : à leurs yeux, la théorie ordinaire, en ne considérant que des
60
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
La chute de LTCM Long Term Capital Management est un fonds d’investissement créé en 1994 par John Meriwether. Ce dernier est une figure controversée de la finance. Trois ans plus tôt, il a quitté Salomon Brothers, au milieu d’une atmosphère de scandale : la banque avait manipulé les émissions de bons du Trésor et encouru une amende de près de 300 millions de dollars, Meriwether lui-même avait écopé de 50 000 dollars à titre personnel. Mais Salomon Brothers a été pendant toutes les années 1980 à la pointe du développement du trading et des produits financiers, en particulier des produits de taux dont Meriwether dirige les activités. Meriwether a la réputation d’être un génie de la finance. Il a constitué une équipe de crack traders et un comité de sages composé de David Mullins, vice-chairman de la Réserve fédérale, et d’une brochette d’universitaires, de Greg Hawkins à Myron Scholes et Robert Merton, ces deux derniers lauréats du « prix Nobel »
d’économie. Une autre façon de mesurer le prestige de Meriwether consiste à évaluer les fonds qui lui sont confiés à la création de LTCM : plus d’un milliard de dollars. À cette somme s’ajoute rapidement la possibilité d’emprunter sur le marché interbancaire à des conditions qui ne sont normalement accordées qu’à de grandes banques. Grâce à ces facilités de crédit, Meriwether se lance en grand dans des opérations risquées. Outre des investissements en actions de pays émergents, surtout en Russie, LTCM se spécialise dans la gestion alternative : recours à des instruments financiers sophistiqués plutôt qu’à des placements en titres comme les OPCVM classiques, SICAV ou fonds de pension. En particulier, LTCM parie que la baisse des taux s’accompagnera d’une réduction de la prime de risque. Ces activités offrent un rendement très faible, mais le crédit dont jouissait le fonds lui permettait d’exercer un levier gigantesque. En 1998, les 4 milliards de dollars de capital de LTCM garantissaient 125 milliards de prêts, lesquels étaient consacrés à l’achat de produits
processus normaux (c’est-à-dire suivant une loi normale), autorise des écarts de cours assez faibles et exclut ainsi de l’analyse les risques de krach. À y regarder de plus près, la représentation probabiliste des cours des titres conduit peut-être à une forme de passivité : dans le cas de LTCM, comme dans celui du krach d’octobre 1987, le problème n’est pas tant la possibilité de la perte massive que sa raison. Il faut d’abord identifier les possibles : le montant maximal de la prime de risque par exemple ou le volume de transactions qu’un concurrent peut gérer pour assécher un marché et provoquer des tensions extrêmes, dans le cas de LTCM, l’emballement des programmes informatiques de trading en 1987. Car finalement, les spéculations risquées sont celles qui provoquent des déséquilibres, des pénuries où tous les opérateurs de marché penchent du même côté : il n’y a plus alors de contrepartie et les cours dévissent. À ce moment, on conçoit qu’on a quitté le cadre
LA
FINANCE
financiers représentant un encours total de plus de 1 000 milliards de dollars. Pendant les premières années, le rendement était de l’ordre de 40 % par an. Mais à l’été 1998, la Russie fait défaut sur sa dette souveraine. Un an après le déclenchement de la crise asiatique, les marchés financiers ont réagi très brutalement par une fuite vers la qualité (flight to quality) : l’écart de rémunération entre les titres de dette d’État et les meilleures obligations corporate passe de 6 à 24 points de base (0,06 à 0,24 point de pourcentage). La prime de risque explose à tous les niveaux. LTCM, qui misait sur la réduction de la prime de risque avec des volumes énormes, enregistre des pertes astronomiques : 50 millions de dollars par jour, avec des pointes à 500 millions les 21 août et 21 septembre 1998. Le 22 septembre, la FED convie les principaux banquiers de la place de New York pour un petit déjeuner où il est décidé de recapitaliser — c’est-à-dire de renflouer — LTCM qui a perdu ses 4 milliards de dollars de fonds propres et menace le système financier.
COMME
DISCIPLINE
:
THÉORIES
61
La faillite de LTCM résulte de trois erreurs. D’abord, personne chez LTCM ne s’attendait à une telle explosion de la prime de risque : la probabilité des événements qui ont entraîné la faillite paraissait infinitésimale (la perte de 50 % des fonds propres en un mois représentait un événement dépassant dix écarts-types d’amplitude) du fait de l’hypothèse de normalité. Ensuite, ces valeurs anormales ont entraîné des pertes énormes à cause du levier gigantesque obtenu par le crédit de LTCM. Les banques n’auraient pas dû prêter à un fonds dans les conditions auxquelles elles se prêtent (c’est-à-dire à un coût très faible), car LTCM n’était pas supervisé par les autorités de marché comme l’est une banque. La défaillance est donc interne mais aussi externe : le contrôle des autorités et des pairs ne s’est exercé que quand la faillite imminente menaçait tout le système financier. La chute de LTCM conduit donc à réviser la modélisation probabiliste des risques financiers ainsi que la réglementation prudentielle des activités de marché.
probabiliste de la décision contre la nature pour entrer dans le domaine des interactions, et ce sont plutôt les travaux hétérodoxes qui décrivent cette polarisation mimétique des anticipations. Si on veut conserver un cadre de raisonnement probabiliste, on peut intégrer le risque de krach aux modèles en remplaçant les processus normaux par des processus alpha-stables. Il faut alors les repenser, car le calcul des solutions ne va plus forcément de soi : la lourdeur analytique des lois alpha-stables (pour lesquelles il n’existe en général pas de densité) ne garantit pas l’existence de formules d’évaluation dites « fermées » (closed-form equations). Il faut alors inventer des procédures de calcul numériques qui sont longues à développer et coûteuses en temps de calcul. Cela promet de donner du travail à des générations de mathématiciens et de physiciens. Surtout, l’épaississement des queues de distribution entraîne l’élargissement des intervalles de fluctuation
62
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
potentiels et donc le renchérissement des produits financiers pour faire place à ces marges de sécurité. On peut alors craindre un dumping financier : les firmes soumises aux régulations les plus laxistes proposeraient des produits moins sûrement garantis mais moins coûteux. La faillite de LTCM illustre la gestion aux limites d’un hedge fund non soumis aux régulations de la profession bancaire. De manière plus générale, il n’existe pas de théorie mathématique du risque financier comparable à la théorie mathématique du risque des actuaires (voir supra). Alors que les assureurs ont depuis deux siècles appris à évaluer le risque global lié à un ensemble de contrats, les financiers sont tributaires d’hypothèses de calcul qui excluent la notion de risque.
Épistémologie Les deux sections précédentes ont dressé un tableau contrasté de la théorie financière et de ses applications. Cette discipline académique naît avec une prétention opérationnelle très forte, mais ses insuffisances conceptuelles d’une part, la nature de ses hypothèses d’autre part, conduit à penser que la relation entre les modèles et la réalité est peut-être d’un genre spécial (voir This [1996] pour un survey sur la question). Keynes : convention et compétition Keynes doute de la possibilité de prévoir à cause de l’incertitude radicale. Il constate d’ailleurs les biais cognitifs qui président à la constitution d’une prévision : « Il serait absurde, lorsqu’on forme des prévisions, d’attacher beaucoup de poids aux choses très incertaines. Il est donc raisonnable de se laisser guider dans une large mesure par les faits dont on se sent assez certain, même s’ils n’ont pas pour le fait considéré une importance aussi décisive que d’autres faits dont on n’a qu’une connaissance limitée et imprécise. C’est pourquoi les faits actuels jouent un rôle qu’on pourrait juger disproportionné dans la formation de nos prévisions à long terme ; notre méthode habituelle consistant à considérer la situation actuelle, puis à la projeter dans le futur après l’avoir modifiée dans la seule mesure où l’on a des raisons plus ou moins précises d’attendre un changement » [Keynes, 1936, p. 164].
LA
FINANCE
COMME
DISCIPLINE
:
THÉORIES
63
Cette méthode est si répandue que chacun peut s’attendre à ce qu’elle soit utilisée par tous. Si bien que, face à l’incertitude de l’avenir, cette convention permet de faire converger les plans des acteurs sociaux, et en particulier des opérateurs financiers : « Dans la pratique, nous sommes tacitement convenus, en règle générale, d’avoir recours à une méthode qui repose à vrai dire sur une pure convention. Cette convention consiste essentiellement — encore que, bien entendu, elle ne joue pas toujours sous une forme aussi simple — dans l’hypothèse que l’état actuel des affaires continuera indéfiniment à moins qu’on ait des raisons définies d’attendre un changement » [Keynes, 1936, p. 167]. En tant qu’instrument de détermination des prix, les modèles constituent donc une forme élaborée de convention dont on constate ici qu’elle n’est « pas toujours sous une forme aussi simple ». Si, pour les marchés spot, on peut se contenter d’assertions grossières du genre « compte tenu de l’offre et de la demande, le prix de telle matière première devrait être tant », il n’en va plus de même dès qu’on fait intervenir les futures, puis les dérivés. Les modèles d’évaluation sont une forme, assez complexe il est vrai, de bon sens également grossier. En effet, le jugement des modèles, comme celui du professionnel des marchés spot, repose sur un grand nombre d’hypothèses implicites, et ces jugements sont utilisés sans qu’on fasse état de réserves sur elles. Ceci n’exclut pas d’autres usages des théories, qui peuvent rassurer leur auteur soit comme dispositifs magiques, soit comme gesticulation, soit encore comme discours de légitimation, le tout éventuellement à usage des autres. La première catégorie pourrait être illustrée par une citation tirée de la Théorie générale de 1936 : « Il est probable que nos décisions de faire quelque chose de positif dont les conséquences s’échelonneront sur de nombreux jours ne peuvent pour la plupart être prises que sous la poussée d’un dynamisme naturel — d’un besoin spontané d’agir plutôt que de ne rien faire — et non en conséquence d’une moyenne pondérée de bénéfices quantitatifs multipliés par des probabilités quantitatives. […] Le calcul exact des bénéfices à venir joue [dans l’entreprise] un rôle à peine plus grand que dans une expédition au Pôle Sud. Aussi bien, si le dynamisme faiblit, si l’optimisme naturel chancelle, et si par suite on est abandonné au ressort de la seule prévision mathématique, l’entreprise s’évanouit et meurt, alors que les craintes de pertes peuvent être aussi dépourvues de base rationnelle que l’étaient auparavant les espoirs de profit » [Keynes, 1936, p. 171].
64
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
Mais Keynes est aussi conscient de la nécessité de faire comme si les bases rationnelles existaient : « La nécessité d’agir et de décider nous pousse, comme hommes d’action, à faire de notre mieux pour dépasser cet état de fait contrariant [l’impossibilité d’un calcul rationnel]. En conséquence, nous nous comportons comme nous devrions si nous avions réalisé le bon calcul benthamien relatif à la série d’avantages et de désavantages supposés, chacun multipliés par sa probabilité respective, en attendant d’être additionnés » [Keynes, 1937, p. 114]. Ainsi, la constitution d’une convention n’exclut pas des effets de style, de réputation, de compétition entre spéculateurs ou firmes rivaux. Les modèles illustrent la compétition symbolique entre institutions financières : en témoigne leur publication sur les sites web des banques ou dans les revues professionnelles de prestige. Ces modèles font la visibilité et la crédibilité des nouveaux produits, ceux qui rapportent beaucoup quand la banque innovatrice est encore en situation de monopole. Elle est rapidement rejointe par les concurrentes qui développent des modèles concurrents d’évaluation, et la convergence des évaluations est rassurante pour les clients potentiels. Cet usage très particulier de modèles qui ressemblent à s’y méprendre à ceux de la physique et font, comme ces derniers, l’objet de publications dans des revues spécialisées, appelle l’intérêt sur les usages sociaux de la finance, tant à l’intérieur du groupe social formé par les financiers que dans sa relation au reste de la société. Tout cela tend à prouver que les marchés financiers induisent des interactions d’une complexité inouïe. Dès lors, l’emprunt aux sciences de la nature d’un formalisme et d’une épistémologie semble d’une naïveté dérisoire. Mais il faut rappeler que l’essentiel des outils du calcul des probabilités depuis Pascal — des mesures de dispersion à la théorie des tests au XVIIIe siècle [Pradier, 2003], aux processus stochastiques [Bachelier, 1900], à la programmation dynamique stochastique (selon Massé [1946], comme on le verra au chapitre suivant) — ont leur source dans des questions liées à l’économie, à la finance ou à la gestion, à une époque où ces domaines n’étaient pas forcément distincts. Pourtant, ces innovations théoriques n’ont pas été considérées avant d’avoir été consacrées par les sciences de la nature. C’est parce que les mathématiques probabilistes « marchent » en physique qu’on les emploie en finance alors même qu’elles ont été conçues pour la finance ! Étrange phénomène qui appelle à réfléchir autant sur les théories que sur leur statut épistémologique.
LA
FINANCE
Toute petite sociologie de la finance contemporaine Alors que les ingénieurs et physiciens qui développent les modèles financiers d’évaluation pensent leur activité à l’instar des sciences de la nature, on peut leur opposer le caractère conventionnel de leurs créations qui ne valent que parce qu’elles sont crues valables. Ceci devrait nous conduire naturellement à considérer les théories financières comme des faits sociaux et à les étudier en sociologues, comme le font les membres de la Social Studies of Finance Association (http://ssfa.free.fr/). Mais les théoriciens de la finance ont aussi leur interprétation de l’insatisfaction épistémologique que suscite leur discipline : le mouvement de la finance comportementale (behavioral finance) s’intéresse aux conséquences de l’introduction de populations irrationnelles sur les marchés. Remarquons l’habileté de cette défense : elle consiste à admettre l’irrationalité de certains (les autres, évidemment) et à tirer des conclusions rationnelles de l’irrationalité de ces autres. Qui sont les irrationnels ? Des gens qui se laissent aller à écouter les gourous de l’analyse dite « technique » (appelée aussi « chartisme », elle consiste à inférer les cours futurs de la forme visuelle des courbes de prix passés), mais aussi les conseils de courtiers intéressés aux commissions, ou des victimes de leurs propres biais heuristiques qui surréagissent aux événements de marché, surpondèrent l’information récente, donnent trop d’importance aux pertes (tous phénomènes psychologiques largement étudiés par les cogniticiens comme Kahneman, lauréat du « prix Nobel » en 2002), mais aussi pourquoi pas les traders qui bricolent les modèles pour tenir compte du smile de volatilité… ou ceux qui ne le font pas ! Car c’est bien le problème : il n’y a pas de probabilités a priori dans la réalité, et
COMME
DISCIPLINE
:
THÉORIES
65
on ne peut donc appliquer les modèles sans quelques compromis. La finance comportementale ne se contente pas de stigmatiser les comportements de ces noise traders (participants irrationnels aux transactions sur les marchés financiers) : les théories qu’elle suscite permettent de comprendre l’effet de ces noise traders sur les prix des actifs et les fonctionnements des marchés. Les conséquences de cette prise en compte conduisent à valider des stratégies apparemment dominées (gestion passive, qui consiste à constituer des portefeuilles répliquant les indices ; positive feedback, qui conduit à « prendre le train en marche » et à en descendre avant qu’il ne s’arrête, bref à acheter les actions qui montent et à vendre celles qui baissent). Il apparaît aussi que l’activité d’arbitrage change de nature, elle apparaît d’autant plus risquée qu’il y a plus de noise traders, elle peut s’appuyer sur le stock picking (choix de titres par opposition à la diversification ou à la gestion passive) ou sur la création de titres spécifiquement demandés par les noise traders (attitude dite « proactive »). On trouvera une présentation percutante des acquis de cette littérature dans Aktas [2004].
V / Les applications de la théorie de la décision
À
partir des années 1930, le dirigisme économique semble mieux résister que les démocraties à la crise économique, les technocrates planistes rêvent d’imposer une décision centralisée pour remédier au désordre des marchés, les keynésiens et rooseveltiens affirment le primat de l’action économique de l’État, et la guerre achève de prouver le bien-fondé d’une coordination centrale.
Les années 1950 : planification et calcul L’intérêt pour la décision économique s’exprime dans un cadre institutionnel où l’État est très présent : chez les Américains, l’armée s’intéresse de près au développement de la recherche opérationnelle. En France, c’est autour du Plan et d’EDF que les questions de décision économique vont se poser avec le plus d’acuité. Statistical Research Group contre plan Monnet L’armée américaine a porté un intérêt et des moyens considérables au développement de la recherche opérationnelle. Les marins du groupe de recherche pour la guerre anti-sous-marins (ASWORG), sous la direction de Philip Morse, sont considérés comme les inventeurs de cette discipline ; les aviateurs ne sont pas en reste puisque George Dantzig invente l’algorithme du simplexe qui permet de résoudre automatiquement des programmes linéaires. On pourrait multiplier les exemples, d’autant qu’après-guerre, l’Office of Naval Research et la RAND Corporation vont continuer de financer bien des programmes de recherche. Toutefois, c’est le Statistical Research Group, actif de
LES
APPLICATIONS
DE
LA
THÉORIE
DE
LA
DÉCISION
67
juillet 1942 à septembre 1945 à l’Université de Columbia (New York), qui apporte les contributions les plus remarquables à l’économie du risque. Comme son nom l’indique, ce Groupe de recherche statistique a développé les méthodes de la recherche opérationnelle stochastique pour permettre aux universitaires de contribuer à l’effort de guerre. On peut se faire une idée de son importante activité en citant les deux principaux ouvrages théoriques qui en seront le produit après-guerre : l’ouvrage de Freeman et al. [1948] concerne les techniques d’échantillonnage et celui de Wald [1947] constitue la référence en matière d’analyse séquentielle. Voilà pour l’expression théorique de ces travaux. Concrètement, le groupe conçoit des procédures statistiques permettant de décider, et Wallis [1980, p. 322] donne des exemples de ces décisions : « Les chasseurs allaient au combat avec leurs mitrailleuses chargées suivant les recommandations qu’avait formulées Jack Wolfowitz pour apparier les munitions ; peut-être les pilotes reviendraient-ils, et peut-être pas. Les avions d’attaque de la Marine lançaient des roquettes dont les combustibles avaient été validés par les plans d’échantillonnage de Abe Girshick ; peutêtre ces roquettes allaient-elles faire sauter nos avions et nos pilotes, peut-être détruiraient-elles leur cible. […] En décembre 1944, des officiers généraux vinrent à Washington en pleine bataille d’Alsace pour y discuter toute une journée des réglages optimaux pour les fusées de proximité des obus […] et mirent en place les conseils de (entre autres) Milton Friedman. » Les hommes du SRG qui conçoivent ces tests statistiques sont fréquemment à la frontière de l’économie, comme Harold Hotelling et Abraham Wald, ou économistes comme Milton Friedman ou George Stigler ; certains statisticiens comme Savage ou Mosteller contribueront à la théorie de la décision, tout comme von Neumann. On retrouve au SRG cette créativité pluridisciplinaire qui avait marqué la fin du XVIIIe siècle, en particulier la métaphore entre les théories économique et statistique de la décision. Dans cette perspective de décision, le statisticien est confronté à deux risques, conventionnellement nommés après Neyman risque de première espèce et risque de seconde espèce. Le premier correspond au rejet d’une hypothèse vraie, le second à l’acceptation d’une hypothèse fausse. Les statisticiens du SRG ont cherché des procédures de décision qui minimisent ces risques tout en coûtant le moins cher possible (en frais d’inspection, d’enseignement des règles, etc.).
68
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
La théorie de l’utilité espérée : exemples L’évaluation des perspectives aléatoires par une espérance d’utilité a déjà été présentée en introduction (encadré « La représentation du risque dans la théorie économique : choix individuels entre variables »). On précise ici le sens de l’aversion ou du goût pour le risque. Les comportements d’achat d’assurance sont représentatifs de l’aversion pour le risque : Bernoulli les représentait déjà par une fonction d’utilité concave (la fonction logarithme), synonyme dans la théorie moderne de cette aversion. Cette aversion se caractérise par la disposition des agents à payer pour se débarrasser d’un risque. La prime d’assurance est supérieure à l’espérance du sinistre, car il faut prévoir les frais de fonctionnement (et le profit) de la compagnie d’assurances : c’est le rôle du chargement, comme on l’a vu au chapitre II. Graphiquement, l’aversion pour le risque se traduit par le fait que l’espérance d’utilité est inférieure à l’utilité de l’espérance (que procurerait une assurance sans chargement). L’exemple représenté par le graphique 6 illustre le cas d’une assurance-habitation : en cas de sinistre, la perte d’utilité est très grande (la probabilité de sinistre est exagérée pour rendre la disposition à payer plus visible). Graphique 6. Aversion pour le risque et achat d’assurance Utilité Utilité de l'espérance Coût du rique = disposition à payer une assurance (exprimée en termes d'utilité) Situation après un sinistre
Espérance d'utilité
Situation actuelle
Richesse
Espérance de richesse compte tenu du risque de sinistre
Le goût pour le risque est représenté par une fonction d’utilité convexe. Il s’illustre par la participation aux jeux de hasard : du fait que les loteries ont des coûts de fonctionnement (parmi lesquels le prélèvement fiscal n’est en général pas négligeable), l’espérance de gain d’un billet est en général très inférieure au coût du billet de loterie. Ici encore, on exagère la probabilité de gain, afin que l’espérance se trouve dans la partie où la distance entre utilité de l’espérance et espérance d’utilité est maximale. L’écart désigne encore le consentement à payer le billet de loterie. De manière générale, on a : valeur du risque = espérance d’utilité – utilité de l’espérance ou formellement pour une variable aléatoire X = (xi, pi) i B[1,n] n
valeur du risque =
Sp
i=1
n
i
× U(xi + W)) – U(W +
S p x ). i i
i=1
Si cette valeur est négative, alors le risque a un coût.
LES
APPLICATIONS
DE
LA
THÉORIE
DE
LA
DÉCISION
69
Graphique 7. Goût pour le risque et participation aux jeux de hasard Espérance d'utilité
Utilité
Valeur du risque = disposition à payer le billet de loterie (exprimés en termes d'utilité) Utilité de l'espérance
Situation actuelle
Situation en cas de gain à la loterie Espérance de richesse compte tenu de la chance de gagner
Si l’aversion pour le risque (fonction d’utilité concave) se traduit par l’achat d’assurance et que le goût du risque (fonction d’utilité convexe) se traduit par la participation aux jeux de hasard, il reste à rendre compte de la possibilité pour un individu de faire les deux : s’assurer et jouer au Loto. Les auteurs des XVIIIe et XIXe siècles étaient conscients de cette difficulté : les gens s’assurent et jouent pourtant, et il ne sert à rien de leur dire que la théorie considère ces comportements comme incompatibles. La « solution » de ce problème très théorique est donnée par Friedman et Savage [1948] : la fonction d’utilité est concave puis convexe. La zone de concavité correspond au comportement d’assurance : on ne veut pas perdre le niveau de vie que l’on a acquis. La zone de convexité correspond à la possibilité pour un agent économique de changer de classe sociale, rêve qu’il caresse en achetant un billet de loterie. Graphique 8. Assurance et goût du risque Utilité (U) E
C
F
G D
I* I I* Revenu (I)
I*
Source : Friedman et Savage [1948, p. 295].
70
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
Du côté des Français, le centre névralgique est « le » séminaire de Maurice Allais à l’École des mines de Paris [Pradier, 2005b]. En fait, il y a plusieurs séminaires Allais : un séminaire grand public, dit séminaire GRES, abordant au café Cérou, place SaintSulpice, des sujets d’actualité sur un ton voisin de la vulgarisation ; un séminaire de travail, le véritable séminaire Allais, qui se tenait aux Mines ou à l’Institut Henri-Poincaré, ouvert à ses étudiants et à des économistes confirmés. Les mêmes fréquentaient généralement les séminaires complémentaires de Georges Darmois à l’Institut de statistique de l’université de Paris et de René Roy au CNRS. Les élèves d’Allais ont pour nom Marcel Boiteux, Gérard Debreu, Jacques Lesourne, Edmond Malinvaud ; parmi les seniors, on compte Georges-Théodule Guilbaud, Pierre Massé, Georges Morlat. Entre novembre 1950 et mai 1953, pas moins de seize séances des séminaires Allais sont consacrées à la théorie de la décision, au risque, à l’incertitude. Allais contre Savage Au mois de mai 1952, Darmois et Allais ont convoqué le gratin de l’économie mathématique — on parle encore d’économétrie — à Paris pour un colloque du CNRS. À la veille de la conférence, la théorie de l’utilité espérée est, de l’avis de (presque) tous, une théorie normative, c’est-à-dire qu’il paraît souhaitable de s’y conformer pour décider dans les situations où il existe un élément de risque. Quelques Américains pensent néanmoins que la théorie possède également une vertu descriptive, c’est-à-dire qu’elle rendrait compte des comportements de décision effectivement observés : pour Friedman et Savage [1948], la théorie de l’utilité espérée permet de comprendre pourquoi les gens sont simultanément acheteurs de billets de loterie (à un prix supérieur à l’espérance mathématique de gain) et de contrats d’assurance (à un prix supérieur à l’espérance mathématique de perte). Pour Buffon, la science doit guider les ignorants, et c’est une chance qu’elle soit normative. Pour Marshall, la science doit représenter les décisions effectives des agents économiques et il est assez ennuyeux que l’hypothèse de Bernoulli ne permette pas de rendre compte de comportements effectivement observés : participation aux jeux (ou bien alors il faut tenir compte d’un « plaisir du jeu » parfaitement ad hoc), achat d’assurance pas automatique (d’où les obligations légales). Les contributions de von Neumann et Morgenstern [1944] et Friedman et Savage [1948] ont pu sembler lever ces deux obstacles au caractère descriptif de
LES
APPLICATIONS
DE
LA
THÉORIE
DE
LA
DÉCISION
71
la théorie. Les premiers font valoir que les choix effectivement opérés par un décideur permettent de déduire sa fonction d’utilité, ce qui lève l’hypothèque de l’arbitraire. Les seconds montrent qu’une fonction d’utilité judicieusement choisie (c’està-dire concave puis convexe) permet de concilier assurance et achat de billets de loterie. En 1952 encore, Friedman et Savage revendiquent le caractère descriptif de leur théorie : « L’hypothèse selon laquelle les individus choisissent entre des actions alternatives risquées comme s’ils cherchaient à maximiser l’espérance d’une quantité, que nous avons appelée utilité, est conçue comme une hypothèse scientifique qui permet de faire des prévisions correctes sur le comportement individuel » (p. 473). Au cours d’un déjeuner, Allais propose à Savage une série de vingt questions dont deux constituent ce qu’on appelle d’ordinaire le Paradoxe : 1. Préférez-vous la situation A à la situation B ? 2. Préférez-vous la situation C à la situation D ? Situation A
Situation C
– certitude de recevoir 100 millions
– probabilité 11 % de gagner 100 millions – probabilité 89 % de ne rien gagner
Situation B
Situation D
– probabilité 10 % de gagner 500 millions – probabilité 89 % de gagner 100 millions – probabilité 1 % de ne rien gagner
– probabilité 10 % de gagner 500 millions – probabilité 90 % de ne rien gagner
Savage choisit A et D. Or, au titre de l’utilité espérée, si Savage choisit A plutôt que B, c’est parce que sa fonction d’utilité U est telle que : U (100 M + W) > 0,1 × U (500 M + W) + 0,89 × U (100 M + W) + 0,01 × U (W). En ajoutant de part et d’autre de l’inégalité 0,89 × U (W) – 0,89 × U (100 M + W), on devrait donc avoir : 0,11 U (100 M + W) + 0,89 × U (W) > 0,1 × U (500 M + W) + (0,89 + 0,01) × U (W) et donc C préféré à D. Les choix de Savage contredisent donc sa théorie. Quelques jours après, Savage avoue son erreur : s’il s’est trompé, c’est que la
72
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
théorie a raison. La théorie n’est donc plus descriptive, mais reste normative. C’est à ce point qu’intervient la seconde dimension du Paradoxe, qui est probablement la plus intéressante : Allais entreprend de réfuter empiriquement une théorie normative. A priori, des observations ne peuvent pas remettre en cause une norme : si les individus réels ne décident pas comme la théorie raisonnable, alors ils ne sont pas raisonnables. Mais devant l’incapacité de Savage à prouver que sa théorie est la seule raisonnable, Allais choisit de poser la même question à des individus « dont on a de bonnes raisons de penser par ailleurs qu’ils sont raisonnables ». Si les choix effectifs des individus sont conformes à la théorie, alors on pourra penser qu’elle représente les choix des individus raisonnables et donc qu’elle est une théorie de la décision raisonnable. Si les choix effectifs des individus violent de manière statistiquement significative la théorie, alors on doit penser que la théorie impose des contraintes non strictement rationnelles. Durant l’été 1952, Allais envoie son questionnaire à des centaines de décideurs économiques, chercheurs en économie ou ingénieurs des grands corps versés dans la gestion des entreprises publiques. S’il ne publie ses résultats que vongt-cinq ans après, il apparaît rapidement que près de 40 % des enquêtés font le choix de A et D. La décision après l’utilité espérée Au long des années 1960, quelques psychologues vont s’intéresser à ce contre-exemple d’Allais (le terme « paradoxe » n’apparaît que sous la plume d’Allais en 1979, et il semble plus judicieux de le réserver au dispositif de réfutation expérimentale d’une théorie normative). Daniel Kahneman, lauréat du « prix Nobel » d’économie en 2002, est l’un de ces psychologues. Parmi toutes les alternatives explorées au long des années 1975-1995, les théories dites à dépendance de rang (Rank-Dependent Utility ou RDU) sont les plus prometteuses. En effet, elles seules sont compatibles avec les ordres stochastiques, en particulier avec la dominance première ou préférence absolue (voir encadré « Les ordres stochastiques »). Les théories RDU représentent un affaiblissement logique de l’UE en ce qu’elles autorisent, en plus de la déformation des paiements à travers les fonctions d’utilité, une transformation des probabilités. On a donc plus de possibilités pour représenter les choix des agents et on peut rendre compte du choix A et C dans
LES
APPLICATIONS
Les ordres stochastiques La dominance stochastique (dite ensuite de premier ordre quand les ordres supérieurs ont été définis) est due à Mann et Whitney [1947]. On dit qu’une distribution f (représentée par sa fonction de répartition F) domine stochastiquement au premier ordre g (représentée par sa fonction de répartition G) si et seulement si : Gx B IR, F (x) ^ G (x) ax0 B IR, F (x0) ! G (x0). L’intuition de ce critère est que la distribution dominante offre à chaque point une masse de probabilité supérieure pour les issues meilleures. On peut traduire graphiquement ces inégalités en remarquant que la fonction de répartition de la loterie dominée est toujours au-dessus de celle de la loterie dominante. Une loterie dominante au sens de la dominance première montre des paiements supérieurs ou égaux dans tous les états du monde et strictement supérieurs dans au moins un état du monde, ce qui paraît incontestablement meilleur. Tous les décideurs maximateurs d’utilité espérée dont les préférences sont représentées par des fonctions d’utilité croissantes préféreront une loterie stochastiquement dominante. C’est donc un critère très fort, mais qui par contrecoup établit un ordre très incomplet. La dominance première semble si intuitive qu’elle est employée par d’Alembert et Le Rond [1761], et elle a reçu un statut axiomatique, par exemple chez Massé et Morlat [1952], qui parlent de préférence absolue. De nombreuses théories alternatives de la décision ont été abandonnées parce qu’elles violaient la dominance première. Cela signifie qu’un décideur en accord avec la théorie pouvait choisir une loterie qui donnait des résultats inférieurs dans tous les états du monde ! Citons par exemple l’approche de
DE
LA
THÉORIE
DE
LA
DÉCISION
73
Markowitz, comme l’a montré Borch [1969], la théorie dite « du regret », ou la prospect theory de Kahneman et Tversky [1979]. Pour sauver ces hypothèses, il a fallu les rendre compatibles avec la dominance première. Ainsi, Markowitz a choisi de reconstruire l’analyse espérance-variance comme un cas particulier d’utilité espérée (avec des fonctions d’utilité quadratiques de la forme U(x) = ax – bx2). Kahneman et Tversky, pour leur part, ont amendé la prospect theory pour aboutir à la cumulative prospect theory, qui est un exemple de théorie RDU. Dans le même esprit, on peut définir la dominance stochastique de deuxième ordre (qui représente les préférences de tous les agents dont les préférences sont représentées par des fonctions d’utilité concaves, donc tous les agents caractérisés par une aversion pour le risque). On dit qu’une distribution f (représentée par sa fonction de répartition F) domine stochastiquement au deuxième ordre g (représentée par sa fonction de répartition G) si et seulement si : x
Gx B IR, ax0B IR,
x
@ F(t)dt ^ @– qG(t)dt
–q x0
x0
@ F(t)dt ! –@qG(t)dt.
–q
Ce critère permet de départager des loteries ayant des espérances égales (mêmes aires sous les fonctions de répartition). L’intuition est que la loterie dominante concentre une plus grande masse de probabilité au centre de la distribution (et non aux extrémités). De la même façon, on peut définir la dominance d’ordre n avec une intégrale (n – 1)-uple [voir Hadar et Russell, 1969 ; Hanoch et Levy, 1969].
74
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
le contre-exemple d’Allais. Toutefois, la forme des fonctions de décisions est complexe. Dans un premier temps, Kahneman et Tversky [1979] avaient proposé une fonction intuitive : pour une variable aléatoire o˜ = (oi, pi) i B[1,n], une richesse initiale W, et une n
fonction d’utilité U, au lieu de S pi.U(W + oi) dans l’UE, on aurait i=1
pu écrire : n
S y (p ) × U(o ) où y (•) est la fonction de déformation des i
i
i=1
probabilités et U une fonction d’utilité spécifique (distincte de celle de l’UE). Malheureusement, cette prospect theory exposait au risque de violation de la dominance stochastique. Pour éviter ce risque, la fonction de décision RDU est spécifiée de manière bien plus complexe : ϕ (p1). U (o1) +
n
S ϕ (p ).U(o i
i
– oi – 1), où ϕ (•) est la fonction de
i=2
déformation des probabilités, et U une fonction d’utilité. Il faut en outre que les = (oi, pi) i B[1,n] soient rangés par ordre croissant, si bien que la fonction d’utilité transforme les paiements supplémentaires. Elle est donc différente de la fonction d’utilité pour la richesse de Bernoulli à Marshall ou de celle de la théorie de l’utilité espérée. Les nouvelles théories de la décision, si elles sont compatibles avec les observations des psychologues qui réfutaient la TUE, sont aussi plus complexes que cette dernière. Le temps qu’a nécessité leur mise au point est un signe de leur subtilité conceptuelle et analytique. La lourdeur du formalisme rend difficile l’obtention de « résultats », c’est-à-dire de théorèmes parlants qu’on rencontre dans la suite du chapitre (ordres stochastiques, anticipations rationnelles, microéconomie de l’assurance, etc.). C’est pourquoi les économistes continuent d’utiliser la TUE, même si chacun sait qu’elle ne représente pas bien les préférences des sujets d’expérience. Pour échapper à cet écart entre une théorie descriptive inutile et une théorie fausse mais commode, les économistes font parfois valoir que la TUE aurait une validité locale, par exemple pour les décisions « habituelles » (par exemple l’achat d’assurance). La commodité reste cependant une raison pratique suffisante, même si elle est ne suffit pas à fournir des fondements épistémologiques suffisants.
LES
APPLICATIONS
DE
LA
THÉORIE
DE
LA
DÉCISION
75
La mesure du risque. — On a vu (encadré « La Théorie de l’utilité espérée ») que la mesure du risque est contingente à une fonction d’utilité, c’est donc toujours une appréciation subjective. Or on aimerait disposer de mesures objectives du risque : une idée serait d’utiliser la variance, comme les financiers, mais elle pose un double problème. D’abord, une variance donnée ne représente pas le même « risque » si on l’applique autour de zéro ou autour d’un gain. Ensuite, l’éventuelle violation de la rationalité par les décideurs markowitziens non maximisateurs d’utilité espérée (voir encadré). La recherche d’une mesure du risque à la fois objective et admissible au regard de la rationalité n’est donc pas acquise dans la TUE. Une autre idée est de raisonner non sur des fonctions particulières, mais sur des classes de fonction. Les mesures du risque qui en résultent sont peu utilisées pour deux raisons. La première tient à leur technicité qui en limite l’emploi aux seuls spécialistes. La deuxième est que les ordres stochastiques sont des relations d’ordre très incomplètes : en général, il n’est pas possible de classer des couples de loteries suivant la dominance stochastique (voir encadré). Il n’existe à notre connaissance aucune étude (à part Pradier [1998, chapitre VI] sur la possibilité d’appliquer dans la réalité les ordres stochastiques). La question de la mesure du risque reste donc en suspens. Malgré tous ces problèmes, la TUE demeure pour deux raisons. Les économistes apprécient sa souplesse et sa « fécondité », son aptitude à produire des « résultats », c’est-à-dire des théorèmes, grâce à sa forme analytique simple, celle d’une moyenne pondérée. Avec les théories plus récentes, non seulement les calculs sont plus lourds, mais il est souvent impossible d’inférer des résultats aussi généraux.
Métaphores de la recherche opérationnelle Jusqu’ici, on a parlé de recherche opérationnelle sans envisager la relation qui unit celle-ci à la théorie économique. Nous allons voir que la pratique des ingénieurs économistes les a conduits à une vision particulière de l’homo œconomicus. Ramsey, Massé, Pontryagin Avant le développement de la programmation dynamique dans les années 1950, deux auteurs avaient déjà contribué à résoudre
76
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
des problèmes particuliers : Frank Ramsey dès la fin des années 1920 et Pierre Massé dans les années 1940. Le modèle dit « de Ramsey » [1928] présente la problématique de l’optimisation intertemporelle dans un cadre macroéconomique. Ramsey était partisan de la planification [Gaspard, 2003]. Son programme était analogue à un programme de maximisation intertemporelle de la consommation par tête qui s’écrirait :
{
T
Max @ e-rt.u(c(t)) dt 0
•
s.c. c(t) = f(k(t)) – hk(t) – k· (t) = 0 k(0) donné.
La contrainte sur la consommation exprime à la fois les possibilités de production (fonction de production f), l’obsolescence du capital qui se produit au rythme h, et la nécessité d’investir • (k·(t)). La solution recherchée ici est la trajectoire k(t) de capital par tête sur l’horizon qui maximise la consommation par tête. Charge ensuite aux gouvernants de mettre en pratique cette trajectoire du stock de capital qui optimise la consommation dans la société. Aux États-Unis, Richard Bellman contribue au développement du contrôle optimal et s’intéresse aux conditions suffisantes de l’existence d’un optimum. En URSS, Lev Pontryagin travaille pour sa part sur la commande optimale ; le principe du maximum qu’il formule conduit à des conditions nécessaires d’optimalité. La perspective de Massé est également éclairante : alors qu’il est seulement directeur des investissements de l’une des 1 200 entreprises privées produisant de l’électricité en France, Pierre Massé publie un article [1944], puis un ouvrage [1946] alors que l’Assemblée nationale discute le projet de loi de nationalisation et de création d’Électricité de France. Si les témoins de l’époque créditent déjà Massé de la découverte indépendante du principe de Pontryagin [Dreze, 1964, p. 5 ; Boiteux, 1993, p. 95], aucun ouvrage n’a étudié en détail la contribution de ce grand ingénieur français à la programmation dynamique ou à l’économie mathématique. Signalons simplement qu’il cherchait à déterminer les règles d’exploitation optimales des usines hydroélectriques dotées d’une retenue. Toute la difficulté de l’exercice est que les précipitations et les besoins en électricité sont décalés dans l’année, et que la retenue du barrage sert à transférer les réserves d’eau vers le moment où on a le plus besoin d’électricité. Par la suite, Massé va considérer un problème encore plus complexe, en cherchant à intégrer la décision de
LES
APPLICATIONS
DE
LA
THÉORIE
DE
LA
DÉCISION
77
construction des usines électriques (thermiques ou hydroélectriques) dans le programme d’optimisation dynamique. C’est à la suite de ces recherches pionnières et remarquable que de Gaulle l’a choisi comme commissaire général du Plan en 1958. De la gestion de stocks aux anticipations rationnelles La gestion de stocks. — Beaucoup d’économistes sont ingénieurs de formation : c’est évidemment le cas des Français rassemblés autour d’Allais, et la lecture des biographies américaines confirme cette opinion. Comme on l’a vu, les économistes américains ont participé au développement de la recherche opérationnelle durant la guerre ; une fois celle-ci terminée, ils ont produit quelques applications des mêmes méthodes à des objets plus économiques. La gestion de stocks offre un nouveau terrain à la rencontre entre les questions des militaires (les recherches sont financées par l’Office of Naval Research) et les capacités de jeunes mathématiciens appliqués qui vont influencer la théorie économique. Cette problématique apparaît chez Arrow, Harris et Marschak [1951] et trouve sa solution « définitive » chez Holt, Modigliani, Muth et Simon [1960]. L’énumération des noms a son importance, car on compte parmi ceux-là quatre « prix Nobel » (Arrow, Modigliani, Muth, Simon), et l’on dit souvent que Marschak aurait dû en être s’il n’était décédé prématurément. De plus, Modigliani et Muth sont connus comme macroéconomistes ; le dernier est l’inspirateur de l’école dite « des anticipations rationnelles » avec Lucas, Sargent, etc., qui est devenue dominante dans les années 1980, comme en témoigne l’attribution du « prix Nobel » 1995 à Robert Lucas. Au départ, le problème de la gestion de stocks est le suivant : on connaît à peu près la distribution de probabilité de la demande, le coût de stockage et le coût de ne pas fournir la demande (pertes d’image, de parts de marché) ; il s’agit de déterminer le plan de production optimal (et le niveau de main-d’œuvre nécessaire). C’est un problème d’optimisation délicat : d’abord il est stochastique (la demande est aléatoire), ensuite il est intertemporel, enfin il n’est pas forcément linéaire. La démonstration du résultat final s’appuie donc sur une série de résultats mathématiques intermédiaires qui suscitent une littérature importante. Ce « résultat final » est pour le moins inattendu : un théorème montre que, sous certaines hypothèses, il est possible de négliger la dispersion, c’està-dire le risque, et de ne considérer que l’espérance. Pour le lecteur
78
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
Les probabilités bayésiennes Bien que la référence au révérend Thomas Bayes (1702-1761) évoque le siècle des Lumières, l’adjectif apparaît en fait dans les années 1950. À cette époque, Bruno de Finetti et Leonard Jimmie Savage renouvellent la théorie des probabilités subjectives, déjà revivifiée par Frank Ramsey. Cette approche « bayésienne » se caractérise par : — une conception subjective (on dit aussi personnelle ou épistémique) des probabilités (au contraire de Knight qui pensait les probabilités comme des phénomènes objectifs) ; dont la relation avec la probabilité logique des keynésiens est délicate dans la mesure où tous les bayésiens ne pensent pas qu’un même ensemble d’informations conduise à un même jugement de probabilité ; — une confiance dans les mécanismes de révision des probabilités grâce à la règle de Bayes. Sans entrer dans les détails mathématiques, l’idée fondamentale de l’inférence bayésienne est que l’information nouvelle
permet de mettre à jour les probabilités personnelles. On peut mettre en perspective les probabilités objectives, logiques et bayésiennes en comparant leur rapport à l’objectivité. Pour un objectiviste, la probabilité correspond à un fait naturel. Pour un probabiliste logique, la relation entre deux groupes d’énoncés obéit aux lois objectives de la logique. Pour un bayésien, c’est la règle de révision des probabilités qui possède un statut objectif. C’est donc face à un flux d’informations nouvelles que les bayésiens révèlent leur confiance dans leurs méthodes. Comme on avait remarqué une analogie entre décision économique et décision statistique au XVIIIe siècle, on doit observer que le développement de la programmation dynamique (gestion des stocks) est contemporain de l’analyse séquentielle de Wald (méthode d’analyse statistique où la taille de l’échantillon n’est pas fixée à l’avance, mais déterminée par une règle d’arrêt). L’inférence bayésienne reprend la « probabilité des causes » des auteurs du XVIIIe siècle. Illustrons cette théorie
intéressé à la seule question du risque, cet artifice est frustrant. En fait, l’expérience de la guerre a permis d’effacer la crainte de l’incertitude ; les jeunes économistes clament leur enthousiasme dans les méthodes statistiques modernes : « On peut obtenir des plans d’action provisoires fondés sur l’information présente, mais évidemment, ces plans seront sans doute modifiés avant même leur mise en pratique, au fur et à mesure que de nouvelles informations sont disponibles. Il faudrait utiliser une méthode de prévision dont l’erreur soit nulle en espérance, ou plus simplement en moyenne » [Holt, Modigliani et Muth, 1955, p. 176]. Des « plans d’action provisoires […], modifiés […] au fur et à mesure que de nouvelles informations sont disponibles » : voilà le credo des bayésiens (voir encadré), confiants dans l’efficacité asymptotique de leur méthode.
LES
APPLICATIONS
par l’exemple d’un étudiant confronté à un QCM. S’il connaît son cours, il répond correctement, mais si ce n’est pas le cas, il tire la réponse au hasard parmi les quatre proposées à chaque fois. Il y a donc deux causes possibles à une bonne réponse : l’étudiant sait ; l’étudiant a de la chance. Supposons que l’on sache que l’étudiant a révisé la moitié du programme. On se demande alors quelle est la probabilité pour qu’une réponse juste soit due à ses connaissances et non au hasard. Selon la règle de Bayes, cette probabilité vaut (le symbole | signifie « sachant que ») : probabilité (l’étudiant sait|réponse juste) = probabilité (l’étudiant sait) × probabilité (réponse juste|l’étudiant sait) divisé par probabilité (l’étudiant sait) × probabilité (réponse juste|l’étudiant sait) + probabilité (l’étudiant ne sait pas) × probabilité (réponse juste|l’étudiant ne sait pas) soit 0,5 × 1/0,5 × 1 + 0,5 × 0,25 = 0,5/0,625 = 4/5.
DE
LA
THÉORIE
DE
LA
DÉCISION
79
Signalons que, s’il n’y avait que deux choix possible au QCM, on obtiendrait 2/3. Il semble donc qu’il faille augmenter le nombre de réponses possibles au QCM pour mieux repérer les étudiants qui n’ont pas travaillé. Si, au contraire, l’étudiant n’avait appris qu’un quart de son cours avec quatre questions, la probabilité serait 0,25 × 1/0,25 × 1 + 0,75 × 0,25 = 4/7. On voit donc que moins un étudiant a appris son cours, moins une bonne réponse est indicative de son travail. Ce phénomène assez ennuyeux s’explique simplement par le fait que si l’étudiant ne sait rien, les bonnes réponses ne peuvent être obtenues que par hasard. Il existe un usage dynamique de la règle : on ne connaît pas p la proportion du programme effectivement apprise par l’étudiant. On commence avec un p inconnu, et au fur et à mesure que l’étudiant répond, p est modifié par l’usage de la règle de Bayes. Autrement dit, chaque information nouvelle (réponse juste ou fausse) permet de se rapprocher de la valeur recherchée (ici, la proportion du programme connue de l’étudiant).
Anticipations rationnelles : les débuts. — Les économistes de la génération suivante (Lucas, Sargent, Wallace, par exemple), qui ont été formés dès leur plus jeune âge à ces modèles, les considèrent comme l’évidence. Pour eux, les entreprises gèrent leurs stocks de manière rationnelle, donc suivant les prescriptions du modèle. Les gestionnaires en charge des stocks n’ont pas de raison particulière de cesser d’être rationnels quand ils quittent leur bureau et c’est donc dans toute leur vie qu’ils doivent décider ainsi. Enfin, comme il n’y a pas non plus de raison particulière de penser que cette classe d’individus présente des dispositions supérieures, on peut légitimement penser que l’humanité tout entière décide comme les grandes entreprises gèrent leurs stocks. Tout homo œconomicus qui se respecte doit raisonner en espérance et oublier le risque. Cela suffit à lancer le courant des anticipations rationnelles.
80
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
L’historiographie [voir par exemple This, 1996] attribue à l’article de Muth [1961] la paternité de ce courant de pensée : en effet, Muth est le premier à transposer le théorème (codémontré avec Holt, Modigliani et Simon [1960]) dans un cadre macroéconomique. Mais c’est probablement l’habitude des méthodes de la recherche opérationnelle qui conduisit les étudiants-économistes des années 1960 à accepter cette transposition. Le contenu provocateur des AR n’est pas dans l’affirmation que les agents optimisent comme des économistes théoriciens. En revanche, affirmer que les agents connaissent le vrai modèle de l’économie et les vraies distributions de probabilité des variables économiques (à défaut d’en connaître la valeur certainement réalisée) paraît plus osé. Il faut comprendre qu’à cette époque, les économistes « keynésiens de la synthèse », alors institutionnellement dominants, essaient de modéliser l’économie à l’aide des ordinateurs les plus modernes. Ceux-ci sont en effet nécessaires pour « faire tourner » des modèles à plusieurs milliers d’équations. Comment admettre, dans ces conditions, que l’homme de la rue, lui, connaît « le vrai modèle de l’économie » et que ce vrai modèle compte trois équations : une équation d’équilibre par marché (marchés du bien, du travail, de la monnaie). Chez Muth, comme chez Lucas [1972] ou Sargent [1973], les anticipations rationnelles, concernent d’abord les prix. Dans un modèle déterministe, les anticipations rationnelles se traduiraient par une prévision parfaite ; dès lors que le modèle est aléatoire, c’est l’espérance qui est correctement anticipée par l’agent. La référence à un univers bayésien sert à justifier cette connaissance asymptotique de la « vraie » distribution de probabilité de chaque variable aléatoire, si celle-ci existe. L’« incertitude » est représentée par un bruit blanc (d’espérance nulle, non corrélé avec les variables du modèle). Anticipations rationnelles et efficicence des marchés financiers. — Au moment où les AR se développent chez les économistes, elles progressent également chez les financiers. Sargent [1973] cite les travaux de Fama à l’appui de son « hypothèse ». Le concept d’efficience des marchés financiers (Efficient Market Hypothesis) fait l’objet d’une littérature abondante [Walter, 1996]. Un marché efficient « s’ajuste rapidement à l’information nouvelle » si bien que « les prix reflètent pleinement l’information disponible ». La théorie sous-entend que les prix résultent des conjectures formées par les agents à l’aide de l’information disponible, et donc l’efficience du marché signifie que les acteurs sont des décideurs
LES
APPLICATIONS
DE
LA
THÉORIE
DE
LA
DÉCISION
81
bayésiens rationnels. En conséquence, il n’est pas possible, sans information spécifique (par exemple un délit d’initié), de « battre le marché ». Même si un investisseur peut réaliser un profit (ou une perte), l’espérance de chaque opération sur le marché financier est a priori nulle. On retrouve l’hypothèse centrale de Bachelier, ce qui permet aux financiers de penser que l’hypothèse d’efficience rend compte de théories plus anciennes. Il existe de bonnes raisons de douter de cet état de fait, comme par exemple la tendance haussière des bourses durant les décennies 1980-1990. Les AR reposent sur une double simplification. D’abord simplification de la fonction de décision, par un retour à l’espérance mathématique. Ensuite, simplification des interactions : si l’on pouvait ignorer le comportement des autres agents dans un modèle de gestion, cela semble plus critiquable quand on aborde le fonctionnement d’un marché financier ou d’une économie tout entière. La macroéconomie On doit distinguer l’usage microéconomique de la programmation dynamique de son usage macroéconomique. Du côté microéconomique, toutes les méthodes liées à la recherche opérationnelle ont permis la naissance d’une véritable gestion scientifique, dont la gestion de stock a marqué le démarrage. Du côté macroéconomique, les choses sont plus complexes. Chez Ramsey et Massé, la possibilité du calcul d’un optimum social est une source d’espoir : la planification centrale doit permettre d’approcher l’optimum. Au même moment, des auteurs américains sont proches de ce point de vue, notamment Kenneth Arrow, partisan d’une planification dont le modèle d’équilibre général est pour lui une représentation. Cette planification n’est pas contraignante mais incitative, à l’instar du commissariat français au Plan, étonnamment célébré par Kindleberger [1967]. L’histoire du développement des méthodes d’optimisation dynamique est donc liée au développement du planisme et à la grande crise de confiance dans l’économie de marché dans les années 1930. Il n’est pas étonnant que cette thématique trouve un écho favorable chez les ingénieurs-économistes français, en particulier les brillants élèves de Maurice Allais, normaliens ou polytechniciens corpsards qui rêvent de servir l’État et l’intérêt général en fonctionnaires zélés et éclairés. Parmi ceux-ci, on peut mentionner Marcel Boiteux, Gérard Debreu, Jacques Lesourne, Edmond Malinvaud, qui sont probablement les plus célèbres.
82
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
Cet enthousiasme n’est pourtant plus partagé par la génération suivante. Si l’aspect gestion scientifique n’est pas remis en cause, les théoriciens des anticipations rationnelles qui vont prendre la suite utilisent au contraire les acquis de la programmation dynamique pour montrer l’inefficacité de la politique économique. En effet, tous les agents économiques étant à même de prévoir les retombées d’une politique donnée vont l’intégrer à leurs prévisions et digérer ses conséquences jusqu’à en annuler les effets attendus. Du côté de la science économique, la « révolution » tient en quelques mots : c’est l’ignorance des agents qui permet aux États d’agir, mais dès que les agents sont conscients des mécanismes, les politiques traditionnelles deviennent inefficaces. Par exemple, si les salariés savent que l’augmentation de la masse monétaire va entraîner la hausse des prix et donc la baisse des salaires réels, ils ajustent leur offre de travail au niveau de salaire réel attendu, de telle sorte que la politique monétaire n’a pas d’effet sur l’activité réelle et l’emploi (car elle ne réduit pas le salaire réel, comme cela est supposé au contraire par les keynésiens qui mettent en avant la relation de Phillips). De même, les contribuables savent qu’une politique de dépenses publiques doit être financée et épargnent de quoi acheter des obligations d’État, ce qui équivaut à un prélèvement fiscal et annule donc l’effet expansionniste attendu d’une politique budgétaire keynésienne, etc. Tout le débat rules vs. discretion repose sur cette hypothèse implicite que les politiques keynésiennes n’ont fonctionné que parce que les agents étaient trompés, et qu’on ne peut pas tromper systématiquement les agents (mais seulement en menant des politiques imprévisibles, donc erratiques, ce qui n’est pas souhaitable quand on prétend stabiliser l’économie !). Un des aspects de la contre-révolution keynésienne se joue donc autour de l’interprétation donnée aux modèles d’optimisation dynamique. Alors qu’ils promettaient des lendemains qui chantent jusqu’aux années 1960, avec l’intervention d’ingénieurs dévoués au bien commun, ils montrent dès les années 1970 que l’État ne doit pas intervenir. Joli tour de force qui montre, si besoin était, le rôle éminemment politique de la science économique. Évidemment, si tout le monde est suffisamment rationnel et si le marché est efficace (hypothèses de base), l’État ne sert qu’à assurer la prédominance de groupes d’intérêt.
LES
APPLICATIONS
DE
LA
THÉORIE
DE
LA
DÉCISION
83
La demande d’assurance : le modèle de Mossin (1968) Un agent représenté par une fonction d’utilité U possède une richesse R. Il fait face à un risque qui peut occasionner un sinistre d’un montant D avec une probabilité p. Son espérance d’utilité est donc : VNA = pU(R-D) + (1 – p) U(R). Il peut également souscrire une prime d’assurance complète au taux P, ce qui lui donnerait une satisfaction : VA = U(R-P). La prime maximale, Pmax, est telle que le consommateur est indifférent à s’assurer : U(R-Pmax) = pU(R-D) + (1 – p) U(R). Elle est d’autant plus élevée que U est concave. Un problème plus complexe consiste à déterminer le taux de couverture optimale en présence d’un chargement. Soit l, le taux de chargement, la prime complète vaut P = (1 + l)pD. Soit q le taux de couverture choisi par l’assuré, alors la prime vaut P(q) = q(1 + l)pD. L’espérance d’utilité de l’assuré est une fonction de q, que l’on peut écrire : V(q) = pU(R + (1 – q) D-D) + (1 – p) U(R-q (1 + l) pD). Comme on cherche à maximer V, on écrit la condition de premier ordre : V’(q*) = -D pU(R + (1-q*) D-D) – (1 + l) pD (1 – p) U(R-q*(1 + l) pD) = 0 qui nous donne un optimum intérieur. Si V’ (0) 9 0, on a q* = 0 et q* = 1 si V’ (1) 6 0. On peut déduire le résultat suivant : si U est linéaire (agent neutre au risque) et l 1 0, alors q* = 0, si U concave et l = 0, q* = 1, si U concave et l 1 0, q* ! 1. De plus, on démontre que si U est strictement concave : la couverture optimale q* est une fonction croissante de p et D, la couverture optimale q* est une fonction décroissante de R si et seulement u’’(x) si est croissante, u’(x) u’’(x) si -x est inférieure à 1 alors q* est une fonction décroissante de l. u’(x)
La microéconomie de l’assurance Depuis la fin des années 1960, une importante littérature s’est développée qui restitue le point de vue de l’assuré, disparu depuis Laplace, avec pour objectif de rendre compte de la demande d’assurance. Les premiers modèles de la théorie de l’assurance ont pour but de reproduire le comportement des acheteurs d’assurance : on décrit donc des individus maximateurs d’utilité espérée, même si on sait par ailleurs (voir supra) que cette théorie ne représente pas toujours correctement les décisions des individus réels. Mossin
84
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
montre dans ce cadre théorique simple quels sont les paramètres qui influent sur la demande d’assurance : la forme de la fonction d’utilité, le taux de chargement, etc. (voir encadré). À sa suite, Arrow introduit la notion de franchise dans l’analyse. À ce point, les acquis théoriques semblent pour le moins maigres : depuis le XIVe siècle [Boiteux, 1968], en effet, la franchise a été introduite par les régulateurs pour contrer le risque moral. Doherty et Schlesinger s’intéressent au cas des risques non assurables : les agents vont avoir tendance à s’assurer contre les risques corrélés positivement pour remédier à l’absence de couverture. Par exemple, un chef d’entreprise peut s’assurer contre la maladie, mais pas contre les pertes de revenus dues à la maladie. Il est vraisemblable qu’il recherche une assurance-maladie maximale pour couvrir aussi le risque, inassurable, de perte de revenu. Finalement, l’économie de l’assurance semble surtout être la reprise en main par les économistes professionnels d’un domaine où les actuaires disposaient pourtant, depuis longtemps, de méthodes remarquables.
VI / La finance comme pratique : institutions
La récurrence des crises systémiques (crise mexicaine en 1982, krachs de 1987 et 2000, crise asiatique de 1997 et crises russe de 1998, turque en 1999, argentine en 2000, etc. ; voir Boyer et al. [2004]) et des défaillances d’institutions isolées (de la Barings à Enron) nous rappelle la prévalence du risque dans la sphère financière. D’autant qu’une seule faillite peut déclencher une cascade qui, à l’image des dominos, emporte le système. Le spectre de la crise de 1929 est suffisamment présent aux esprits américains pour que le gouvernement ait organisé le sauvetage des caisses d’épargne au début des années 1990, ou que la FED ait fait de même avec LTCM en 1998 [Giraud, 2001]. Les modèles d’évaluation, et particulièrement le CAPM qui élabore pourtant une description du risque, n’épuisent pas la question. Le risque décrit par le CAPM est un risque de variabilité des cours, donc un risque de marché, ignorant les problèmes de signature, de contrepartie, les risques opérationnels (voir chapitre IV, encadré « Typologie des risques financiers ») ou même les risques systémiques majeurs.
La régulation des risques C’est finalement le régulateur qui, en exigeant un contrôle strict du risque global, a conduit à la standardisation des pratiques.
86
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
La réglementation prudentielle Les réglementations nationales. — Dans un premier temps, l’histoire des réglementations prudentielles est apparemment un âge d’autorégulation. Ainsi, à la glorieuse époque de la « banque libre » (1837-1863), quand il n’existe plus de banque ni de monnaie centrales aux États-Unis, les établissements bancaires choisissent leurs règles de solvabilité ; à la même époque, et c’est également vrai dans le reste du monde, les compagnies d’assurances déterminent d’elles-mêmes le niveau de leurs réserves. On imagine combien de faillites le système a toléré : ce n’est pas un hasard que le fameux « modèle de la panique bancaire » soit l’œuvre d’un Américain, Robert Merton [1948]. Merton décrit le bank run comme exemple de prophétie autoréalisatrice : c’est la croyance dans la fragilité de la banque qui entraîne la ruée des déposants pour récupérer leur argent et conduit la banque à une situation où elle ne peut honorer ses engagements. Pour éviter le discrédit, les professionnels ont réagi en s’organisant. Aux États-Unis, les premières régulations sur les réserves sont le fait des marchés financiers : en 1922, la Bourse de New York impose aux membres participants de consigner 10 % du montant des actifs traités. À la suite de la Grande Dépression des années 1930, les États sont pris d’une fièvre régulatrice qui s’exprime de manière différente selon les pays. En France, par exemple, toutes les grandes banques sont nationalisées à la Libération, et celles qui ne l’étaient pas encore le sont en 1982. Le résultat de cette politique est qu’il n’est pas nécessaire de légiférer, d’où un indéniable retard français en matière de pratiques prudentielles [Lacoue-Labarthe, 2005]. Aux États-Unis au contraire, la nature privée des établissements est conservée, mais la production législative est intense et continue : à côté du Glass-Steagall Act qui, en 1933, sépare banque de dépôts et banque d’affaires afin de faciliter la supervision, une foultitude de textes précisent les modalités de l’activité bancaire. Par exemple, la création de la Federal Deposit Insurance Corporation en 1934 instaure une assurance des dépôts pour éviter les paniques bancaires. Une réglementation supranationale. — S’il émane des pays G10, en majorité européens, (Allemagne, Belgique, Canada, États-Unis, France, Italie, Japon, Pays-Bas, Suède, Suisse), le premier accord de Bâle (1988) porte la marque de son origine américaine. D’une part, les exigences en fonds propres reprennent sensiblement les
LA
FINANCE
COMME
PRATIQUE
:
INSTITUTIONS
87
normes légales américaines, d’autre part, les fonds propres des banques additionnent capital et dette subordonnée (il s’agit d’une dette dont le remboursement éventuel, en cas de liquidation, est subordonné au remboursement préalable de tous les créanciers sauf les actionnaires). L’essentiel de ces accords de Bâle tient dans la définition du ratio Cooke (du nom de Peter Cooke, gouverneur de la Bank of England). Ce ratio indique que les crédits accordés doivent être provisionnés par des fonds propres à hauteur de 8 %. On applique toutefois un système de pondération censé représenter la qualité de l’emprunteur : 0 % pour les États de l’OCDE, 20 % pour les collectivités locales du même ressort, 50 % pour les crédits hypothécaires et 100 % pour les autres crédits. Il faut donc provisionner, sous forme de fonds propres, entre 0 % (emprunteurs souverains de l’OCDE) et 8 % (entreprises, particuliers plus tous emprunteurs hors OCDE) des crédits accordés. L’accord de Bâle vise ainsi à couvrir le risque de crédit. Malheureusement, la prise en compte exclusive du ratio Cooke entraîne des effets pervers : l’antisélection des risques de crédit, et la fuite vers les marchés. Le problème d’antisélection vient de ce que les crédits à l’intérieur d’une classe de pondération sont tous considérés comme également risqués, ce qui incite à n’accepter que les plus rentables, donc potentiellement les plus risqués. Par exemple, en 1997, prêter à des collectivités locales coréennes (pays de l’OCDE) exigeait de provisionner 20 % × 8 % = 1,6 % du montant du prêt, alors que prêter à EDF exigeait un provisionnement de 8 % ; à cette époque, la crise asiatique battait son plein alors qu’EDF bénéficiait de la garantie de l’État français : les pondérations ne reflétaient pas correctement les risques réels. La réglementation échoue donc à sécuriser le risque de crédit. Par ailleurs, les risques de marchés n’étant pas pris en compte, les banques sont incitées à développer des activités sur les produits financiers nouveaux, en particulier les dérivés dont on a vu avec LTCM quelles conséquences ils pouvaient entraîner. Pour faire face à ces problèmes, le comité de Bâle propose en 1996 d’étendre les pratiques prudentielles au risque de marché. Ces nouveaux accords marquent également l’approbation par le régulateur des métriques privées, à la place des systèmes de coefficients décidés par l’autorité de supervision, système peu réactif et précis dont on vient de voir qu’il aboutissait de fait à une antisélection des risques. Les opérations de marchés sont appréhendées via des modèles probabilistes, il est donc spontané d’en mesurer les risques de manière probabiliste ; pour le risque de crédit, une approche probabiliste semble moins évidente. Il faut attendre
88
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
Les accords de Bâle II À partir de 1999, le comité de Bâle lance un grand chantier qui aboutit aux accords dits « de Bâle II ». Ceux-ci doivent être retranscrits dans les législations nationales, ils entreront en vigueur en 2006 ou 2007 selon les pays. Ces accords reposent sur trois « piliers » : — pilier 1 : redéfinition des ratios de solvabilité ; — pilier 2 : amélioration de la supervision bancaire, en particulier pour les banques ayant opté pour les systèmes internes avancés (voir infra) ; — pilier 3 : plus de transparence dans l’information que les banques donnent (règles de publication des informations plus strictes, harmonisation des normes comptables via les normes IAS 32 et surtout IAS 39, relative aux instruments financiers). Le pilier 1 aboutit à remplacer, dans le calcul du niveau de fonds propres nécessaire, le ratio Cooke par le ratio McDonough. Ce dernier tient compte de tous les risques (risque de crédit, risques de marché, risques opérationnels). Plusieurs méthodes s’offrent aux établissements pour appréhender ces risques : — la banque pourra recourir au modèle standard. Les pondérations
seront calculées en fonction des notations des agences de rating (notation externe à la banque donc) ou des indications fournies par le régulateur ; — la banque appliquera un modèle interne de base. La banque va construire son propre système de notation des emprunteurs (scoring), mais utiliser des paramètres fournis par le régulateur pour la composition des pondérations ; — la banque déterminera son système de pondération par un système interne avancé qui rappelle les modèles de solvabilité des compagnies d’assurances : les banques produisent elles-mêmes la notation des emprunteurs et leurs systèmes de pondération. On le voit, Bâle II propose une généralisation des métriques privées et donc une supervision personnalisée qui peut sanctionner soit l’usage de modèles courants (1.) ou la méthode de construction de modèles particuliers (2.-3.). Dans ce cadre, c’est finalement à une évaluation globale du risque et des procédures de contrôle interne que les financiers vont se livrer. Parmi les métriques privées, l’approche connue sous le nom de Value-at-Risk permet de rendre compte intuitivement du risque global.
1999 pour que le risque de crédit bénéficie du même traitement. Désormais, le régulateur n’impose pas forcément sa mesure, il peut se contenter de certifier une méthodologie. Cela peut sembler un retour à un avant la réglementation, mais il semble difficile de ne pas tenir compte de la complexité sans cesse croissante des transactions financières, du renouvellement des produits, etc. Il faut donc décentraliser l’évaluation des risques et certifier les méthodes ou les procédures plutôt que les évaluations elles-mêmes, bref les métriques plutôt que les mesures. Les accords de Bâle II marquent l’accomplissement de cette prise de conscience.
LA
FINANCE
COMME
PRATIQUE
:
INSTITUTIONS
89
Le but de la réglementation est alors non seulement de maîtriser effectivement le risque des établissements de crédit et des intervenants sur les marchés financiers mais aussi de permettre l’apparition et la diffusion des bonnes pratiques. Car la tentation existe pour les établissements de considérer le risk management comme un coût et d’en faire le moins possible de ce côté-ci. Mais en suscitant la compétition entre les modèles internes, les autorités de régulation espèrent une émulation parmi les établissements financiers : Riskmetrics, une application gratuite et clés en main de calcul de la Value-at-Risk, a été un moyen pour J.-P. Morgan, au début des années 1990, d’affirmer la supériorité de ses équipes de risk managers. Le développement des réglementations prudentielles et des pratiques afférentes offre le spectacle d’une profession qui concourt tout entière à l’élaboration de sa propre régulation. Comme les linuxiens avec leurs logiciels, les financiers forment une communauté de pratique d’autant plus étonnante que l’on attendait d’eux qu’ils fassent tout payer. Tout, sauf l’image et la preuve de leur sécurité. La Value-at-Risk : un cadre méthodologique La Value-at-Risk (VaR) résume l’exposition d’un portefeuille au risque de marché ; la littérature insiste sur la distinction entre métrique et mesure : la première est une fonction quand la seconde correspond à des valeurs particulières (évaluation d’un portefeuille par la fonction). Bien que différentes métriques existent, on considère en général les VaR pour un seuil de confiance donné pour une période donnée. On parle par exemple de VaR en euro quotidienne à 90 % : si un portefeuille est caractérisé par une VaR en euro quotidienne à 90 % d’un million, alors cela signifie qu’il existe une probabilité de 10 % que la perte quotidienne sur ce portefeuille soit supérieure à un million. On semble ainsi retrouver le langage du modèle de Condorcet qui a servi de modèle à la théorie mathématique du risque en assurance. Mais cette ressemblance est trompeuse car les actifs financiers ne sont pas des variables aléatoires dont on connaîtrait les lois (ni des sinistres dont l’assureur mesure les fréquences, ou des décès quand on dispose de tables de mortalité, etc.). Comme on l’a vu dans le cas de LTCM, il est difficile d’évaluer le risque inhérent à un instrument financier, en particulier un dérivé complexe. Les formules d’évaluation ne donnent que l’espérance mathématique de gain : la distribution de probabilité des gains possibles reste inconnue. On peut calculer les « grecques », c’est-à-dire
90
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
l’élasticité-prix des produits par rapport aux paramètres (qui interviennent dans les formules d’évaluation de type Black et Scholes). Mais cela ne dit pas dans quelle mesure ces paramètres peuvent varier ! En général, on ne peut pas reprendre les calculs d’évaluation pour connaître la distribution des paiements sur la durée de vie du produit. Il faut donc développer des outils spécifiques d’évaluation du risque. La littérature [Jacquillat et Solnik, 2002 ; Hull, 2004, chapitre 16] décrit trois types de méthodes. D’abord, la simulation historique est la méthode la plus simple. Elle ne repose pas sur une modélisation particulière, puisqu’elle consiste à observer la corrélation passée entre les valeurs du portefeuille considéré et des variables de marché jugées pertinentes. On extrapole alors le comportement futur du portefeuille pour des valeurs données des variables de marché. Cette méthode ne nécessite aucune modélisation, elle a l’inconvénient de négliger complètement les problèmes qui se sont manifestés dans le cas de LTCM : valeur anormale d’une variable de marché au-delà de ce que les modèles probabilistes peuvent représenter. La méthode variance-covariance ou model building approach consiste à envisager une modélisation simplifiée des instruments dont on évalue le risque. On peut insister dans la modélisation sur le rôle de variables sensibles, celles sur lesquelles le levier est le plus important. On peut enfin procéder par simulation Monte-Carlo en tirant de grands échantillons aléatoires des variables de marché et en calculant les vraies valeurs du portefeuille, tirées des modèles d’évaluation, pour chacun de ces tirages aléatoires. Les trois méthodes présentées ont été ici rangées par ordre croissant de temps de calcul nécessaire et de précision des résultats. Toutefois, la simulation Monte-Carlo est en général prohibitive en termes de temps de calcul alors que la simulation historique l’est en raison de sa précision, d’où l’importance des modélisations spécifiques simplifiées. Bouchaud et Potters [1999] donnent un exemple d’algorithme de calcul alternatif, tout en insistant bien sur les enjeux de la modélisation (arbitrage entre temps de calcul, temps de développement de la mesure particulière et précision). La recherche de méthodes alternatives occupe donc les professionnels, d’autant que Bâle II encourage la recherche sur le sujet. En dépit des critiques qui lui ont été faites après la faillite de LTCM, la VaR reste un cadre analytique de référence. Dans le cas de LTCM, le problème venait principalement de ce que les risk managers considéraient le risque agrégé comme gaussien, en excluant la possibilité d’écarts importants. Depuis, VaR apparaît
LA
FINANCE
COMME
PRATIQUE
:
INSTITUTIONS
91
comme un cadre méthodologique et non plus comme une technique aboutie. En témoigne la floraison continue des travaux sur le sujet. La VaR ne peut toutefois prendre en compte que les risques quantifiables ; en matière de risques opérationnels, on retient également une approche qualitative. Risques opérationnels et contrôle Outre une définition abstraite des risques opérationnels (voir chapitre IV , encadré « Typologie des risques financiers »), le Comité de Bâle en a proposé une énumération : les fraudes internes ou externes ; les risques qui touchent aux relations clients, les pratiques autour des services et des produits, qui peuvent conduire à des contestations et à des pertes ; les problèmes liés à la gestion du personnel ; les dommages qui pourraient toucher les actifs physiques ; l’interruption totale ou partielle des systèmes ou des processus ; et la mauvaise exécution de certains processus, qu’ils soient internes à externes à la banque, comme une transaction qui est exécutée dans le mauvais sens. On comprend que ces risques ne sont pas liés à la nature des activités financières en particulier, ils concernent à la fois les établissements de crédit et les entreprises en général. D’ailleurs, l’actualité a retenu une série de défaillances de grandes entreprises (en particulier l’affaire Enron), où il est apparu que la communication financière pouvait être biaisée, que les superviseurs pouvaient être complices, etc. L’affaire Enron est particulièrement symbolique puisqu’elle a entraîné la chute d’Arthur Andersen, l’un des grands cabinets d’audit mondiaux, et montré la défaillance simultanée des contrôles internes (risk management propre à la firme) et externes (par l’auditeur). Du coup, une suspicion généralisée a pu planer sur l’information financière mondiale. La réponse du législateur a été à la hauteur de l’enjeu. D’une part, les recommandations du comité de Bâle concernant les banques ont été rapidement traduites dans les législations nationales ; d’autre part, des réformes plus générales touchant toutes les entreprises ont été engagées : le Sarbanes-Oxley Act (2002) aux États-Unis, la Loi de sécurité financière (LSF 2003) en France, dont l’article 117 réglemente les risques d’entreprise. Finance et risque sont un : les marchés financiers ne sont-ils pas des lieux où l’on échange avant tout des risques ? À côté du regard réglementaire et régulateur, au rebours du mouvement qui a constitué la finance en discipline distincte de l’économie, on
92
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
peut se demander s’il n’y a pas une place pour des interrogations économiques sur la finance comme pratique.
L’énigme de la prime de risque Depuis plus de vingt ans, un couple de questions anime les économistes qui s’intéressent à la finance. Elles menacent à la fois la méthode des économistes et ses résultats. En effet, elles sont « le genre le plus largement connu et le mieux compris de preuves habituellement employées contre les modèles à agent représentatif » [Guerrien, 2002b, p. 21-25] et elles sont « les signes de grands manques dans notre compréhension de la macroéconomie [comme ensemble de phénomènes, pas comme théorie] ». Ces jugements de Kocherlakota [1996, p. 44], dans une revue aussi diffusée et appréciée que le Journal of Economic Literature, indiquent assez l’urgence des problèmes que pose l’énigme de la prime de risque (et sa petite sœur, l’énigme du taux sans risque) aux macroéconomistes et aux économistes financiers. L’énigme elle-même En 1985, Mehra et Prescott publient un article qui fait date et déclenche une longue compétition pour résoudre l’énigme qu’il présente : sur une période de près d’un siècle (1889-1978), le rendement réel (c’est-à-dire déduction faite de l’inflation) des actions américaines paraît bien plus élevé (7 % en moyenne) que le rendement réel des obligations « sans risque » (1 % en moyenne). Le problème ne tient pas à l’existence d’une prime de risque sur les actions, naturellement plus risquées que les obligations « sans risque », mais à l’importance de cette prime de risque. Peu après, Weill [1989] montre que l’énigme doit être scindée en deux : d’une part, l’« énigme du taux sans risque », car le taux sans risque paraît anormalement bas, d’autre part, l’« énigme de la prime de risque », car celle-ci apparaît anormalement élevée. Mais quelle est cette normalité auquel il est implicitement fait référence ? La normalité que menace l’énigme, on a compris avec la citation de Kocherlakota que c’était celle de la théorie économique conventionnelle, la macroéconomie des « prix Nobel ». D’ailleurs, Mehra et Prescott ont plaisir à rappeler en 2003 les noms des grands hommes qui ont utilisé le même modèle que leur article de 1985 : Merton [1971], Barro et Becker [1988], Lucas [1978], Kydland et Prescott [1982], autant de nobélisés ! Ce modèle dit
LA
FINANCE
COMME
PRATIQUE
:
INSTITUTIONS
93
CCAPM (Consumption-CAPM) permet d’évaluer théoriquement les prix des actifs dans une économie d’équilibre général, un peu à la manière du CAPM, mais dans un cadre analytique plus général, reposant donc sur des mathématiques plus complexes : la programmation dynamique (dont on a parlé au chapitre précédent) qui permet de déterminer des trajectoires de consommation optimales dans un univers où le temps se traduit par un aléa sur l’avenir. Or, si l’on tente de représenter les données historiques de la période 1889-1978 dans ce modèle, on a le choix entre deux possibilités : soit l’on donne aux paramètres (courbure de l’utilité, taux d’escompte psychologique) les valeurs habituelles et l’on observe simultanément un taux sans risque très élevé (supérieur à 10 %) et une prime de risque très basse (de l’ordre de 1 %), soit l’on bricole les paramètres pour ajuster les observations de taux et de prime de risque, mais on obtient alors des valeurs des paramètres qui sont sans commune mesure avec ce qu’on obtient dans les simulations macroéconomiques habituelles. L’énigme est donc une énigme théorique. Elle ne provient pas d’observations aberrantes en soi, mais de l’incompatibilité entre deux modélisations : celle, habituelle, dans les modèles de croissance macroéconomique, d’une économie avec un taux d’intérêt unique ; celle qui propose d’introduire dans le même modèle un deuxième taux d’intérêt. L’histoire aurait pu en rester là. Mais l’énigme résista au data mining le plus éhonté, c’est-à-dire à toutes les tentatives économétriques de changer les données sur lesquelles on calibrait les modèles ou les formes des fonctions de décision du ménage représentatif. De plus, le phénomène semblait gagner en prévalence. En effet, l’énigme de la prime de risque serait devenue un phénomène quasi universel, et elle se serait même amplifiée aux États-Unis, comme en témoigne le tableau suivant. Tableau 1. La prime de risque Ensemble de données
États-Unis 1889-2000 [Mehra et Prescott, 2003] Royaume-Uni 1947-1999 (Siegel) Japon 1970-1999 (Campbell) Allemagne 1978-1997 (Campbell) France 1973-1998 (Campbell)
Rendement réel actions (%)
8,06 5,7 4,7 9,8 9,0
Rendement sans risque (%)
1,14 1,1 1,4 3,2 2,7
Prime risque (%)
6,92 4,6 3,3 6,6 6,3
94
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
Ce tableau, que les auteurs brandissent maintenant comme une preuve définitive de l’universalité de l’énigme, conduit à douter : n’est-on pas en train de mélanger des choses qui n’ont rien à voir ? D’une part, l’augmentation significative de la prime de risque aux États-Unis, presque un point de pourcentage en vingt ans sur une série qui en comptait déjà cent, montre une concentration du phénomène sur la période récente. D’autre part, le Japon, où la bulle spéculative s’est dégonflée plus tôt qu’ailleurs, présente une prime beaucoup plus basse que les autres pays qui connaissent à la fin des années 1990 une euphorie boursière historique. N’y aurait-il pas quelque problème avec les données ? Un artefact statistique ? En reprenant les données de Mehra et Prescott, on peut décomposer la prime de risque suivant les périodes et les pays. Pour les États-Unis, on observe une concentration de la prime de risque sur les deux derniers tiers du XXe siècle. Tableau 2. La prime de risque aux États-Unis : détail Ensemble de données
États-Unis 1802-1862 [Siegel, in Mehra et Prescott, 2003] États-Unis 1802-1889 (calculs de l’auteur) États-Unis 1802-1934 (calculs de l’auteur) États-Unis 1934-2000 [Mehra et Prescott, 2003]
Rendement réel actions (%)
Rendement sans risque (%)
Prime risque (%)
x
x
0
5,7
5,3
0,4
6,0
4,4
1,6
8,76
– 0,17
8,93
Ce tableau conduit à relativiser fortement l’impression d’universalité du phénomène. Si l’on prend le XIXe siècle tout entier, ou même les 130 premières années de l’échantillon, on obtient un taux réel sans risque non négligeable et une prime de risque limitée. Ce n’est peut-être pas non plus compatible avec la théorie macroéconomique, mais cela semble parfaitement compatible avec les données de longue période européennes pour la même époque ! En revanche, la période qui débute en 1934 apparaît tout à fait spécifique. On aurait alors beau jeu de critiquer, comme le font les auteurs, la qualité des séries pour la
LA
FINANCE
COMME
PRATIQUE
:
INSTITUTIONS
95
période 1802-1871… même s’il est vrai qu’elles sont exécrables. Mais voyons donc ce qu’il en est pour les pays européens. Un calcul rapide montre la sensibilité des primes aux choix des dates et, de ce fait, le caractère très local de la problématique de l’énigme. Les calculs suivants sont simples : on a comparé le rendement des actions représenté par indices de référence, DAX ou SBF 250, sans tenir compte des dividendes ni de l’inflation, avec le rendement d’un placement en obligations dont les coupons ont été réinvestis au fur et à mesure. Les écarts de prime de risque qu’ils révèlent d’une période à l’autre (8 points de pourcentage) sont bien au-delà de la marge d’erreur imputable à la seule méthode. Tableau 3. La prime de risque en Europe : exemples Ensemble de données
Rendement des actions en capital (%)
France 1962-2004 France 1983-2000 Allemagne 1973-2004 Allemagne 1983-2000
6,5 % 14,2 % 6,7 % 14,7 %
Rendement sans risque nominal (%) 8,6 8,3 6,8 6,6
% % % %
Prime risque brute (%)
– 2,1 5,9 – 0,1 8,1
% % % %
Source : calculs de l’auteur.
Un travail rapide sur les données conduit donc à discréditer la thèse de Mehra et Prescott : la prime de risque n’est pas toujours et partout anormalement élevée. L’énigme est un phénomène récent, quoique plus ancien et durable aux États-Unis. Curieusement, Prescott a reçu un « prix Nobel » pour une contribution, la théorie des cycles réels [Guerrien, 2002b, p. 138-141], qui présente le même type de problème : les résultats observés sur les données américaines ne peuvent pas être répliqués sur les données européennes. La revanche de l’histoire Ainsi donc le doute sur l’universalité de l’énigme provient-il des auteurs eux-mêmes : Mehra [2003] et Mehra et Prescott [2003] vantent les résultats de McGrattan et Prescott [2001] et Constantinides, Donaldson et Mehra [2003]. Le premier papier montre que l’accroissement du prix des actions aux États-Unis provient essentiellement de la réforme du système fiscal. D’abord, l’impôt
96
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
sur les bénéfices distribués passe de 43 % en 1955-1962 à 17 % en 1987-2000. Ceci a pour effet d’augmenter les flux de dividendes nets attendus et donc la valeur des titres (qui est égale à la valeur actuelle du flux de dividendes nets attendus). Ensuite, le régime d’imposition des cotisations aux fonds de pension a changé : alors qu’en 1962 les fonds ne pouvaient détenir que des obligations en franchise fiscale, cette franchise a été étendue depuis aux actions. En d’autres termes, les cotisations aux fonds de pension détenant des actions sont exonérées de l’impôt sur le revenu. La demande d’actions a dû augmenter en conséquence. À partir d’une équation statique d’évaluation des actions, les auteurs estiment que la conjonction de ces phénomènes explique un doublement du prix des actions entre 1960 et 2000, ce qui réduit d’environ 2 points la prime de risque. Essayons de comprendre l’accroissement de la prime de risque en France au long du XXe siècle en commençant par présenter le régime stationnaire du XIXe siècle : la rente, sans risque apparent, sert un taux de 3 %, mais dans la mesure où le prix de la rente fluctue, le taux sans risque fluctue également (si on achète 150 francs un titre de rente à 3 % d’une valeur de 100 francs alors le taux est de 2 % ; si la rente tombe à 75 francs, cela signifie que le taux passe à 4 %, etc.). Les actions portent un rendement qui peut être meilleur, mais avec des risques de faillite difficilement estimables. De fait, les actions ne constituent pas un placement de masse. Le premier coup de théâtre a lieu avec la Première Guerre mondiale : on sait que le gouvernement a financé l’effort de guerre par l’inflation, ce qui a euthanasié le rentier aussi bien que les économies des gens modestes ayant acquis des emprunts de la Défense nationale. À l’inverse des Britanniques qui choisissent après guerre de retourner à la parité-or du début du siècle, les Français tergiversent, et il faut toute l’autorité morale et politique de Poincaré pour imposer finalement la stabilisation du franc en 1926 au cinquième de sa valeur d’avant-guerre. Trois ans après, la crise vient ébranler les marchés financiers, et l’entre-deux-guerres apparaît rétrospectivement comme un bizarre havre de paix entre deux périodes d’inflation : 1914-1919 et 1940-1985. De ce fait, il semble très risqué de tirer quelque conclusion que ce soit sur la première moitié du XXe siècle en Europe, d’autant que les expériences nationales contrastées (hyperinflation allemande, déflation britannique, etc.) sont de nature à fausser complètement des données déjà assez peu significatives (compte tenu de la faible diffusion des actions dans le public).
LA
FINANCE
COMME
PRATIQUE
:
INSTITUTIONS
97
Après guerre s’ouvre une période de croissance exceptionnelle du PIB, bien différente dans ses modalités de la croissance du XIXe siècle, et la finance ne fait pas exception. En effet, les taux d’intérêt réels sont plutôt faibles et, malgré cela, les actions végètent en Europe (mais pas aux États-Unis). La situation devient réellement intéressante à la fin des années 1970 ou, si l’on préfère, après une phase de trouble consécutive à l’élection de F. Mitterrand et au séjour de ministres communistes au gouvernement. Depuis 1982, les actions ont connu une hausse vertigineuse, avec certes de courtes périodes de vaches maigres, mais le mouvement d’ensemble est inédit. C’est lui qu’il convient d’expliquer. On peut caractériser le phénomène en recourant aux indices boursiers (le SBF 250 est multiplié par dix pratiquement entre 1982 et 1998) ou par la capitalisation de la place parisienne. Ce n’est donc pas seulement une hausse des cours à laquelle on assiste : le nombre des valeurs cotées augmente également puisque la capitalisation progresse plus vite que les indices. Même si ces chiffres peuvent être trompeurs en surestimant l’accroissement réel des valeurs, il est manifeste que la hausse des actions s’explique par l’afflux de capitaux. Il convient alors de se demander d’où viennent les capitaux qui affluent sur le marché financier parisien et pour quelle raison ils y viennent. À la suite de McGrattan et Prescott [2001], on pourrait indiquer des raisons fiscales : au cours des années 1990, l’abaissement du taux de l’IS, du taux du prélèvement libératoire (compensé, il est vrai, par le couple CSG/CRDS), la création du PEA (1992) ; plus anecdotiques, les mesures au bénéfice de l’actionnariat salarié (1988, 2001), les divers textes régissant le capital-risque (1983, 1997, 2000). Tout cela a probablement eu un certain impact. Cependant, on sait que les mesures fiscales ont pour effet essentiel d’orienter l’épargne sans pouvoir la susciter. Si l’on ajoute les conditions favorables des privatisations (à la fois du point de vue des prix de vente et de l’atmosphère idéologique) en 1986-1987 puis après 1995, on comprend que les actions aient attiré l’épargne des ménages, comme en témoigne le tableau 4. On constate alors qu’en quinze ans la part des actions dans le patrimoine des Français a été multipliée par trois et demi, et ce phénomène n’est pas seulement lié à l’accroissement des fortunes mobilières. Un véritable mouvement de diffusion apparaît : le nombre d’actionnaires passe de 1,3 million en 1978 à plus de 6 millions en 1987, après la première vague de privatisations [Bourdin, 2003]. On sort donc d’un régime de ghetto, où les actions sont la propriété d’une minorité, pour passer à un régime de
98
LA
NOTION
DE
RISQUE
EN
ÉCONOMIE
Tableau 4. La financiarisation* 1981-1985 1986-1989 1990-1992 1997-1998 Taux de financiarisation du patrimoine Part des actions dans les actifs financiers Part des actions dans le patrimoine * Taux de financiarisation =
32,5
41,2
44,6
53,4
18,4
38
42,3
41,5
15,7
18,9
22,2
6
actifs financiers , en %. actifs financiers + actifs réels Source : Aglietta [2001].
consommation de masse (de produits financiers). D’ailleurs, qu’on se tourne vers les objets d’art, les grands vins ou l’immobilier, il semble que la fièvre haussière soit partout (avec des chronologies différentes, il est vrai). Il n’est donc pas possible d’expliquer la prime de risque en France depuis 1982, pas plus que les bulles successives, par les seules mesures fiscales. Un premier facteur pourrait être lié à l’ouverture du marché financier français. La modernisation du marché financier à marche forcée depuis 1983, l’abandon des pratiques colbertistes, la sous-estimation durable des entreprises financières à cause d’une image persistante d’archaïsme socialisant ont offert aux investisseurs étrangers un terrain propice aux achats d’opportunité. Le PER, price earning ratio ou rapport cours-bénéfice, constitue un indicateur du prix de marché des entreprises cotées en Bourse. Plus le PER est élevé, plus on paie cher un même montant de bénéfices. À l’aune de cet indicateur, les entreprises françaises étaient, en 1995 encore, parmi les plus sous-estimées en Europe. Au vu de ces chiffres, on peut légitimement penser que le marché français avait de quoi attirer les étrangers, en particulier les fonds de pension anglo-saxons, car il offrait en 1995 encore une décote d’environ 25 % par rapport au marché britannique, et de plus de 40 % par rapport au marché états-unien. Quand on connaît la puissance de ces investisseurs institutionnels, on conçoit que leur intérêt ait pu se traduire par une flambée 1. On 1. Cet effet de taille peut aussi jouer à la baisse. Quand, le 17 septembre 1998, Serge Tchuruk annonce sans précaution que les profits d’Alcatel seront finalement inférieurs aux attentes, les institutionnels vendent pour sanctionner cette nonchalance. L’action perd 38,4 % dans la séance.
LA
FINANCE
COMME
PRATIQUE
:
99
INSTITUTIONS
Tableau 5. Le PER sur les principaux marchés financiers PER
Suède Allemagne France Italie Pays-Bas Canada États-Unis Royaume-Uni Japon
Mars 1995
Mars 2000
Mars 2001
34,5 16,9 11,3 12,8 14,7 20,4 19,2 15,4 57,3
120,8 63,3 63,8 56,0 64,6 59,0 53,2 72,1 169,3
19,1 30,4 21,0 26,1 33,0 14,7 24,7 36,0 89,3
* Le PER, dans la mesure où il ne tient compte que des bénéfices de l’année écoulée, est un mauvais indicateur pour une entreprise en particulier. Si l’on admet que les erreurs se compensent, il fournit une information intéressante sur un groupe (assez grand) de valeurs, en particulier sur un compartiment ou un marché financier tout entier. Source : BRI (BIS), rapport 2001, p. 103.
tient peut-être dans cette sous-évaluation relative des années 1990 une des raisons de la hausse brutale entre 1995 et 2000, d’ailleurs repérée par le tableau 5. Peut-être pourrait-on également compter sur les étrangers pour expliquer la hausse des années 1980, bien que le taux de détention par les étrangers soit encore faible en 1990. Il faut donc manifestement chercher une explication complémentaire. Tableau 6. Taux de détention des entreprises du CAC 40 par les non-résidents (en %) Année Part des non-résidents
1989
1993
1996
1997
2001
2004
14
9 25
28
31
43
43
Source : Bulletins de la Banque de France, nº 55, 76, 134.
Rappelons-nous ce que nous cherchons : des capitaux disponibles prêts à s’investir. Or, précisément, en 1983 on constate la concomitance de deux phénomènes remarquables : d’une part, le « tournant de la rigueur » marque la conversion de F. Mitterrand aux dures lois du capitalisme ; d’autre part, la répartition de la valeur ajoutée, où la part du capital baissait continûment depuis les années 1950, opère un retournement rapide (tableau 7).
100 L A
NOTION
DE
RISQUE
EN
ÉCONOMIE
Ceci signifie que le capital est tout à la fois plus attractif en raison d’un meilleur rendement, et, comme il est mieux servi, qu’il dispose de plus de fonds à investir. Un raisonnement keynésien simple nous indique que les encaisses oisives cherchant à s’investir font monter les prix. Tableau 7. Partage de la valeur ajoutée des entreprises entre capital et travail Année
1950
1975
1980
1985
1990
1995
Capital Travail
37,8 62,2
29,7 70,3
28,3 71,7
32,0 68,0
37,6 62,4
39,7 60,3
Source : Piketty [1997, p. 40].
Visiblement, les détenteurs de capitaux ont repris confiance après 1982 et accepté d’acheter des titres, en particulier des actions. L’arrivée des étrangers et le basculement de la répartition au profit du capital ont amplifié le mouvement vers les actions entamé par les incitations fiscales. Cet afflux de capitaux s’est traduit par une hausse massive des cours et des capitalisations boursières. Toutefois, la tendance des cours est nettement procyclique, avec un palier important au moment de la crise du Golfe (et un autre en 2000). Cet argument de l’élargissement semble expliquer une hausse structurelle du cours des actions dans l’organisation économique actuelle, et donc une augmentation de la prime de risque. Boucher [2001], qui est l’un des commentateurs les plus distanciés de la polémique, indique que la participation croissante aux transactions ne peut expliquer qu’une faible diminution de la prime de risque (à peine 10 points de base, soit 0,10 % pour un doublement de la population). Mais ce faible impact provient du fait que l’on compare des régimes d’équilibre, alors que nous vivons un régime de transition. Durant ce régime de transition, les cours des actifs risqués augmentent rapidement, si bien qu’une fois la hausse passée, leur rendement apparaît diminué et la prime de risque également. Boucher donne d’ailleurs une représentation graphique du phénomène dont nous reproduisons l’idée générale dans les graphiques 8 et 9 2.
2. La simulation ici présentée repose sur les hypothèses suivantes : le taux sans risque est de 2 % annuel, le dividende des actions représente au départ 4 % de leur valeur et croît au taux annuel de 2 %. De 1972 à 1982 puis de 2000 à 2015, les cours des
LA
FINANCE
COMME
PRATIQUE
:
INSTITUTIONS
101
Graphique 9. Indice du cours des actions, en log
19 72 19 75 19 78 19 81 19 84 19 87 19 90 19 93 19 96 19 99 20 02 20 05 20 08 20 11 20 14
100
Rappelons que sur un graphique semi-logarithmique, la pente correspond au taux de croissance. Les cours des actions croissent donc à un même rythme régulier avant et après une phase de hausse transitoire. Les rendements et prime de risque a posteriori connaissent également cette phase de hausse (notez que les valeurs sont similaires à celles qu’on a observé ces vingt ou trente dernières années). Après la hausse, on remarque que rendement et prime de risque ont baissé à cause de la hausse des cours. À ce point, il convient de noter en passant la similitude formelle entre les marchés financiers et les pyramides ou chaînes d’argent. Bien que ces dernières soient formellement interdites, et qu’à l’inverse les marchés financiers soient autorisés et régulés, il existe un trait commun : les revenus des uns viennent des paiements des autres. Plus précisément, les paiements de nouveaux entrants financent les gains des premiers arrivés. Tant que grossit le nombre de ces entrants, ou tant que des fonds nouveaux sont apportés au marché, à la pyramide ou à la chaîne, le système fonctionne à merveille. Mais il n’est pas possible de fournir des revenus croissant plus vite que le produit national à l’ensemble de la population. L’énigme de la prime de risque a ceci de remarquable qu’elle nous fait percevoir le risque systémique. Entre 1802
actions croissent au rythme annuel de 2 %. Entre 1982 et 2000, ces mêmes cours croissent au rythme annuel de 10 %. Le résultat de ce phénomène de hausse est un accroissement transitoire du rendement et de la prime de risque a posteriori, suivi d’une baisse des mêmes (quand la hausse des cours s’arrête). Le phénomène essentiel est qu’à long terme, cours des actions et dividendes doivent croître au même rythme. Sauf si les actions ne représentent qu’une faible valeur du produit national, ce rythme doit être le taux de croissance du même produit national en volume.
102 L A
NOTION
DE
RISQUE
EN
ÉCONOMIE
Graphique 10. Rendement et prime de risque a posteriori % 12 10 8 6 4 2
19 72 19 75 19 78 19 81 19 84 19 87 19 90 19 93 19 96 19 99 20 02 20 05 20 08 20 11 20 14
0
Légende :
Rendement
-- -- -- -- -- -- -- -- - Prime de risque
et 2000, rien n’a changé, disent Mehra et Prescott. À peine reconnaissent-ils que la prime de risque a augmenté. Ce qui a changé, c’est qu’en 1802 il n’y avait pas un américain sur cent qui était actionnaire : on pouvait par conséquent lui fournir des revenus en les ponctionnant ailleurs. Ce n’est plus tout à fait le cas si 50 % des Américains sont actionnaires [Boucher, 2001, p. 17]. Heureusement, il reste le monde entier pour accroître la boule de neige… Conclusion L’énigme de la prime de risque paraît au mieux une manifestation des idiosyncrasies américaines, au pire, une manifestation des idiosyncrasies des économistes. En effet, le « fait stylisé » que l’énigme est censée représenter n’en est pas un, puisque l’on confond manifestement l’impact de mesures fiscales avec les effets de l’inflation du fordisme, ou avec ceux de la mondialisation qui l’ont suivi, et les modifications de la répartition qui ont accompagné cette mondialisation. C’est pourquoi la conclusion de Mehra [2003] et Mehra et Prescott [2003] nous paraît hasardeuse : « Les données utilisées pour documenter la prime de risque sur les cent dernières années sont les meilleures que les analystes puissent avoir […]. Avant que [l’énigme de] la prime de risque soit balayée, les chercheurs ne devront pas seulement comprendre les phénomènes observés, ils devront aussi donner une explication
LA
FINANCE
COMME
PRATIQUE
:
INSTITUTIONS
103
plausible des raisons pour lesquelles le futur devrait être en quelque manière que ce soit différent du passé. En l’absence d’une telle explication, et sur la base de ce que je connais actuellement, je revendique solennellement le jugement suivant : sur le long terme, la prime de risque sera probablement la même que ce qu’elle a été, et les rendements des investissements en actions continueront de dominer substantiellement les investissements en bons du Trésor pour les investisseurs avec un horizon de long terme. » Cet argumentaire présente deux propriétés étonnantes : d’abord, il offre une version extrême de la convention keynésienne qui consiste à considérer l’avenir à l’égal du présent (« donner une explication plausible des raisons pour lesquelles le futur devrait être en quelque manière que ce soit différent du passé ») ; ensuite, il est abusé d’un fait stylisé pour en déduire que rien n’a changé pendant deux siècles. Il oublie la distinction nécessaire entre un régime de ghetto, à l’époque où la diffusion des actions est confidentielle (en Europe, ce régime s’étend jusqu’au début des années 1980), et un régime de consommation de masse de produits financiers. Si la prime de risque peut être durablement élevée dans le premier cas, au détriment évidemment d’autres acteurs de l’économie, il n’en va plus de même dans le second : la rentabilité des actifs risqués ne peut excéder de 6 % celle des emprunts sans risque si tous les agents détiennent des risqués ! Ou alors il faut indiquer où est le risque et d’où vient l’argent ! D’un élargissement du marché, d’un détournement de la répartition, certes, mais ces arbres-là ne montent pas jusqu’au ciel.
Conclusion La prise en compte des aspects institutionnels de la finance nous a conduits à délaisser les sphères de la haute théorie pour visiter des contrées encore peu soumises à son emprise. La récurrence des crises a fait apparaître la nécessité d’une régulation des activités financières ; régulation dont on a esquissé les modalités : le risque y est une notion centrale, qu’il faut maîtriser au niveau des institutions individuelles pour éviter l’effondrement du système tout entier. Cette cuisine gestionnaire n’est pas du goût de tous, et certains préfèrent réinventer des questions théoriques. La volonté de faire apparaître des faits stylisés, de gommer les détails au profit d’un schéma général produit ici des effets regrettables. À considérer comme général un phénomène qui est
104 L A
NOTION
DE
RISQUE
EN
ÉCONOMIE
historiquement localisé, l’énigme de la prime de risque, on invente une nature humaine censée rendre compte d’un fait imaginaire, on oublie les causes d’un engouement conjoncturel et l’on accrédite la thèse selon laquelle les arbres monteraient jusqu’au ciel. Ce genre de ratiocinations généralisantes propage des idées fausses et contribue à l’accroissement du risque systémique en préconisant des comportements aberrants. Pour éviter les paniques financières, la régulation doit s’accompagner, comme Condorcet le préconisait déjà, d’une instruction des citoyens [Rieucau, 1998].
Conclusion
Au terme de ce parcours, l’économie du risque apparaît essentiellement duale. D’un côté, une haute théorie, abstraite, réductrice, fortement mathématisée. De l’autre, des études éparses sans véritable unité conceptuelle ni méthodologique. Pour autant, on n’a pas affaire à une économie de théoriciens contre une économie de praticiens : il existe des praticiens du calcul stochastique dans l’assurance, la finance, la recherche opérationnelle… Cette dualité cache en fait une vitalité extrêmement grande, si bien que même au cœur d’une théorie apparemment unifiée comme celle de la décision risquée, les points de désaccord sont autant de fronts de recherche, depuis le XVIIe siècle. En offrant une perspective historique, nous avons essayé de montrer l’extension de la désignation [Benveniste, 1969] du mot « risque », très spécifique à l’âge classique, et désormais universellement prévalent. Nous avons également essayé de montrer que les outils du calcul avaient connu une évolution remarquablement voisine : ils sont pratiquement aussi anciens et voient eux aussi leur utilisation se répandre en soumettant de nouveaux domaines. En cela, le traitement par la VaR du risque de crédit représente un tournant symbolique remarquable : alors que le risque de crédit est universellement considéré comme l’effet de la qualité des emprunteurs, la pratique du scoring conduit à une approche statistique de la question qui permet enfin de traiter la défaillance de manière purement probabiliste. L’affaire LTCM, les grands écarts de cours, le risque de krach nous ont également conduits à nous interroger sur la légitimité de cette représentation probabiliste : s’il existe une cause, même et surtout cachée, les probabilités seront impuissantes au moment où cette cause cachée entrera en œuvre. Pour cette raison, l’usage du calcul doit être distancié et certainement accompagné par une réflexion sur
106 L A
NOTION
DE
RISQUE
EN
ÉCONOMIE
le statut épistémologique de la probabilité et des théories de la décision. La prévalence des probabilités nous oblige à considérer avec respect et nostalgie la position épistémologique d’un Condorcet, qui croyait avec une naïveté touchante que la diffusion du calcul des probabilités conduirait l’humanité au progrès moral. Si l’exemple de l’économie du risque pouvait raviver une lueur d’espoir dans la connaissance, ce serait un hommage très inattendu au père fondateur de la théorie mathématique du risque.
Repères bibliographiques
AGLIETTA M. [2001], Macroéconomie financière, Paris, La Découverte, « Repères », 2005. A K T A S N. [2004], « La “finance comportementale” : un état des lieux », Reflets et Perspectives, vol. XLIII, p. 19-33. A LEMBERT d’ et L E R OND J. [1761], « Onzième mémoire : sur l’application du calcul des probabilités à l’inoculation de la petite Vérole », Opuscules mathématiques, vol. II, p. 26-46, Paris, David. AMF [2005], « Rapport […] sur le gouvernement d’entreprise et le contrôle interne », disponible sur www.amf-france.org/documents/general/5750_1.pdf. ARNAULD A. et NICOLE P. [1660], La Logique ou l’art de penser, Paris, Gallimard, 1992. A RROUS J. [1982], « Keynes et les probabilités : un aspect du “fondamentalisme” keynésien », Revue d’économie politique, vol. XXXIII, nº 5, p. 839-861. ARROW K.J., HARRIS T. et MARSCHAK J. [1951], « Optimal inventory policy », Econometrica, vol. XIX, nº 3, p. 250-272.
A URELL M. [1996], La Noblesse en Occident ( V e - XV e siècle), Paris, Armand Colin. BACHELIER L. [1900], « Théorie de la Spéculation », Annales de l’École normale supérieure, série 3, vol. XVII, p. 21-86 ; rééd. Paris, Jacques Gabay, 1993. — [1914], Le Jeu, la chance et le hasard, Paris, Flammarion, rééd. Paris, Jacques Gabay, 1993. B ARRO R.J. et B ECKER G.S. [1988], « Population growth and economic growth », Working Paper, Harvard University. B E C C. [1967], « Au début du XIVe siècle : mentalité et vocabulaire des marchands florentins », Annales ESC, p. 1207-1226. BECK U. [1995], Ecological Politics in an Age of Risk, Cambridge, Polity Press. BENVENISTE E. [1969], Le Vocabulaire des institutions indo-européennes, Paris, Minuit. BERGERON L. [1978], Les Capitalistes en France, 1780-1914, Paris, Gallimard. B ERLE A. et M EANS G. [1932], The Modern Corporation and Private Property, New Brunswick, Transaction Publishers.
108 L A
NOTION
DE
RISQUE
EN
ÉCONOMIE
BERNARD P., JOULIA V., JULIEN-LAFERR I È R E B. et T A R D I T S J. [1996], Mesure et contrôle des risques de marché, Paris, Economica. B E R N S T E I N P.L. [1992], Capital Ideas…, New York, Free Press ; trad. fr. Des idées capitales. Les origines improbables du Wall Street moderne, Paris, PUF, 1995, rééd. « Quadrige », 2000. — [1996], Against the Gods : the Remarkable Story of Risk, New York, Wiley ; trad. fr. Plus forts que les dieux. La remarquable histoire du risque, Paris, Flammarion, 1998. B ERNOULLI D. [1730], « Specimen theoriae novae de mensura sortis », rééd. in Die Werke von Daniel Bernoulli, t. II, Bâle, Birkäuser Verlag, 1975 ; trad. angl. « Exposition of a new theory on the measurement of risk », in Econometrica, vol. XXI, p. 223 sq. ; 1954 : trad. fr. par Charreton R., notes de Bru B., « Esquisse d’une théorie nouvelle théorie de mesure du sort », Cahiers du séminaire d’histoire des mathématiques, vol. VI, p. 61-77. BERNOULLI J. [1713], Ars conjectandi, rééd. in Die Werke von Jakob Bernoulli, t. III, Bâle, Birkäuser Verlag, 1975. B ERNOULLI N. [1709], De usu artis conjectandi in jure, rééd. in Die Werke von Jakob Bernoulli, t. III, Bâle, Birkäuser Verlag, 1975 ; trad. fr. Meusnier N., « L’usage de conjecturer en droit », séminaire d’histoire du calcul des probabilités (EHESS), 1992. BERNSTEIN P. [1998], Plus forts que les dieux. La remarquable histoire du risque, Paris, Flammarion.
BESNARD P. [1970], Protestantisme et Capitalisme, Paris, Armand Colin. B ISIÈRE C. [1997], La Structure par termes des taux d’intérêts, Paris, PUF. BLACK F. et SCHOLES M. [1973], « The pricing of options and corporate liabilities », Journal of Political Economy, vol. LXXXI, nº 3, p. 637-654. BOITEUX L.-A. [1968], La Fortune de mer. Le besoin de sécurité et les débuts de l’assurance maritime, Paris, SEVPEN. BOITEUX M. [1993], Haute tension, Paris, Odile Jacob. B ORCH K.H. [1969], « A note on uncertainty and indifference curves », Review of Economic Studies, vol. XXXVI, nº 1, p. 1-4. B OUCHAUD J.-P. [1995], « Marchés dérivés : pour une pédagogie du risque », Le Monde, 14 mars. BOUCHAUD J.-P. et POTTERS M. [1997], Théorie des risques financiers, Gifsur-Yvette, Centre d’études nucléaires de Saclay (diffusion Eyrolles). — [1999], « Worse fluctuation method for fast Value-at-Risk estimates », cond-mat/9909245, www.science-finance.fr. BOUCHER C. [2001], « Réduction de la prime de risque et inflation financière : le rôle de l’intermédiation financière », note de recherche CEPN. BOULEAU N. [1998], Martingales et marchés financiers, Paris, Odile Jacob. B OURDIEU P. [1987], Choses dites, Paris, Minuit. B O U R D I N J. [2003], Rapport « L’épargne en actions des ménages » au Sénat, accessible
REPÈRES
sur www.senat.fr/rap/r02-367/ r02-367.html. BOYER R., DEHOVE M. et PLIHON D. [2004], Les Crises financières, rapport CAE nº 50, Paris, La Documentation française. BRI [2004a], Central Bank Survey of Foreign Exchange and Derivatives Market Activity, www.bis.org/ publ/rpfx05.htm. — [2004b], Regular OTC Derivatives Market Statistics, accessible sur www.bis.org/publ/otc_hy0505. htm. BRU B. [1988], « Estimations laplaciennes », Journal de la société de statistique de Paris, vol. CXXIX, nº 1-2, p. 6-45. B R U B. et C R É P E L P. [1994], Condorcet : arithmétique politique. Textes rares ou inédits (17671789), Paris, INED. CAMPBELL J.Y. [2003], « Consumption based asset pricing », in CONSTANTINIDES G.M. et al., Handbook of the Economics of Finance, Amsterdam/Boston, Elsevier/ North-Holland. C ANTILLON R. [1755], Essai sur la nature du commerce en général, Paris, INED, 1997. CARTAPANIS A. [2004], Les Marchés financiers internationaux, Paris, La Découverte, « Repères ». CHAMBERS S.P. [1934], « Fluctuations in capital and the demand for money », Review of Economic Studies, vol. II, nº 1, octobre, p. 38-50. CLARK J.B. [1892], « Insurance and business profit », Quarterly Journal of Economics, vol. VII, nº 1, p. 40-54. — [1899], The Distribution of Wealth, New York, Kelley, 1965. CLAVERO B. [1991], La Grâce du don. Anthropologie catholique de
BIBLIOGRAPHIQUES
109
l’économie moderne, Paris, Albin Michel, 1996. COMBEMALE P. [1999], Introduction à Keynes, Paris, La Découverte, « Repères ». COMITÉ DE BÂLE [1997], Core Principles for Effective Banking Supervision, Bâle, BIS, septembre, www.bis.org/publ/bcbs30a.pdf. — [2001], Sound Practices for the Management and Supervision of Operational Risk, BIS-BRI, décembre, www.bis.org/publ/ bcbs86.htm. — [2003], Sound Practices for the Management and Supervision of Operational Risk, Bâle, BIS, février, www.bis.org/publ/ bcbs96.pdf. — [2004], International Convergence of Capital Measurement and Capital Standards. A Revised Framework, Bank of International Settlements/Banque des règlements internationaux, www.bis.org/ publ/bcbs107.pdf. C O N D O R C E T J.-A.-N. D E C A R I T A T , marquis de [1784], « Assurances (maritimes) », in BRU B. et CRÉPEL P. [1994], Condorcet : arithmétique politique. Textes rares ou inédits (1767-1789), Paris, INED, p. 485-494. — [1785], « Discours sur l’astronomie et le calcul des probabilités », in B RU B. et C RÉPEL P. [1994], Condorcet : arithmétique politique. Textes rares ou inédits (1767-1789), Paris, INED, p. 600-604. C ONSTANTINIDES G.M., D ONALDSON J.B. et MEHRA R. [2003], « Junior can’t borrow : a new perspective on the equity premium puzzle », Quarterly Journal of Economics, vol. CXVIII, p. 269-296.
110 L A
NOTION
DE
RISQUE
EN
ÉCONOMIE
C OUMET E. [1965], « Le problème des partis avant Pascal », Archives internationales d’histoire des sciences. — [1970], « La théorie du hasard est-elle née par hasard ? », Annales ESC, vol. XXV. COURTAULT J.-M., KABANOV Y., BRU B., C R É P E L P., L E B O N I et L E M ARCHAND A. [2000], « Louis Bachelier : On the centenary of Théorie de la Spéculation », Mathematical Finance, vol. X, nº 3, p. 341-353. COURTAULT J.-M. et KABANOV Y. (dir.) [2002], Louis Bachelier. Aux origines de la finance mathématique, Besançon, Presses universitaires franc-comtoises. C O V E L L O V.T. et M U M P O W E R J. [1985], « Risk analysis and risk management : an historical perspective », Risk Analysis, vol. V, nº 2, p. 103-120. CRAMÉR H. [1930] « On the mathematical theory of risk », Försäkringaktiebolaget Skandias Festskrift, p. 7-84. DASTON L. J. [1988], Classical Probability in the Enlightenment, Princeton, Princeton University Press. — [1989], « The domestication of risk : mathematical probability and insurance 1760-1830 », in KRÜGER L., DASTON L.J. et HEIDELBERGER M. (dir.), The Probabilistic Revolution, Cambridge (Mass.), MIT Press. DEBOUZY M. [1972], Le Capitalisme « sauvage » aux États-Unis, Paris, Le Seuil, 1991. DEBREU G. [1959], Theory of Value. An Axiomatic Analysis of Economic Equilibrium, Cowles foundation monograph nº 17, New Haven, Yale University
Press ; trad. fr. Théorie de la valeur, Paris, Dunod, 1970. DIEZ F. [1853], Etymologische Wörterbuch der romanischen Sprachen, Bonn, Adolph Marens. DOCKÈS P. et al. [2000], Les Traditions économiques françaises, 1848-1939, Paris, CNRS Éditions. DOLLINGER P. [1964], La Hanse, XIIeXVIIe siècle, Paris, Aubier, 1988. D REZE J. [1964], « Some postwar contributions of French economists to theory and public policy », American Economic Review, vol. LIV, nº 4, p. 1-64. DU CANGE C. DUFRESNE [1678], Glossarium mediae et infimae latinitatis, Paris, Firmin-Didot, 1845. DUPÂQUIER J. [1996], L’Invention de la table de mortalité, De Graunt à Wargentin, 1662-1766, Paris, PUF, 177 p. E D G E W O R T H F.Y. [1888], « The mathematical theory of banking », Journal of the Royal Statistical Society, p. 113-127. EINSTEIN A. [1905], « U˙ ber die von der molekularkinetishchen Theorie der Warme gefordete Bewegung von in ruhenden Flussigkeiten suspendierten Teilchen », Annalen der Physik, vol. XVII, p. 549-560. EWALD F. [1996], Histoire de l’Étatprovidence, Paris, LGF, « Le Livre de Poche ». F AVEREAU O. [1985], « L’incertain dans la révolution keynésienne : l’hypothèse Wittgenstein », Économies et Sociétés/Cahiers de l’ISMEA, série PE, nº 3, p. 29-72. F O N S E C A G. [2004], « Frank Hyneman Knight », disponible sur http://cepa.newschool.edu/ het/profiles/knight.htm. FOURQUET F. [1989], Richesse et puissance. Une généalogie de la valeur
REPÈRES
( X V I e - X V I I I e siècle), Paris, La Découverte. F R E E M A N H.A., F R I E D M A N M., MOSTELLER F., SCHWARTZ D.H. et W ALLIS W.A. [1948], Sampling Inspection, New York, McGrawHill. FREUNDLICH F. [1995], Le monde du jeu à Paris, 1715-1800, Paris, Albin Michel. FRIEDMAN M. [1953], « The methodology of positive economics », in FRIEDMAN M., Essays in Positive Economics, Chicago, University of Chicago Press, p. 3-43. FRIEDMAN M. et SAVAGE L.J. [1948], « The utility analysis of choices involving risk », Journal of Political Economy, vol. LVI, p. 270-304. — [1952], « The expected utility hypothesis and the measurability of utility », Journal of Political Economy, vol. LX, p. 463-474. FUSTEL DE COULANGES N.-D. [1892], Histoire des institutions politiques de l’ancienne France, l’alleu et le domaine rural pendant l’époque mérovingienne, Paris, Hachette, 1927. G A S P A R D M. [2003], « Ramsey’s theory of national saving : a mathematician in Cambridge », Journal of the History of Economic Thought, vol. XXV, nº 4, p. 413-435. G I D D E N S A. [1999], FAQ, www. lse.ac.uk/Giddens/FAQs.htm. GIRAUD P.-N. [2001], Le Commerce des promesses, petit traité de finance moderne, Paris, Denoël. G ODECHOT O. [2001], Les Traders. Essai de sociologie des marchés financiers, Paris, La Découverte. — [2004], L’Appropriation du profit. Politiques des bonus dans l’industrie financière, thèse de doctorat
BIBLIOGRAPHIQUES
111
de sociologie sous la direction de Michel Lallement, Paris, CNAM, 650 p. GROENWEGEN P.D. [1987], « “Political economy” and “Economics” », in New Palgrave Dictionnary of Economics, vol. 3, p. 904-907. GUERRIEN B. [2002a], La Théorie des jeux, Paris, Economica. — [2002b], Dictionnaire d’analyse économique, Paris, La Découverte, 3e éd. G U I L H O T N. [2004], Financiers, philanthropes. Vocations éthiques et reproduction du capital à Wall Street depuis 1970, Paris, Raisons d’Agir. GUIRAUD P. [1982], Dictionnaire des étymologies obscures, Paris, Payot ; rééd. 1994. GÜN Ö. [2002], L’Altruisme dans la théorie économique contemporaine : ses conditions d’apparition et ses conséquences, thèse Paris-I. — [2003], « Les raisons de l’apparition de l’hypothèse d’agent altruiste dans la théorie économique contemporaine », 7e conférence ESHET, 30 janvier, Paris. H ADAR J. et R USSELL W.R. [1969], « Rules for ordering uncertain prospects », American Economic Review, vol. LIX, p. 25-34. HANOCH G. et LEVY H. [1969], « The efficiency analysis of choices involving risk », Review of Economic Studies, vol. XXXVI, p. 335-346. HARRISON J.M. et KREPS D.M. [1979], « Martingales and arbitrage in multiperiod securities markets », Journal of Economic Theory, vol. XX, p. 381-408. HARRISON J.M. et PLISKA S.R. [1981], « Martingales and stochastic integrals in the theory of continuous trading », Stochastic
112 L A
NOTION
DE
RISQUE
EN
ÉCONOMIE
Processes and Their Applications, vol. XI, p. 215-260. HAWLEY F.B. [1891], « The fundamental error of Kapital und Kapitalzins », Quarterly Journal of Economics, vol. VI, nº 3, p. 280-307. HENRIET D. et ROCHET J.-C. [1991], Microéconomie de l’assurance, Paris, Economica. H ERRERO G. et DEL R ÍO P. [2003], « Financial stability and the design of monetary policy », SUERF Colloquium Paper, disponible sur www.banque-france. fr/gb/fondatio/telechar/papers_ d/financial_stability_mp. pdf. HICKS J.R. [1935], « A suggestion for simplifying the theory of assets », Economica, « New Series », vol. II, février, p. 1-19. HOLT C.C., MODIGLIANI F. et SIMON H.A. [1955] « A linear decision rule for production and employment scheduling », Management Science, vol. 2, nº 1, p. 1 HOLT C.C., MODIGLIANI F., MUTH J.F. et S IMON H.A. [1960], Planning Production, Inventories and Work Force, Englewood Cliffs, PrenticeHall ; trad. fr. Planification de la production, des stocks, de l’emploi, Paris, Dunod, 1964. HULL J. [2004], Options, futures et autres actifs dérivés, Paris, Pearson Éducation France, 5e éd. HUYGHENS C. [1657], De ratiociniis in aleae ludo : de rekeningh in spelen van geluck, rééd. in Œuvres complètes de Christian Huyghens publiées par la société hollandaise des sciences, t. XIV, La Haye, Martinus Nijhoff. ITÔ K. [1951], « On stochastic differential equations », Memoirs, American Mathematical Society, vol. IV, p. 1-51.
J ACQUILLAT B. et S OLNIK B. [2002], Marchés financiers. Gestion de portefeuille et des risques, Paris, Dunod, 4e éd. J ALLAIS S. et P RADIER P.-C. [1997], « L’erreur de Daniel Bernoulli ou Pascal incompris », Économies et Sociétés, série P.E., nº 25, 1/1997, p. 17-48. — [2005], « The Allais paradox and its immediate consequences for expected utility theory », in F ONTAINE P. et L EONARD R., The « Experiment » in the History of Economics, Londres, Routledge. JALLAIS S., PRADIER P.-C. et TEIRASERRANO D. [2003], « Experimental rationality and the theorizing of risky decision making : Bernoulli, Condorcet, Allais », 12th International Congress of Logic Methodology and Philosophy of Science, Oviedo, 8 août. Variante disponible sur http://picha.univ-paris1. fr/Jallais-Pradier-Teira%202005. pdf. J ÉGOUREL Y. [2005], Les Produits financiers dérivés, Paris, La Découverte, « Repères ». KAC M. [1950], « On some connections between probability theory and differential and integral equations », Proceedings of the Second Berkeley Symposium on Mathematical Statistics and Probability, Berkeley, University of California Press, 1951, p. 189-215. KAHNEMAN D. et TVERSKY A. [1979], « Prospect theory : an analysis of decision under risk », Econometrica, vol. XLVII, nº 2, mars, p. 263 sq. K EYNES J.M. [1921], A Treatise on Probability, Londres, Macmillan ; rééd. in The Collected Writings of
REPÈRES
J.M. Keynes, vol. VIII, Londres, Macmillan. — [1936], Théorie générale de l’intérêt, de l’emploi et de la monnaie, Paris, Payot, 1989. — [1937], « The general theory of employment », Quarterly Journal of Economics, rééd. in The Collected Writings of J.M. Keynes, vol. VIII, Londres, Macmillan, p. 109-123. KINDLEBERGER C.P. [1967], « French planning », in M ILLIKAN M.F. (dir.), National Economic Planning, New York, NBER/Columbia University Press. KNIGHT F.H. [1921], Risk, Uncertainty and Profit, Boston/New York, A.M. Kelley, 1964. K OCHERLAKOTA N.R. [1996], « The equity premium : it’s still a puzzle », Journal of Economic Literature, vol. XXXIV, nº 1, p. 42-71. K OLMOGOROV A.N. [1931], « U˙ ber die analytischen Methoden in der Wahrscheinlichkeitsrechnung », Mathematische Annalen, vol. CLXXXXIV, nº 3, p. 415458. KYDLAND F. et PRESCOTT E.C. [1982], « Time to build and aggregate fluctuations », Econometrica, nº 50, p. 1345-1371. L ACOUE -L ABARTHE D. [2005], « Les paniques bancaires inefficientes et la politique d’indulgence de l’État : une analyse exploratoire de la crise française des années 1930 », colloque du GDR, Strasbourg, 16-17 juin. LANDES D. [1975], L’Europe technicienne ou le Prométhée libéré. Révolution technique et libre essor industriel en Europe occidentale de 1750 à nos jours, Paris, Gallimard.
BIBLIOGRAPHIQUES
113
LAPLACE P.-S. [1781], « Mémoire sur les probabilités », Mémoires de l’Académie royale des sciences (pour l’année 1778), p. 227-232 ; rééd. in LAPLACE P.-S. [18781912], vol. IX, p. 383-485. — [1786], « Sur les naissances, les mariages et les morts à Paris depuis 1771 jusqu’en 1784, et dans toute l’étendue de la France pendant les années 1781 et 1782 », Mémoires de l’Académie royale des sciences (pour l’année 1783), p. 693-702 ; rééd. in L A P L A C E P.-S. [1878-1912], vol. IX, p. 35-46. L EBARON F. [2000], La Croyance économique. Les économistes entre science et politique, Paris, Le Seuil. — [2002], « Le “Nobel” d’économie : une politique », Actes de la recherche en sciences sociales, nº 141-142, mars, p. 62-66. LE BRAS H. [2000], Naissance de la mortalité. L’origine politique de la statistique et de la démographie, Paris, Gallimard/Le Seuil. L EFORT S. et P RADIER P.-C. [1999], « Toute petite histoire des produits financiers », Cahiers de la MSE, voir http://picha.univparis1.fr. L UCAS R.E. [1972], « Expectations and the neutrality of money », Journal of Economic Theory, vol. IV, p. 103-124. — [1978], « Asset prices in an exchange economy », Econometrica, nº 46, p. 1429-1445. LUHMANN N. [1990], Soziologie des Risikos, Berlin, de Gruyter ; éd. angl. Risk : a Sociological Theory, New York, de Gruyter. LUTHY H. [1961], La Banque protestante en France, Paris, SEVPEN, rééd. partielle in MARGAIRAZ M.,
114 L A
NOTION
DE
RISQUE
EN
ÉCONOMIE
Histoire économique, XVIII e - XX e siècle, Paris, Larousse, 1992. MACKENZIE D. [2001], « Making and unmaking a world : models, financial markets, and crises », intervention au colloque du centre Koyré. M AGENS N. [1753], Versuch über Assecuranzen, Havereyen und Bodmereyen insgemein ; und über verschiedene hiebeygesügte wirckliche Vorfälle und deren Berechnungen insbesondere nebst einer Sammlung der vornehmsten alten un neun Verordnungen und von einem Kaufmanne in London, Hamburg, Conrad König. MANN H.B. et WHITNEY D.R. [1947], « On a test of whether one of two random variables is stochastically larger than the other », Ann. Math. Statist., vol. 18, p. 50-60. MARKOV A.A. [1906], « Rasprostranenie zakona bol’shih chisel na velichiny, zavisyaschie drug ot druga », Izvestiya Fiziko-matematicheskogo obschestva pri Kazanskom universitete, 2-ya seriya, vol. 15, p. 135-156. M ARKOWITZ H.M. [1959], Portfolio Selection : Efficient Diversification of Investment, New Haven, Yale University Press, 1971, 2e éd. MARSCHAK J. [1938], « Money and the theory of assets », Econometrica, vol. VI, nº 4, octobre, p. 311-325. MARTIN T. (dir.) [2003], Arithmétique politique dans la France du XVIIIe siècle, Paris, INED. MASSÉ P. [1944], « Applications des probabilités en chaîne à l’hydrologie statistique et au jeu des réservoirs », Journal de la société de statistique de Paris, p. 204-219.
— [1946], Les Réserves et la régulation de l’avenir, Paris, Hermann. MASSÉ P. et MORLAT G. [1952], « Sur le classement économique des perspectives aléatoires », communication au colloque international sur le risque, Paris, CNRS, p. 165-199. M ATTAINI A. [2000], « Andrea da Barberino », in PICCOLO E. (dir.), La Crittica letteraria : il medioevo, Naples, Dedalus/Loffredo. M C G RATTAN E.R. et P RESCOTT E.C. [2001], « Taxes, regulations, and assets prices », Working Paper, nº 610, Federal Reserve Bank of Minneapolis. M E H R A R. [2003], « The equity premium : why it’s a puzzle ? », NBER Working Paper, nº 9512, www.nber.org/papers/w9512. MEHRA R. et PRESCOTT E.C. [1985], « The equity premium : a puzzle », Journal of Monetary Economics, vol. XV, nº 2, p. 145-161. — [2003], « The equity premium in retrospect », in C ONSTANTINIDES G.M. et al., Handbook of the Economics of Finance, Amsterdam/ Boston, Elsevier/North-Holland. M ELIS F. [1975], Origini e sviluppi delle assicurazioni in Italia (secoli XIV-XVI), Rome, INA. MENUDO J.M. et O’KEAN J.M. [2003], « The French tradition : the emergence of the entrepreneur as an acknowledged agent of production », communication au colloque ESHET 2003. MERTON R. [1948], « The self-fulfilling prophecy », Antioch Review, vol. VIII, p. 193-210 ; rééd. in M ERTON R., Social Theory and Social Structure, 1949, 1957, trad. fr. Éléments de théorie et de
REPÈRES
méthode sociologique, Paris, Plon, 1965. — [1971], « Optimum consumption and potfolio rules in a continuous-time model », Journal of Economic Theory, vol. III, p. 373-413. MITCHELL W.C. [1922], « Review of Knight’s Risk, Uncertainty and Profit », American Economic Review, vol. XII, p. 274-275. MOIVRE A. de [1711], « De mensura sortis », Philosophical Transactions, janvier-février, p. 206-264 ; rééd. New York, Johnson & Kraus, 1963. M ONTMORT P.R. de [1708], Essai d’analyse sur les jeux de hasard, Paris, 1713, 2e éd. M UNIESA F. [2003], Des marchés comme algorithmes : sociologie de la cotation électronique à la Bourse de Paris, thèse de socio-économie de l’innovation, Centre de sociologie de l’innovation (CSI), École des mines de Paris. MURPHY A.E. [1997], « Préface », in CANTILLON R. [1755], Essai sur la nature du commerce en général, Paris, INED. — [2003], « The roles of the entrepreneur and money in economics : reflections on Law, Cantillon and Schumpeter », communication au colloque ESHET 2003. MUTH J.F. [1961], « Rational expectations and the theory of price movements », Econometrica, vol. XXIX, nº 3, p. 315-335. NEUMANN J. von et MORGENSTERN O. [1944], Theory of Games and Economic Behavior, Princeton, Princeton University Press. NIERMEYER J.F. [1957], Mediae latinitatis lexicon minus, Leyden, Brill, 1976.
BIBLIOGRAPHIQUES
115
N YMAN J.A. [2002], The Theory of Demand for Health Insurance, Stanford, Stanford University Press. ORLÉAN A. [2000], Le Pouvoir de la finance, Paris, Odile Jacob. P A S C A L B. [1670], Pensées, nombreuses rééditions ; nous donnons les références aux éditions établies par BRUNSCHVICG L., Œuvres, Kraus Reprint, Paris, 14 vols, 1904-1914 (Les Grands Écrivains de la France), et par L A F U M A L., Histoire des Pensées de Pascal : 1656-1952, Saint-Genouph, Nizet, 1969. PERETTI-WATEL P. [2001], La Société du risque, Paris, La Découverte, « Repères ». PETIT H. et SAUZE D. [2005], « Une lecture de la relation salariale en termes de risques. Application au cas de la France aux X I X e et XXe siècles », Atelier Emploi-Social, 18 avril, Cahiers de la MSE. P ETTY W. [1662], attribué à tort à John Graunt. Observations naturelles et politiques répertoriées dans l’index ci-après et faites sur les Bulletins de Mortalité, éd. critique et trad. fr. par Vilquin E., INED, Paris, 1977. PIGOU A.C. [1920], The Economics of Welfare, Londres, Macmillan. P IKETTY T. [1997], L’Économie des inégalités, Paris, La Découverte, « Repères », 2004. PIRON S. [2004], « L’apparition du resicum en Méditerranée occidentale, X I I e - X I I I e siècles », à paraître in LEMAÎTRE A. et al., Pour une histoire culturelle du risque, Rennes, PUR. PRADIER P.-C. [1994], « La gestion d’entreprise dans la pensée économique au XIX e siècle », mémoire ENS-Cachan.
116 L A
NOTION
DE
RISQUE
EN
ÉCONOMIE
— [1997], « La gestion d’entreprise dans la pensée économique aux XVIIIe et XIXe siècles : un commentaire », Revue d’économie politique, vol. 107, nº 1, janvier-février, p. 121-130. — [1998], Concepts et mesures du risque en théorie économique, thèse ENS-Cachan, voir http://picha. univ-paris1.fr. — [2000a], « Le débat sur les formes d’organisation de la production : les économistes français et le droit des sociétés, 1860-1914 », in DOCKÈS P. et al., Les Traditions économiques françaises, 1848-1939, Paris, CNRS Éditions, p. 667-678. — [2000b], « Le Hasard fait bien les choses : histoire du docteur Markowitz », Économies et Sociétés, Economia, Histoire de la pensée économique, série P. E., nº 30, p. 85-118. — [2003], « L’actuariat au siècle des Lumières : risque et décision / économiques et statistiques », à paraître dans la Revue économique, voir http://picha.univ-paris1.fr. — [2004], « D’Alembert, l’hypothèse de Bernoulli et la mesure du risque : à propos de quelques lignes des Opuscules », in MARTIN T. (dir.), L’Arithmétique politique française au XVIII e siècle, Paris, INED, 2004. — [2005a], « Risque et décision économique jusqu’à Laplace », Cahiers de la MSE, séminaire RID. — [2005b], « Recensement critique des papiers conservés du séminaire Allais 1946-1952 », Cahiers de la MSE. — [2005c], « Trois pièces faciles », Cahiers de la MSE. — [2005d], « Value at risk 1784-2002 : a comprehensive
history », communication au colloque GDR, 16-17 juin, Strasbourg. PRADIER P.-C. et RIEUCAU J.-N. [2005], « Contributions de D’Alembert à la théorie de la décision tirées de la polémique sur l’Inoculation », Cahiers de la MSE. P RADIER P.-C. et T EIRA -S ERRANO D. [2000], « Frank Knight : le risque comme critique de l’économie politique », Revue de synthèse, 4 e série, nº 1, janvier-mars, p. 79-116. QUITTARD-PINON F. [1993], Marchés de capitaux et théorie financière, Paris, Economica. R AINELLI -L E M ONTAGNER H. [2003], Nature et fonctions de la théorie financière, Paris, PUF. RAMSEY F. [1928], « A mathematical theory of saving », Economic Journal. R E G N A U L T J. [1863], Calcul des chances et philosophie de la Bourse, Paris, Mallet-Bachelier et Castel. RENARD T. et CLEYRE V. de [2001], Medef : un projet de société, Paris, Syllepse. RENOUARD Y. [1962], « Destin d’une grande métropole médiévale : Pise », Annales ESC, p. 137-145. — [1968a], Études d’histoire médiévale, Paris, SEVPEN. — [1968b], Les Hommes d’affaires italiens du Moyen Âge, Paris, Armand Colin. — [1969], Les Villes d’Italie de la fin du Xe au début du XIVe siècle, Paris, SEDES. R EY A. et al. [1992], Dictionnaire historique de la langue française, Paris, Le Robert. R I C A R D O D. [1820], « Lettre à Malthus du 9 octobre 1820 », Works, vol. VIII, p. 278-279.
REPÈRES
— [1821], Principes d’économie politique et de l’impôt, trad. fr. par Soudan C., Paris, Garnier-Flammarion, 1993. RIEUCAU J.-N. [1998], « Les entreprises ou les hommes s’exposent à une perte, dans la vue d’un profit. Condorcet et l’héritage de D’Alembert », Revue économique, vol. XLIX, nº 5, p. 1365-1405. ROBBINS L. [1932], An Essay on the Nature and Significance of Economic Science, 2e éd., Londres, MacMillan, 1935 ; rééd. in H AUSMAN D., The Philosophy of Economics. An Anthology, Cambridge, Cambridge University Press. S A R G E N T T.J. [1972], « Rational expectations and the term structure of interest rate », Journal of Money, Credit and Banking, vol. IV, nº 1, p. 74-97. — [1973], « Rational expectations, the real rate of interest, and the natural rate of employment », Brooking Papers on Economic Activity, nº 2, p. 429-480. SAVAGE L.J. [1954], Foundations of Statistics, New York, Dover, 1972. S A Y J.-B. [1818], « Cours à l’Athénée », Cours d’économie politique et autres essais, Paris, Garnier-Flammarion, 1996. — [1821], « Catéchisme d’économie politique », Cours d’économie politique et autres essais, Paris, Garnier-Flammarion, 1996. SCHACHERMAYER W. et TEICHMANN J. [2005], « How close are the option pricing formulas of bachelier and black-mertonscholes ? », note de recherche disponible sur www.fam.tuwien. ac.at/~wschach/pubs/.
BIBLIOGRAPHIQUES
117
SCHMIDT U. [1998], Axiomatic Utility Theory under Risk : Non-Archimedean Representations and Application to Insurance Economics, Berlin, Springer. SCHUMPETER J.A. [1954], Histoire de l’analyse économique, Paris, Gallimard, 1983. ’S GRAVESANDE G.S. [1736], Introduction à la philosophie, Paris, Périsse frères, 1842. SHARPE W.F. [1964], « Capital asset prices : a theory of market equilibrium under conditions of risk », Journal of Finance, vol. XIX, septembre. S MITH A. [1776], Recherche sur la nature et les causes de la richesse des nations, trad. fr. par Paulette Taïeb, Paris, PUF, 1996. S TEINER P. [1995], « La théorie de l’entrepreneur de Say et la tradition Cantillon-Knight », L’Actualité économique/Revue d’analyse économique, décembre 1997. — [1998], « Jean-Baptiste Say : the entrepreneur, the free-trade doctrine and the theory of income distribution », in FACCARELLO G., Studies in the History of French Political Economy. From Bodin to Walras, Londres, Routledge, p. 196-228. STOKEY N., LUCAS R. et PRESCOTT E. [1989], Recursive Methods in Economic Dynamics, Cambridge (Mass.), Harvard University Press. TAQQU M.S. [2001], « Bachelier and his times : a conversation with Bernard Bru », in G E M A N H., MADAN D., PLISKA S.R. et VORST T. (dir.), Mathematical Finance. Bachelier Congress 2000, Springer or Finance and Stochastics, vol. V, nº 1, p. 3-32.
118 L A
NOTION
DE
RISQUE
EN
ÉCONOMIE
T E I R A -S E R R A N O D. [2003], Azar, Economía y política en Milton Friedman, thèse UNED, Madrid. TENENTI A. et TENENTI B. [1985], Il prezzo del rischio : l’assicurazione mediterranea vista da Ragusa (1563-1591), Rome, Jouvence. T ETENS J.N. [1785], Einleitung zur Berechnung der Leibrenten und Anwartschaften : Zweyter Teil. Versuche über einige bey Versorgungs-Anstalten erhebliche Puncte, Leipzig, Weidmanns Erben und Reich. THIS I. [1996], « Problèmes épistémologiques liés à l’autoréalisation des théories et des prévisions économiques », Revue économique, vol. XLVII, nº 3, p. 555-565. TOBIN J.E. [1958], « Liquidity preference as behavior toward risk », Review of Economic Studies, vol. XXV, p. 65-86. VASICEK O. [1977], « An equilibrium characterization of the term structure », Journal of Financial Economics, vol. V, nº 2, p. 177-188. VÉRIN H. [1982], Entrepreneurs, entreprise : histoire d’une idée, Paris, PUF. VV. AA. [1995], « Special issue on non-expected utility and risk
management », The Geneva Papers on Risk and Insurance Theory, vol. XX, nº 1. WALD A. [1947], Sequential Analysis, New York, John Wiley & Sons. W ALEY D. [1969], Les Républiques médiévales italiennes, Paris, Hachette. WALLIS W.A. [1980] « The statistical research group, 1942-1945 », Journal of the American Statistical Association, vol. LXX, p. 320-330. WALTER C. [1996], « Une histoire du concept d’efficience sur les marchés financiers », Annales d’histoire économique et sociale, p. 873-905. — [2004], « The efficient market hypothesis, the gaussian assumption, and the investment management industry », www.afir 2003.nl/download/AFIR% 202003%20wc%20pap%20def%2 0walter.pdf. WEBER M. [1908], L’Éthique protestante et l’esprit du capitalisme, Paris, Plon, 1985. W EILL P. [1989], « The equity premium puzzle and the risk-free rate puzzle », Journal of Monetary Economics, vol. XXIV, p. 401-421. WIENER N. [1923], « Differentiable space », Journal of Mathematics and Physics, vol. II, nº 1, p. 31.
Table des matières
Introduction
3
_ Encadré : Quelques rappels utiles, 4 _ Encadré : La représentation du risque dans la théorie économique : choix individuel entre variables, 6
I
Histoire du risque Fables et mythes du risque
8
La thèse moderniste : une légende bourgeoise, 8 Le roman nautique d’une étymologie obscure, 9
Autres sources, autre thèse
10
L’Italie comme centre de diffusion, 10 Dans l’Italie du XIIIe siècle, 11
La diffusion en Europe
12
_ Encadré : Le lien entre activités commerciale et militaire commerciale dans l’Italie médiévale, 12
II
Le risque probabilisé Du problème des partis à l’espérance mathématique
16
_ Encadré : Espérance mathématique, 18
Des assurances maritimes aux assurances sur la vie
19
Des assurances sans mathématiques, 19 _ Encadré : Primes d’assurance, 20 Assurance-vie et séries, 20 _ Encadré : Table de mortalité, 21 Du risque-espérance au risque-dispersion, 21 _ Encadré : Évaluation des rentes, 22 _ Encadré : L’histoire des tables de mortalité, 23
Métaphores du risque La décision économique, 24 _ Encadré : Problème ou paradoxe de Pétersbourg, 25 La décision statistique, 26
24
120 L A
NOTION
DE
RISQUE
EN
ÉCONOMIE
III Le risque de l’économie politique Jeux de labour et du hasard La « tradition française »
28 30
Cantillon : l’entrepreneur comme classe sociale, 30 Say : l’entrepreneur sans risque, 31
Les Américains avant Knight
32
Capital, risque et forme sociale, 32 Un faux classique, 33
Au risque de l’incertitude
34
Frank Hyneman Knight : la distinction « canonique », 34 John Maynard Keynes, 37 Les conséquences (théoriques) de l’incertitude, 39 Les conséquences paradoxales de l’incertitude knightienne, 39
Et après ?
40
Le risque et l’équilibre général : la théorie de la valeur, 41 Le risque dans les manuels d’économie, 42
IV La finance comme discipline : théories Les modèles statiques
44
Histoire d’une évidence, 44 _ Encadré : Typologie des risques financiers, 46 Harry Markowitz et l’« analyse espérance-variance », 48 Le risque dans la finance après Markowitz, 49 _ Encadré : La résolution complète du programme de Markowitz, 50
Le CAPM : modèle opérationnel ou langage ? 52
Les modèles dynamiques
53
La thèse de Louis Bachelier, 54 _ Encadré : Les produits dérivés, 55 Les développements de la finance de marché, 56 L’oubli du risque, 59 _ Encadré : La chute de LTCM, 60
Épistémologie
62
Keynes : convention et compétition, 62 _ Encadré : Toute petite sociologie de la finance contemporaine, 65
V
Les applications de la théorie de la décision Les années 1950 : planification et calcul Statistical Research Group contre plan Monnet, 66 _ Encadré : La théorie de l’utilité espérée : exemples, 68 Allais contre Savage, 70 La décision après l’utilité espérée, 72 _ Encadré : Les ordres stochastiques, 73
66
TABLE
DES MATIÈRES
Métaphores de la recherche opérationnelle
121
75
Ramsey, Massé, Pontryagin, 75 De la gestion de stocks aux anticipations rationnelles, 77 _ Encadré : Les probabilités bayésiennes, 78 La macroéconomie, 81
La microéconomie de l’assurance
83
_ Encadré : La demande d’assurance : le modèle de Mossin (1968), 83
VI La finance comme pratique : institutions La régulation des risques
85
La réglementation prudentielle, 86 _ Encadré : Les accords de Bâle II, 88 La Value-at-Risk : un cadre méthodologique, 89 Risques opérationnels et contrôle, 91
L’énigme de la prime de risque
92
L’énigme elle-même, 92 Un artefact statistique ? 94 La revanche de l’histoire, 95 Conclusion, 102
Conclusion
103
Conclusion
105
Repères bibliographiques
107