Les caprices des marchés financiers : régularités et turbulences - CNRS

constante numérique. Un comportement non linéaire de l'exposant ζp avec p ... Il est clair que la réponse à ces deux questions nécessite une description de la ...
195KB taille 7 téléchargements 140 vues
Systèmes dynamiques

Les caprices des marchés financiers : régularités et turbulences Les marchés financiers offrent une masse extraordinaire de données quantitatives sur un aspect particulier de l’activité humaine. Les séries temporelles de prix révèlent des propriétés statistiques très spécifiques, qui rappellent par certains côtés la statistique des champs turbulents. L’analyse de ces séries temporelles a-t-elle des choses à nous apprendre sur les comportements humains ? Comment utiliser ces résultats pour une meilleure gestion des risques financiers ? Les physiciens ont-ils leur place dans ce débat ? Le texte qui suit fait le point sur dix ans de « Phynance » statistique.

T

out le monde a suivi, au moins une fois dans sa vie, par hasard ou par nécessité, avec angoisse ou avec curiosité, la chronique du cours de la bourse, du dollar ou du pétrole. A la vérité, ces chroniques se ressemblent toutes, et c’est la première surprise : sans unités sur les axes qui permettent de reconnaître les dates ou la valeur des cours, ou de connaître les échelles temporelles et les échelles de variation, il est difficile de distinguer une action d’une devise, une matière première d’une obligation. L’apparence visuelle (la « texture ») de ces graphiques et, de façon plus quantitative, les propriétés statistiques des fluctuations des cours financiers (que nous détaillerons plus loin, encadré 1) sont étonnamment stables, à la fois dans l’espace et dans le temps : les marchés du XVIIIe siècle se comportent qualitativement comme ceux du XXe siècle ; ceux de Tokyo comme ceux de New-York semblent être la trace de comportements humains récurrents, universels et, par là même, éventuellement modélisables.

– Service de physique de l’état condensé, URA 2464 CNRS, CEA Saclay, Orme des Merisiers, 91191 Gif-sur-Yvette cedex. – Science & Finance, 109-111 rue Victor Hugo, 92532 Levallois, www.sciencefinance.com

84

La modélisation quantitative des comportements humains paraît encore saugrenue à certains physiciens, qui semblent opposer la matière inerte, docile, sans états d’âme et se prêtant à une expérimentation reproductible aux êtres humains, fondamentalement imprédictibles car doués de libre arbitre, et de plus capables de modifier leur comportement en réaction même à une théorie les concernant. Pourtant, les sciences économiques et sociales ont montré depuis longtemps que ces comportements pouvaient être modélisés. Dans le cas de l’économie, et en particulier des marchés financiers, une modélisation quantitative mathématisée, inspirée de la physique, a été introduite au début du siècle. Cela a été possible en premier lieu, parce que les sciences physiques ont petit à petit abordé l’étude de situations de plus en plus complexes, chaotiques, imprévisibles, comme la répartition des vitesses dans un écoulement turbulent, en modifiant progressivement la notion même de prédiction et en inventant de nouveaux outils de description statistique. Ainsi, au lieu de chercher à prévoir la position d’une particule au cours du temps, la physique du XXe siècle se contente souvent de savoir avec quelle probabilité la particule sera ici ou là au cours du temps. C’est à ce courant général (promu par Boltzmann, Einstein et Langevin), que participe Bachelier

lorsqu’il propose dans sa thèse, en 1900, une « Théorie de la spéculation » où il jette, cinq ans avant Einstein, les bases de la théorie du mouvement brownien. Il y développe la première théorie scientifique des marchés financiers qui, après une traversée du désert de plus d’un demisiècle, a profondément influencé le développement des mathématiques financières au cours des 30 dernières années. Le cadre de description statistique s’accommode fort bien du libre arbitre (réel ou supposé) des êtres humains. Si dans une situation donnée, chacun est libre d’agir comme il le souhaite, pour des raisons en général complexes et difficiles à cerner complètement, les comportements collectifs de populations, observés dans leur globalité anonyme, acquièrent une régularité telle que l’on peut espérer y trouver des lois, des causes, des invariants – comme pour les phénomènes concernant la matière inerte. Prenons par exemple le mouvement erratique d’une particule brownienne : il est dû aux chocs incessants des molécules d’eau qui l’entourent. On pourrait donc tenter une description historique, anecdotique, du mouvement en attribuant chaque déflection à une répartition particulière des molécules d’eau. Cette description détaillée est bien entendu impossible et, au demeurant, peu

Systèmes dynamiques

Encadré 1

QUELQUES ASPECTS STATISTIQUES DES FLUCTUATIONS DES COURS

(log x(t + τ ) − log x(t))2 p  = A p τ ζ p

ζ p = p[1 − λ2 ( p − 1)],

où λ2 mesure les fluctuations de la volatilité et A p une constante numérique. Un comportement non linéaire de l’exposant ζ p avec p (à comparer au mouvement brownien pour lequel ζ p ≡ p ) est appelé multifractal et caractérise aussi les fluctuations d’un champ de vitesses turbulent. Ce modèle fait apparaître quantitativement les analogies entre turbulence et marchés financiers. 0.34

0.32

0.30

0.28

0.26

2

2

2



Si l’on appelle x le prix d’un actif financier (action, devise, obligation, etc.), les variations relatives de prix v = δ log x ≈ δx/x d’une minute à l’autre, d’une heure à l’autre, d’un jour à l’autre, etc., possèdent des caractéristiques statistiques relativement universelles, indépendantes du marché considéré et de l’époque étudiée. Par exemple, la loi P(v) de la variable aléatoire v a des queues épaisses, que de nombreuses études récentes, en particulier du groupe de Stanley à Boston, sur des données haute-fréquence (concernant surtout les actions) ont permis de caractériser plus finement. Il s’agit de queues « de Pareto » P(v) ≈ 1/|v|1+µ avec un exposant µ dans une gamme de 3 à 5. (Pour les actions individuelles, la loi est relativement symétrique entre hausses et baisses.) Ces queues décrivent les mouvements violents des cours, qui peuvent varier en une heure de 1 % mais parfois de 10 % ou même de 100 %. Si µ = 3, la probabilité d’une chute de 100 % est un million de fois plus faible que celle d’une chute de 1 %. Ces variations extrêmes reflètent sans doute un phénomène collectif dont il faudrait comprendre en détail la nature et le mécanisme (encadré 3). Plus l’échelle de temps sur laquelle on mesure v est grande, plus ces queues ont tendance à disparaître, pour laisser progressivement place à une loi gaussienne. Mais même à l’échelle du mois, les effets non gaussiens restent notables. Nous avons montré que cette lente disparition des queues est reliée au phénomène d’intermittence de la volatilité, qui est le terme consacré en finance pour parler de l’écart-type de v. On peut en effet écrire v sous la forme du produit d’une variable aléatoire (de variance unité) , positive ou négative, qui décrit la direction du marché, et dont le temps de corrélation est très faible (quelques dizaines de minutes), et d’une variable σ qui donne l’amplitude de ces fluctuations, la « température locale » du marché : v =  × σ . La fonction de corrélation temporelle des σ se comporte comme une loi de puissance avec un exposant très faible. La figure ci-contre montre la fonction de corrélation σ 2 (t + τ )σ 2 (t), qui décroît comme une loi de puissance de τ, avec un exposant 0,22 pour les actions américaines. La faiblesse de cet exposant reflète le fait que les périodes de forte volatilité, ou de calme relatif, durent un jour, une semaine, ou même parfois plusieurs mois (pendant la guerre du Golfe par exemple). Un modèle particulièrement riche et intéressant, qui reproduit ce comportement intermittent de la volatilité, est le modèle multifractal de Bacry-Muzy-Delour. Ils postulent en effet que : •  est une variable gaussienne centrée réduite sans corrélations temporelles, et • log σ est aussi une variable gaussienne, mais dont la fonction de corrélation décroît très lentement (logarithmiquement) avec le temps. On peut, dans ce modèle, calculer exactement tous les moments de l’accroissement du logarithme du prix entre deux instants séparés par un intervalle τ. On trouve :

0.24

0.22

0.20

0

20

40

τ (jours)

60

80

100

Fonction de corrélation temporelle du carré de la volatilité en fonction de l’intervalle de temps τ. Les données correspondent à une moyenne sur les 500 actions américaines les plus liquides. La courbe en pointillés est un ajustement en loi de puissance, avec un exposant ν = 0,22. Le modèle de Bacry-Muzy-Delour prédit un comportement en loi de puissance de cette fonction de corrélation, avec ν = 4λ2 .

Beaucoup d’autres caractéristiques statistiques peuvent être explorées, par exemple l’effet dit « leverage » qui concerne les indices boursiers (CAC40, Dow Jones, etc.), qui est une corrélation (négative) forte entre variations passées du prix et volatilité future, sur une échelle temporelle d’une dizaine de jours. Cet effet est relativement faible et difficile à mesurer ; nous avons, avec Andrew Matacz et Marc Potters, quantifié et modélisé cet effet en utilisant simultanément plusieurs sources de données. Les effets multivariés, c’est-à-dire les corrélations qui existent entre différentes actions (en particulier en période de forte volatilité), ou entre obligations de différentes échéances, mériteraient aussi une discussion plus approfondie. Dans le premier cas, nous avons suggéré qu’une partie importante du spectre des valeurs propres de la matrice de corrélation se comprend grâce à la théorie des matrices aléatoires de Wigner et Dyson. Cette théorie, inventée pour comprendre le spectre énergétique des noyaux nucléaires, montre que les valeurs propres d’une matrice aléatoire ont des propriétés universelles. Dans le second cas, nous avons souligné l’existence d’une analogie entre la courbe des taux – qui décrit à un instant donné l’ensemble des taux d’intérêt correspondant à des emprunts de durées différentes (un jour, un mois, un an, dix ans...) – et les vibrations d’une corde élastique soumise à un bruit aléatoire. Dans les deux cas, les outils de la physique statistique offrent de nouvelles perspectives et suggèrent une analyse originale des données financières.

85

Encadré 2

LES OPTIONS ET LA FORMULE DE BLACK-SCHOLES Une option est une sorte d’assurance contre les fluctuations des marchés financiers. Par exemple, on peut vouloir assurer son portefeuille boursier contre un effondrement des cours, et ainsi acheter une « option » qui fournit la garantie d’un prix de rachat minimum de ses actions. De nombreux produits de ce type sont en fait, de façon parfois cachée, déjà disponibles pour le grand public, et portent le nom d’investissements à capital garanti. Dans ce cas, la valeur minimale garantie est le capital initial. On peut aussi vouloir s’assurer contre une hausse, par exemple une entreprise française devant payer des factures en dollar peut vouloir se prémunir contre une appréciation future de cette devise. Quel est le montant raisonnable de la prime d’assurance à laquelle doit consentir l’acheteur de l’option ? Le vendeur d’option peut-il suivre une stratégie optimale d’achat et de vente du « sous-jacent » (c’est-à-dire l’objet sur lequel porte l’option) de façon à minimiser son risque ? Il est clair que la réponse à ces deux questions nécessite une description de la dynamique du sousjacent, un modèle probabiliste de son évolution future. Black et Scholes, en 1973, proposent une solution complète du problème en reprenant le modèle de Bachelier, un peu modifié : ils supposent que le logarithme du prix, plutôt que le prix luimême, effectue un mouvement brownien. On observe en effet à long terme une croissance exponentielle du prix des actifs financiers, même si à court terme les deux modèles sont très similaires. Autrement dit, Black et Scholes écrivent, en reprenant les notations de l’encadré 1 : v = σ  + m, où σ est la « volatilité »,  une variable aléatoire centrée de variance unité et m la rentabilité moyenne. La formule qu’ils obtiennent exprime la valeur de l’option comme la moyenne du profit potentiel de l’acheteur, ce qui paraît raisonnable. Cette moyenne est d’autant plus grande

instructive. La description probabiliste, proposée par Einstein et Langevin, permet de dégager les lois universelles du mouvement brownien, qui décrivent de manière extrêmement précise le comportement d’une assemblée de ces particules, au détriment de leurs histoires individuelles. Ces particules, soumises à leur propre poids, ont une probabilité légèrement plus grande de se déplacer vers le bas que vers le haut : l’observation de l’une d’entre elles ne révèle que très difficilement cette tendance à la descente, qui apparaît cependant clairement au niveau collectif. De la même façon, le compor86

que la volatilité σ du sous-jacent, sa propension à fluctuer, est grande : les marchés d’options sont ainsi des marchés où s’échangent des anticipations de volatilité future. Cependant, la moyenne du profit potentiel est prise non pas avec la « vraie » probabilité du mouvement brownien, mais avec une probabilité « décalée », obtenue en retranchant la rentabilité moyenne du sous-jacent, c’est-à-dire en imposant m = 0. Autrement dit, et assez curieusement, le prix de l’option ne dépend pas de la tendance moyenne à la hausse ou à la baisse du sous-jacent ! Ce décalage provient de la stratégie de couverture que suit le vendeur d’options, qui corrige son bilan financier de manière à compenser exactement l’effet de la tendance moyenne. Black et Scholes trouvent d’ailleurs que la stratégie optimale est parfaite, dans le sens où le vendeur ne prend aucun risque ! Ce résultat est intimement lié à la nature supposée gaussienne des fluctuations, et à la limite (irréaliste) du temps continu, où la fréquence des transactions tend vers l’infini. En présence des effets non gaussiens décrits dans l’encadré 1 (queues de distributions, volatilité stochastique), la possibilité de trouver une stratégie parfaite disparaît, et il subsiste un risque résiduel, dont nous avons montré qu’il est en pratique très important. Le prix lui-même subit des modifications, que les opérateurs du marché implémentent en injectant dans la formule de Black et Scholes non pas la vraie volatilité σ mais une volatilité effective qui varie en fonction de l’échéance de l’option et du « prix d’exercice » (le seuil à la hausse ou à la baisse qui définit l’option). Tracée en fonction du prix d’exercice, cette volatilité a souvent une forme parabolique ; on parle alors, dans les salles de marché, de « smile » de volatilité. Nous avons montré que la forme précise de ce smile peut être reproduite en prenant en compte de manière quantitative les effets non gaussiens décrits dans l’encadré 1, en particulier les corrélations à longue portée de la volatilité.

tement des intervenants sur les marchés financiers résulte de motivations qui leur sont propres, mélanges d’arguments rationnels, de mimétisme et de pulsions émotionnelles, de besoins immédiats ou de décisions à long terme, de savants calculs ou d’erreurs d’appréciation. Dans leur globalité cependant, ces comportements individuels semblent engendrer une régularité qui les dépasse. Bachelier écrivait ainsi que le marché, à son insu, obéit à une loi qui le dépasse, la loi de la probabilité. La recherche des détails de cette loi est depuis quelques années un domaine très actif dans lequel sont impliqués

économistes, mathématiciens et physiciens. Cette recherche est motivée, entre autres, par la nécessité pour les établissement financiers de contrôler les risques inhérents à leur activité spéculative, nécessité qui est apparue, curieusement, plus tardivement que dans d’autres domaines d’activités industrielles. Pourtant, les conséquences d’un krach boursier comme celui de 1929 sont sous bien des aspects comparables dans leur cortège de malheurs à celles d’un accident nucléaire ou d’un tremblement de terre. Le contrôle des risques s’est imposé au début des années 90, après le krach retentissant de 1987,

Systèmes dynamiques

dont l’occurrence mettait gravement en défaut le modèle de Bachelier (très légèrement amendé) utilisé alors. Le développement exponentiel des marchés dits dérivés, comme les marchés d’options (encadré 2), où les effets de levier peuvent amplifier à l’extrême les mouvements de hausse ou de baisse, a rendu inévitable une réflexion approfondie sur le risque financier, son origine et sa calibration, afin de construire des instruments efficaces de mesure de la « sismicité » des marchés financiers. A cette motivation instrumentale s’ajoute une motivation intellectuelle, qui est celle du développement d’une modélisation statistique quantitative des comportements humains dont nous avons parlé plus haut. Les marchés financiers, bien que (ou peut-être parce que) réducteurs, sont pour cela un magnifique terrain d’expérimentation, car ils constituent sans doute la source la plus abondante de données qui documentent de manière quantitative une activité humaine : on dispose des variations de prix de dizaines de milliers d’instruments financiers, parfois au cours de plusieurs siècles, comme pour le blé. Que nous apprennent ces mouvements erratiques de hausse et de baisse sur les comportements des individus qui en sont la cause mais dont les conséquences collectives les dépassent ? D’autres activités humaines sont de ce point de vue comparables, comme le trafic routier et ses fluctuations géantes, ou le réseau des connexions sur Internet. Même si la masse de données disponibles n’est pas (encore) comparable à celle des marchés financiers, le développement de modèles de comportements de con-ducteurs issus de la physique statistique a connu un essor considérable ces dernières années : le réseau autoroutier allemand est entièrement géré par un modèle de ce type ! Il y a donc fort à parier que les outils et les concepts développés pour comprendre la statistique des marchés financiers auront une portée beaucoup plus vaste. Revenons sur le modèle de Bachelier et sur ses limitations. Bachelier

4.5 3.5 2.5

Indice DowJones 1.5 1900

1920

1940

1960

1980

2000

3 2 1 0

Mouvement de Bachelier

1 1900

1920

1940

1960

1980

2000

Figure 1 - Deux chroniques de prix, l’une réelle (figure du haut), l’autre synthétique (figure du bas). La chronique réelle correspond à l’indice Dow-Jones pendant le XXe siècle, en coordonnées semi-logarithmiques. Les flèches indiquent deux grands krachs : 1929 et 1987. La chronique artificielle est obtenue en suivant la prescription de Bachelier : chaque mouvement est une variable aléatoire gaussienne, totalement indépendante du passé, mais de valeur moyenne non nulle, afin de reproduire l’effet de croissance séculaire de l’économie qui apparaît sur la chronique réelle.

40 20 0 20 40 1900

Indice DowJones 1920

1940

1960

1980

2000

1000.0 500.0 0.0 500.0 1000.0 1900

Mouvement de Bachelier 1920

1940

1960

1980

2000

Figure 2 - Autre représentation des données de la figure 1 : au lieu du prix, on trace ici la variation relative journalière des prix en fonction du temps, pour le Dow-Jones (en %) et pour le mouvement de Bachelier (unités arbitraires). On discerne clairement, dans les données réelles, les variations intermittentes de volatilité.

87

fait une hypothèse minimale : si le prix reflète un équilibre entre acheteurs (qui pensent que le cours va monter) et vendeurs (qui pensent qu’il va descendre), ce prix est tel que l’espérance (c’est-à-dire la valeur moyenne attendue) du prix de demain est égale au prix actuel. Bachelier écrit : Les opinions contradictoires relatives à ces variations se partagent si bien qu’au même instant les acheteurs croient à la hausse et les vendeurs à la baisse, et, plus loin : Il semble que le marché ne doit croire à un instant donné ni à la hausse ni à la baisse puisque, pour chaque cours coté, il y a autant d’acheteurs que de vendeurs. Autrement dit, l’accroissement de prix entre aujourd’hui et demain est une variable aléatoire imprédictible. Le prix est donc la somme de ces accroissements aléatoires. Or, la somme d’un grand nombre de variables aléatoires est, moyennant des hypothèses peu restrictives, une variable aléatoire dite gaussienne, c’est-à-dire dont la distribution est donnée par la loi normale de Laplace-Gauss, et dont l’écart-type croît comme la racine carrée du temps qui s’écoule. Le processus statistique ainsi construit est celui du mouvement brownien. L’objet obtenu est universel, dans le sens où il ne dépend pas de la distribution particulière des accroissements élémentaires. Un exemple d’une chronique fictive, engendrée numériquement à partir de la prescription de Bachelier, est donné en figure 1, et comparé avec la chronique de l’indice DowJones de la bourse de New-York depuis le début du siècle. Au premier coup d’œil, les caractéristiques grossières de ces deux graphiques se ressemblent et notamment, de manière surprenante, avec l’apparition sur la chronique simulée de périodes relativement longues où le prix fictif semble être sur une tendance haussière ou sur une tendance baissière. Ces « tendances » ne correspondent évidemment à aucune explication économique rationnelle, et à aucune possibilité de prévision. Elles ne 88

sont que le reflet du hasard, qui prend cependant, dans le cas du mouvement brownien, une forme très particulière : en effet, les hausses peuvent durer si longtemps que la durée moyenne d’une période faste (ou défavorable) est infinie ! Une différence majeure apparaît cependant lorsque l’on observe les deux graphes de la figure 1 plus attentivement : plusieurs discontinuités apparaissent clairement sur le cours réel, correspondant aux grands krachs du siècle (celui de 1929 par exemple et la grande dépression qui en a résulté, ou celui de 1987). Le processus de Bachelier, quant à lui, est continu ; aucune grande variation n’est observée. Cela est une propriété de la loi normale de LaplaceGauss, qui décroît si vite lorsque l’on s’écarte du centre que les événements extrêmes ont une probabilité quasi nulle de se produire. Dans le monde de Bachelier, le krach de 1987 n’aurait jamais dû se produire, même si la bourse avait existé depuis le début de l’univers. La reconstruction empirique de la loi de distribution des variations de prix fait apparaître une queue dite de Pareto (encadré 1), c’est-à-dire une lente décroissance en loi de puissance de la probabilité des extrêmes. Cette loi, observée par Pareto à la fin du XIXe siècle sur la répartition des fortunes ou des revenus, est apparue depuis dans de nombreux contextes : fluctuations financières, amplitudes des tremblements de terre, taille des mégapoles, recettes d’exploitation des films... Une autre représentation permet de comprendre la différence profonde entre le modèle de Bachelier et la réalité des marchés : au lieu de tracer le prix au cours du temps, on peut tracer les variations journalières des prix, à la fois pour l’indice Dow-Jones et pour l’histoire fictive de Bachelier (figure 2). On observe dans le cas réel non seulement des « pics » d’amplitude correspondant à de fortes hausses ou de fortes baisses, mais aussi une tendance à l’agrégation de ces pics dans le temps. Autrement dit, il apparaît

clairement des périodes troublées, d’agitation intense, entrelacées par des périodes plus calmes, de faible activité : l’évolution des marchés se fait par bouffées intermittentes de volatilité. De telles structures n’apparaissent pas dans le diagramme sans relief du mouvement de Bachelier, qui correspond à une dynamique modérée, sans à-coups, un hasard sans surprises. Il est intéressant de souligner les similarités frappantes entre la texture statistique des fluctuations financières et celle du champ de vitesse d’un écoulement turbulent. Comme pour les marchés, un écoulement turbulent (par exemple celui produit dans la grande soufflerie de Modane) est intermittent : il se structure en régions « laminaires » (où l’écoulement est relativement régulier et où la dissipation d’énergie est faible) entrecoupées par des régions fortement dissipatives. Ainsi, toutes les méthodes récentes d’analyse de signaux chaotiques (comme la transformée en ondelettes) qui ont permis des progrès considérables dans la compréhension de la turbulence hydrodynamique et le développement de modèles statistiques nouveaux, trouvent une application naturelle dans l’étude des fluctuations financières (encadré 1). Lente décroissance de la probabilité des variations extrêmes, persistance des périodes de forte volatilité ; au-delà de cette description qualitative, on peut définir des mesures quantitatives de ces effets, et comparer les résultats obtenus pour différents marchés et différentes époques pour conclure à cette grande universalité mentionnée en introduction (encadré 1). Celle-ci suggère un mécanisme élémentaire commun, peut-être relié à certains invariants fondamentaux de la psychologie humaine : appât du gain et peur de perdre, manque d’informations, esprit grégaire et mimétisme, apprentissage par essai et erreur... notions qu’il faut tenter de quantifier précisément. Plusieurs modèles, pour lesquels l’un ou l’autre de ces

Systèmes dynamiques

Encadré 3

QUELQUES MODÈLES SIMPLES DE MARCHÉS FINANCIERS Le rêve du physicien statisticien serait de trouver un modèle où chaque « agent » obéit à des règles de comportement individuel très simples, mais où les effets collectifs complexes qui en résultent pourraient expliquer, au moins qualitativement, les grands traits des caractéristiques statistiques évoquées dans l’encadré 1 : loi de distributions à queues épaisses, intermittence de la volatilité. Exactement comme la turbulence est le produit, à grande échelle, du mouvement de molécules qui s’entrechoquent. On peut penser à deux niveaux de description : soit « microscopique », où l’on cherche à modéliser le comportement de chaque entité élémentaire (l’agent économique), soit au niveau supérieur, où l’on décrit l’évolution moyenne de variables plus macroscopiques, comme le fait l’équation de Navier-Stokes pour la vitesse du fluide dans notre analogie avec la turbulence. Dans le cas des marchés financiers, la variable « macroscopique » naturelle est le prix, dont les variations résultent de l’action collective des acheteurs et des vendeurs. La recherche dans ce domaine en est encore à un stade exploratoire et fragmentaire ; les modèles sont encore très schématiques et peu prédictibles, mais en plein bouillonnement. Citons par exemple certains modèles simples de comportements collectifs que nous avons proposés avec Rama Cont, qui s’inspirent de la percolation (où des « coalitions » instantanées d’opinions convergentes conduisent à des mouvements importants), ou des propriétés du cycle d’hystérésis du modèle d’Ising en champ aléatoire. L’étude de ce dernier modèle, développé récemment par Sethna et Dahmen dans un contexte magnétique, montre en effet un phénomène d’avalanches intéressant lorsque le champ extérieur passe lentement d’une (grande) valeur positive, qui favorise l’état +, à une valeur négative privilégiant l’état – : le retournement de l’aimantation peut se faire soit brutalement, lorsque l’interaction entre spins est forte par rapport au champ aléatoire, soit continûment, lorsqu’au contraire les champs aléatoires sont forts et/ou que les effets collectifs médiés par l’interaction sont faibles. Lorsque les deux effets sont comparables, l’aimantation se retourne par bouffées : un spin se retournant entraîne avec lui une avalanche de retournements dont la taille est très variable. En langage de marché, ce modèle se transcrit de la façon suivante : l’état + correspond à un état optimiste (acheteur), l’état – à un état pessimiste (vendeur). Le champ aléatoire local correspond à la propension individuelle de chaque agent à l’optimisme ou au pessimisme, et l’interaction entre spins au mimétisme entre agents. Le champ extérieur correspond à l’information publique, par exemple sur les perspectives économiques. La question qui se pose alors est celle du retournement, brutal ou progressif, de l’opinion des agents lors d’un changement de conjecture. Un retournement brutal conduit au krach, un retournement plus progressif s’accompagnant néanmoins « d’avalanches » d’ordre de vente plus ou moins importantes.

Plus précisément, la loi de distribution de la taille des avalanches est une loi de puissance, dont l’exposant dépend peu des détails microscopiques du modèle. Ce modèle décrit, de façon schématique, un grand nombre de situations sociales : phénomènes de mode, dynamique et répartition des votes, phase terminale d’applaudissements, etc. Une autre famille de modèles a vu le jour récemment, où chaque agent peut choisir entre différentes stratégies afin d’optimiser sa performance sur le signal qu’il contribue luimême à créer – par exemple l’évolution d’un prix, ou dans le cas du trafic routier, la fréquentation d’une voie rapide, etc. Un cadre théorique précis, celui du modèle de la minorité, a été proposé par Challet et Zhang pour simplifier un modèle de rationalité inductive inventé par l’économiste Brian Arthur. Il s’agissait du problème du bar El-Farol, un bar de Santa-Fe qui souffre de son succès et devient insupportable lorsqu’il est bondé. Comment les clients prennent-ils la décision de s’y rendre ou de ne pas s’y rendre en fonction de la fréquentation des semaines précédentes ? De manière surprenante, le modèle de la minorité peut être résolu en grand détail en utilisant les méthodes de physique statistique développées dans le cadre de la théorie des verres de spin : l’hétérogénéité des agents (peu explorée dans les modèles classiques en économie, où l’existence d’un agent représentatif unique est souvent supposée) joue le rôle du désordre dans les verres de spin. On trouve en particulier une transition de phase en fonction du nombre d’agents, séparant : • une phase dite « efficiente » où le signal est essentiellement imprédictible et le score de toutes les stratégies se comporte, en fonction du temps, comme une marche aléatoire non biaisée ; • d’une phase inefficiente, où une information utilisable persiste dans le signal. Certaines stratégies sont alors (en moyenne) gagnantes, et d’autres perdantes. Si l’on permet, dans la phase efficiente, aux agents de ne pas jouer tant que le score de leur meilleure stratégie est négatif, on définit un modèle de la minorité « grand canonique » : le volume d’activité devient une variable aléatoire qui fluctue dans le temps. Nous avons montré, avec Irène Giardina et Marc Mézard, que les corrélations temporelles de ce volume d’activité sont à très longue portée. Ces corrélations sont héritées de la propriété bien connue des marches aléatoires non biaisées (ici, les scores des différentes stratégies) de revenir à leur point de départ au bout d’un temps qui est en moyenne infini. Ce mécanisme très simple pourrait rendre compte des corrélations à longue portée de la volatilité des marchés financiers, mentionnée dans l’encadré 1 : on observe en effet que la volatilité est fortement corrélée au volume d’activité.

89

traits joue un rôle important, ont été proposés et étudiés ces dernières années (encadré 3) ; leur domaine d’application est probablement très vaste. Malgré certains succès, cette nouvelle discipline dite du Behavioral Finance – qui s’écarte de l’approche axiomatique traditionnelle en économie, où les agents sont supposés infiniment rationnels – en est à ses balbutiements, et devrait progresser de façon spectaculaire. L’un des enjeux est de pouvoir ainsi simuler par ordinateur des marchés financiers fictifs, comme celui de la figure 1, mais fidèles à la réalité observée. Tout comme la simulation d’écoulements turbulents réalistes permet de s’affranchir progressivement des grandes souffleries pour la conception et la validation de nouveaux profils d’avions, ou des explosions nucléaires à Muroroa, on peut espérer que la simulation de marchés fictifs dans un premier temps puis, à un niveau supérieur, d’économies fictives, permettent à terme une meilleure gestion des risques financiers et, éventuellement, des politiques économiques. Quoi qu’il en

soit, il est probable que l’apport des physiciens, résumé dans notre triptyque d’encadrés (analyse originale de bases de données pléthoriques, mise au point de méthodes analytiques et numériques pertinentes, et invention de modèles microscopiques simples mais riches d’enseignements), contribue à transformer dans les années à venir l’économie théorique, encore très axiomatisée, en une science plus empirique et plus proche du réel.

POUR EN SAVOIR PLUS Bachelier (L.), Théorie de la spéculation, J. Gabay, Paris, 1995. Bouchaud (J.-P.) et Potters (M.), Theory of Financial Risks, Cambridge University Press, 2000, et les articles accessibles sur www.science-finance.com Challet (D.), Marsili (M.), Zhang (Y.-C.), Modeling Market Mechanism with Minority Game, Physica A276, 284, 2000. Farmer (J.-D.), Physicists attempt to scale the ivory towers

Article proposé par : Jean-Philippe Bouchaud, tél. + 33 1 69 08 73 45, [email protected]

90

of finance, dans : Computing in Science and Engineering, November 1999 ; aussi reproduit dans : Int. J. Theo. Appl. Fin. 3, 311, 2000. Frisch (U.), Turbulence : The Legacy of A. Kolmogorov, Cambridge University Press, 1997. Orléan (A.), Le pouvoir de la finance, Odile Jacob, 1999. Mandelbrot (B.), Fractals and Scaling in Finance, Springer, 1997. Mantegna (R) et Stanley (H. E.), An introduction to Econophysics, Cambridge University Press, 1999. Muzy (J.-F.), Delour (J.), Bacry (E.), Modelling fluctuations of financial time series : from cascade process to stochastic volatility model, Eur. Phys. J. B 17, 537, 2001. Schiller (R.), Irrational exuberance, Princeton University Press, 2000. Sethna (J.), Dahmen (K.), Myers (C.), Crackling noise, Nature, 410, 242, 2001.