Efficience des marchés et Méthodes de Monte Carlo : peut-on réaliser des profits anormaux au moyen de l'Analyse Technique ?
Mémoire publié en 2009 - 46 pages


Résumé

En plein cœur de la crise, diverses questions ont été soulevées au sujet des méthodes d’analyse des cours boursiers notamment. Les portefeuilles d’actions ont perdu de la valeur au point d’amorcer la faillite de grands groupes financiers mondiaux comme Lehmann Brothers, et certains indices boursiers comme le CAC40, ont perdu près de 60% de leur valeur en l’espace d’à peine 21 mois, nous ramenant ainsi à des niveaux de 6 ans en arrière. Divers scandales ont éclaté sur la gestion des opérateurs de marché, dont certains annonçant pour le compte de leur banque des pertes avoisinant les 5 milliards d’euros, un record. Cette crise sans précédent est sans aucun doute aussi un excellent moyen de remettre en cause un système qui avait tendance à fonctionner jusqu’alors, mais dont on connaissait encore mal les limites : celui de la finance quantitative. Face à ce terrible constat d’échec, nombreux sont ceux qui ont commencé à remettre les bases conceptuelles actuelles de la finance néoclassique en question.

En effet, pour beaucoup, la mathématisation trop importante de la finance est la source des excès et de l’effondrement du système financier connu pendant la crise des subprimes. Et pour cause. Depuis les années quatre-vingt, jusqu’à aujourd’hui, près d’un siècle après la thèse de louis Bachelier (1900), les mathématiques appliquées à la finance ont connu un essor formidable aboutissant à la formation d’un cadre théorique d’une grande puissance et d’une élégance remarquable. En amont de cela, la problématique était de rendre compte du hasard boursier et de rationaliser son modèle de formation de prix. Car dans un contexte de dérégulation des marchés financiers au milieu des années 1970, tenir compte de la nouvelle volatilité des taux de change permettait de couvrir ces risques dans un environnement incertain. C’est ainsi qu’ont émergé les produits dérivés et les travaux de Black, Scholes et Merton (1973) récompensés par un prix Nobel en 1997 (à titre posthume pour Black décédé en 1995), qui ont permis une avancée sans précédent en théorie financière, grâce à leur stratégie permettant d’annuler tous les risques possibles dans tous les scenarii de marché. La révolution technologique et financière qui caractérisent deux des ruptures de notre société post-industrielle (Daniel Cohen, 2006) ont ensuite permis une évolution rapide et prolifique du concept, l’avènement du calcul stochastique appliqué à la finance, et un développement mondial extraordinaire de nouveaux marchés organisés. Mais voilà, le modèle de Black-Scholes repose sur une hypothèse que l’on savait fausse depuis déjà longtemps, et qui est aujourd’hui remise en question avec d’autant plus de force qu’elle a abouti à des pertes colossale pendant cette crise. Cette hypothèse est celle de la normalité des prix. Nassim Nicholas Taleb, dans son essai intitulé Le Cygne Noir, La puissance de l’imprévisible dira même « Je trouve choquant que la courbe en cloche soit employée comme outil de mesure des risques par ces régulateurs ou ces banquiers qui portent des costumes sombres et tiennent des propos assommants sur les monnaies » (Nicholas Taleb, 2008, p. 301).
Non moins provocant, Mandelbrot écrira dans son ouvrage Fractales, hasard et finance que « l’approximation gaussienne optimale [de l’histogramme des changements d’un prix] est uniformément détestable », mais nuancera en précisant qu’il croit « possible de préserver quelques idées de base [de la thèse de Bachelier] tout en modifiant le mouvement brownien de fond en comble. » (Mandelbrot, 2009, p. 139).

Ces évidences ont trouvé leur écho dans la crise actuelle, et le constat est aujourd’hui fait que la finance néoclassique est en « manque de lanceurs d’alerte » (interview de Raphaël Douady, 2009, docteur en mathématiques au CNRS et faisant référence à la VaR), alors que la question est lancée par Rama Cont, directeur de recherche du CNRS au laboratoire de probabilité et modèles aléatoires (université Paris VI-VII), de savoir « s’il s’agit d’une défaillance des méthodes quantitatives » (Cont, 2009, p. 24).

Des méthodes de trading autrefois considérées comme « voodoo finance » (Lo et. al, 2000, pp. 1705) sont aujourd’hui reconsidérées pour mieux tenter d’appréhender le hasard boursier. Se pose alors la question de l’efficience de marché : Les marchés sont-ils efficients, et en quel sens ? Peut-on réaliser des profits anormaux avec des méthodes d’analyse technique ?

Ce mémoire a pour objectif de déterminer si l’efficience faible des marchés peut être validée.
Pour cela, nous utiliserons un échantillon de cours d’indices boursiers sur une dizaine d’année, que nous soumettrons à divers tests statistiques classiques, ainsi qu’à un test de bootstrap à partir d’une simulation de Monte-Carlo, pour l’étude de la significativité des performances par rapport à la stratégie d’achat conservation sous les critères du ratio de Sharpe.
Nous vous rappelons que le téléchargement des travaux (mémoires et thèses) présentés sur le site iQuesta.com est destiné à un usage strictement privé. Toute reproduction desdits travaux pour un usage autre que privé effectuée sans le consentement de l'auteur constitue une contrefaçon susceptible d'entraîner des sanctions à votre encontre (articles L.122-4, L.122-5, L.335-2 et suivants du Code de la propriété intellectuelle).