April 2011 - Paris School of Economics Newsletter

EDITO de Jean-Marc Tallon


INVITE - Philip T. Hoffman: the time matcher


PARCOURS - Jeanne Hagenbach: 2010, quelle année !


DEBAT, Matthieu Crozet et Romain Rancière - Réguler et rééquilibrer : les défis de la présidence française du G20


GRAND EMPRUNT - Les deux projets présentés par PSE lauréats




EDITO de Jean-Marc Tallon


Incertitudes, incertitudes...
Que ce soit dans le domaine financier, environnemental, sanitaire ou géo-politique, la représentation de l’incertitude est chose difficile. L’outil probabiliste se trouve parfois mal adapté pour prendre en compte la multiplicité des sources d’incertitude, la complexité des phénomènes en jeu et les limites de la connaissance. A la différence de l’interprétation fréquentiste (1), la plupart des évènements économiques ne se reproduisent pas à l’identique : on ne peut pas, en général, utiliser les fréquences d’apparition d’un phénomène pour en inférer la probabilité, fiable et invariante, de son apparition.
Certes, chacun comprend la probabilité « 0,5 » d’une pièce lancée en l’air ; mais comment s’accorder sur le sens d’une probabilité « 0,3 » de voir le baril de brut dépassé 120 € au 1er juillet 2011 ? Pourtant, malgré des contributions anciennes de F.Knight et J.M. Keynes, l’outil probabiliste reste prédominant dans la modélisation de « l’incertitude ». Cet état de fait est en train de changer (2).
Le traitement spécifique de l’incertitude (situation caractérisée par une information imprécise, peu abondante) par opposition au risque (où l’information disponible est abondante) a été l’objet d’une attention soutenue ces dernières années (3). Ces avancées permettent d’utiliser dans une optique décisionnelle des informations non probabilistes (4). La communauté scientifique s’accorde par exemple pour considérer un ensemble de lois possibles d’évolution pour le climat ; elle n’arrive toutefois pas à se mettre d’accord sur un scénario particulier. Doit-on ignorer l’ensemble des pistes et n’en retenir qu’une – car « mesurable » ? Ou peut-on évaluer les décisions envisageables sans pouvoir calculer des moyennes ou des espérances de gains et de pertes ?
Les nouveaux outils développés proposent des réponses, opérationnelles, à ce genre d’interrogations. Un moment confinés à des représentations assez abstraites, ils sont désormais mobilisés de manière plus large et des applications dans le domaine de la finance voient, par exemple, le jour (5). Les décideurs publics se saisissent aussi de ces travaux : le fameux rapport Stern sur le réchauffement climatique y fait référence, les récents travaux de la commission du Conseil d’Analyse Stratégique sur la prise en compte du risque dans le calcul socio-économique aussi. Ceci n’est, espérons-le qu’un début dans la diffusion de ces approches, dont le succès demeure… incertain !

Références (1) La probabilité d’un phénomène physique est égale à la fréquence d’apparition du phénomène dans des situations identiques. (2) C. Henry (2010), Decision-Making under Scientific, Political and Economic Uncertainty, Beijer Institute of the Swedish Academy of Sciences. Forthcoming: Springer Verlag. (3) I. Gilboa et M. Marinacci, Ambiguity and the Bayesian Paradigm, 2011. (4) T. Gajdos, T. Hayashi, J.-M. Tallon, J.-C. Vergnaud (2008), Attittude toward imprecise information, Journal of Economic Theory, 120, p.27-45. (5) Ainsi, une énigme maintes fois étudiée, à savoir qu’il est excessivement difficile d’expliquer la différence observée de rendement entre les actions et les obligations sur des séries longues dans de nombreux pays, peut trouver une explication simple...


INVITE - Philip T. Hoffman : the time matcher

Parlez-nous de votre approche d’économiste-historien...
Philip T. Hoffman : Je m’intéresse aux sujets et méthodes à l’intersection de ces deux disciplines: j’aborde les questions posées par les économistes en utilisant des données historiques sur longue durée et en considérant les modalités et les conséquences des changements lents des institutions ; à l’inverse, je m’approprie les outils des sciences économiques pour tenter d’élucider certains processus et faits discutés par les historiens. Cette double approche est vraiment complémentaire et recèle une réelle force d’analyse. Devant l’immense réservoir de données et faits générés par l’histoire humaine, je procède méthodiquement : une fois les contours du sujet déterminés, je sollicite différents spécialistes dont l’expertise historique, géographique, technique ou encore ethnographique est vitale ; ensuite, je parcours la bibliographie la plus conséquente possible afin de resserrer encore mon approche. Enfin, je constitue ou utilise les données (et modèles) économiques propres au sujet étudié en gardant à l’esprit leur « fragilité », inhérente à la distance historique.
Sur quelles recherches travaillez-vous actuellement ?
PTH : Deux principaux projets m’occupent cette année : l’un sur les ressorts ayant mené les pays européens à conquérir à partir du XIVe siècle le reste du Monde, l’autre sur le développement du marché immobilier en France aux XVIII et XIXe siècles.
Le premier projet se décline en plusieurs articles - déjà rédigés ou à venir - et un livre : l’étude des dynamiques d’exploration du vieux continent depuis l’Empire Romain jusqu’à la première guerre mondiale nécessite de la patience...et de l’encre ! Ma thèse centrale est la suivante : en Europe, pour des raisons historiques, un « tournoi » entre puissances régionales s’est affirmé au cours des siècles, i.e une forme de rivalité particulière au sein de cette zone fragmentée, n’aboutissant pas à la fusion au sein d’un ensemble comme en Chine. Cette opposition favorisait le progrès des techniques militaires, notamment celles permettant de partir en guerre dans un large rayon, par les mers et les océans ; l’explication complémentaire concerne les dirigeants eux-mêmes, dont les pouvoirs politique et militaire tendaient à se confondre. A l’inverse en Chine, la création d’un empire a mis fin à un tel tournoi et freiné le développement technologique des équipements militaires. Mais le résultat aurait été tout autre si les Mongols n’avaient pas envahi et unifié la Chine au XVe siècle, car les trois grandes puissances et dynasties qui s’affrontaient alors auraient pu initier une rivalité à l’européenne.
Le second projet est une étude de l’évolution du marché immobilier en France entre 1740 et 1899, grâce à des données sur une centaine de marchés éparpillés dans l’hexagone. Au cours de cette période, la majorité des prêts immobiliers s’effectuaient entre individus et l’intermédiation bancaire était peu présente : asymétrie de l’information, risques à moyen et long termes...étaient autant de raisons pour les banques de ne pas proposer leurs services. C’est pourquoi des établissements adossés à une garantie d’État (type Crédit Foncier) n’ont que progressivement vu le jour partout en Europe. J’avais également étudié le marché immobilier américain sur lequel était survenue une crise à la fin du XIXe siècle : une vague d’achats des terres – progressant vers l’Ouest –
initiée par les prêteurs de la côte Est a brutalement été stoppée par une sécheresse qui frappa les régions concernées ; cet évènement climatique provoqua de nombreuses faillites, là où les investisseurs pensaient avoir « diversifié » leurs portefeuilles : les comportements et réactions de masse de cette crise rappelle bien entendu celle de 2008...
...crise juste avant laquelle vous aviez écrit un ouvrage avec Jean-Laurent Rosenthal
PTH : Tout à fait ! Nous y abordions alors la question des après-crises : historiquement, nous avons relevé des constantes, principalement la mise en place de nouvelles institutions et des nouvelles règles et lois, et ce dès les premiers mois du retournement du ou des marchés en question. Mais dans quelles conditions ces réformes réussissent-elles ? Deux éléments fondamentaux se conjuguent : les États ne doivent pas être trop endettés et les inégalités ne doivent pas être trop fortes – afin que la classe moyenne soit à même de peser politiquement sur les décisions à prendre. Cette approche peut éclairer notre compréhension de l’actualité : dans tous les pays développés, le morcellement des intérêts au sein de(s) classe(s) moyenne(s) et l’endettement de l’Etat peuvent expliquer la mollesse des réactions et l’absence de réformes d’envergure pourtant nécessaires !


Jeanne Hagenbach, 2010, quelle année !

Difficile pour un(e) jeune économiste de présenter un bilan aussi complet que celui de Jeanne Hagenbach pour l’année 2010 : prix de thèse en économie de l’AFSE (Association Française de Sciences Economiques) et prix Richelieu de la Chancellerie des Universités de Paris, publication de deux articles scientifiques dans des revues internationales de très haut niveau et, en septembre, recrutement par le CNRS en tant que chargée de recherche en détachement à l’École Polytechnique. Il n’y a là, bien entendu, aucun hasard : cette jeune chercheur (elle n’a pas encore 30 ans !) a construit pas à pas son début de carrière, de l’université Louis Pasteur de Strasbourg à l’université de Mannheim en passant par le Centre d’Économie de la Sorbonne et Stanford University. Sa thèse, « Communication stratégique et réseaux », défendue en 2009 sous la direction de Frédéric Koessler et Jean-Marc Tallon, s’inscrivait au coeur de ses thèmes de recherche de prédilection : la théorie microéconomique, la théorie des jeux, les réseaux sociaux et l’économie de l’information – et l’articulation de ces différents champs.
Elle s’intéresse en particulier, par une approche théorique, à des questions que se posent quotidiennement des millions de salariés : comment dois-je partager les informations que je détiens ? Pour faire ce choix, mes intérêts primeront-ils sur ceux de la « collectivité » (mon service, mon entreprise...) ?
A travers ces problématiques, Jeanne Hagenbach cherche à savoir notamment comment la recherche en économie peut aider les organisations humaines à mieux fonctionner, à réduire les écarts entre possession d’information et divulgation, et finalement à concilier stratégies individuelles et intérêts collectifs. Une chose est certaine : son parcours et ses recherches fournissent à la collectivité une graine d’économiste plus que prometteuse !


DEBAT - Réguler et rééquilibrer : les défis de la présidence française du G20


Débat illustré par CHAPPATTE
Matthieu Crozet
“Vive la régulation, à bas le protectionnisme !”
La poursuite de la mondialisation fait l’objet d’un consensus au sein du G20. Lors du sommet de Londres, en avril 2009, le groupe s’est engagé à poursuivre dans la voie du libre-échange, et a rejeté l’idée de recourir à des mesures de restriction des échanges. Les objectifs affichés par la présidence française du G20 sont explicites : durcir la régulation financière, lutter contre la volatilité des prix des matières premières, ou encore renforcer la dimension sociale de la mondialisation et lutter contre la corruption. Nul ne s’attend à ce que les problèmes énoncés trouvent une solution rapide et définitive, mais ces objectifs fixent une ligne politique : encadrer les marchés mondiaux sans renoncer à la liberté de commercer. « Vive la régulation, à bas le protectionnisme », c’est donc en substance ce que met en avant, sinon le G20, du moins sa présidence française.
Cette ligne n’est pas si simple à suivre car réguler revient souvent à contraindre, de façon insidieuse, les échanges internationaux. On comprend bien l’intérêt à réguler certains marchés : pour prévenir des comportements trop risqués, assurer un partage plus équitable des rentes, limiter les possibilités d’évasion fiscale ou encore pour garantir un niveau minimal de qualité sanitaire ou environnementale...
Ces régulations n’ont a priori aucun caractère protectionniste dès lors qu’elles s’appliquent indistinctement à tous les producteurs, étrangers comme nationaux. Mais dans les faits, cette absence de caractère discriminant ne suffit pas à s’assurer que les régulations ne vont pas constituer des barrières au commerce, en pesant moins sur les producteurs nationaux que sur leurs concurrents étrangers. Satisfaire les contraintes réglementaires implique des coûts supplémentaires (recherche et fourniture d’information, mise aux normes des produits, provision de garanties…), que les concurrents étrangers sont moins à même de recouvrir afin d’entrer sur un marché d’exportation, qui est rarement leur marché principal.
Un bon exemple nous est donné par les mesures sanitaires et phytosanitaires qui encadrent l’offre de produits agroalimentaires. Sauf rares exceptions, ces régulations notifiées à l’OMC s’appliquent à toutes les entreprises, quelle que soit leur origine. Elles ont pourtant un impact négatif sensible sur les échanges commerciaux (1). Une recherche récente (2) portant sur les services le confirme. Les régulations des marchés de services s’appliquent à tous les acteurs présents sur le marché et sont bien distinctes des barrières discriminantes qui, elles, font l’objet de négociation au sein du GATS. Pourtant nous montrons sans ambiguïté que ces régulations ont bien un caractère discriminant de facto : elles réduisent fortement le commerce international de services, non parce qu’elles contraignent l’activité de toutes les entreprises (et donc aussi les importations), mais bien parce que les firmes étrangères y sont plus sensibles que les entreprises locales. A l’évidence, réguler les marchés sans créer de nouvelles restrictions aux échanges n’est pas si simple...
Références (1). Voir par exemple : Disdier, Fontagné et Mimouni (2008), « The Impact of Regulations on Agricultural Trade: Evidence from SPS and TBT Agreements », American Journal of Agricultural Economics, 90(2): 336–350.
(2) Crozet, Milet et Mirza, The discriminatory effect of domestic regulations on international services trade: evicence from French firm-level data, mimeo.


...................................................................
Romain Rancière
“Le G20 et la réforme du Système Monétaire International”
Sur la question de la réforme du Système Monétaire International (SMI), le spectre des opinions est large. A un extrême, on défend le laisser-faire : chaque pays doit mettre en place les politiques qui lui permettent de bénéficier des conséquences de la globalisation financière tout en réduisant son exposition aux crises. A l’autre extrême, on prône le retour au système de Bretton-Woods : la stabilité financière internationale est vue comme un bien public inestimable et justifie des réformes aussi drastiques que l’avènement d’une nouvelle monnaie mondiale. Si l’optimum est certainement quelque part entre les deux, les réalités de la négociation internationale contraignent fortement les avancées possibles.
Par exemple, la seule façon efficace de contraindre la Chine à réévaluer le Yuan serait de lier les questions de politiques de changes aux questions de politiques commerciales, en assimilant le mercantilisme monétaire à du dumping commercial. Autant dire que le consensus politique international pour une telle avancée est loin d’être acquis...et ceci avant longtemps.
Deux pistes plus réalistes méritent cependant d’être poussées durant la présidence française du G20. La première concerne le rebalancement des réserves de change. En dix ans, la part de l’euro dans les réserves de change mondiale est passée de 18 % à 28 %, et ce durant une période où le niveau global des réserves de change explosait, passant de 2 à 8 trillions de dollars US. Le développement engagé d’une dette souveraine en euros, garantie par l’ensemble des Etats de la zone, pourrait accélérer davantage ce mouvement. L’ouverture du compte de capital chinois permettrait l’avènement d’une troisième monnaie de réserve. La multipolarité en matière de devise n’est cependant pas sans risques : un changement soudain de perception des marchés quant à la solidité fiscale des émetteurs de telle ou telle monnaie pourrait avoir des effets déstabilisateurs puissants.
La deuxième piste concerne la prévention des crises financières. Depuis la crise asiatique, les pays émergents font de l’auto-assurance en accumulant des montants gigantesques de réserves de change pour faire face au risque d’un possible retournement des flux de capitaux. Si bien que des pays en développement rapide avec des besoins sociaux ou d’infrastructure importants sont assis sur des trésors de guerre à faible rendement. La solution est de passer de l’auto-assurance à l’assurance. Il s’agit d’inciter à la mise en commun des réserves de changes, de donner au FMI les moyens d’accroître les lignes de crédits de précaution, et de systématiser les accords d’échange entre banques centrales destinés à fournir de la liquidité internationale en temps de crise.
En poussant ces deux pistes, la présidence française du G20 pourrait contribuer utilement à deux préoccupations majeures : la réduction des déséquilibres et la prévention des futures crises.


GRAND EMPRUNT - « Investissements d’avenir » : les deux projets présentés par PSE lauréats

PSE-École d’économie de Paris a présenté, dans le champ des Sciences Humaines et Sociales (SHS) du programme « I Investissements d’avenir pour l’enseignement supérieur et la recherche » deux projets : un Laboratoire d’excellence (Labex) nommé OSE et un Equipement d’excellence (Equipex) intitulé D-FIH. Présentation de ces deux lauréats.
OSE: PSE fait bouger les lignes de la science économique
“Ouvrir la Science Economique-OSE” fait partie de la centaine de projets sélectionnés fin mars, dont 26 en Sciences Humaines et Sociales. Coordonné par PSE-École d’économie de Paris, il associe de nombreux partenaires : deux UMR (le CES et PjSE) ; l’unité « démographique économique » de l’INED ; trois centres de recherche : le CEPII, le Cepremap et le J-PAL Europe, filiale européenne du Poverty Action Lab du MIT.
Ce projet est né d’un constat : le paradigme central de la discipline économique, organisé au sens large autour de l’axiome de rationalité individualiste, s’est révélé d’une puissance remarquable ; face à la complexification du monde, ses limites sont cependant de plus en plus évidentes.
« Trois grands axes méthodologiques forment OSE, détaille François Bourguignon, directeur de PSE, Tout d’abord, l’approfondissement du paradigme central : la discipline économique, si elle veut rester ‘efficace’ dans sa capacité à analyser le monde, doit continuer à investiguer la rationalité de l’homo economicus. Ensuite, l’extension de ce paradigme par la remise en cause de certains de ses fondements : peut-on abandonner l’axiome d’anticipations rationnelles ? Comment cerner le rôle incontournable du subjectif, du social et du culturel ou encore l’impact des institutions sur les individus ? Enfin, l’exploration — mieux que dans le passé — des frontières qui jouxtent les autres sciences sociales (histoire, sociologie, démographie, psychologie sociale, sciences politiques...) ou d’autres disciplines (neurosciences, sciences cognitives...) ».
Ces approches se déclineront dans quatre domaines principaux en lien avec l’expertise des partenaires d’OSE : « mondialisation et développement », « inégalités et politiques publiques », « fondements des comportements économiques individuels et sociaux » et « organisations et marchés ». S’ouvre ainsi un programme de recherche d’une richesse remarquable : multinationalisation de l’activité, pauvreté et comportement des ménages, modélisation micro-macro des politiques publiques, nouveaux marchés du risque, coûts cachés de la mondialisation, mesures subjectives du bien-être, coordination imparfaite des anticipations, acceptabilités des inégalités, sociologie des marchés financiers...
Comment OSE valorisera-t-il ces avancées ? Deux projets innovants seront mis en place : un programme de formation continue à destination des professeurs de sciences économiques et sociales des lycées et un pôle d’évaluation des politiques publiques. OSE vise également à renforcer les pratiques existantes : approfondissement et diversification des partenariats avec les entreprises, accélération des publications de documents de travail, policy briefs et notes de synthèse mais également lancement de collections plus généralistes (type Opuscules du Cepremap).
Une grande conférence sur l’un des thèmes centraux d’OSE sera également organisée chaque année. Par ailleurs, la refonte d’une partie des enseignements en masters et doctorats est prévue, avec à moyen terme le lancement de deux nouveaux programmes de master labellisé par PSE-École d’économie de Paris. Bien entendu, le dernier volet, fondamental, est celui des recrutements accompagnant cette montée en puissance : de nombreux postes seront créés afin de répondre aux multiples objectifs d’OSE, celui notamment d’attirer les meilleurs chercheurs juniors et seniors - en contrat permanent ou dans le cadre d’invitation.
..............................
D-FIH: la plus grande base européenne de données boursières
Le projet D-FIH (pour Données FInancières Historiques) est mené par PSE en partenariat avec le GIS Quetelet, l’Institut Louis Bachelier et le pôle de compétitivité Finance-Innovation. Ce projet de bases de données boursières et financières historiques est dirigé par Pierre-Cyrille Hautcoeur. Entretien.
Pouvez-vous nous présenter en quelques mots le projet D-FIH?
Il s’agit de sortir d’une situation dans laquelle la quasi-totalité des travaux en finance utilisent la seule base de données sur longue période existante : celle du CRSP à Chicago, qui porte exclusivement sur les actions américaines cotées à New York et ne peut représenter tout ce que peut attendre un investisseur ou une entreprise d’un marché financier en général. Par exemple, dans un travail récent mené à partir d’une base de données partielle construite par D. Le Bris sur la bourse de Paris depuis 1854, nous avons montré que la prime des actions (equity premium) sur les autres placements était plus faible en France qu’aux Etats-Unis, et pourrait mériter moins de considération qu’on ne lui a accordé.
Je propose donc de construire une base de données exhaustive sur les titres cotés en France depuis 1800, qui fournira un point de comparaison par rapport aux données américaines. Elle sera beaucoup plus riche car comportera tant actions qu’obligations, prix au comptant comme à terme, fermes comme optionnels, titres français comme étrangers, pour tous les marchés boursiers (libres ou organisés) français.
Ceci devrait permettre d’aborder, outre les questions classiques de la finance, un certain nombre de questions qui restent peu traitées : rôle des bourses régionales, des marchés libres, des interactions entre marchés, choix de cotation des entreprises et des investisseurs, etc.
Comment sera constituée cette base ? Comment « vivra »-t-elle et quelles en seront les utilisations (ouvrages, accès public...) ?
La base sera initialement centrée sur les prix d’actifs financiers cotés en bourse, mais ne s’y limitera pas, dans la mesure où nous espérons y ajouter des données sur les opérations financières (émissions, transformations) et sur les émetteurs (entreprises en particulier). Une fois constituée, elle sera mise à jour pour les données récentes via un partenariat avec le projet Eurofidai (CNRS) centré sur la finance contemporaine. Elle pourra également être enrichie pour la partie ancienne, notamment pour les données ne pouvant être recherchées de manière systématique faute de sources (au moins pour certaines périodes), comme celles concernant les bilans et la gouvernance des entreprises.
Pour réaliser ce travail, plusieurs partenaires apportent leurs savoir-faire : si l’expertise scientifique (et d’abord historique) vient de PSE-École d’économie de Paris, nous nous appuierons pour la réalisation opérationnelle de la base sur l’Institut Louis Bachelier, et, pour la diffusion, sur le GIS Quetelet (pour les académiques) et sur l’Agrégateur de données mis en place par le pôle de compétitivité Finance-Innovation (qui s’adressera principalement aux professionnels de la finance).
À court terme, quelles sont les prochaines étapes pour vous ?
La première étape est un recensement systématique des sources. Celles-ci seront ensuite scannées. En parallèle, la structure de la base de données sera conçue et testée. Une longue phase de saisie des cotes boursières et des annuaires fournissant les données recherchées sera entreprise sous le contrôle de l’ILB dans un pays en développement, sans doute en partenariat avec une ONG avec laquelle nous sommes déjà en contact. L’intégration dans la base de données aura lieu en France, et la livraison se fera progressivement à partir sans doute de début 2013.
Quelles extensions possibles voyez-vous à ce projet ?
Ce projet s’insère déjà dans un ensemble plus vaste de projets coordonnés avec plusieurs partenaires européens en vue de développer une base de données intégrée des marchés boursiers européens sur longue période. La conférence EurHiStock, 3e du nom, que j’organise fin avril à PSE, va contribuer à construire la communauté scientifique qui va utiliser ces données.
Je suis persuadé que cela conduira à modifier sensiblement nombre des résultats aujourd’hui acquis en finance, mais aussi la compréhension de l’histoire économique et financière.


“PSE - La science économique au service de la société”