Bénédicte Coestier Stéphan Marette
Économie de la qualité
Éditions La Découverte 9 bis, rue Abel-Hovelacque 75013 Pari...
18 downloads
523 Views
489KB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Bénédicte Coestier Stéphan Marette
Économie de la qualité
Éditions La Découverte 9 bis, rue Abel-Hovelacque 75013 Paris
En hommage à Jean-Paul Piriou pour la confiance qu’il nous a témoignée.
Le logo qui figure au dos de la couverture de ce livre mérite une explication. Son objet est d’alerter le lecteur sur la menace que représente pour l’avenir de l’écrit, tout particulièrement dans le domaine des sciences humaines et sociales, le développement massif du photocopillage. Le Code de la propriété intellectuelle du 1er juillet 1992 interdit en effet expressément la photocopie à usage collectif sans autorisation des ayants droit. Or cette pratique s’est généralisée dans les établissements d’enseignement supérieur, provoquant une baisse brutale des achats de livres, au point que la possibilité même pour les auteurs de créer des œuvres nouvelles et de les faire éditer correctement est aujourd’hui menacée. Nous rappelons donc qu’en application des articles L. 122-10 à L. 122-12 du Code de la propriété intellectuelle, toute reproduction à usage collectif par photocopie, intégralement ou partiellement, du présent ouvrage est interdite sans autorisation du Centre français d’exploitation du droit de copie (CFC, 20, rue des Grands-Augustins, 75006 Paris). Toute autre forme de reproduction, intégrale ou partielle, est également interdite sans autorisation de l’éditeur.
Si vous désirez être tenu régulièrement informé de nos parutions, il vous suffit
d’envoyer vos nom et adresse aux Éditions La Découverte, 9 bis, rue Abel-Hovelacque, 75013 Paris. Vous recevrez gratuitement notre bulletin trimestriel À la Découverte. Vous pouvez également retrouver l’ensemble de notre catalogue et nous contacter sur notre site www.editionsladecouverte.fr.
Éditions La Découverte, Paris, 2004. ISBN 2-7071-4144-5 Dépôt légal : juillet 2004.
Introduction
La notion de qualité ne cesse d’être affichée, évoquée ou invoquée par les entreprises et réclamée par les consommateurs. La frontière entre une pure invocation verbale et une réelle amélioration des biens, des services ou des comportements est parfois infime ou source d’ambiguïté. Cependant, la qualité est une préoccupation des consommateurs, des entreprises ou des États pour au moins trois raisons. Premièrement, l’accroissement de la richesse des nations a rendu les consommateurs ou les usagers plus exigeants quant à leurs possibilités d’achat. Deuxièmement, l’extension de la taille des marchés via les processus d’intégration régionale et d’internationalisation des échanges a intensifié la concurrence entre les firmes, les poussant à privilégier la qualité. C’est ainsi que l’on peut observer, au niveau européen, une spécialisation des économies nationales sur des échelles de qualité. L’Union européenne dans son ensemble se positionne dans les produits haut de gamme grâce notamment aux pays du Nord de l’Europe [Fontagné et Freudenberg, 1999]. Troisièmement, les sociétés modernes sont organisées en réseaux de production, de communication et de transports. Comme l’a noté Juran [1999], un des promoteurs de la notion de qualité totale, la qualité avait peu de sens dans son village natal de Roumanie. L’arrêt des transports publics ou de l’électricité ne 3
posait aucun problème car « tout » était accessible dans le village et ses environs : il suffisait de marcher un peu. Avec l’essor de la technologie et des réseaux, « notre » dépendance aux risques de défaillance des produits et des services est devenue totale. Ainsi, la création de richesse s’est accompagnée d’une complexification et d’une fragilité des modes d’organisation et d’échange. Les stratégies autour de la qualité sont une des réponses pour endiguer cette fragilité. À l’aide de normes, de garanties, de contrats, les entreprises cherchent à développer des processus fiables de production, allant de leur approvisionnement en matières premières à l’usage fait par le consommateur de leur produit ou de leur service. La qualité est depuis longtemps une préoccupation centrale dans la gestion des firmes. Pour les économistes, la problématique de la qualité a gagné de l’importance à partir des années 1970. De nombreux domaines de la microéconomie, notamment ceux de l’économie internationale [Rainelli, 2003] et de l’économie de l’information — comme la macroéconomie d’ailleurs — se sont emparés de cette notion. Ces domaines ont notamment permis un renouvellement de la compréhension des mécanismes de concurrence sur les marchés, ainsi qu’une redéfinition du rôle de l’État. Les fondements du modèle idéal de concurrence parfaite ont été remis en cause. En particulier, l’abandon de l’hypothèse d’homogénéité des biens selon laquelle toutes les entreprises d’un secteur offrent un produit identique a fait évoluer la compréhension de l’organisation marchande. Cet ouvrage tente de clarifier les liens entre la qualité et l’organisation de l’activité économique. Il appréhende les conditions d’obtention de produits et de services correspondant aux attentes des consommateurs ou des usagers des services publics. L’analyse économique permet d’envisager les mécanismes et les institutions qui réduisent l’incertitude ou les défaillances sur la qualité, en montrant qu’on ne peut se passer d’une réflexion sur leur coût et leur bénéfice. Plus précisément, cet ouvrage dresse un panorama des questions économiques sur la qualité. Des concepts et des résultats de domaines aussi variés de l’économie que ceux de l’économie 4
industrielle, de l’économie de l’information, de l’économie publique, ou encore de l’économie du droit sont présentés. Devant certaines limites de l’approche économique, des concepts de gestion [Gomez, 1994 ; Weil, 2001] ou encore de sociologie [Herpin, 2001 ; Steiner, 1999] sont occasionnellement utilisés dans l’ouvrage. Il est indéniable que la qualité comporte des dimensions sociales et historiques [Stanziani, 2003] que l’économie saisit difficilement. La notion de qualité n’allant pas nécessairement de soi pour les agents économiques, on s’interrogera tout d’abord sur sa définition (chapitre I). Ce chapitre introductif montre que la qualité est un enjeu stratégique pour les consommateurs, les entreprises ou les États. Vouloir de la qualité n’étant pas sans coût, la question de la rémunération par un prix dans l’échange marchand se pose d’emblée (chapitre II), ainsi que celle des incitations à la découvrir pour les consommateurs et à la promouvoir pour les firmes (chapitre III). Ces deux chapitres visent notamment à la compréhension des ajustements marchands autour de la qualité et des caractéristiques des produits. Ils sont indispensables à l’ébauche d’une intervention privée ou publique permettant de corriger certains dysfonctionnements conduisant à une qualité insuffisante par rapport aux attentes des consommateurs ou des usagers. En d’autres termes, il ne peut y avoir de réglementation efficace sans une bonne compréhension des actions des agents ou des usagers. La suite de l’ouvrage étudie l’impact des règles privées et/ou publiques cherchant à garantir la transparence et la qualité. Le chapitre IV montre les limites des règles à dominante privée que sont les labels de qualité et la régulation de certaines professions. Les deux derniers chapitres se concentrent sur le rôle de l’État. En premier lieu, l’État est chargé de la gestion des services publics qui ne sont pas régulés par des prix marchands. Ainsi, le chapitre V analyse la compatibilité entre la « gratuité » des services publics et les exigences de qualité au service du contribuable. Le dernier chapitre s’intéresse à l’action des pouvoirs publics pour assurer la qualité dans les secteurs privé et public. Les rôles des standards de qualité minimale, de 5
l’information obligatoire et de l’indemnisation en cas de défaillance y sont précisément détaillés. Les trois derniers chapitres sont donc à dominante normative (à savoir « ce qui devrait être fait »). Une telle perspective d’analyse conduit à porter une appréciation ou un jugement sur le fonctionnement des marchés et sur l’organisation de l’activité économique au regard de la qualité. Tel mode d’organisation est-il efficace pour contribuer au bien-être de la collectivité ? Pour évaluer cette efficacité, les économistes disposent du critère de surplus collectif (ou de bien-être collectif) qui agrège les intérêts des différentes parties. Ces aspects normatifs seront abordés à la fois du point vue théorique et empirique. Une appréciation étant appelée à déboucher sur la formulation explicite ou implicite de recommandations, il conviendra de garder à l’esprit que les recommandations qui pourront ainsi être formulées découlent d’un cadre d’hypothèses à visée simplificatrice. Aussi, le passage direct de la recommandation à la prescription présente d’indéniables dangers, de nombreux aspects ne pouvant alors être contrôlés par l’économiste1.
1. Nous remercions Sandrine Blanchemanche, Pascal Combemale, Pierre Combris, Sylvie Lemanchec, Valérie Marette, Serge Perrin, Joël Priolon, Michel Rainelli, Karine Rezel, Jacques-François Thisse et deux lecteurs anonymes pour leurs commentaires.
I / Les différentes facettes de la qualité
Définir la notion de qualité n’est pas une tâche aisée. Un premier réflexe consiste à consulter le dictionnaire. L’édition de 1993 du Petit Robert définit la qualité comme « ce qui fait qu’une chose est plus ou moins recommandable », ou encore comme « le degré plus ou moins élevé d’une échelle de valeurs pratiques ». Pour l’International Organization for Standardization (ISO) <www.iso.org>, « la qualité est l’ensemble des propriétés et caractéristiques d’un produit, d’un processus ou d’un service qui lui confère son aptitude à satisfaire des besoins implicites et explicites ». Le point commun entre ces définitions est l’existence de classifications dépendant du jugement des agents. Comme le souligne Hirschman [1970, p. 130], on peut établir « un classement en fonction de la qualité, du prestige ou de toute autre caractéristique considérée comme importante ». Le terme de qualité recouvre donc diverses notions, qui varient selon le type de produits ou services, les contextes sociaux ou les périodes historiques considérées. L’objectif de ce chapitre est de montrer que la qualité ne va pas nécessairement de soi pour les agents, en raison d’un très grand nombre de caractéristiques dont l’importance pour les consommateurs dépend de leur environnement et de l’information dont ils disposent.
7
1. Le rôle clé des caractéristiques Qu’est-ce qu’un produit ou un service de qualité pour un consommateur ? C’est un produit qui présente certaines propriétés jugées pertinentes par un grand nombre de consommateurs. Spontanément, le produit est donc envisagé comme possédant un certain nombre de caractéristiques spécifiques, dont la présence plus ou moins élevée procure aux consommateurs une plus ou moins grande satisfaction. Des biens homogènes aux biens différenciés Cette description du produit ou service à partir d’un ensemble de caractéristiques n’est pas celle initialement envisagée par la théorie économique. Le modèle traditionnel de la concurrence parfaite considère que les consommateurs opèrent des choix entre des biens soit identiques, soit de nature radicalement différente. Elle néglige donc la possibilité que les choix des consommateurs portent sur des produits de nature similaire, mais présentant certaines caractéristiques différentes. Ainsi, un véhicule rouge et un véhicule vert sont appréhendés par la théorie traditionnelle soit comme deux biens identiques (négligeant le fait que la couleur puisse influer sur les choix des consommateurs), ou à l’inverse comme deux biens distincts (sans aucune considération quant à l’éventuel degré de substitution entre ces deux biens). Lancaster [1966] a été le premier à modéliser l’importance des caractéristiques quant à la satisfaction des consommateurs. Il insiste sur le fait que les consommateurs tirent une satisfaction non pas du bien en tant que tel mais des caractéristiques possédées par le bien. Dans l’approche proposée par Lancaster, les agents opèrent des choix dans l’espace des caractéristiques et non plus dans l’espace des biens, étant donné leurs préférences. Cette théorie du consommateur permet d’appréhender les choix portant sur des produits différenciés comme les deux véhicules de couleur différente. Raisonner en termes de caractéristiques donne une meilleure description de ce qu’est un bien ou un service. Cependant, la 8
multitude des caractéristiques définissant un produit ou un service ne facilite pas l’analyse. Les économistes s’intéressant au fonctionnement des marchés en présence de produits différenciés ont donc préféré se concentrer sur des ensembles restreints de caractéristiques, ce qui les a conduits à introduire les notions de différenciation verticale et horizontale des caractéristiques (ou des produits). Différenciation horizontale et/ou verticale Une caractéristique est différenciée verticalement lorsque tous les consommateurs sont unanimes quant à sa pertinence ou à son classement. Ils attribuent une plus forte valeur à une caractéristique jugée supérieure, même si la disposition à payer pour l’obtention de cette caractéristique varie selon le revenu ou les préférences de chaque acheteur. La différenciation verticale signifie qu’à prix égal, un produit (i) possédant une ou plusieurs caractéristiques pertinentes ou (ii) considéré comme étant de bonne qualité, est préféré au produit (i) ne possédant pas les caractéristiques pertinentes ou (ii) considéré comme étant de basse qualité par l’ensemble des consommateurs. À prix identique, il n’existe donc qu’une seule demande, celle pour le produit de bonne qualité (ou possédant les caractéristiques pertinentes). Néanmoins, le choix final de chaque consommateur dépend du prix de vente du produit. La coexistence de différentes qualités est justifiée par la différence de prix. Par exemple, dans le domaine du transport aérien, certains passagers préfèrent les compagnies aériennes à bas prix sans service à bord (low cost), alors que d’autres sont des inconditionnels des compagnies traditionnelles proposant un meilleur service à bord et dont les prix sont plus élevés. Une caractéristique est différenciée horizontalement lorsque, à prix égal, il n’existe pas de classement univoque pour les consommateurs qui choisissent des biens différents selon leur goût respectif ou leur subjectivité. À prix identique, il existe donc une demande pour tous les types de produits différenciés horizontalement. Les différenciations par la couleur, par la localisation ou par toute dimension relevant d’un jugement 9
esthétique sont des exemples de différenciation horizontale. Les choix entre ces différentes caractéristiques dépendent alors des goûts qui varient dans la population. La qualité, une caractéristique verticale ? Les économistes considèrent souvent que la qualité correspond à la différenciation verticale. Cependant, il est impossible d’un point de vue pratique de complètement distinguer la différenciation verticale de la différenciation horizontale. Tout d’abord, les produits sont constitués de plusieurs caractéristiques, dont certaines sont différenciées verticalement et d’autres horizontalement. Prenons l’exemple du vin : la caractéristique d’origine relève de la dimension horizontale (certains préfèrent le bourgogne et d’autres le bordeaux), alors que le contenu organoleptique, le respect des exigences sanitaires […] relèvent de la dimension verticale. De plus, la différenciation horizontale est très proche de la différenciation verticale quand un très grand nombre de consommateurs préfèrent une caractéristique spécifique par rapport à une minorité ne souhaitant pas cette caractéristique. Cela entraîne une disposition à payer supérieure pour cette caractéristique chez une majorité de consommateurs, ce qui l’apparente à une caractéristique différenciée verticalement. Cette frontière floue entre les deux types de différenciation des produits a conduit les économistes à envisager de multiples modélisations des préférences des consommateurs. Le lecteur intéressé pourra consulter Beath et Katsoulacos [1991] sur ce point. Description selon les caractéristiques Le tableau I fournit une liste non exhaustive de certaines caractéristiques valorisées par les consommateurs selon le type de produits ou de services. Il s’agit de caractéristiques valorisées par une majorité de consommateurs ou d’usagers. La première partie de ce tableau concerne des biens et services marchands, alors que la deuxième partie concerne davantage des biens et des services publics. 10
TABLEAU I. — EXEMPLE DE CARACTÉRISTIQUES VALORISÉES PAR LES CONSOMMATEURS SELON LE TYPE DE PRODUITS OU DE SERVICES
Secteurs Alimentation Biens durables
Logement
Services privés Services financiers Système de santé Transports Enseignement primaire et secondaire Eau, air Loisirs et cultures État et administration publique Villes et vie publique
Caractéristiques Valeur nutritionnelle, absence d’agents pathogènes… Durabilité, fiabilité, faible niveau sonore, faible consommation en énergie, service après vente, sécurité… Durabilité, confort, propreté, absence de bruit, proximité des transports, des services publics ou des espaces verts… Clarté des contrats et des explications, rapidité d’exécution, disponibilité du personnel… Crédibilité des conseils, véracité des données, solvabilité des institutions… Espérance de vie, limitation des risques, facilité d’accès… Ponctualité, propreté, confort, sécurité, facilité d’accès… Maîtrise de la lecture et du calcul, enseignement des règles communes, indépendance d’esprit, émulation entre élèves… Clarté, absence de pollution… Diversité et cohérence des programmes et des œuvres, détente, catharsis… Respect des libertés publiques, contribution à la croissance de la richesse, absence de corruption et/ou de bureaucratie… Facilité d’accès à l’ensemble biens et services de ce tableau, absence de nuisances et de pollutions, faible criminalité, civilité des habitants…
La plupart des caractéristiques figurant dans ce tableau sont soit directement énoncées dans des sondages, soit testées dans des études expérimentales (cf. la section 2 de ce chapitre) ou des analyses mesurant le lien entre prix et qualité (cf. le chapitre suivant). Plus précisément, ce tableau consiste en une compilation des études de Shogren et al. [1999] pour l’alimentation, de 11
Martin-Houssart et Rizk [2002] pour le logement, de l’OMS [2000] pour la santé, de l’OCDE [2003] pour l’éducation, de La Porta et al. [1999] pour l’État, en se restreignant aux caractéristiques verticales, c’est-à-dire aux caractéristiques faisant l’objet d’une relative unanimité auprès d’un grand nombre de consommateurs ou d’usagers. En cela, les caractéristiques énumérées dans ce tableau n’échappent pas à un certain arbitraire des auteurs. Au-delà de ce tableau, plusieurs commentaires s’imposent. Premièrement, la sécurité est une partie essentielle de la notion de qualité et elle concerne tous les secteurs d’activité, y compris les services : par exemple, la sécurité des transactions bancaires ou le respect de la confidentialité des informations contractuelles. Nous serons parfois conduits au sein de cet ouvrage à ne considérer que la sécurité, caractéristique différenciée verticalement. Deuxièmement, la qualité de la quasi-totalité des biens physiques est liée à la présence de services comme les garanties, les services d’information des consommateurs, les procédures de remboursement en cas d’insatisfaction… La « quantité » de service disponible autour du produit constitue une condition nécessaire à l’obtention de la qualité [Gadrey, 2003]. Troisièmement, la disponibilité de l’information sur toutes les caractéristiques du tableau I est une dimension de la qualité du système de production et d’échange. Quatrièmement, la qualité des biens et des services dépend de la qualité du travail, thème qui n’est pas abordé dans ce livre. Cinquièmement, la qualité des villes et de la vie publique dépend d’une multiplicité de critères dont certains comme la civilité ou l’environnement ne font pas l’objet de valorisation monétaire directe. Par exemple, 59 % des ménages français résidant dans des villes de plus de 50 000 habitants se déclarent gênés par le bruit lorsqu’ils sont chez eux [MartinHoussart et Rizk, 2002]. Le prix de l’immobilier reflète indirectement le montant que les agents sont prêts à payer pour ne pas avoir à supporter ce type de nuisances. Sixièmement, la notion de qualité de vie dépend également d’une multiplicité de caractéristiques, allant de celles répertoriées dans le tableau I aux conditions de travail ou aux relations sociales. 12
Enfin, la qualité de l’État et des services publics dépend de nombreux critères, comme l’efficacité des sanctions, l’application des lois, les structures d’imposition et de taxation […], ou encore la clarté des missions et l’existence de procédures d’évaluation nécessaires à la reconnaissance du travail bien fait. À partir d’une comparaison internationale, une évaluation empirique des déterminants de la qualité des gouvernements a été réalisée par La Porta et al. [1999]. Le revenu national par tête, le niveau de biens publics (mortalité infantile, absence d’illettrisme…), la corruption, la protection des droits civiques et démocratiques […] servent d’indicateurs pour l’évaluation de la qualité des gouvernements. En dépit de certaines limites de l’approche économétrique comme la qualité des données et la pondération des critères, les auteurs soulignent que des facteurs juridiques, culturels, historiques sont des variables pertinentes pour l’explication de la qualité des gouvernements. Ils montrent que les gouvernements de plus grande taille ont une tendance à être plus performants. De plus, les pays les plus développés économiquement ont une plus large production de services publics et ils protègent mieux les droits civiques que des pays moins avancés. Dans ce tableau I, n’apparaissent pas les caractéristiques liées aux conditions de production, lesquelles gagnent en importance dans nos sociétés. Conditions de production Les conditions de production, lorsqu’elles comportent des aspects de typicité ou des éléments éthiques valorisés par certains consommateurs (alors que d’autres peuvent y être complètement indifférents), constituent des critères pouvant orienter les choix, voire être assimilés à des critères de qualité. Les aspects de typicité renvoient à des modes de production influencés par le terroir (cas des produits bénéficiant d’une appellation d’origine contrôlée, par exemple). Les considérations éthiques concernent les dimensions environnementales (des processus de production peuvent avoir la particularité de protéger certaines espèces rares ou encore la couche d’ozone), le commerce 13
équitable, le développement durable ou encore le travail des enfants (notamment dans le secteur du textile de certains pays du Sud). Pour les consommateurs français, les conditions de production des produits les plus importantes sont (1) l’absence de travail des enfants, (2) l’origine des produits, (3) les conditions de travail des employés, (4) le respect de l’environnement [Bigot, 2002]. Le manque de précision quant à la définition des concepts tels que le commerce équitable ou le développement durable peut cependant être source d’ambiguïté. L’acte de consommation peut aussi dépasser l’utilité directe provenant du bien. Par exemple, le recyclage des déchets vise à limiter le dommage environnemental lié aux décharges ou à l’incinération. De même, le fait de respecter les limites de vitesse a un effet positif sur la pollution en ville. La prise en compte de ces dimensions est plutôt l’affaire de citoyens ou de pays relativement riches, qui consomment généralement beaucoup de biens et de services. L’abondance matérielle semble faire émerger l’idée que la croissance économique ne doit plus être obtenue au prix d’atteintes excessives à l’environnement ou au respect des droits fondamentaux de l’homme. La relation entre richesse et qualité environnementale est cependant complexe. S’il ne fait aucun doute que la richesse favorise une forte consommation de biens et de services, synonyme de dégradation de l’environnement, Grossman et Krueger [1995] ont montré qu’au-delà d’un certain niveau de richesse par habitant, certains niveaux de pollution tendent à se stabiliser, voire à se réduire, du fait de l’apparition de processus de production (ou de produits) plus propres. La prise en compte des caractéristiques liées aux conditions de production dans les comportements de consommation dépend de l’information disponible des consommateurs sur le contenu des produits et des services. Plus généralement, la réflexion sur les caractéristiques ne peut se passer de considérations sur l’information des agents.
14
La classification des biens (ou caractéristiques) selon l’information disponible Les consommateurs sont rarement capables de connaître et d’identifier toutes les caractéristiques d’un produit au moment de l’achat. La multitude des caractéristiques définissant un produit renforce la difficulté d’obtenir une information complète. La perception de la qualité par les consommateurs est influencée par l’information dont ils disposent. Si certaines caractéristiques comme le prix, la couleur, la variété, la taille d’un produit peuvent être facilement identifiées par le consommateur avant même la consommation, d’autres telles que la saveur d’un produit alimentaire ou la robustesse d’un bien durable ne peuvent être découvertes qu’après la consommation. Enfin, certaines caractéristiques ne pourront jamais être évaluées par le consommateur même après l’achat et la consommation : c’est le cas, par exemple, de la valeur nutritionnelle d’un produit alimentaire ou de la présence de résidus chimiques dangereux. Cette classification des caractéristiques repose sur les travaux de Nelson [1970] et Darby et Karni [1973], qui ont conduit les économistes à distinguer trois types de caractéristiques : — les caractéristiques de recherche, observables avant l’achat, — les caractéristiques d’expérience, qui peuvent être découvertes après l’achat et la consommation, — les caractéristiques de confiance, qui ne peuvent être évaluées même après la consommation. Cette classification des caractéristiques selon l’information dont disposent les consommateurs peut être immédiate pour certaines caractéristiques et s’avérer moins systématique pour d’autres. Ainsi, on peut légitimement considérer que les conditions de production (conditions de travail, effet sur l’environnement…) sont des caractéristiques de confiance, dans la mesure où l’usage du bien ne renseigne en rien sur ces critères. Pour la dimension sécurité, la classification est moins évidente. Il peut s’agir d’une caractéristique d’expérience, si le consommateur tombe malade rapidement après la consommation d’un produit, ou d’une caractéristique de confiance, si aucun symptôme n’est 15
constaté rapidement après la consommation. En outre, l’incertitude scientifique ou les désaccords entre experts limitent le caractère complet de l’information de sorte que, pour certaines caractéristiques, leur connaissance ou la prise de conscience par les consommateurs de leur importance n’est pas possible [Lupton, 2001]. C’est notamment le cas pour l’évaluation de la toxicité sanitaire ou environnementale de certains produits (dioxine, pesticides…). Enfin, certaines activités de service comme les audits financiers ou environnementaux ne sont pas directement vérifiables, en raison de la complexité des objets à inspecter. Les comptes d’une société sont des architectures complexes qui rendent le travail de l’auditeur délicat, et celui d’un éventuel superviseur du travail de l’auditeur encore plus difficile. Le manque d’information confère donc à de nombreuses caractéristiques une dimension de confiance. Soit le consommateur ou l’usager ont confiance dans le système de production et de contrôle et ils « ferment les yeux » lors de leurs décisions d’achat, soit ils sont méfiants, ce qui peut les conduire à restreindre leur consommation.
2. Méthodes d’évaluation de la disposition à payer pour la qualité Toutes les caractéristiques qui définissent la qualité sont plus ou moins valorisées par les consommateurs. Les économistes ont cherché à se faire une idée de cette valorisation, ce qui permet d’analyser les perceptions et les choix des consommateurs concernant les caractéristiques liées à un produit ou à un service. Plus précisément, les méthodes que nous allons présenter cherchent à mesurer les dispositions à payer des consommateurs pour telle ou telle caractéristique, c’est-à-dire le supplément de prix que les consommateurs sont prêts à payer pour bénéficier d’une caractéristique additionnelle particulière. La disposition à payer des consommateurs pour telle ou telle caractéristique dépend d’une multitude de facteurs. En particulier, ces choix dépendent des préférences, rapport qualité/prix des biens 16
et services disponibles, et de l’information à la disposition des consommateurs. Deux méthodes de valorisation peuvent être distinguées : la méthode d’évaluation contingente et la méthode de l’économie expérimentale. Ces méthodes sont particulièrement utiles pour accompagner certains choix publics, pour lesquels la qualité n’est pas directement valorisée par un prix de marché (cf. les chapitres V et VI). L’évaluation contingente La méthode de l’évaluation contingente consiste à demander directement aux consommateurs leurs dispositions ou consentements à payer pour bénéficier d’une « qualité supérieure ». Cette méthode est très utilisée pour évaluer la qualité environnementale, par exemple dans le cadre d’un projet de mise en place d’un parc de loisir ou d’assainissement d’un lac, ou pour le développement de projets publics tels que la construction d’autoroutes, d’aéroports, d’hôpitaux ou de mise en œuvre d’une politique sanitaire. Nous renvoyons le lecteur à l’ouvrage de Bontems et Rotillon [2003] pour une description précise de la mise en œuvre de cette méthode pour les biens « environnementaux ». Pour ces biens, aucune demande directement observable n’existe, alors que le décideur public aimerait connaître les dispositions à payer des usagers pour les confronter aux coûts liés aux différentes options de choix politique. Par la révélation directe des dispositions à payer, cette approche permet en principe d’obtenir une estimation monétaire de l’ensemble des bénéfices associés à un projet. Cette méthode est aussi utilisée pour évaluer l’importance que les consommateurs accordent aux caractéristiques ayant trait aux conditions de production. Ainsi, 52 % des Français se disent prêts à accepter un supplément de prix de 5 % pour de meilleures conditions de production (comme l’absence de travail des enfants ou le respect de l’environnement) [Bigot, 2002]. Ce chiffre est à prendre avec certaines précautions, car 32 % des Français se disent « peut-être prêts » contre 20 % « certains » d’accepter un tel supplément. 17
La méthode de l’évaluation contingente a comme particularité de reposer sur un sondage, ce qui en constitue d’ailleurs la principale limite. Il est plus que nécessaire d’être prudent à l’égard des réponses que donnent les personnes interrogées : un biais dans les réponses peut exister en raison notamment de l’absence de paiement effectif de la somme révélée dans le cadre de l’enquête. La méthode de l’économie expérimentale vise à limiter ce biais. L’économie expérimentale La méthode de l’économie expérimentale consiste à faire révéler la disposition à payer pour la qualité, en recréant un contexte proche des situations réelles de consommation. Un échantillon de consommateurs en laboratoire est ainsi sélectionné et placé dans une situation de choix entre différents produits. Le protocole expérimental permet notamment d’isoler différents contextes informationnels, afin d’en mesurer les effets sur les choix des agents sélectionnés. Chaque consommateur sélectionné reçoit des dotations financières et doit réaliser des choix d’achat et de consommation. Il obtient in fine le bien faisant l’objet de l’étude expérimentale, ce qui devrait l’inciter à révéler correctement ses préférences (cf. encadré). Les résultats de l’économie expérimentale dépendent en partie de l’échantillon des personnes sélectionnées. Shogren et al. [1999] montrent que les choix des consommateurs pour la sécurité de produits alimentaires observés en laboratoire sont très proches de ceux observés en supermarché. Ce résultat devrait encourager l’utilisation de l’économie expérimentale comme outil d’aide à la décision privée ou publique. L’économie expérimentale renseigne sur les choix et les dispositions à payer des consommateurs pour la qualité. Elle montre aussi que leurs préférences ne sont pas figées et qu’elles dépendent de l’environnement dans lequel ils évoluent, c’està-dire du contexte informationnel influencé par les actions des différents acteurs sur les marchés, mais aussi du contexte social et historique.
18
Économie expérimentale : quelle réponse des consommateurs aux OGM ?
La méthode d’économie expérimentale a été mise en œuvre pour évaluer la réaction des consommateurs à l’introduction des organismes génétiquement modifiés (OGM). Les consommateurs constituant l’échantillon avaient le choix entre des produits avec ou sans OGM. Pour certains consommateurs, les OGM posent des problèmes de sécurité des produits (notamment avec les risques d’allergie ou de résistance aux antibiotiques), d’éthique (avec le contrôle des semences par un petit nombre de firmes) ou d’environnement (avec les risques de dissémination). L’application de cette méthode, en donnant des indications sur les prédispositions des consommateurs face aux produits OGM, permet de rendre compte des impacts potentiels d’un étiquetage informatif relatif aux conditions de production et de ses implications en termes de choix. À l’issue de leurs expériences, Noussair et al. [2002] ont montré que par rapport à un produit sans étiquetage relatif aux OGM, un produit avec un label « sans OGM » conduit à une augmentation moyenne des dispositions à payer des acheteurs de 7,5 %, alors qu’un produit avec un label « contient des OGM » conduit à une
diminution moyenne des dispositions à payer des acheteurs de 37,5 %. Cette méthode a aussi permis un repérage précis des consommateurs indifférents (13 %), boycotteurs (35 %), enthousiastes (5 %) et nuancés avec une pointe d’hostilité (45 %) envers les produits à base d’OGM. La relative hostilité observée dans ce processus expérimental apparaît d’ailleurs bien moins tranchée que dans d’autres sources d’enquête, notamment les études d’opinion. Si les consommateurs s’avèrent sensibles au contenu du message, comme en témoignent les vives discussions autour de l’étiquetage des produits OGM, ils peuvent aussi attacher de l’importance à l’identité de celui qui diffuse le message. Différentes sources d’information peuvent conduire à différentes perceptions et dispositions à payer pour les produits. Cet aspect a été observé par Huffman et al. [2003] auprès des consommateurs américains : les sources d’information (diffusées par les producteurs, les associations environnementales ou les experts scientifiques) influencent effectivement la disposition à payer des consommateurs américains pour les produits avec ou sans OGM.
19
3. L’importance de l’environnement des consommateurs L’acte de consommation est un phénomène complexe. Si l’approche de Lancaster [1966] procède d’une certaine rationalité, insistant sur le rôle des caractéristiques des produits, elle néglige l’importance de l’environnement dans lequel les consommateurs évoluent, qu’il s’agisse des aspects informationnels, sociaux ou historiques. Les phénomènes organisationnels et institutionnels tels que la convention, la confiance, la réputation ou encore la qualification contribuent à la conception de la qualité des produits tout autant que les caractéristiques. La prise en compte de l’environnement des consommateurs favorise en particulier la compréhension des comportements relevant des phénomènes de mode et plus généralement des comportements d’imitation. Cascade informationnelle et phénomènes de mode Les comportements d’imitation sont des explications possibles des phénomènes de mode, des changements d’habitudes de consommation ou des pertes très rapides de réputation. Bikhchandani et al. [1992] ont mis en évidence la notion de cascade informationnelle. À partir d’un modèle très simple qui ne traite pas directement de la qualité, ces auteurs ont montré qu’un agent peut se fier aux actions (ou aux préférences) d’autres acheteurs qui sont observables, et non à sa propre information individuelle pour prendre une décision (ou se constituer des préférences). Le fait que l’acheteur potentiel ignore son information individuelle (ou ses préférences) en se conformant aux décisions d’achat prises par d’autres agents (via le « bouche à oreille » par exemple) a pour origine l’imprécision ou l’imperfection de l’information individuelle qu’il reçoit. Dans le cas de l’achat d’un bien, chaque agent dispose souvent d’une information imparfaite (ou imprécise) sur la qualité, qu’il cherche à compenser par l’observation des actions d’autres consommateurs. Par exemple, si beaucoup d’agents ont acheté un certain type de bien et que l’information individuelle dont dispose un 20
acheteur est peu fiable ou compliquée à interpréter, ce dernier sera conduit à adopter un comportement d’imitation, même si son information individuelle lui dicte de ne pas acheter le bien ou de le payer moins cher. Ce mécanisme peut donner lieu à des cascades correctes, où tout le monde achète le bien, ou à des cascades incorrectes où personne n’achète le bien, dans une configuration où celui-ci a une valeur qui mériterait l’achat. Plus l’imprécision de l’information est grande, plus le comportement d’imitation est favorisé, ce qui accroît le risque de cascades incorrectes. Nous reviendrons dans les deux chapitres suivants sur les conséquences du manque d’information des consommateurs sur le comportement des agents et le fonctionnement des marchés. La dimension sociale et historique de la qualité Il est indéniable que le contexte social dans lequel le consommateur évolue, en modelant sa subjectivité, joue un rôle important dans le classement et l’attrait des produits. Pour Bourdieu [1979], les goûts et les jugements esthétiques sont déterminés par la logique sociale qui pousse les agents à affirmer leur distinction selon leur classe sociale. La reconnaissance entre personnes ou le signe distinctif dictent parfois les préférences des agents et l’aspect précieux de certains produits. Consommer tel ou tel type de biens marque ainsi l’appartenance à un groupe social. Cette volonté de distinction sociale par la consommation constitue le fondement de la consommation ostentatoire. Veblen [1899] explique dans quelle mesure une consommation ostentatoire permet aux individus (constituant la « classe de loisir ») de signaler leur richesse. Un prix plus élevé entraîne une augmentation des achats par des consommateurs cherchant à signaler leur positionnement social. Le produit et sa qualité ne sont plus valorisés pour eux-mêmes, mais pour le rapport social qu’ils impliquent. Par exemple, la cuillère en argent peut faire l’objet de deux jugements antinomiques. D’une part, elle marque un souci du détail et de l’esthétique qui contribue à la qualité d’une table et au plaisir des convives. D’autre part, elle n’apporte rien 21
sur un plan pratique par rapport à une cuillère en inox. Dans ce cas, la perception de la qualité de ce produit provient tout autant de sa relative inaccessibilité et donc de son prix élevé signalant une certaine aisance que de l’accroissement direct d’utilité individuelle lié à un meilleur usage ou à un plaisir. L’aspect ostentatoire a très souvent été critiqué à cause de son caractère contre-productif, dilapidant des ressources pourtant utiles pour les plus modestes ou pour le financement de projets favorisant le progrès technique. Ne pas construire le château de Versailles aurait-il évité certaines famines ? Dans un autre registre, l’achat d’une voiture de luxe ou de forte cylindrée n’est pas compatible avec des contraintes de contrôle des ressources énergétiques ou de limitation de la pollution (critère de la qualité environnementale). Depuis trois siècles, seules les gondoles noires sont autorisées à Venise, en vertu d’une réglementation locale initialement prévue pour éviter que trop d’argent ne soit dépensé dans l’embellissement des embarcations. L’aspect ostentatoire d’une dépense de consommation est très difficile à isoler, même si la recherche de la qualité ou du luxe par les acheteurs relève d’une volonté de se distinguer par rapport aux pratiques des autres consommateurs. Le rôle de la coordination des acteurs Selon les économistes des conventions, le contenu de toutes les caractéristiques et l’incertitude sur ce contenu constituent un enjeu des relations entre offreurs, intermédiaires et demandeurs, donneurs d’ordre et sous-traitants. Ainsi, EymardDuvernay [1989] considère que les caractéristiques d’un produit sont déterminées dans le cours de l’échange et non préalablement à l’échange. Les caractéristiques des produits et donc la qualité qui en découle se définissent à l’issue d’un processus de coordination entre vendeurs, acheteurs ou administrations. Il est possible de citer Salais et Storper [1993, p. 42] sur ce point : « Un produit fabriqué et échangé apparaît dans sa réalité concrète comme le résultat d’un processus de coordination entre producteurs et 22
demandeurs où l’accord sur la qualité du produit se construit dans le même temps que le produit se fabrique. » L’approche de la qualité selon la qualification, privilégiée par la sociologie économique, en particulier la sociologie des marchés, rejoint celle des conventions dans la mesure où la qualité des produits est appréhendée comme le résultat d’ajustements entre acteurs. S’intéresser à la qualification des produits, c’est analyser le processus de détermination de la qualité d’un produit. Plus précisément, la qualification résulte de l’ajustement d’actions de tout un ensemble d’acteurs conduisant à une adaptation mutuelle entre le produit et ses usagers. Pour en rendre compte, Callon et al. [2000] parlent d’une « économie des qualités » et distinguent les « biens » pour lesquels les qualités sont « stabilisées » et les « produits » caractérisés par un processus d’ajustement. L’accent est mis sur le processus de négociation autour d’objectifs parfois contradictoires entre acteurs (associations de consommateurs, producteurs, intermédiaires…). Poser qu’un produit a des qualités, c’est poser la qualification résultant de l’action des différents acteurs économiques comme un enjeu stratégique. Cette approche par la qualification a fait l’objet de travaux empiriques notamment dans le secteur de l’agroalimentaire, où elle a été utilisée pour faciliter la définition d’un produit en vue de l’obtention d’une appellation d’origine contrôlée. Les accords entre agents pouvant s’effectuer sous différentes formes, il en découle alors différentes formes d’objectivité concernant la qualité, différents processus de qualification du produit, ce qui affaiblit en partie la distinction entre différenciation verticale et horizontale évoquée au début de ce chapitre. Ces approches autour des conventions et de la qualification procèdent d’une autre logique que celle du courant dominant de la théorie économique. Elles utilisent des démarches plus inductives, fondées sur la construction de typologies et font référence à d’autres modalités de l’action sociale que l’action individuelle calculatrice et utilitariste. Elles conduisent plutôt à une « sociologie de la qualité » [Musselin et al., 2002]. Du point de vue de l’analyse économique, elles ont le mérite d’attribuer aux consommateurs (ou aux représentants des consommateurs) un 23
droit sur la définition du produit, aspect négligé par le courant dominant de l’économie. En tentant d’affiner la définition économique de la qualité, ce premier chapitre a souligné la multitude de critères sur lesquels reposait cette notion. Dans la suite de l’ouvrage, la notion de qualité sera employée en rapport à toute caractéristique, support de la différenciation des produits, faisant l’objet d’une valorisation par un certain nombre de consommateurs. Le chapitre suivant étudie les conséquences de l’information asymétrique sur le fonctionnement des marchés, et notamment de son impact sur le prix. Il se concentre sur la rémunération de la qualité des biens et des services marchands.
II / Quelle corrélation entre la qualité et le prix ?
Ce chapitre étudie la question de la relation prix-qualité pour les biens et les services marchands. Nous nous plaçons dans un contexte de marché permettant l’allocation des ressources entre offreurs et acheteurs. Le prix est alors la résultante de la confrontation de l’offre des producteurs et de la demande des consommateurs. Avant d’analyser plus spécifiquement les dysfonctionnements liés à l’information imparfaite sur la qualité, nous allons nous intéresser à la question de la rémunération de la qualité par le prix dans une situation d’information parfaite. Dans un contexte concurrentiel de libre fonctionnement des marchés, cette rémunération dépend du coût de la qualité, notion que nous devons préciser.
1. Le coût de la qualité De l’importance de la nature des coûts Offrir un produit ou un service vérifiant telle ou telle caractéristique nécessite généralement d’engager un certain nombre de dépenses supplémentaires d’équipement, de formation de la 25
main-d’œuvre, d’activités de contrôle (dans le cadre du processus de production mais aussi sur les produits finis). Le gestionnaire définit le coût d’obtention de la qualité comme la différence entre les dépenses engagées dans le cadre d’une démarche de prévention et de contrôle de la qualité et les dépenses de la non-qualité liées aux rappels des produits et à la perte de réputation [Juran, 1999 ; Weil, 2001]. L’économiste se concentre sur les dépenses engagées, qu’il s’agisse de dépenses d’investissement ou de frais de fonctionnement. Ce qui préoccupe l’économiste, ce ne sont pas tant les économies permises par l’amélioration de la qualité que la nature du coût associé à la qualité. L’amélioration de la qualité passe-t-elle essentiellement par un accroissement des coûts fixes, qui ne dépendent pas du volume de production, ou par une augmentation des coûts variables, qui dépendent du volume de la production ? Cette distinction entre coûts variables et coûts fixes est importante dans la mesure où l’accroissement du coût variable lié à l’amélioration de la qualité peut être répercuté sur le prix de vente des produits, alors que la répercussion des coûts fixes sur le prix n’est pas directe. En effet, les coûts fixes limitent le nombre d’entreprises présentes sur le marché, ce qui réduit l’intensité de la concurrence et va dans le sens d’une augmentation des prix. Ces coûts peuvent s’avérer dissuasifs pour certaines entreprises, ce qui soulève notamment la question du mode de financement des démarches de qualité. Une corrélation positive entre prix et qualité Dans un contexte d’information parfaite des consommateurs et de différenciation verticale, où les consommateurs sont unanimes quant au classement des caractéristiques, la hiérarchie des prix reflète la hiérarchie des qualités. Comme la disposition à payer des consommateurs pour la qualité haute est plus élevée que celle pour une basse qualité et que la structure des coûts est croissante avec la qualité, le prix de la qualité haute est supérieur au prix de la qualité basse. Notons que cette supériorité du prix de la haute qualité peut être amplifiée en raison par exemple de 26
comportements d’entente ou de cartel, favorisés par un petit nombre de vendeurs sur ce segment de marché. L’écart de prix entre deux niveaux de qualité permet de couvrir la différence de coût de production. Nous pouvons illustrer ces propos par l’exemple du café équitable qui repose sur des caractéristiques valorisées par certains consommateurs. Le café équitable répond à un ensemble de critères (cf. l’encadré de la page 59), notamment la garantie d’un prix minimal (incluant une prime de développement) aux producteurs. Ce prix implique un accroissement du coût de production du café. Le tableau II, qui décrit la structure de coût d’un paquet de 250 grammes de café, renseigne sur la façon dont l’accroissement de coût lié aux conditions de production du commerce équitable se répercute sur le prix de vente du produit.
TABLEAU II. — PRIX DU PAQUET DE 250 G DE CAFÉ (Arabica d’Amérique centrale) En euros
Non labellisé
Max Havelaar
Prix à la production Intermédiaires Frais de gestion coopérative Coût d’exportation Droit du label Max Havelaar Coût d’importation, de torréfaction, de distribution Prix de vente en grande surface
0,19 0,06 – 0,14 –
0,58 – 0,08 0,14 0,05
1,41 à 2,61 1,8 à 3
1,45 à 2,5 2,3 à 3,35
Source : Lecomte T. [2003].
Nous observons que les conditions de production du commerce équitable entraînent un accroissement du prix de vente en grande surface, accroissement qui est d’ailleurs moins marqué que l’accroissement du prix à la production.
27
2. L’intérêt de la qualité pour les entreprises La différence de qualité entre les produits, en favorisant la segmentation des marchés, conduit à une atténuation de la concurrence par les prix, comme l’a montré Chamberlin [1933], source d’un accroissement de profit. Les biens différenciés sont imparfaitement substituables pour les consommateurs, ce qui favorise les écarts de prix entre ces biens [Gabszewicz, 1994]. Chercher à se différencier par la qualité est donc un objectif du jeu concurrentiel des firmes. Une diversité des produits limitée en situation de concurrence imparfaite Dans un contexte d’information parfaite des consommateurs sur les caractéristiques des produits, la principale question qui se pose est la suivante. Du point de vue des firmes, ce processus de différenciation est-il un processus sans limite, dans la mesure où toute distinction entre produits, si infime soit-elle, et valorisée par certains consommateurs, permet de se créer une niche de marché ? Gabszewicz et Thisse [1980] et Shaked et Sutton [1983] s’interrogent sur ce processus de différenciation dans un contexte de concurrence imparfaite. Ils considèrent un marché en différenciation verticale avec information parfaite sur la qualité, et ils étudient le processus d’entrée et de positionnement sur une échelle de qualité. Ils montrent qu’il existe une limite quant au nombre de firmes et donc de qualités distinctes pouvant coexister sur un même marché. En cela, la différenciation des produits conduit à une situation d’« oligopole naturel », où les considérations d’interdépendance stratégique ont alors toute leur importance. En présence d’un certain nombre de firmes, toute entrée d’un nouveau concurrent avec des produits de meilleure qualité entraînerait la sortie systématique de la firme proposant la plus basse qualité. La taille optimale du marché dépend de la dispersion des goûts et des revenus des consommateurs : moins les revenus sont dispersés, plus le nombre d’entreprises est faible, et moins la concurrence est intense. 28
Berry et Waldfogel [2003] établissent empiriquement que si les coûts de production sont variables (par rapport à la quantité produite), et croissants par rapport à la qualité offerte, il y aura prolifération des produits (et des producteurs rivaux) au fur et à mesure que la taille du marché (le nombre de consommateurs) augmente. Les firmes produisant de la haute qualité, dans l’incapacité de tarifer à un prix inférieur au prix de la basse qualité, ne peuvent chasser les firmes de basse qualité du marché (à mesure que la taille du marché s’accroît). Il s’ensuit que le nombre de firmes augmente (avec une part de marché très faible par firme) au fur et à mesure que la taille du marché augmente. Cette prolifération des produits est peu probable dès lors que les firmes de haute qualité ont la possibilité de tarifer à un prix proche voire inférieur au prix de la basse qualité. Ceci est le cas lorsque le coût variable ne dépend pas de la qualité ou si le coût d’amélioration de la qualité est un coût fixe (c’est-à-dire, indépendant de la production). Investir davantage dans la qualité permet alors à l’entreprise de pratiquer effectivement un prix proche du prix de la basse qualité, voire inférieur, ce qui va limiter l’entrée de concurrents. Dans ce cas, la concentration des firmes ne diminue pas au fur et à mesure que la taille du marché augmente. Au contraire, la qualité et la part de marché d’une firme augmentent avec la taille du marché. Le choix du niveau de qualité affecté par la structure de marché Le choix du niveau de qualité par une firme dépend de l’environnement dans lequel elle évolue. En effet, le choix de qualité d’une entreprise en situation de monopole a toutes les chances d’être distinct du choix de qualité d’une entreprise évoluant dans un contexte concurrentiel, principalement du fait de la différence de profitabilité. Reste à savoir si la firme concurrentielle choisira un niveau de qualité plus faible ou plus élevé que l’entreprise en situation de monopole. C’est un point sur lequel l’analyse économique ne fournit pas de réponse tranchée. Comparons une situation de monopole et une situation concurrentielle. Quelles sont les motivations des entreprises à améliorer la qualité d’un bien dans ces deux types de 29
configurations ? Ce qui motive l’entreprise en situation de monopole, c’est le supplément de recettes qu’elle pourra obtenir par unité vendue. L’entreprise évoluant dans un environnement concurrentiel accordera une large part au supplément de satisfaction que les consommateurs pourront dégager par unité vendue grâce à l’accroissement de la qualité. Dans un contexte de différenciation verticale des produits, ce supplément de satisfaction des consommateurs par unité est supérieur au supplément de recette par unité de l’entreprise en monopole, de sorte que l’entreprise concurrentielle choisira un niveau de qualité plus élevé que l’entreprise en monopole [Tirole, 1990, p. 103]. Notons que, par souci de simplicité, le raisonnement mené ici a considéré la quantité comme donnée. Ce résultat en faveur de la concurrence pour le choix de qualité est remis en cause dès que l’on tient compte du fait qu’une entreprise en situation de monopole restreint les quantités produites. Il y a alors ambiguïté sur les choix de qualité : il se peut que le monopole choisisse une qualité plus élevée comme plus faible qu’une entreprise concurrentielle [Spence, 1975]. L’observation empirique de certains marchés récemment libéralisés met en évidence l’effet bénéfique de la concurrence. C’est notamment le cas pour le marché du transport aérien, caractérisé par de nombreuses contraintes techniques et réglementaires. La déréglementation de ce secteur aux États-Unis dans les années 1980 a contribué à un accroissement du nombre de vols et de compagnies, sans pour autant entraîner une dégradation de la sécurité aérienne [Viscusi et al., 1996, chapitre 17]. Le nombre d’accidents ou d’incidents n’a pas été affecté par l’intensification de la concurrence. L’ouverture à la concurrence aurait même contribué à un niveau de qualité plus élevé : selon Mazzeo [2003], l’intensification de la concurrence entre compagnies aériennes aux États-Unis a favorisé une diminution des retards des vols. Ces exemples soulignent la nécessité d’un approfondissement des études empiriques pour élucider la complexité du lien concurrence-qualité.
30
La qualité en tant qu’innovation de produit
Les consommateurs sont à l’affût de produits de meilleure qualité. Bils et Klenow [2001b] ont utilisé des séries chronologiques de dépenses pour les biens durables aux États-Unis. Dans leur travail statistique sur la courbe d’Engel, reliant pour cette étude, la dépense en valeur pour chaque bien et le revenu global, ils isolent l’évolution du prix unitaire d’un bien en fonction du revenu (le complément étant l’évolution de la quantité consommée). Ils montrent que pour 66 biens durables, l’augmentation de la qualité, mesurée par l’augmentation du prix, représente 56 % en moyenne de cette courbe d’Engel. Ce résultat suggère que l’amélioration de la qualité est un déterminant important de l’augmentation de la consommation. L’innovation des firmes est un moteur de l’amélioration de la qualité des produits recherchée par les consommateurs. La recherche de nouveaux produits permet aux entreprises de conquérir de nouveaux segments plus ou moins protégés et de tarifer à un prix supérieur par rapport à ceux de leurs concurrents. Si l’innovation s’accompagne d’une baisse des coûts de production, alors un producteur peut proposer le nouveau produit de qualité haute à un prix inférieur à l’ancien produit de qualité basse, ce qui conduit à l’éviction de cet ancien produit. C’est notamment le cas avec les ordinateurs dont les performances et les prix au début du XXIe siècle sont sans comparaison avec ceux des années 1990. Les firmes sont engagées dans une course aux nouveaux produits. Bils et Klenow [2001a] montrent que le renouvellement de l’offre de produits est important et que les nouveaux produits (comme par exemple l’appareil photo numérique) attirent l’essentiel des dépenses par rapport aux dépenses de produits traditionnels sans innovation (l’appareil photo à pellicule). La classification entre anciens et nouveaux produits selon une échelle de qualité est parfois délicate (cf. l’encadré sur l’indice des prix). Par exemple, une automobile avec un système de freinage ABS, un Airbag, un pot catalytique ou encore une faible consommation de carburant est-elle simplement meilleure 31
L’indice des prix à la consommation et le problème des nouveaux produits
La prise en compte des nouveaux produits et des changements de qualité des produits pose problème pour le calcul de l’indice des prix à la consommation (IPC). Les nouveaux produits et les changements de qualité entraîneraient une surestimation de l’inflation. En effet, l’augmentation du prix d’un bien est constituée d’une augmentation des coûts et d’une augmentation liée à l’amélioration de la qualité. Pour les économistes, lorsque l’augmentation du prix résulte de l’amélioration de la qualité, et cela de façon tangible, alors cette augmentation de prix ne peut être considérée comme de l’inflation. Le rapport Boskin établit que l’IPC américain surestime l’inflation de 1,1 % par an, avec 0,6 % par an provenant des nouveaux produits et de l’amélioration de la qualité [Symposia, 1998]. Ce chiffre a été âprement discuté dans la littérature. Bils et Klenow [2001b] confirment la surestimation de l’inflation. Tout en ne se risquant pas à avancer un chiffre pour l’IPC français, Lequiller [1997] établit que le biais de surestimation serait d’un ordre
de grandeur très nettement inférieur à celui avancé par le rapport Boskin. La technique des prix hédonistes permet de repérer statistiquement l’augmentation du prix qui provient d’une augmentation de la qualité [Rosen, 1974]. Dans la régression du prix d’un bien, le coefficient lié à une caractéristique donne la valeur que les consommateurs attribuent à une unité supplémentaire de cette caractéristique. Le coefficient doit être statistiquement significatif pour qu’une caractéristique influence le prix et que les agents lui attribuent une valeur. Cette estimation peut donc servir à isoler la part liée à l’augmentation de la qualité dans la hausse des prix, afin d’obtenir le « véritable » niveau d’inflation. La méthode des prix hédonistes est relativement fragile car elle n’épuise pas le débat sur la définition de la qualité présenté au chapitre I . Dans un contexte de très fort renouvellement de l’offre des produits, il est délicat de faire une distinction claire entre une augmentation de la satisfaction des agents (effet qualité) et une augmentation des coûts (effet d’inflation).
qu’une automobile d’il y a vingt ans, ou strictement incomparable ? Un prix rémunérateur est une condition indispensable pour maintenir l’effort d’innovation des producteurs afin d’obtenir des produits ou des services de meilleure qualité. Cependant, ce prix dépend de l’intensité de la concurrence entre producteurs pouvant proposer de tels biens. Une firme disposant d’une 32
innovation va chercher à protéger sa niche de marché, alors que l’existence de profits sur ce segment va attirer des concurrents. En ce qui concerne l’innovation de produits, Aghion et al. [2002] montrent empiriquement et pour un grand nombre de secteurs qu’il existe un arbitrage complexe entre la structure de marché et le nombre de brevets, indicateurs d’un dynamisme en termes de création des produits. Le nombre de brevets (conduisant effectivement à une innovation profitable) est toujours maximisé pour des situations de concurrence imparfaite (nombre limité de firmes), et jamais dans une situation de monopole ou dans une situation pleinement concurrentielle. En effet, un nombre de firmes trop restreint réduit les incitations à fournir de la qualité ou à être dynamique en termes de nouveaux produits. Une situation très concurrentielle peut conduire à des profits insuffisants pour engager des dépenses d’investissements en vue d’améliorer la qualité des produits. Une configuration intermédiaire s’avère donc propice à l’innovation et à l’émergence de produits de meilleure qualité. Il est à noter que l’acceptation de l’innovation par les consommateurs n’est jamais complètement garantie, alors que de fortes dépenses de recherche et développement ont été engagées. À l’inverse, lorsque le produit n’est pas fondamentalement nouveau, le maintien de la qualité dépend souvent de la continuité d’un effort dans le processus de production. Dans ce cas, une concurrence même intense permet de discipliner les firmes en matière de qualité. La qualité totale : de la qualité des produits à la qualité de l’organisation Les organisations privées et publiques cherchent à limiter les défaillances de qualité liées à la complexité de leurs organisations et à maintenir la confiance de leurs collaborateurs et clients. Plus une organisation est importante, plus se perd le lien avec le consommateur final (et la capacité de réaction) et moins les risques de défaillance sont repérables et identifiables. L’articulation entre la décentralisation de la production et la centralisation des contrôles qualité devient essentielle. Le risque de 33
défaillance d’une organisation a conduit à la mise en place des politiques dites de « qualité totale » [Juran, 1999]. Les promoteurs de ce concept, Deming et Juran, ont cherché à développer des procédures qui reposent sur des indicateurs quantifiables mis en place dans les organisations. Ainsi, chaque échelon du stade de production doit faire l’objet d’une procédure de validation et de contrôle. Dans ce contexte, la contractualisation et la normalisation sont des outils indispensables pour améliorer le fonctionnement de l’organisation. La normalisation codifie les modes d’élaboration des produits. La norme est un document dans lequel un certain nombre de règles (lignes directrices ou spécifications techniques) sont élaborées et répertoriées par un organisme reconnu. Elle est évolutive au sens où elle peut être révisée en fonction du progrès technique et des modifications de la demande exprimée sur les marchés. Dans la pratique, de nombreuses normes sont quasi obligatoires. Elles sont élaborées au niveau international par l’International Standard Organization (ISO), au niveau européen par le Comité européen des normes, ou au niveau français par l’Association française de normalisation (AFNOR) (cf. Weil [2001] pour un panorama complet des démarches de normalisation, d’assurance qualité…). La normalisation type ISO 9000 aide au développement d’une politique de « qualité totale ». De tels indicateurs sont généralement des indicateurs d’un effort de qualité interne de l’organisation et pas toujours des indicateurs de la qualité des biens et des services pour l’usager. Juran [2002] note que les firmes pensent à tort que « l’obtention de la certification ISO 9000 va résoudre les problèmes de qualité ». Comme presque toutes les firmes utilisent la notion de qualité totale, on peut se demander si cette dernière n’est pas détournée de son sens originel pour n’être qu’une invocation verbale, ne conduisant pas à une amélioration effective des organisations. Rust et Oliver [1994] indiquent que 94 % des firmes aux États-Unis ont engagé un programme d’amélioration de la qualité. Les procédures liées à la qualité totale aident sans doute à rationaliser l’outil de production. Comme le note Guillaume 34
[2003] « les stratégies de qualité totale mettent le consommateur réel au centre du processus de production, ce qui exige des systèmes d’information précis et en temps réel ». L’idéal de ces politiques n’est-il pas de faire du « sur mesure de masse » ? À propos de BMW et de sa stratégie de forte croissance des ventes et de multiplication des modèles, Edmonson et al. [2003] soulignent les risques de dégradation de la qualité liée à l’augmentation des volumes de production. Préserver une concurrence suffisante et viable économiquement est important pour garantir un éventail de produits de qualités différentes. Cette diversité est néanmoins menacée par l’information imparfaite des consommateurs.
3. L’information imparfaite des consommateurs et ses conséquences En matière de consommation de produits comme de services, les acheteurs font le plus souvent des choix dans un contexte d’incertitude, l’information qu’ils détiennent sur la qualité étant rarement parfaite [Arrow, 1963]. L’information imparfaite sur la qualité peut affecter le fonctionnement concurrentiel des marchés de diverses façons. La diversité des qualités menacée Dans un cadre de différenciation verticale des produits en information parfaite, le fonctionnement concurrentiel des marchés permet une répartition des consommateurs sur les différents segments de qualité, et les prix des différents types de produits reflètent les conditions de production. À l’inverse, l’incertitude et le manque d’information sur la qualité vont créer des conditions d’insatisfaction des consommateurs et une désorganisation du marché. En particulier, l’information imparfaite sur la qualité des produits va réduire l’offre de produits de qualité supérieure, et donc restreindre la diversité des qualités par rapport à une situation où les consommateurs ont la possibilité d’identifier la qualité des produits avant l’achat. Le mécanisme sous-jacent à 35
ce phénomène a été mis en évidence par Akerlof [1970]. Les consommateurs ne sont pas prêts à payer des prix élevés quand le risque d’obtenir des produits de basse qualité est trop fort. Les produits de qualité haute sont éliminés du marché, du fait d’un coût supérieur au prix que les consommateurs sont disposés à payer (cf. encadré). Ainsi, seuls les biens de qualité basse sont échangés à un prix relativement bas, alors qu’en situation d’information parfaite, les biens de différentes qualités seraient échangés à des prix différents reflétant la hiérarchie des qualités.
La fermeture de marché
Dans ce modèle inspiré de l’article d’Akerlof [1970], une relation marchande simplifiée à l’extrême permet de mettre en évidence certains dysfonctionnements liés à l’information imparfaite sur la qualité des produits. Supposons un acheteur qui recherche une unité de bien de qualité haute lui procurant une satisfaction uh. Il ne souhaite pas consommer de biens de qualité basse lui procurant une satisfaction nulle. Il fait face à grand nombre de vendeurs pouvant offrir une unité de bien au coût c, quelle que soit la qualité du bien proposée avec 0 < c < uh. La probabilité de chaque vendeur d’offrir une unité de qualité haute est égale à l et celle d’offrir un bien de qualité basse est égale à (1 – l). Un grand nombre de vendeurs garantit une situation de concurrence, ainsi que la présence de plusieurs vendeurs avec un bien de qualité haute. Si l’acheteur disposait d’une information parfaite sur la qualité offerte par les différents vendeurs, il sélectionnerait uniquement un des vendeurs avec un bien de qualité haute au prix le plus attractif. Le prix qu’il paierait serait égal au coût c du fait de la
36
concurrence entre vendeurs de qualité haute. Le gain de l’acheteur serait égal à sa satisfaction diminuée du prix d’achat, à savoir gp = (uh – c), et celui des vendeurs égal à zéro (le vendeur sélectionné bénéficiant d’un prix égal à son coût). Mais l’acheteur ne dispose d’aucune information sur la qualité des produits offerts par un vendeur. À partir de la probabilité l d’obtenir la qualité haute en choisissant un vendeur au hasard, il en déduit une satisfaction espérée égale à luh, car la qualité basse ne lui apporte aucune satisfaction. Sa décision d’achat auprès d’un vendeur tiré au hasard dépend de la comparaison de sa satisfaction espérée luh et du prix c (égal au coût de production de tous les vendeurs en situation de concurrence). La situation d’équilibre de marché est représentée sur la figure 1, où l’axe des abscisses représente la probabilité d’obtenir des biens de qualité haute et celui des ordonnées représente les valeurs monétaires et le coût, conduisant au prix. La satisfaction espérée du consommateur luh augmente avec la probabilité d’obtenir des biens de qualité haute.
FIGURE 1
Quand lu h < c, la satisfaction espérée de l’acheteur luh est insuffisante pour couvrir le prix d’achat c. L’acheteur n’achète aucun bien et il obtient un gain nul (inférieur au gain gp obtenu en situation d’information parfaite). La défaillance conduit à une fermeture de marché, alors que des échanges se réaliseraient en situation d’information parfaite.
Quand luh > c, l’acheteur achète une unité au prix concurrentiel c. Son gain anticipé au moment de l’achat est égal à sa satisfaction espérée diminuée du prix d’achat, à savoir (luh – c). Ce gain est inférieur au gain gp obtenu en situation d’information parfaite. La défaillance provient ici du fait que l’acheteur paie au même prix un produit de qualité incertaine.
Plusieurs prix égalisant l’offre et la demande La multiplicité des équilibres est une conséquence moins connue de l’information imparfaite des consommateurs [Wilson, 1980]. Plusieurs prix peuvent égaliser l’offre et la demande. Considérons un marché sur lequel les acheteurs ne connaissent que la qualité moyenne et non pas la qualité de chaque bien. Le prix permet aux acheteurs d’anticiper la qualité moyenne. De chaque niveau de prix, ils déduisent les vendeurs prêts à offrir leur bien.
37
FIGURE 2
La figure 2 permet une représentation de ce type de situation où plusieurs prix égalisent l’offre et la demande. L’axe des abscisses représente les quantités échangées et celui des ordonnées représente le prix. La courbe d’offre S décrit le comportement de mise sur le marché des produits par les firmes en fonction du prix de marché. Cette courbe d’offre croît avec le prix, car un nombre plus élevé d’offreurs avec des produits de meilleure qualité entre sur le marché à mesure que le prix augmente. En conséquence, la qualité moyenne augmente avec le prix. Du côté des consommateurs, l’augmentation du prix entraîne deux tendances opposées : une réduction de la quantité demandée (effet prix standard) et une augmentation de la quantité demandée du fait de la hausse de la qualité moyenne rendue possible par l’accroissement du prix (effet qualité). La courbe de demande D, qui décrit le comportement d’achat de l’ensemble des consommateurs en fonction du prix de marché, est croissante avec le prix (respectivement décroissante avec le prix) quand l’effet qualité (via la fonction d’offre) domine (respectivement est dominé par) l’effet prix. 38
Cette forme particulière de la courbe de demande représentée sur la figure 2 conduit à deux situations d’équilibre, 1 et 2, pour lesquelles la quantité offerte est égale à la quantité demandée. Le prix et la qualité moyenne des produits de l’équilibre 2 sont supérieurs à ceux de l’équilibre 1. Cela implique que l’équilibre 2 est « meilleur » que l’équilibre 1, car il assure des gains espérés plus élevés, à la fois pour les vendeurs et pour les acheteurs (i.e., amélioration au sens de Pareto). Le prix d’équilibre est donc important quant à ses conséquences. Cependant, le prix de l’équilibre 2 ne serait pas préféré par les acheteurs à une situation d’information parfaite (assurant une hiérarchie des prix reflétant la hiérarchie des qualités). L’absence d’information évince les plus hautes qualités du marché. Enfin, il est à noter que cette multiplicité d’équilibres n’est pas systématique. Avec la courbe d’offre S’ de la figure 2, il n’y a qu’un seul prix égalisant l’offre et la demande et un seul équilibre de marché, l’équilibre 3. La multiplicité des équilibres dépend donc de l’élasticité-prix de la courbe d’offre par rapport à celle de la demande. L’importance de l’hypothèse d’anticipations rationnelles Les fondements des résultats précédents reposent sur l’hypothèse implicite d’anticipations rationnelles, la relation entre prix et qualité anticipée avant l’échange étant effectivement celle qui résulte de l’échange. La capacité des consommateurs à former des anticipations rationnelles est généralement fort limitée, les agents ne disposant pas d’une connaissance suffisante des fondamentaux (coûts, distribution des qualités) du marché et des comportements des autres agents pour anticiper parfaitement la qualité des produits à partir des prix. Si, pour ce dernier cas de figure, certaines qualités sont éliminées selon le mécanisme d’Akerlof, le niveau de qualité anticipé ne correspond plus au niveau de qualité effectif lors de l’échange. Un apprentissage lié aux échanges successifs permet un affinement des anticipations sur la qualité (il s’agit alors d’anticipations adaptatives). Ce problème d’apprentissage est crucial quant à l’appréciation du niveau de qualité souhaité par le consommateur. Dans de nombreuses situations, le consommateur ne dispose ni de 39
l’information sur la distribution des qualités ni d’une connaissance réelle de la qualité, ce qui dépasse le cadre d’Akerlof. Les consommateurs font l’apprentissage progressif des niveaux de qualité. Ils sont ainsi amenés à dépasser le prix comme critère d’information puisque ce dernier ne peut refléter la qualité. Orléan [1999] propose une théorie des marchés (et de la finance) reposant sur l’idée centrale selon laquelle les prix sont non pas le reflet des fondamentaux de la qualité, mais des « croyances partagées » appelées aussi « conventions ». Selon Orléan, la logique de marché est une logique autoréférentielle : les intervenants d’un marché interprètent toute nouvelle information, et notamment celle sur les prix, non pas pour elle-même mais au regard de l’anticipation sur la façon dont les autres vont interpréter cette information. En d’autres termes, ce qui intéresse les agents ce n’est pas l’information en tant que telle mais la façon dont le marché va interpréter toute nouvelle information : les agents cherchent à anticiper le comportement du marché. Dans ce contexte, un comportement d’imitation constitue une forme dynamique de rationalité autoréférentielle. Cette logique autoréférentielle est à l’origine des « conventions », une convention correspondant à un « modèle conventionnel d’interprétation » auquel tous les agents adhèrent. Cette « dynamique mimétique d’opinions » explique la confiance des acheteurs. C’est notamment le cas pour le marché de l’art où certains achats ne sont réalisés comme placement qu’en prévision d’une revente ultérieure dont le bénéfice dépend des anticipations des autres agents. La « rationalité autoréférentielle » peut amplifier les dysfonctionnements de marchés mis en évidence par Akerlof. Elle est à l’origine des bulles spéculatives et de certains krachs sur les marchés boursiers, où les actifs ne sont pas valorisés par rapport à la qualité de leurs fondamentaux (égaux à la somme des gains actualisés futurs), mais par rapport au prix futur anticipé du marché, dépendant des anticipations des autres intervenants du marché. Pour conclure, ce chapitre a souligné le rôle et les limites du prix comme rémunération et indicateur de la qualité des biens marchands. Les ajustements de marché ne sont pas toujours efficaces notamment en l’absence d’information ou lorsque les 40
caractéristiques de qualité sont en cours d’élaboration par les agents. Les acheteurs ou les vendeurs vont donc chercher à acquérir ou diffuser de l’information pour affiner leur connaissance de la qualité. Une analyse précise des processus de transmission et d’acquisition d’informations permet de rendre compte du bon ou du mauvais fonctionnement d’un marché. Dans le chapitre suivant, nous nous intéressons aux démarches mises en œuvre par les consommateurs ainsi qu’aux différentes stratégies des vendeurs qui chercheront à se signaler afin d’en tirer profit.
III / Les démarches qualité des consommateurs et des entreprises
Le chapitre précédent a montré que le prix est un indicateur incomplet de la qualité dans un contexte d’information imparfaite. Informer et garantir la qualité sont donc des objectifs clés qui structurent l’organisation des firmes. De même, les consommateurs peuvent effectuer des démarches pour obtenir de l’information sur la nature des biens. Ce chapitre détaille les actions des consommateurs pour acquérir de l’information et des firmes pour signaler leur qualité. Toutes ces stratégies visent à rapprocher le prix de marché du prix d’information parfaite, ce dernier étant tel que les consommateurs en ont pour leur argent et les firmes sont rémunérées pour leur effort de qualité. L’objectif de ce chapitre est de montrer que toutes ces actions, plus ou moins coûteuses, recherchent avant tout la crédibilité de la communication autour de la qualité, ainsi que le maintien de la confiance sur les marchés.
1. Des consommateurs à l’affût de l’information L’information des consommateurs sur la qualité peut résulter d’un choix d’acquisition d’information dans le cas des caractéristiques d’expérience (observables après la consommation) ou de confiance (inobservables après la consommation). 42
L’information détenue par les consommateurs influence leur décision d’achat et le prix de marché. La détention d’information par les consommateurs devrait favoriser la corrélation positive prix-qualité. Tellis et Wernerfelt [1987] utilisent les données de la revue Consumer Reports (l’équivalent américain de 60 Millions de consommateurs) pour tester la corrélation prix-qualité pour un grand nombre de produits en rapport avec le niveau d’information des consommateurs. Ils montrent que généralement la corrélation positive entre prix-qualité augmente quand le niveau d’information augmente (ce résultat n’est cependant pas vérifié pour les très faibles niveaux d’information). Un prix plus élevé reflète davantage une qualité supérieure quand les consommateurs sont mieux informés. S’informer peut être coûteux Grossman et Stiglitz [1980] mettent en évidence l’impossibilité de l’efficacité informationnelle d’un marché, à savoir un prix reflétant effectivement la qualité, en raison du coût de l’acquisition de l’information. L’information donnée par le prix dépend alors du nombre d’agents qui ont acquis cette information. Un certain nombre d’agents ne vont pas avoir intérêt à acquérir l’information sur la qualité, et ils vont compter uniquement sur le prix pour guider leur stratégie d’achat. Ce phénomène fausse la possibilité d’efficacité du marché. En d’autres termes, les agents non informés, en conditionnant leur stratégie d’achat sur l’information publique transmise par le prix (c’est-à-dire en utilisant le prix comme un indicateur de la qualité), sont à l’origine du décalage entre le prix d’un bien et sa qualité. Quand le coût de l’information devient nul, le prix reflète effectivement la qualité. La presse de consommation et les guides L’expertise joue un rôle central dans l’amélioration de la précision des informations transmises aux consommateurs et dans leur capacité de jugement. Elle peut être publique (instituts de recherche) ou directement financée par les consommateurs avec l’achat de journaux spécialisés dans le jugement des produits 43
(60 Millions de consommateurs, Que choisir, l’Auto-Journal […], ou encore Consumer Reports aux États-Unis…). Harchaoui et Hamdad [2000] montrent, à l’aide de la technique des prix hédonistes (cf. chapitre II), que le prix des disques de musique classique en France est influencé par les jugements de la revue Diapason Harmonie. Plus précisément, les jugements sur la qualité artistique et la qualité de l’enregistrement ont un effet statistiquement significatif sur le prix des disques, même si cet effet est relativement modeste. Mallard [2000] souligne que 60 Millions de consommateurs et Que choisir ont un rôle actif dans la détermination des réglementations et dans les choix des firmes concernant le contenu des produits. Ces revues établissent de plus des tests comparatifs de produits en fonction d’une ou plusieurs caractéristiques de robustesse, de fiabilité… Ces revues donnent aussi des indications de prix permettant d’établir des rapports qualité/ prix déterminants dans le choix des consommateurs. La question de l’indépendance des revues par rapport aux industriels donne lieu à des politiques différentes concernant la reprise des résultats des essais comparatifs. Que choisir n’autorise pas la reprise des résultats par les firmes à des fins commerciales, alors qu’elle est permise par 60 Millions de consommateurs. Dans son étude sur le Guide rouge Michelin, Karpik [2000] décrit l’importance de l’évolution historique des critères de jugement retenus tout au long du XXe siècle. L’évolution de ces critères montre que le schéma actuel résulte de tâtonnements par rapport aux besoins des consommateurs. La classification actuelle pour les restaurants est relativement simplifiée, avec les critères de confort (selon six catégories de fourchettes) et les critères de qualité de la cuisine (selon trois catégories d’étoiles). Les classements reposent sur des rapports d’inspecteurs et une décision de la direction du guide. Il s’agit d’un classement de haut de gamme car le guide ne retient qu’un dixième de l’ensemble des restaurants de France. Même si le guide Michelin est actuellement diffusé à 600 000 exemplaires par an, il est fortement concurrencé par de nombreux autres guides, qui proposent un jugement insistant sur d’autres dimensions et d’autres gammes de restaurants. 44
Aux États-Unis, les guides Zagat <www.zagat.com> pour les restaurants, les spectacles […] ont connu un grand succès ces dernières années. Il s’agit de classements fondés sur le jugement des consommateurs consultés par sondage. Le biais lié au jugement de l’expert est soi-disant éliminé avec le risque de transformer certains consommateurs en moutons de Panurge. Il existe peut-être une volonté illusoire de s’affranchir de l’expert, surtout si la qualité ne fait pas l’objet d’une définition claire ou d’une unanimité auprès des consommateurs. Le recours aux intermédiaires : le cas des services financiers Les agents ont souvent recours à des intermédiaires qui, mieux informés, peuvent les renseigner sur la qualité des biens offerts ou garantir la qualité des transactions. Certains intermédiaires achètent et revendent directement les biens (comme les supermarchés ou les distributeurs), d’autres facilitent les rencontres entre vendeurs et acheteurs (comme les agences immobilières), et d’autres enfin (comme les agences de notation) fournissent une information sur la qualité en procurant un classement et/ou une évaluation des différentes qualités. En présence de caractéristiques d’expérience (observables après la consommation), les acheteurs peuvent sanctionner les mauvais conseils de l’intermédiaire, qui voit sa réputation se dégrader. Les services financiers sont généralement fournis par des intermédiaires qui sont chargés d’évaluer la rentabilité et la solvabilité des emprunteurs de façon à garantir la sécurité des investissements. Le problème de la qualité de l’information transmise se pose de façon aiguë. Il n’est pas inutile de rappeler combien un bilan et les profits d’une firme peuvent faire l’objet de manipulations autour des provisions pour risques ou de la valorisation des actifs. Le service financier est « dématérialisé », technique et très difficile à vérifier par une agence de contrôle. La qualité (véracité) de l’information transmise est une caractéristique de confiance, avec des aspects d’expérience en cas de crise. Le consommateur de service financier, l’actionnaire, ne sait pas toujours définir la qualité du produit qu’il achète, à savoir le 45
couple rendement-risque de son investissement financier. Est-il capable de complètement hiérarchiser ses préférences concernant toutes les possibilités de placement financier ? Il n’est pas certain qu’il dispose d’une connaissance suffisante des mécanismes boursiers pour diversifier ses risques. L’attente d’une rentabilité financière annuelle « irréalisable » (supérieure à 10 %) pour les firmes cotées en Bourse ouvre la porte à des montages comptables et financiers, qui ne facilitent pas la transparence ou qui sont proches de la fraude. Elle pousse les actionnaires à ne pas toujours considérer l’endettement, lequel, quand il est excessif pour une firme, peut compromettre sa solvabilité financière, ultime critère de mesure du risque financier. L’entretien d’Edgar Bronfman à propos de la situation de Vivendi Universal (VU) avec le journal Libération (23 septembre 2003) est révélateur des difficultés à définir la qualité de l’information comptable : « Il est incontestable que la qualité des informations transmises sur la gestion de VU était largement insuffisante. Ces informations étaient peut-être justes mais elles ne rendaient pas compte de la véritable situation financière de VU. » Que signifie donc le terme « justes » dans ce contexte ? Ces informations étaient-elles justes au regard des réglementations, mais incapables de renseigner de manière crédible sur la valeur économique de la firme ? Les investisseurs ne se rendent compte de la mauvaise qualité d’un contrôle financier qu’en cas de faillite, révélateur incontestable de l’insolvabilité de l’entreprise contrôlée. Le risque est réel que les firmes se cantonnent au respect strictement formel des réglementations comptables, en perdant de vue ce qui importe aux actionnaires. Les commissaires aux comptes, les analystes financiers, les agences de notation, ainsi que les conseils d’administration ont été montrés du doigt et parfois sanctionnés à la suite de l’éclatement de la bulle spéculative des valeurs technologiques sur les marchés boursiers en 2001. Ainsi, le cabinet d’audit Arthur Andersen a disparu en 2002 à la suite du scandale Enron (courtier en énergie) aux États-Unis en 2001. Certaines dettes du groupe Enron avaient été déconsolidées (c’est-à-dire qu’elles n’apparaissaient pas dans le bilan du groupe), au mépris des 46
règles de prudence et des principes économiques, de sorte que les investisseurs ne pouvaient pas évaluer l’ampleur des risques à partir de l’analyse des comptes consolidés. Les principales banques d’affaires américaines ont été sanctionnées en 2003 pour conflit d’intérêts dans le cadre de la diffusion d’information par des analystes financiers [Chaffin et al., 2003]. Enfin, les fraudes comptables du groupe de distribution néerlandais Ahold ou du groupe laitier italien Parmalat ont fait la une des journaux financiers en 2003 et 2004 [Bickerton et al., 2003]. Tous ces exemples montrent la nécessité d’un encadrement et d’une surveillance (privés et/ou publics) des pratiques d’intermédiation financière. Ces scandales soulignent que la préservation de la réputation du certificateur (à savoir le cabinet d’audit) ne suffit pas pour garantir l’absence de fraudes. L’exemple de la faillite du cabinet Arthur Andersen montre que les conflits d’intérêts (avec les activités de conseil) y étaient trop forts, pour que les dysfonctionnements d’une firme comme Enron fussent signalés aux actionnaires. Les agences de notation, les commissaires aux comptes, les analystes sont soumis à un renforcement des contrôles et des réglementations (avec notamment le Sarbannes-Oxley Act instauré en 2002 aux États-Unis) concernant leurs pratiques et leur indépendance (cf. chapitre VI). Ces réformes sont-elles suffisantes pour restaurer ou maintenir la confiance des investisseurs ?
2. Les stratégies de différenciation et de signal des vendeurs Un producteur souhaitant atteindre un certain niveau de qualité fait tout son possible pour améliorer ses installations, pour former son personnel, pour rationaliser son processus de production. Cependant, il ne maîtrise pas parfaitement certaines opérations (mauvais intrants, conditions de transport, de stockage ou de distribution défaillantes), ce qui peut entraîner des risques résiduels incontrôlés altérant la qualité souhaitée par les consommateurs. 47
Pour pallier les dysfonctionnements liés à l’information imparfaite, les vendeurs peuvent signaler individuellement leur effort de qualité. Cette transmission d’information peut avoir comme support le prix de vente du bien ou l’engagement de dépenses importantes. En présence de caractéristiques d’expérience (observables après la consommation), le signal est efficace dans sa capacité à véhiculer de l’information. Il permet l’établissement d’une réputation individuelle pour la qualité. La qualité de la transmission d’information et sa précision sont tout autant essentielles pour maintenir la réputation.
Une prime informationnelle pour la qualité Dans un contexte d’achats répétés où les producteurs choisissent leur qualité à chaque période, Klein et Leffler [1981] montrent qu’une distorsion du prix de la haute qualité par rapport au coût marginal de production est nécessaire pour inciter au maintien d’un niveau de qualité élevé. Un prix plus élevé que le prix d’information parfaite incite les producteurs à offrir durablement une qualité haute. L’écart de prix constitue la rente d’information, c’est-à-dire la prime que les acheteurs potentiels doivent accepter de payer s’ils veulent être sûrs d’avoir de la haute qualité. Cette prime permet de maintenir l’effort de qualité au cours du temps et donne une incitation à ne pas tricher sur la qualité. Le producteur maintient sa réputation de producteur de qualité haute dans la mesure où toute dégradation de qualité est sanctionnée par les acheteurs, qui ne répètent pas l’achat quand ils sont déçus par la qualité du bien. Ce mécanisme assure une segmentation du marché et contribue à informer les consommateurs. Mais il a un coût pour la société, par rapport à une situation d’information parfaite, les consommateurs ayant à supporter l’augmentation du prix nécessaire pour signaler la qualité. Une rente est nécessaire pour un signal crédible de la qualité.
48
L’engagement de dépenses pour signaler la qualité Nous étudions à présent trois vecteurs informationnels potentiels reposant sur l’engagement de dépenses qui peuvent s’avérer importantes : la publicité, la garantie et la marque. Des entreprises qui investissent de fortes sommes en publicité n’ayant aucun contenu informationnel peuvent être considérées par les consommateurs comme produisant une meilleure qualité. En effet, les consommateurs anticipent que de telles dépenses ne peuvent être couvertes que par un fort profit, ce qui indique que le produit est de grande qualité. Ainsi, la publicité a un rôle positif par l’information qu’elle procure sur le contenu des produits. Cette conclusion diffère des théories antérieures axées sur les aspects anticoncurrentiels, où la publicité, en renforçant les parts de marché et la concentration des firmes, s’avère néfaste pour le consommateur. Aspects positifs et négatifs sont sans doute indissociables, ce qui contribue à faire de la publicité un outil ambigu en termes d’efficacité économique (cf. Bagwell [2003] pour une analyse exhaustive). Une autre forme de signal (plus direct) très souvent utilisée par les entreprises est l’offre de garanties ou de dédommagements en cas de défaillance sur la qualité (mécanismes de type satisfait ou remboursé). En offrant une garantie, un vendeur s’engage à prendre des mesures en cas de défaut telles que le remboursement du produit, des réductions de prix, ou encore le remplacement du produit. Grossman [1981] appréhende les garanties à la fois comme système d’assurance contre la performance non satisfaisante d’un produit et comme signal informatif sur les caractéristiques du produit. Il établit que le comportement optimal d’une entreprise, quelle que soit la qualité de son produit, est d’offrir une garantie totale. Au contraire, si une entreprise propose un niveau de garantie inférieur à la garantie totale, le consommateur en déduit que cette entreprise doute de la qualité de son produit et qu’elle ne souhaite pas prendre le risque de fournir une garantie totale : une faible garantie peut donc être un signal de qualité médiocre. Avec un système de garantie parfaite ou totale, le problème informationnel est donc éliminé : les consommateurs obtiennent 49
les mêmes termes de l’échange que dans la situation d’information parfaite. Il est bien rare dans la réalité d’observer des systèmes de garantie totale : ceux-ci sont soit inexistants, soit imparfaits. Les garanties partielles s’expliquent par le fait que la performance d’un produit dépend de sa qualité, choisie par l’entreprise, et de l’utilisation qui en est faite par le consommateur. Dans un tel contexte, l’arbitrage se pose en ces termes : les garanties doivent être suffisamment élevées pour inciter les producteurs à offrir des produits de haute qualité, mais pas trop élevées pour que les consommateurs soient incités à « consommer » le produit avec soin. Ce double problème d’incitation conduit à des garanties n’offrant qu’une assurance partielle et à des niveaux d’effort du consommateur et de qualité du vendeur inférieurs aux niveaux obtenus en l’absence de risques de dégradation par les consommateurs. La marque permet de distinguer un produit et de garantir une qualité. Les entreprises établissent la réputation de leurs produits par les marques commerciales, qui assurent notamment un niveau de qualité stable dans l’espace et le temps. Les marques renforcent la fidélité des consommateurs et le pouvoir des firmes à fixer des prix rémunérateurs. Un produit innovant est plus facile à diffuser du fait de la réputation établie des produits plus anciens proposés par la firme. Le contenu en information véhiculé par la marque concernet-il toujours une qualité « supérieure » ou n’est-il que le signe du conformisme des acheteurs ? Combris et al. [2003] ont mené une expérience en laboratoire sur le champagne visant à évaluer l’impact de la marque/réputation sur le comportement des consommateurs. Cette méthode d’économie expérimentale (cf. chapitre I) consiste à faire révéler la disposition à payer de 120 individus, pour 5 champagnes différents (trois « grandes marques », un produit moyen et un produit bas de gamme) par le biais d’un mécanisme d’enchères. Les individus disposent de dotations monétaires et ils emportent les biens à l’issue de l’enchère. Les individus sont placés dans des contextes informationnels différents. Plus précisément, les individus doivent 50
Le classement des marques selon une évaluation de leur valeur financière
L’édition européenne du magazine BusinessWeek du 4 août 2003 (page 48) propose un classement des marques, en utilisant la méthode Interbrand. Une marque est évaluée comme n’importe quel actif, c’està-dire sur la base d’une estimation des bénéfices futurs. À partir de la somme
actualisée des gains futurs issus de la marque, le coût des actifs autres que ceux liés à la promotion de la marque sont déduits, ce qui permet d’obtenir la valeur nette de la marque. La méthode de valorisation conduit au classement suivant des 10 premières marques dans le monde.
TABLEAU III. — EXTRAIT DU CLASSEMENT DE LA VALEUR DES MARQUES EN 2003 (en milliards de dollars) Marques
Valeur
Part de marché
Coca-Cola (États-Unis) Microsoft (États-Unis)
70,4 65,1
IBM (États-Unis)
51,7
General Electric (États-Unis) Intel (États-Unis)
42,3 31,1
Nokia (Finlande)
29,4
Disney (États-Unis) MacDonald’s (États-Unis) Marlboro (États-Unis) Mercedes (Allemagne)
28 24,7
45 % des ventes de sodas aux États-Unis 97 % des ventes systèmes d’exploitation dans le monde 30 % des ventes de serveurs informatiques dans le monde 22 % des ventes d’appareils électriques aux États-Unis 82 % des ventes de processeurs dans le monde 39 % des ventes de téléphones portables en Finlande 14 % des entrées de cinéma aux États-Unis 43 % des ventes de hamburgers aux États-Unis 35 % des ventes de cigarettes aux États-Unis 6 % des ventes d’automobiles en Europe
22,1 21,3
Source : Business Week pour les valeurs et compilation des auteurs pour les parts de marché. Même si la méthode d’évaluation est perfectible, les niveaux de valorisation en milliards de dollars de ce tableau sont élevés. Cela provient de parts de marché relativement élevées et/ou d’un
positionnement sur un segment de qualité haute, comme par exemple Mercedes, à l’origine de profits élevés par véhicule vendu. Les parts de marché relativement élevées confirment
51
l’importance des coûts fixes, liés à la promotion de la marque. Le lien entre marque et qualité est ambigu tant il est difficile, dans l’explication de la valorisation, d’isoler l’effet part de marché de l’effet qualité. Enfin, de tels niveaux de valorisation (indicateur de la réputation)
expliquent le rappel massif de produits par les producteurs (comme par exemple Coca-Cola en juin 1999 en Belgique), quand des produits dangereux mis sur le marché sont détectés. La dégradation de la qualité peut entraîner de fortes pertes de réputation parfois irréversibles.
annoncer une disposition à payer après avoir goûté le champagne soit en aveugle, soit en ayant vu l’étiquette de la bouteille. Les participants sont incapables de distinguer les champagnes après une dégustation en aveugle, signe que les différences sensorielles entre les champagnes testés sont faibles. Il ressort que des différences importantes apparaissent dans les dispositions à payer lorsque les étiquettes sont parfaitement observables. Ainsi, la marque contribue à un accroissement de la disposition à payer pour les trois grands champagnes et le produit moyen, et à une diminution de la disposition à payer pour le champagne bas de gamme. Cela corrobore l’idée selon laquelle il existe une relation positive entre le prix et la marque, qui n’est cependant pas un indicateur direct de la qualité. Les mécanismes de signaux tels que ceux évoqués précédemment sont complexes, dans la mesure où ce qui importe à chaque firme est de se distinguer de son rival. Si les rivaux abusent de publicités, ne pas trop faire de publicité devient un signe de distinction, de professionnalisme, de qualité. Tous ces mécanismes recèlent des ambiguïtés du fait de la plus ou moins grande imprécision des communications. Autant la garantie semble un indicateur assez direct de la qualité (durabilité et solidité), autant la publicité semble un signal parfois fort indirect de la qualité, assez proche du concours de beauté [Keynes, 1936].
3. Le cas des caractéristiques de confiance Dans le cas des caractéristiques de confiance, qui ne sont pas observables par les acheteurs après la consommation, la plupart 52
des mécanismes de révélation qui viennent d’être présentés sont inopérants. Les consommateurs ne détectent jamais la qualité des produits. La répétition des achats ne leur apporte aucune information supplémentaire. Ils ne modifieront pas nécessairement leur comportement d’achat du fait de l’absence d’expérimentation de la qualité, de sorte que les producteurs n’ont pas d’incitations à offrir une meilleure qualité. Il semble important de rappeler que la confiance est un aspect essentiel dans le fonctionnement des marchés. Mais elle est très fragile. Au moindre écho, les consommateurs prêtent l’oreille à la rumeur médiatique et ils révisent leur jugement sans parfois beaucoup de fondements. Les situations de perte de confiance, bien connues dans les cas de paniques boursières, sont provoquées par des informations relativement mineures, mais révélatrices pour les agents de la perte de crédibilité (et de qualité) d’un système. La multiplication des sources d’information, via Internet par exemple, n’est pas toujours le signe d’une information de qualité permettant des choix éclairés pour les consommateurs ou les usagers. Internet est indéniablement une source très riche de diffusion d’informations, à condition de veiller à en filtrer le contenu. L’intermédiation potentiellement efficace L’intermédiation peut être parfois efficace pour certaines caractéristiques de confiance. L’expertise permet la révélation de l’information, quand le bien ou service ne fait pas l’objet d’une incertitude scientifique trop grande. La consultation de différents experts en situation de relative concurrence peut conduire à une révélation partielle ou totale de l’information, même si ces différentes consultations sont coûteuses [Wolinsky, 1993]. Il existe un arbitrage entre les consultations garantissant la concurrence et le coût de ces consultations (comme c’est le cas pour le contrôle des dépenses médicales avec le rationnement des soins). Dans le domaine de la santé, les concepts de demande et de jugement des consommateurs sont très complexes (contexte de biens de confiance et de traitements sophistiqués, où la demande est créée par le praticien). Il ne peut 53
y avoir de réel marché pour certains soins. L’effectivité de la concurrence a-t-elle toujours un sens pour des services médicaux nécessitant l’engagement de coûts fixes élevés (scanner, chirurgie) ? En dépit de l’existence d’intermédiaires, la révélation de la qualité reste très difficile dans le cas des biens de confiance, notamment lorsque des incertitudes scientifiques existent. Dans ce cas de figure, une concurrence frontale entre experts n’est peut-être plus aussi efficace. La révélation de l’information scientifique et de ses apories repose sur une organisation de l’expertise et de la contre-expertise, qui est un travail critique sur l’expertise. Il s’agit de contrebalancer la tendance monopolistique (ou mandarinale) liée à l’expertise, qui peut chercher à protéger une niche de savoir. Les deux crises de la « vache folle » (encéphalite spongiforme bovine) de 1996 et 2000 pour la France ont montré combien les consommateurs pouvaient réagir brusquement à la diffusion d’informations (pas toujours très précises) des scientifiques, des médias ou des instances de régulation. Ainsi, entre octobre et décembre 2000, les ventes de viande bovine en France se sont effondrées de 30 % par rapport à l’année précédente. L’imperfection de l’information scientifique liée à la nouvelle variante de la maladie de Creutzfeldt-Jakob a sans doute amplifié les doutes et l’inquiétude des consommateurs. Cette perturbation de la demande s’est progressivement estompée dès la fin 2001, pour retrouver une tendance « normale » durant l’année 2002 (cf. Adda [1999] pour une analyse de la crise de 1996 et Bourdieu [2003] pour une analyse chronologique des deux crises en France). L’obtention d’informations crédibles pour maintenir la confiance et éclairer les choix des consommateurs ou des usagers est donc une gageure dans les économies modernes. Ce chapitre a montré que l’organisation des producteurs et la présence des intermédiaires permettent un fonctionnement relativement efficace du marché en présence de caractéristiques d’expérience, pour lesquelles le consommateur dispose d’une information parfaite après l’achat. Pour les caractéristiques de confiance, un fonctionnement efficace du marché semble plus 54
difficile. La définition de règles s’imposant aux agents nécessite de se tourner vers des mécanismes collectifs, à savoir l’autorégulation (étudiée dans le chapitre IV) ou les politiques assurant la qualité (étudiées dans le chapitre VI).
IV / L’autorégulation
L’autorégulation regroupe les démarches collectives d’imposition de règles dont le respect est censé être garanti par une politique de contrôle. Dans le cadre de ce chapitre, nous nous concentrons sur deux formes d’autorégulation : la certification par tierce partie qui se concrétise par l’apposition d’un label d’identification et la réglementation de certaines professions par des ordres. La principale interrogation de ce chapitre concerne la capacité de ce mode d’organisation à garantir la qualité des produits et des services et à accroître la satisfaction de la collectivité. 1. Les enjeux de l’autorégulation Les démarches d’autorégulation visent à défendre la réputation collective du label d’identification ou de la profession. En d’autres termes, ce qui est en jeu, ce n’est plus la réputation individuelle du producteur, de l’entreprise, mais celle du groupe, les deux formes de réputation (individuelle et collective) étant étroitement liées. Maintenir une réputation collective de qualité n’est pas sans difficultés [Tirole, 1996]. Pouvoir de marché versus meilleure gestion de la qualité L’autorégulation qui vise à l’instauration d’une forme de coopération minimale entre entreprises concurrentes peut entrer 56
en conflit avec les principes du droit de la concurrence interdisant les ententes entre entreprises. Comme le notait Adam Smith [1776, p. 205] : « Il est rare que des gens du même métier se trouvent réunis, fût-ce pour quelque partie de plaisir ou pour se distraire, sans que la conversation finisse par quelque conspiration contre le public, ou par quelque machination pour faire hausser les prix. » Dans cette perspective, l’autorégulation ne viserait donc qu’à favoriser l’exploitation d’un pouvoir de marché. Une démarche d’autorégulation présente néanmoins des aspects positifs qui peuvent rendre sa mise en œuvre bien moins coûteuse que la mise en place d’une réglementation publique. Tout d’abord, l’élaboration des règles à respecter devrait être facilitée : le secteur privé disposant d’une meilleure information sur les problèmes de fonctionnement d’un secteur qu’une agence gouvernementale, il devrait être mieux à même de définir ce qui serait bénéfique pour lui. Ensuite, la conformité aux règles devrait être plus opérationnelle en raison de l’existence d’une autorité de contrôle disposant d’un pouvoir de sanction (et parfois de récompense). Enfin, cette forme d’organisation des marchés permettrait une évolution rapide et facile des règles en fonction du progrès technique et des résultats de la recherche et développement. L’organisation des échanges via l’autorégulation présente donc des aspects de facilité de mise en œuvre par rapport à une réglementation publique. La vision actuelle de certaines autorités publiques incorpore ces éventuels aspects positifs de l’autorégulation : la Federal Trade Commission aux États-Unis encourage et participe activement à l’autorégulation du secteur privé, en cohérence avec le fonctionnement des marchés concurrentiels [Valentine, 1998]. De la même façon, les autorités européennes et américaines reconnaissent que l’autorégulation des professions peut être proconcurrentielle notamment lorsqu’un problème d’asymétrie d’information existe [Andrews, 2002]. Règles volontaires ou obligatoires Le respect des règles peut être volontaire, comme c’est le cas pour la certification ou le label, ou obligatoire comme dans le 57
cas de certaines professions réglementées. L’aspect volontaire ou obligatoire des règles n’est pas sans conséquences en termes d’efficacité des politiques de certification sur lesquelles repose l’autorégulation. Une procédure volontaire est souvent moins coûteuse car elle ne nécessite pas de vérifications générales liées aux vendeurs qui n’appliqueraient pas la certification obligatoire. Crespi et Marette [2001] montrent que le choix d’une certification volontaire ou obligatoire par le régulateur dépend de la structure de la concurrence. La certification volontaire est suffisante quand la concurrence entre vendeurs est forte, ce qui pousse les vendeurs à satisfaire la demande des consommateurs. En revanche, dans un cadre monopolistique ou imparfaitement concurrentiel, le vendeur n’est pas toujours incité à se certifier alors que les consommateurs le souhaiteraient, ce qui peut pousser l’État à rendre la certification obligatoire.
2. Une démarche collective volontaire : la certification et les labels Le label d’identification est le signe garantissant qu’un produit ou un service possède une ou plusieurs caractéristiques valorisées par un certain nombre de consommateurs, conférant ainsi une certaine supériorité au produit ou au service. Le label se définit comme une marque collective, car les caractéristiques mises en avant ne sont pas spécifiques à une marque ou à une firme. Aucun producteur ne peut s’arroger le monopole de l’éthique ou de l’environnement. Les entreprises bénéficiant de la marque collective doivent respecter les règlements régissant son utilisation, le propriétaire procédant généralement à des contrôles. Il s’agit d’une démarche volontaire, ce qui la distingue d’un standard de qualité minimale étudié au chapitre VI. Différents types de labels Le label peut être d’initiative privée comme c’est le cas pour le label Woolmark ou le label Max Havelaar (cf. encadré). Le 58
Max Havelaar : le label du commerce équitable
Le label Max Havelaar garantit l’origine équitable des produits c’està-dire des produits respectant les standards (volontaires) internationaux du commerce équitable. Selon le FINE (mouvement international du commerce équitable regroupant Fairtrade Labelling Organisations (FLO), International Federation for Alternative Trade, Network of European WorldShops, et European Fair Trade Association), le commerce équitable se définit comme « […] un partenariat commercial, fondé sur le dialogue, la transparence et le respect, qui vise plus d’équité dans le commerce international. Le commerce équitable contribue au développement durable en proposant de meilleures conditions commerciales aux producteurs marginalisés, essentiellement dans les pays du Sud, et en sécurisant leurs droits. » Il est possible de se demander en quoi les produits concurrents ne bénéficiant pas de ce label ne sont pas équitables. Après tout, de bonnes conditions commerciales, des droits sécurisés sont des conditions nécessaires d’obtention de produits de qualité pour toutes les firmes. Le label du commerce équitable est une démarche de filière : organisations de producteurs des pays du Sud, importateurs, industriels s’engagent contractuellement à respecter les standards (volontaires) internationaux du commerce équitable. Ces standards sont fixés par le FLO, organisme international de certification du commerce équitable, créé en 1997 et regroupant 17 membres situés dans les pays
occidentaux, en concertation avec les organisations de producteurs. Ces standards sont classés en trois catégories. Les standards généraux concernent les organisations de producteurs : les petits producteurs doivent être regroupés au sein d’une structure démocratique et participative. Dans les plantations et les usines, un salaire correct, la liberté syndicale ou l’offre éventuelle d’un logement doivent être garantis. Des critères minimaux de santé, de sécurité et d’environnement doivent être respectés. Enfin, le travail des enfants, ainsi que le travail forcé sont interdits. Les standards commerciaux portent sur les relations entre les producteurs et les commerçants (importateurs et industriels). Les commerçants s’engagent à payer un prix qui couvre les coûts d’une production durable, à payer une prime qui permet aux organisations de producteurs du Sud d’investir dans le développement de la communauté, à développer des relations directes et de long terme avec les organisations de producteurs. Les standards spécifiques sont relatifs aux produits : ils déterminent le prix minimal, la qualité minimale et les normes de transformation, les normes environnementales spécifiques… Les commerçants sont les concessionnaires du label Max Havelaar. Ils bénéficient de la certification en contrepartie d’une redevance (par kilo de produits finis vendus) versée à Max Havelaar, organisation indépendante (association à but non lucratif) qui gère le label du commerce équitable,
59
conjointement avec FLO. FLO/Max Havelaar France sont responsables de l’agrément et du contrôle des partenaires. Ils vérifient l’application effective des standards et, par conséquent, l’ensemble du flux des marchandises, du producteur au produit commercialisé. Les contrôles sont administratifs (rapport sur les transactions via le commerce équitable) et physiques (sur les conditions de travail, les produits) et ils sont effectués par des auditeurs formés par FLO/Max Havelaar. Les rapports de contrôle sont remis au comité de certification qui renouvelle ou retire l’agrément. Le label se présente comme un instrument de développement durable et de régulation du commerce mondial. Il vise à organiser les échanges au niveau international, de façon à limiter les aspects négatifs induits par la mondialisation. Même si les produits labellisés ne représentent que des parts de marché marginales, de l’ordre de 2 % à 4 % selon le produit et le pays (avec une exception concernant la banane labellisée qui représente 25 % de part de marché en Suisse), la démarche équitable est en progression,
notamment en France, où le nombre de concessionnaires du label est passé de 15 en 2000 à 21 en 2001 et 32 en 2002. TABLEAU IV. — VOLUME DE PRODUITS COMMERCIALISÉS SOUS LE LABEL MAX HAVELAAR
(en tonnes) Produits Café Thé Bananes Cacao Sucre Riz
En 2001
En 2002
950 12 82 0 0 0
1 387 31 696 38 42 23
Source : http ://www.maxhavelaar. org Le tableau IV met en évidence une progression des volumes de produits commercialisés sous le label Max Havelaar entre 2001 et 2002, en France. Cette progression générale est entre autres favorisée par un gain de notoriété des produits éthiques auprès des consommateurs français [Lecomte, 2003].
label Woolmark atteste que les produits sur lesquels il est apposé sont confectionnés en pure laine. Il est la propriété de The Woolmark Company, organisation commerciale spécialisée dans la laine, fondée en 1937 en réponse à la concurrence des fibres synthétiques. Le label peut aussi être avalisé par les pouvoirs publics par un droit de regard dans l’élaboration des règles et/ou dans le processus de garantie (contrôle). Et la marque collective attestant de la certification appartient aux pouvoirs publics : c’est le cas par exemple du Label rouge, propriété du ministère de l’Agriculture, et des autres signes de qualité des produits agricoles et alimentaires. 60
C’est dans le domaine agricole qu’ont émergé en France les premiers labels attestant de l’origine avec les appellations d’origine contrôlées (issus de la loi de 1935) ou du niveau de qualité supérieure avec le Label rouge (cf. encadré). Les labels éthiques et environnementaux sur les produits sont actuellement en plein essor, comme par exemple, le label FSC (Forest Stewardship Council) sur le bois garantissant la pérennité des forêts tropicales. Des réflexions aux niveaux international et européen se développent sur l’élaboration d’un label garantissant la qualité sociale d’un produit (la norme SA 8000, créée par un cabinet privé des États-Unis attestant de la responsabilité sociale d’une entreprise dans le cadre de la fabrication du produit est encore très peu utilisée). L’Association française de normalisation (AFNOR) est l’organisme responsable de l’élaboration et du respect de la norme française (NF), autre exemple de label. La marque collective NF concerne aussi bien les produits industriels que les produits agroalimentaires (avec la marque NF Agroalimentaire) et les services (avec la marque NF Service). La marque NF Environnement, créée en 1991, atteste que les produits ont un impact réduit sur l’environnement. L’usage du label NF renvoie à la certification des entreprises par tierce partie avec les normes ISO 9000 qui constituent un système d’assurance qualité. La certification d’entreprise est une démarche fondée sur l’organisation interne de l’entreprise. Elle renseigne sur sa capacité à satisfaire les besoins des clients. L’Association française d’assurance qualité (AFAQ), créée en juin 1988, se charge de juger du degré de conformité d’une organisation à la norme. Cette démarche qualité des années 1980, propre au secteur industriel, s’est développée dans le secteur tertiaire, aussi bien pour les services marchands tels que le tourisme, pour lesquels de nombreux labels se sont développés, que pour les services non marchands comme les activités de santé ou les services rendus par les municipalités, ces dernières pouvant désormais bénéficier d’une certification ISO 9000. La certification d’entreprises concerne aussi des professions réglementées comme celle des avocats. 61
La politique française de la qualité et de l’origine des produits agricoles et alimentaires
La politique de la qualité et de l’origine des produits agricoles et alimentaires est représentative d’une forme d’autorégulation faisant intervenir les pouvoirs publics. Depuis le début du XX e siècle, la France a mis en œuvre une politique de qualité et d’origine des produits agricoles et alimentaires visant à
développer la compétitivité des produits agricoles et alimentaires français. Les produits alimentaires sous signe officiel (cf. tableau IV) bénéficient en moyenne d’une majoration de prix de l’ordre de 10 % à 30 % par rapport aux produits standards [Conseil économique et social, 2001].
TABLEAU V. — LES SIGNES OFFICIELS DE QUALITÉ EN FRANCE Label rouge Qualité supérieure 400 labels
Certification de conformité Conformité à des critères ou à des règles 170 procédés
Agriculture biologique Absence de produits chimiques, de produits de synthèse 8 000 exploitants
Appellation d’origine contrôlée Origine et mode de production 460 AOC
Source : ministère de l’Agriculture, 2004. Cette politique repose sur la mise en place et le développement d’outils d’identification, de certification et de protection de la qualité et de l’origine. Même si les démarches de qualité sont définies par des textes législatifs et réglementaires, elles restent optionnelles et volontaires. La loi d’orientation agricole de 1999 fait reposer le label, la certification de conformité et la certification du mode de production biologique sur un système de certification des produits. L’intervention d’organismes certificateurs agréés et accrédités est obligatoire. Le label apparaît alors comme un outil de différenciation et de
62
segmentation du marché pouvant favoriser un profit plus important. Ces accords collectifs peuvent être considérés comme des ententes par les autorités de la concurrence en particulier si les acteurs cherchent à se coordonner par rapport aux prix et/ou aux quantités. Le Bureau national interprofessionnel du cognac a ainsi été condamné à plusieurs reprises par la Cour de justice des communautés européennes pour accords sur les prix et détermination de quotas de commercialisation. Certains labels ou appellations ont fait l’objet d’enquêtes en France, pour le fromage et la volaille (décisions 92-D-30, 94-D-41, 97-D-16 et 98-D-54 du Conseil de la
concurrence), et en Italie, pour le fromage et le jambon (décisions 3999, 4352, 6549 de l’Autorita Garante della Concorenzza e del Mercato). Dans tous ces cas, les pratiques de fixation de prix (incluant le prix minimal), les réductions de production, ou les barrières à l’entrée ont été prohibées. Ces restrictions n’ont pas été jugées
indispensables à la promotion des produits de qualité supérieure. Par exemple, le Conseil de la concurrence a rappelé pour l’AOC comté que « les allégations sur une relation nécessaire entre hausse de la production et baisse de la qualité ne sont pas établies » (décision du Conseil de la concurrence 98-D-54).
Labelliser pour informer sur la différenciation Dans le cadre du chapitre II, nous avons vu que la différenciation par la qualité, dans un cadre d’information parfaite, permettait de satisfaire les consommateurs souhaitant acquérir des biens de qualité. Mais l’information imparfaite sur la qualité vient contrecarrer le bon déroulement des échanges. Les travaux théoriques récents sur les labels appréhendent cette forme d’organisation des marchés comme un remède aux défaillances de marché, c’est-à-dire comme un palliatif à un problème d’asymétrie d’information. Ainsi, l’existence d’un label peut permettre de réduire le coût social de l’acquisition de l’information par les consommateurs. Cependant, pour être efficace dans sa capacité à véhiculer une information, le label qui est le reflet de la politique de certification doit répondre aux attentes des consommateurs et l’information transmise par le label doit être clairement identifiée. Considérant un label opérationnel dans son rôle de véhicule d’information, Marette et al. [1999] montrent que l’aspect positif dû à un supplément d’information peut effectivement compenser certains effets négatifs, comme par exemple des restrictions de concurrence liées à une forte coordination entre producteurs. La transmission de l’information sur la qualité du produit est un rôle qui incombe aux labels d’identification lorsque ces derniers sont clairement perçus par les parties auxquelles ils s’adressent, ce qui n’est pas nécessairement évident. Ainsi, Loisel et Couvreur [2001] montrent que les signes de qualité des produits agricoles et alimentaires (présentés dans le tableau V) 63
disposent d’une notoriété relativement fragile auprès des Français. 43 % des personnes interrogées citent spontanément le label rouge, 18 % l’agriculture biologique et seulement 12 % les appellations d’origine contrôlées. La notoriété du label rouge s’explique notamment par son ancienneté et sa politique de communication bien établie. La multiplication des labels concurrents et la complexité des définitions (et des cahiers des charges) ne favorisent pas toujours leur compréhension par les consommateurs et l’information de ces derniers. La multiplication des labels s’observe particulièrement dans le domaine de l’environnement. Certains écolabels correspondent à des programmes d’éco-étiquetage, homologués par des tiers et soutenus par les pouvoirs publics. D’autres labels correspondent à des argumentaires écologiques à visée informative, émanant des fabricants, des importateurs, des distributeurs ou des détaillants, et enfin certains renvoient à un étiquetage informatif quantifié [OCDE, 1997]. Il existe aussi d’autres labels écologiques qui n’entrent pas dans ces définitions, notamment dans l’industrie textile. Enfin, des labels écologiques sont aussi développés par les associations de consommateurs. Il n’est pas certain que le consommateur s’y retrouve facilement, de sorte que l’État peut être appelé à développer une activité de contrôle des informations divulguées et une politique d’information visant à éduquer les consommateurs. La multiplication des labels peut conduire à des confusions sur leur signification et sur leur nature privée ou publique. L’exemple des eaux de baignade, des plages et des ports de plaisance illustre ces problèmes avec d’une part les campagnes privées « Pavillon bleu » (menée par l’Office français de la fondation pour l’éducation à l’environnement), « Pavillon noir » (menée par la Surfrider Fondation Europe) et d’autre part l’obligation légale de contrôle de la qualité des eaux par l’État. L’information transmise par ces labels apparaît comme confuse et imparfaite pour les estivants comme pour les collectivités locales, notamment sur la qualité des eaux de baignade, et les enjeux sont tels qu’une mission d’inspection sur le dispositif des campagnes de communication relatives à l’environnement des communes a été lancée. Le rapport de cette mission (Inspection 64
générale de l’environnement [2002]) recommande, entre autres, le repositionnement du « Pavillon bleu » comme outil d’éducation à l’environnement et le désengagement de l’État dans le processus d’attribution de ce label. Il suggère également d’améliorer le dispositif de contrôle et d’information sur la qualité des eaux de baignade qui relève de la responsabilité de l’État et des maires, avec notamment la mise en place d’une signalisation publique fournissant une information régulière et structurée.
3. Les règles « privées » obligatoires sont-elles la panacée ? Pour certaines professions, essentiellement des professions dites libérales, l’État délègue une partie de son pouvoir de réglementation à une organisation professionnelle. Cette organisation est l’expression d’une orientation politique importante : les pouvoirs publics souhaitent engager les professionnels dans la régulation de leur marché. L’organisation de ces professions repose sur deux caractéristiques principales : l’existence d’un corpus de règles défini par les professionnels et s’imposant à toute entité souhaitant exercer la profession, et celle d’un ordre disposant d’un pouvoir disciplinaire (cf. encadré). C’est ainsi que la profession comptable est soumise à des règles initiées par l’International Accounting Standard Board, organisme privé. L’autorégulation des professions est-elle une garantie de qualité ? L’impact de l’autorégulation d’une profession sur la qualité offerte n’est pas évident a priori. Les premiers travaux théoriques s’intéressant à ses effets sur le bien-être collectif mettent en évidence principalement l’impact négatif lié au pouvoir de monopole. L’autorégulation, par l’instauration de barrières à l’entrée, réduit la concurrence du côté de l’offre, ce qui favorise un accroissement du prix et des bénéfices pour les offreurs. Selon Shaked et Sutton [1981], conférer un pouvoir de monopole à des professions réglementant la qualité a de grandes 65
Organisation des professions en France
Les experts-comptables sont organisés au sein de l’ordre des experts-comptables, créé en 1945, et placé sous la tutelle du ministère de l’Économie et des Finances. Il s’agit d’un organisme de droit privé doté de la personnalité civile et chargé d’une mission de service public. Les commissaires aux comptes sont organisés au sein de la Compagnie nationale des commissaires aux comptes (CNCC), créée en 1946. Ces deux institutions veillent au bon exercice de la profession comptable. La profession d’architecte en tant que telle n’existe formellement et juridiquement qu’à partir de la loi du 31 décembre 1940 « instituant l’ordre des architectes et réglementant le titre et la profession d’architecte ». Les avocats sont organisés en ordres (ou barreaux) rattachés à un tribunal de grande instance. L’ordre est dirigé par un Conseil de l’ordre et un bâtonnier. Le Conseil de l’ordre composé
d’avocats exerce un grand nombre de pouvoirs administratifs et il a également une fonction disciplinaire : il peut sanctionner les manquements de ses membres à la déontologie, la sanction la plus sévère étant la radiation définitive du barreau. Ses décisions sont susceptibles d’appel devant la cour. L’ordre des médecins a été créé par la loi du 7 octobre 1940. Son statut fut modifié par l’ordonnance du 24 septembre 1945 qui a créé l’ordre national des médecins. L’ordre contrôle l’accès et l’exercice de la profession. Il doit veiller aux principes de moralité, de probité, de dévouement et au respect par tous ses membres des devoirs professionnels et des règles édictées par le code de déontologie (article L. 4121-2 du Code de la santé publique). Ses compétences en matière de qualité du service fourni ont été élargies avec la loi du 4 mars 2002 (titre III : Qualité du système de santé).
chances de réduire le bien-être collectif, l’effet de l’accroissement de la qualité sur la demande étant généralement insuffisant. Considérant des biens d’expérience (dont la qualité peut être découverte après l’achat), Leland [1979] pose le problème du choix du niveau de qualité par des groupements professionnels, dans un cadre d’asymétrie d’information sur la qualité entre firmes et consommateurs. Il montre que les critères de qualité choisis par le secteur autorégulé, dont l’objectif est de maximiser le profit des entreprises, sont plus élevés que ceux qui auraient été choisis par un régulateur maximisant la satisfaction 66
de l’ensemble des agents. Gehrig et Jost [1995] montrent également qu’une industrie autorégulée offre une qualité plus élevée. Ces mécanismes de marché peuvent être inopérants dans le cas des services de confiance (dont la qualité est difficilement appréhendée même après la consommation). Lorsque l’on considère ce type de services, il n’est plus possible de juger de l’impact de l’autorégulation sur le niveau de qualité selon une logique marchande. Prenons l’exemple du service fourni par un avocat. Si l’organisation de la profession d’avocat garantissait la qualité du service rendu, le client potentiel serait indifférent quant à l’identité de l’avocat : il choisirait un avocat au hasard. Or Karpik [1989] souligne que les relations économiques entre les avocats et leurs clients ont la particularité de se nouer sur la base du « bouche à oreille », sans qu’aucune information publique sur le prix comme sur la qualité ne soit disponible. L’appariement entre un avocat et un client repose essentiellement sur la relation sociale : une personne à la recherche d’un avocat pour la première fois se renseigne auprès de sa famille, de ses connaissances, et un avocat en phase de constitution d’une clientèle recourt à ses proches et à ses connaissances pour diffuser son nom. Ainsi, « […] la relation sociale collectivise l’information […] » qui est disponible à un instant donné. Les réseaux-échanges orientent les choix des consommateurs/justiciables et incitent les avocats au maintien de leur réputation. L’activité de l’avocat est par nature incertaine : le résultat de l’action est imprévisible et les moyens de l’action (compétence de l’avocat) ne peuvent être identifiés. La confiance induite par la relation sociale vient ainsi pallier cette incertitude. Le jugement tient alors une place prépondérante dans le processus d’achat : « […] Le jugement représente en fait une forme particulière d’organisation de la vie économique » (p. 189). En d’autres termes, l’échange dépend d’une organisation sociale fondée avant tout sur le réseau et la confiance. Selon Karpik [1989], le marché-jugement est caractéristique des situations où « […] l’échange se trouve défini par des produits dont les qualités sont au moins partiellement incommensurables et par des acheteurs qui assignent la priorité à la qualité […] » (p. 207). 67
Enfin, les approches précédentes considèrent implicitement qu’il n’y a aucune difficulté au sein de la profession à s’entendre sur les règles à mettre en place. Or l’absence de consensus sur les règles peut contrecarrer l’exercice du pouvoir de monopole. La profession d’architecte est l’exemple type d’une profession qui n’a pas réussi à bénéficier de l’autorégulation, essentiellement en raison de l’absence d’une définition consensuelle de la notion de qualité architecturale qui rend d’autant plus difficile l’élaboration du corpus de règles communes. Alors même que la loi du 3 janvier 1977 sur l’architecture a instauré un monopole d’exercice, la profession d’architecte en France rencontre un certain nombre de difficultés, avec l’absence d’une reconnaissance tant des clients potentiels que des pouvoirs publics [Champy, 1998]. Les limites de l’autorégulation : les comportements opportunistes Nous avons vu que la particularité de l’autorégulation est l’aspect collectif de la démarche : ce qui est en jeu, ce n’est pas la réputation individuelle mais celle d’un groupe au travers de la marque collective. Or l’appartenance au groupe ou la détention d’une marque collective est à l’origine d’une rente, car elle permet une différenciation des produits par la qualité rémunératrice, et l’obtention de cette rente peut être à l’origine de comportements opportunistes susceptibles de dégrader la réputation collective [Bourgeon et Coestier, 2001]. Revenons sur la profession comptable qui permet d’illustrer l’idée de comportements opportunistes pouvant dégrader la réputation collective d’un métier. Les scandales financiers récents comme Enron ou Worldcom ont mis en doute la qualité de l’audit et de la profession comptable dans son ensemble. La principale raison de la dégradation de la qualité du service d’audit tient au manque d’indépendance des auditeurs : le développement intensif (car rémunérateur) de l’activité de conseil par les sociétés d’audit a conduit à des conflits avec la mission de vérification légale. 68
Ainsi, un des éléments les plus importants de la loi SarbanesOxley, adoptée aux États-Unis au printemps 2002, visant à restaurer la confiance des investisseurs, est la création du Public Company Accounting Oversight Board. Ce bureau est placé sous la tutelle de la Security and Exchange Commission, pour réguler et superviser le travail des auditeurs de sociétés cotées. En transférant des responsabilités qui incombaient initialement à l’organisation professionnelle représentant la profession comptable aux États-Unis, à savoir l’American Institute of Certified Public Accountants (AICPA), la loi signe la fin de l’autorégulation de la profession comptable. Comme le notent Henry et McNamee [2003] « les critiques disent qu’on ne peut faire confiance à l’AICPA pour réécrire les standards d’audit [à la suite de l’affaire Enron], car son objet principal est de protéger ses membres des poursuites civiles ». Ce propos souligne la nécessité d’instances publiques chargées de sanctionner les abus et, a priori, plus indépendantes qu’une instance privée, représentant les intérêts d’une profession. Dans le même esprit en France, le Titre III du projet de loi de sécurité financière intitulé « modernisation du contrôle légal des comptes et transparence » prévoit la création d’un Haut Conseil du Commissariat aux comptes chargé d’assurer la surveillance de la profession (indépendance, respect de la déontologie…) avec le concours de la Compagnie nationale des commissaires aux comptes. Enfin, la Fédération des experts comptables européens (FEE) appelle de ses vœux la création d’un European Coordination Audit Oversight Board (ECAOB) de façon à éviter des scandales financiers tels que ceux observés aux États-Unis. David Devlin, le président de la FEE, souligne la nécessité d’une intervention publique pour garantir la qualité du service d’audit : « Une forte supervision publique garantit que le public peut être confiant dans la profession de l’audit qui s’engage à travailler dans l’intérêt public au niveau exigé de qualité le plus élevé » [Parker, 2003]. Réguler l’autorégulation, comme le souligne l’exemple de la profession comptable, s’avère d’autant plus nécessaire que le service fourni, à savoir l’information et la transparence pour les 69
actionnaires [Plihon, 2003], vise à la stabilité financière et à la confiance qui sont des biens de nature publique (étudiés au chapitre V). L’autorégulation est systématiquement invoquée par les milieux d’affaires à propos de la gouvernance d’entreprise, notion essentielle pour l’obtention de la confiance des investisseurs. Cependant, la soi-disant efficacité de l’autorégulation disciplinant les actions et les salaires des dirigeants semble présenter certaines limites. Depuis la disposition législative sur les nouvelles régulations économiques (NRE) de 2001 obligeant les dirigeants des sociétés cotées à publier leurs rémunérations et le nombre de leurs stock-options, les dérives à la hausse sont impressionnantes. La rémunération moyenne des cent P-DG les mieux payés de France a progressé de 15 % par rapport à 2001, alors que les résultats nets des entreprises concernées étaient en recul de 12,7 % [Challenges, 2003]. C’est la loi NRE qui a conduit à cette transparence des rémunérations, et non pas l’autodiscipline des dirigeants, censés chérir la transparence de l’information. Les limites inhérentes aux démarches collectives privées rendent nécessaire l’imposition de réglementations publiques telles que les standards, les politiques d’information obligatoire et la responsabilité civile. Ces mesures complémentaires seront étudiées dans le chapitre VI.
V / Services publics : les conséquences de l’absence de prix
De nombreux services tels que la santé, l’école, ou les transports… présentent un caractère collectif et ils sont le plus souvent offerts par la puissance publique. Ce chapitre se concentre sur la question de la qualité de ces services publics. Nous cherchons à mettre en évidence les mécanismes d’obtention d’une qualité satisfaisante pour les usagers dans un contexte d’absence de libre concurrence et/ou d’absence de prix reflétant complètement le coût de la qualité. Les problèmes d’information imparfaite et de réputation évoqués au chapitre précédent se posent pour tous les services collectifs, mais ils ne sont pas abordés dans ce chapitre. Il est à noter que ce sujet ne fait pas l’objet de développements unifiés au sein de la théorie économique, de sorte que nous sommes conduits à combiner des outils de l’économie publique et de l’économie industrielle. Ce chapitre revient tout d’abord sur les différents types de services publics et leur rapport à la qualité. La question de la « gratuité » est ensuite abordée. Les conséquences de la coexistence de systèmes privé et public sont analysées. La fin du chapitre aborde la réglementation des externalités, définies comme les effets de l’action d’agents sur la situation d’autres agents.
71
1. Services collectifs et qualité La notion de qualité pour les services publics est particulièrement complexe et elle dépend notamment de leur organisation. Il existe une grande diversité des modes de fonctionnement des services publics dans le monde. Les classements internationaux renseignent sur les différents systèmes publics existants. La contribution des classements internationaux Les classements internationaux donnent des indications sur l’efficacité des systèmes publics et sur les critères qui peuvent être considérés pour définir la qualité. Les classements relatifs à la santé [OMS, 2000] ou à l’éducation tels que le programme PISA (Program for International Student Assesment) [OCDE, 2003] nous semblent particulièrement instructifs. Ces études mettent en évidence les forces mais aussi les faiblesses de chaque système, ce qui peut contribuer à trouver des clés pour leur amélioration potentielle. Le rapprochement entre la qualité des services et les moyens financiers permet de clarifier le débat démocratique, sur ce qui devrait être payé par l’usager, et sur ce qui devrait être pris en charge par le contribuable. Ces classements sont toujours perfectibles quant à la construction des tests et des critères d’évaluation, à la pondération des caractéristiques et à la cohérence statistique. Ils aident cependant les agents et les décideurs publics à se forger une opinion notamment sur la notion de qualité, les caractéristiques à privilégier dans le contexte de ces études faisant l’objet de nombreuses discussions. Concentrons-nous sur l’évaluation des systèmes de santé réalisée par l’Organisation mondiale de la santé (OMS) [OMS, 2000]. Les caractéristiques d’accessibilité aux soins, d’efficacité, de risques sanitaires, de disponibilité de l’information ou d’état de santé général de la population (espérance de vie) ont été retenues pour évaluer la qualité de ces systèmes. Certaines caractéristiques comme l’état de santé de la population dépendent de facteurs complémentaires au système de santé, tels que 72
la nutrition et l’alimentation, les accidents du travail, la sécurité routière… Le tableau VI donne un très bref aperçu de la position de certains pays dans ce classement de 191 pays réalisé par l’OMS [2000]. Une des originalités de ce classement réside dans la distinction entre le critère de résultat (la qualité) et le critère d’efficacité (le rapport qualité-ressources). TABLEAU VI. — EXTRAIT DU CLASSEMENT INTERNATIONAL DES SYSTÈMES DE SANTÉ
Pays Japon France Italie États-Unis
Résultat
Efficacité
1 6 11 15
10 1 2 37
Source : OMS [2000] sur des indicateurs de 1997.
Le critère de résultat (synthétisé dans la deuxième colonne du tableau) regroupe des indicateurs d’espérance de vie en bonne santé, de réactivité du système en termes de soins médicaux, de respect de la confidentialité, d’autonomie et de liberté de choix des patients, d’équité des contributions financières… Ainsi, les États-Unis sont en quinzième position pour le critère de résultat global. S’ils sont classés premiers en termes de réactivité du système (indicateur de l’efficacité technologique), ils ne sont que cinquante-quatrièmes quant à l’équité des contributions financières. En effet, plus de 42 millions d’Américains ne sont pas assurés, soit près de 15 % de la population [DREES, 2001]. Le critère d’efficacité (synthétisé dans la troisième colonne du tableau) regroupe des indicateurs qualitatifs et financiers, tels que la dépense médicale par habitant, les budgets financiers alloués à la santé… Il s’agit ici de la prise en compte du rapport qualité/prix, indiquant la frontière d’efficacité entre les ressources allouées et les résultats. La France est classée première selon ce critère, les États-Unis n’apparaissant qu’à la trenteseptième position. 73
Les classements favorisent-ils la mise en concurrence effective des établissements par les usagers ? Il est possible d’en douter tant l’offre peut être restreinte au niveau local quand il s’agit des services publics. En dépit des limites évoquées précédemment, les classements ont le mérite de nourrir le débat sur les moyens de mieux mesurer la qualité et la performance des entreprises ou des systèmes publics. Ils sont des outils indispensables pour l’évaluation des services orientant les choix publics, notamment en ce qui concerne la question centrale de la « gratuité » ou de la part du coût supportée par l’usager. La nature du service public est aussi sous-jacente à cette question. La typologie des services collectifs Réfléchir à la qualité des services publics ou collectifs nécessite d’examiner la nature de ces services, qui sont caractérisés par les propriétés de non-exclusion ou/et de non-rivalité entre les usagers. La non-exclusion renvoie à l’impossibilité d’exclure de l’usage des utilisateurs et la non-rivalité signifie qu’un service peut être consommé sans que la consommation par un usager diminue la consommation des autres usagers. La classification des services est résumée dans le tableau suivant. TABLEAU VII. — CLASSIFICATION DES SERVICES Non-exclusion Non-Rivalité Rivalité
Collectif pur Commun
Exclusion Club Privé
Plus précisément, les économistes distinguent (1) les services collectifs purs tels que les lois, la police, la justice, la sécurité définis par la non-rivalité et la non-exclusion ; (2) les services de club tels que les autoroutes, l’école, les transports… définis par l’exclusion et la non-rivalité et (3) les services en commun tels que les ressources naturelles comme un banc de poissons, définis par la non-exclusion et la rivalité. 74
La classification d’un service est parfois difficile tant elle recouvre différentes dimensions du tableau VII (ce point est développé par Lévêque [1998]). Ainsi, dans le domaine de la santé, la recherche ou les campagnes d’information sur les risques peuvent être définis comme des services collectifs purs, alors que l’accès à l’hôpital se rapproche du service de club dans la mesure où son accès peut être limité ou sujet à de forts encombrements. Les diverses modalités de financement des services collectifs La théorie économique donne des indications quant aux choix optimaux de financement influençant la qualité. Les services collectifs purs (présentés dans le tableau VII) sont « gratuits » pour l’ensemble des usagers. Ce qualificatif doit cependant être précisé. Pour reprendre les propos de F. Bastiat [1855, p. 250] : « Le mot gratuit appliqué aux services publics renferme le plus grossier et, j’ose dire, le plus puéril des sophismes. […] Mais il n’y a de vraiment gratuit que ce qui ne coûte rien à personne. Or les services publics coûtent à tout le monde ; c’est parce que tout le monde les a payés d’avance qu’ils ne coûtent plus rien à celui qui les reçoit. » Ces services publics que nous qualifions de « gratuits » sont en l’occurrence financés par l’impôt. La « gratuité » et le financement par l’impôt tiennent notamment à la propriété de non-exclusion de l’usager. À cause de la nonrivalité, les risques d’excès de consommation sont absents, car la consommation d’un usager ne diminue pas la consommation des autres usagers. Tout le monde bénéficie de l’existence de la sécurité, de règles civiles claires ou de la justice. L’enjeu consiste à faire respecter ces règles par une mise en place de moyens adéquats par rapport aux objectifs affichés. De nombreux services de club sont d’un accès (quasi) « gratuit » (écoles, hôpitaux…) ou fortement subventionnés (transports publics, activités culturelles…), quand certains objectifs, tels que l’égalité des chances, la cohésion sociale ou la fluidité des réseaux de transports, sont jugés prioritaires par une société. La dimension d’exclusion signifie qu’une régulation de la demande est possible en vue d’une qualité satisfaisante pour les usagers. 75
2. La régulation des services de club Les choix d’organisation et leur influence sur la qualité se posent tout particulièrement pour les services de club. L’arbitrage entre tarification supportée par l’usager et financement par l’impôt doit prendre en compte les possibilités de risque de dégradation de la qualité ainsi que les coûts entraînés pour la société par le prélèvement de l’impôt. L’exclusion qui caractérise les services de club peut être mise en place par une politique de tarification, par un accès limité ou par des contraintes de localisation (comme par exemple la carte scolaire en France qui est censée imposer l’école publique en fonction du lieu d’habitation). L’arbitrage quantité-qualité pour les services de club En abordant la question de la qualité des services de club, il est important de souligner que la pratique insuffisante, comme l’excès de consommation, entraînent des risques de dégradation de la qualité des services. La figure 3 résume l’arbitrage entre qualité et quantité dans la production d’un service de club, où les quantités sont représentées en abscisse et la qualité en ordonnée. La relation entre quantité et qualité est d’abord croissante puis décroissante. Le point B représente l’optimum de qualité pour l’usager, c’est-à-dire la meilleure des qualités qui pourraient être servies à l’usager. C’est ce niveau de qualité qui devrait motiver les prestataires de services dans la recherche de leur meilleur mode d’organisation. Le point A représente une plus faible qualité de service par rapport au point B à cause d’une faible affluence, qui conduit à une pratique insuffisante de métiers très spécialisés. C’est le cas par exemple pour les hôpitaux dans les zones rurales ou dans les petites villes qui, par rapport aux CHU de grandes villes, ne cumulent pas une expérience suffisante dans des activités de pointe. Comme le note Alain Garcia [in Benoit et al., 2002, p. 175], « on sait que les équipes qui interviennent sur des plateaux techniques perfectionnés ont besoin d’une activité minimale pour maintenir la qualité de leur performance. Il faut par 76
FIGURE 3
exemple 800 à 1 000 coronarographies, et 300 à 400 angioplasties pour un plateau technique de cardiologie ». L’amélioration de la qualité ne peut passer que par un accroissement de l’activité, par exemple par le regroupement de métiers très spécialisés en un même lieu. Le point C représente également une plus faible qualité par rapport au point B, mais cette fois pour cause d’encombrement dans une région très dense ou d’absence de limites quant à la fréquentation d’un service. Les prestataires de services faisant face à une demande excessive non régulée par un prix ont alors moins de temps pour se concentrer sur la qualité de chaque prestation. Comme le note de Kervasdoué [2003] à propos de l’engorgement des services d’urgence à l’hôpital, « paradoxalement, ce n’est pas en augmentant les moyens des services d’urgence, qui pourtant en manquent, que l’on va résoudre le problème. Si les urgences fonctionnaient encore mieux — en temps normal, elles ne fonctionnent pas si mal —, la fréquentation de ce service public devenu le “généraliste” des plus déshérités ne cesserait de s’accroître et l’on s’efforcerait de remplir un tonneau sans fond, si l’on ne touche pas à la demande et si l’on ne propose pas une offre alternative. Viennent aux urgences des personnes qui n’ont rien à y faire : 90 % des passages ne donnent pas suite à une hospitalisation ». 77
L’excès de fréquentation rend les usagers rivaux quant à la qualité. La dégradation qui en résulte peut être enrayée par une régulation du nombre d’usagers via l’imposition d’un prix, la mise en place d’une procédure de rationnement de l’accès ou une redéfinition des incitations des usagers d’un service. Par exemple, de meilleurs remboursements de Sécurité sociale pourraient être proposés aux patients qui acceptent une autodiscipline sur la consommation de médicaments ou qui se soumettent à des examens préventifs de détection des maladies.
3. Les problèmes soulevés par la « gratuité » pour les usagers En plus du problème d’excès de consommation évoqué précédemment, le choix de la « gratuité » soulève la question de l’égalité d’accès quand la qualité des services varie selon la localisation, et celle des incitations pour la rémunération des efforts de qualité. Organisation et égalité d’accès Les services publics sont principalement régis par le principe d’égalité d’accès entre les usagers, ce qui explique l’atténuation, le plafonnement ou l’absence du facteur prix. Autant le principe d’égalité peut être mis en application au niveau de la quantité des services fournis (nombre d’habitants pour un service), autant la dimension qualité semble plus difficile à saisir et à imposer. La puissance publique se retrouve souvent en situation de monopole local dans la production des services « gratuits » pour l’usager. Les choix d’organisation de tels services vont dépendre de l’organisation spatiale de l’économie et de l’équilibre entre centralisation et décentralisation. La quantité de services par habitant est souvent la variable d’ajustement et de décisions pour des services tels que la santé (nombre de lits par habitants) ou l’éducation (nombre de lycées par habitants ou nombre d’élèves par classe). 78
En l’absence d’ajustement par les prix, la spécificité de la relation entre la qualité et la quantité représentée par la figure 3 nécessite une organisation spatiale des activités publiques. Ainsi, dans les régions rurales, des cliniques peuvent s’occuper des premiers soins ou des convalescences, alors que les opérations plus lourdes et techniques sont réalisées dans de grands centres hospitaliers. Par exemple, l’organisation géographique des maternités en France est subdivisée selon trois niveaux de services complémentaires : les services de proximité immédiate fournis par les maternités classiques, les services de réanimation néonatale et enfin un troisième niveau de services pour les grossesses à haut risque. L’organisation spatiale des services soulève notamment la question de la qualité du réseau de transport pour limiter les temps de déplacement et d’accès des usagers [Benoit et al., 2002]. Des prix indirects tels que le coût de l’immobilier La « gratuité » des services publics ne signifie pas l’égalité effective d’accès à des services de qualité équivalente. Par exemple, la qualité d’un service public tel que l’école varie énormément selon la localisation. Tietbout [1956] a souligné que les collectivités locales peuvent être en situation de concurrence pour la production de services publics, ce qui conditionne les choix d’installation des habitants. Brueckner [1979] a proposé la figure 3 ci-dessus pour décrire la relation entre la quantité de services publics locaux et la valeur immobilière. La qualité de certains services publics est souvent très marquée géographiquement et apparaît comme étant corrélée au prix de l’immobilier (et donc enjeu de rivalités pour les usagers). Le prix de l’immobilier représente alors un tarif indirect lié à la qualité des services publics locaux. Finalement, l’accès à ces services publics va dépendre des capacités d’achat ou de location immobilière des agents, et donc de leur richesse. Pour illustrer nos propos, prenons l’exemple de l’école. Le regroupement des élèves dont les parents disposent d’un fort capital économique, culturel et social crée un bon environnement de travail et des incitations à l’effort, qui renforcent les 79
chances de réussite de ces élèves, critère de qualité d’une école. L’émulation entre bons élèves est une externalité positive, au sens où l’effort de chacun rejaillit sur l’ensemble d’une classe. Une étude récente publiée par le ministère de l’Éducation nationale [DPD, 2001], qui tient compte de l’origine sociale des élèves, de leur parcours scolaire ou de la proportion d’étrangers, souligne l’extrême hétérogénéité entre les établissements en France. Ainsi, à même niveau de dépenses budgétaires, un lycée d’une zone favorisée donne plus de chances de réussite à un élève qu’un lycée d’une zone défavorisée. Tout l’enjeu pour une politique cohérente consiste à garantir une relative égalité des chances entre les élèves, sans détruire le bon environnement de travail des zones privilégiées qui présentent un aspect bénéfique pour l’économie en termes d’investissements en capital humain. De nombreux rapports se sont penchés sur les actions à privilégier pour améliorer la qualité des services scolaires dans les zones défavorisées, en insistant par exemple sur un nombre d’élèves plus faible par classe, ou sur des aides supplémentaires pour les devoirs du soir. Les questions de mixité sociale et de découpage des zones géographiques d’accès aux lycées sont toujours très controversées. La question des différences de qualité dont peuvent disposer les usagers est moins l’objet de débats que celle de la répartition des revenus. Pourtant, la dégradation de certains services publics dans des zones difficiles est un facteur tout aussi important que le niveau de revenu des habitants. Nombreux sont les économistes qui soulignent à la fois les dangers d’une répartition trop inégalitaire (favorisant l’instabilité politique et la violence, deux dimensions de la qualité de la vie publique), et ceux d’une répartition trop égalitaire qui détruirait toutes les incitations à réaliser des efforts et à innover. Ces interrogations se posent de façon identique en ce qui concerne les différences d’accès à la qualité des services publics entre groupes d’usagers. Les incitations en l’absence de prix Les incitations à offrir une qualité satisfaisante sont limitées quand la tarification ne reflète pas la qualité des services 80
proposés, ce qui est souvent le cas pour les services publics régis par la « gratuité » ou des prix imposés. Les services collectifs purs et de club (cf. le tableau VII) quand ils sont gratuits se différencient donc des biens privés, traités dans les chapitres précédents et caractérisés par les propriétés de rivalité et d’exclusion. Le chapitre II a montré le rôle moteur et parfois ambigu des prix et de la concurrence pour l’obtention de qualités satisfaisantes des biens privés pour les consommateurs. Le prix et la présence potentielle de concurrents étaient essentiels pour inciter les firmes à fournir un bien de qualité haute. En l’absence de prix, la rémunération d’un effort pour obtenir une qualité satisfaisante est alors beaucoup plus difficile, surtout si cette dernière n’est pas directement vérifiable. Ces mécanismes de régulation par les prix sont souvent inadéquats dans le cas des biens collectifs, car ces derniers sont très souvent offerts par un monopole (public ou privé) et ne font pas l’objet d’une tarification couvrant l’ensemble des coûts de production. La question de savoir si l’absence de prix est compatible avec la qualité se pose alors. Niskanen [1968] a souligné que, dans le cas des bureaucraties, les fonctionnaires maximisent leurs gains (liés à des positions monopolistiques pour certaines activités) bien plus qu’ils ne servent les contribuables. Ainsi, certaines ressources sont affectées de manière inutile par rapport aux besoins des usagers. La taille excessive de certaines administrations favorise les lourdeurs et la paperasserie aux dépens de la réactivité face aux exigences des usagers. La centralisation des décisions éloigne certaines administrations des préoccupations des usagers. Si l’évaluation de la qualité est possible, des incitations à fournir des services de qualité peuvent être favorisées, même en l’absence de marché et de prix payé directement par l’usager (Le Grand [2003]). Par exemple, l’indexation d’une partie des salaires sur des évaluations individuelles et collectives peut renforcer la motivation du personnel. Dixit [2002] montre que des mécanismes d’incitation de ce type ne sont possibles que si les performances sont définissables, quantifiables, mesurables avec clarté et acceptées par un très grand nombre d’agents. Cependant, l’évaluation de la qualité de certains services publics comme la justice ou la police peut s’avérer fort délicate. Comme 81
le note le président du tribunal d’Évry, H. Dalle : « On ne peut pas assimiler l’institution judiciaire à une force de vente qui souhaite augmenter ses parts de marché. […] Une partie de la qualité du service public de la justice peut être soumise à certains critères, comme la qualité de l’accueil, le délai de réponse. Mais, dès que ce sont les droits de la défense, l’impartialité, la qualité d’un débat contradictoire entre les parties qui sont en jeu, nous sommes incapables de mesurer le travail effectué » (Libération, 25 septembre 2003). Un délai de réponse ni trop court ni trop long peut être un signal d’une bonne gestion du temps par l’institution, garantissant un temps « suffisant » pour la qualité de l’instruction et du jugement.
4. Favoriser la concurrence si cela est souhaitable et possible Le chapitre II a montré la complexité des liens entre la structure de concurrence et le niveau de qualité. Pour les services nécessitant des coûts fixes très élevés (comme en chirurgie par exemple), une structure privée monopolistique a peu de chances d’être moins coûteuse qu’une organisation administrée. Cependant, une condition d’efficacité des services publics consiste, quand cela est possible, à développer l’existence de services privés concurrents (école, hôpitaux…), afin de maintenir la pression concurrentielle pour la puissance publique autour de la qualité des services et de garantir une liberté de choix. Cela entraîne parfois des tensions, quand des écarts de tarification existent entre privé et public, remettant en cause le principe d’égalité d’accès. Mise en concurrence d’une offre publique et privée versus amélioration interne du système public Au regard des questions de qualité, l’État est-il trop impliqué dans la production des services publics ? Le principe d’égalité d’accès à ces services, justifiant l’intervention publique, implique-t-il nécessairement un fort engagement ou une situation de monopole de l’État ? 82
La contribution de M. Friedman [1955] à propos des enveloppes budgétaires (tuition vouchers) permet d’introduire le débat complexe et sensible de la place de l’État dans le système scolaire. Selon Friedman, il est tout à fait possible de respecter le principe d’égalité d’accès (voire de le renforcer), avec un système dans lequel coexisterait une offre publique et privée de services d’éducation. L’instauration d’enveloppes budgétaires donnerait aux parents d’élèves une complète liberté dans leur choix d’écoles (privées ou publiques) qui deviendraient payantes. La limitation du pouvoir de monopole de production de l’État dans ce domaine améliorerait la concurrence entre les établissements et l’accès des plus pauvres aux établissements de qualité. Avec un tel système, la puissance publique aurait deux grandes missions. Premièrement, elle financerait les catégories sociales les plus défavorisées, via une distribution de ces enveloppes modulées selon le revenu des parents. Deuxièmement, elle fixerait les standards de qualité minimale (cf. chapitre VI) et les obligations d’enseignement de disciplines indispensables au cursus des élèves. Ainsi, en se désengageant largement de la production de service scolaire, la puissance publique renforcerait sa capacité à établir des standards et à évaluer les établissements de manière plus indépendante, car elle serait moins impliquée dans une relation « juge et partie ». Comme le note Friedman [2002], avec la généralisation d’un tel système, « les parents auraient vraiment le choix, et la qualité de l’enseignement — dans les écoles publiques et privées — augmenterait du fait de la concurrence ». Pour fonctionner, ce système nécessite que les parents disposent d’une information parfaite, ce qui est loin d’être évident : en témoignent les controverses existant sur la notion de qualité dans l’éducation. L’efficacité du schéma d’enveloppe budgétaire de Friedman repose aussi sur deux autres hypothèses implicites : l’existence d’une concurrence effective des établissements dans l’espace de référence des agents et la « mobilité » des usagers, laquelle favorise le choix mais peut aussi être utilisée à des fins de contestation en cas d’insatisfaction. Ces deux hypothèses sont discutables. Si la pluralité de choix est effective dans les grandes villes, elle peut faire défaut dans les espaces 83
ruraux. Quant à la « mobilité » des usagers, celle d’un enfant en primaire n’est nullement comparable à celle d’un étudiant du supérieur dont l’espace de référence pour le choix d’une université est national, voire européen ou mondial. Dès lors, la concurrence au niveau des universités se justifierait plus que dans le primaire. Si Friedman privilégie les aspects positifs de la concurrence public/privé sur le fonctionnement du système public, à l’inverse, Hirschman [1970] souligne que la mise en concurrence entre privé et public peut conduire à une dégradation de la qualité du système public. Sa démonstration repose sur le modèle défection/prise de parole (exit/voice) : face à une défaillance au sein d’une organisation, les agents peuvent soit la déserter, par un comportement de défection, comme le fait un consommateur insatisfait qui change de fournisseur (solution privilégiée par Friedman), soit prendre la parole au sein de l’organisation en vue d’une résolution de la défaillance. Selon Hirschman, la différence d’attention des parents concernant la qualité expliquerait la dégradation du système public d’enseignement aux États-Unis. En effet, certains parents ont une meilleure conscience, ou une meilleure information, de la qualité des établissements que d’autres. Les parents attentifs à la qualité de l’enseignement, plutôt que d’exercer leur prise de parole quand la qualité du système public se dégrade trop, préfèrent confier leur enfant au système privé. Leur voix se faisant de moins en moins entendre, les établissements publics ne bénéficient plus de cette externalité positive, ce qui empêche la réactivité de l’établissement. Comme le note Hirschman [1970, p. 78], « la défection [des parents les plus attentifs] incitera peut-être les écoles publiques à chercher quelque remède à leurs défaillances, mais cet effet positif sera amplement contrebalancé par le fait que les écoles publiques seront « privées des clients » qui auraient été les plus ardents à combattre la baisse de la qualité ». Les élèves peu mobiles ou dont les parents manquent d’information s’en trouvent alors pénalisés. Alors que Friedman propose une intensification de la concurrence et de la mobilité pour améliorer la qualité du service d’éducation, Hirschman mise sur la prise de parole des parents 84
pour améliorer le système public, sans négliger pour autant les pistes d’amélioration de la réactivité de ce système face aux défections des parents. Soulignons que la « gratuité » relative de ce service public, financé par l’impôt, devrait d’ailleurs inciter les parents à favoriser l’amélioration interne : pourquoi les agents devraient-ils payer pour que le service d’éducation leur soit fourni par le privé (plus ou moins subventionné selon les pays) ? Quant à la prise de parole des parents, au travers des associations de parents d’élèves notamment, est-elle toujours représentative de l’intérêt général ? Autant le raisonnement économique de Friedman autour des enveloppes budgétaires est intéressant d’un point de vue heuristique, autant le passage à la prescription semble impliquer la prise en compte de dimensions que l’économiste néglige, par exemple des considérations historiques, sociales, culturelles, ou institutionnelles. Le système est d’ailleurs très controversé aux États-Unis, alors même qu’il existe dans l’État de l’Ohio, où les parents avec un faible revenu reçoivent une enveloppe financière leur permettant de financer l’école de leur choix. Plus généralement, la mise en place de la concurrence entre établissements scolaires heurterait les héritages institutionnels de nombreux pays. Musselin [1996] note que, sur le marché du travail universitaire en France, il existe des ambiguïtés quant à la définition du contenu de la qualité et à la représentation que s’en font les professeurs. Certains d’entre eux récusent l’idée de la régulation de la connaissance par un marché. Les concessions et l’équilibre entre le privé et le public La concurrence et la coexistence entre privé-public sont tout aussi importantes en ce qui concerne les services de réseau ou les concessions (eau, transports…), pour lesquelles le prix facturé à l’usager finance intégralement le producteur du service. L’autonomie financière est un critère de qualité. Cependant, l’aiguillon de la concurrence n’a pas toujours de sens, si le temps de transport est important entre services concurrents ou si la qualité nécessite des coûts fixes élevés limitant le nombre de 85
prétendants sur un marché donné. Mais cette concurrence peut jouer indirectement par le biais de l’attribution des concessions. La présence d’un secteur public via des régies permet de limiter indirectement les abus de position monopolistique liés aux concessions des entreprises privées (et réciproquement). Cette question fait notamment débat en France pour l’assainissement et la distribution de l’eau pris en charge selon les localités par le public ou le privé. Cependant, comme le notent Heilman et Johnson [1992, p. 190] à propos de la privatisation du système d’assainissement de l’eau aux États-Unis, « le système privé devient davantage comme le secteur public que l’inverse » (au sens d’une efficacité relativement faible). Devant certaines limites concernant la mise en concurrence, la réglementation doit fixer des objectifs de qualité aux entreprises concessionnaires. Segond [2002] note que la société privée Cofiroute pratique des tarifs supérieurs de 28 % à ceux des Autoroutes du Sud de la France (ASF), société complètement publique jusqu’en 2002, sans que la qualité du service apporté par Cofiroute soit supérieure. Elle semble même plus faible car Segond [2002] cite un ingénieur qui explique que « quand ASF construit, elle ne lésine sur aucun mur antibruit, bretelle de raccordement, glissière de sécurité ou espace vert quand Cofiroute construit à l’économie ». La société publique ASF sert donc d’aiguillon en matière de qualité. La coexistence public-privé peut être une garantie de prise en compte de la qualité, notamment lors des appels d’offres et des renouvellements de concessions. L’organisation des concessions peut influencer la qualité des services proposés. L’exemple des autobus à Londres est révélateur d’une augmentation de la qualité liée à l’introduction de la concurrence du privé par le biais d’un mécanisme d’enchères. Alors que les bus peuvent directement concurrencer les lignes existantes dans les autres villes du Royaume-Uni, la ville de Londres a mis aux enchères 40 % des itinéraires existants dès 1984, le reste étant géré par la régie publique traditionnelle. Comme le notent Cohen et Henry [1997, p. 32], « la qualité du service a augmenté — il s’agit ici d’un renversement de tendance — et cette augmentation est aussi sensible sur les 86
itinéraires restés en gestion traditionnelle que sur les itinéraires concédés dans les enchères. Manifestement l’articulation de la concurrence pour le marché (enchères) et de la concurrence par comparaison […] a fait mieux que la concurrence [directe] sur le marché qui avait été imposée aux autres villes britanniques, car ces deux formes indirectes de concurrence n’incitent pas à la destruction des concurrents et sont compatibles avec les exigences de coordination ». Ce système de privatisation partielle a préservé la concurrence de ses propres excès ainsi que la rente nécessaire à la mise en place de certains investissements. La qualité des mises aux enchères, le respect du cahier des charges et l’impératif de l’équilibre financier expliquent la qualité des services offerts par les entreprises concessionnaires.
5. Les externalités La prise en compte des externalités par le système économique contribue à la qualité de vie ou du vivre ensemble. L’externalité est un effet de l’action des agents sur la situation d’autres agents, et qui s’exerce en dehors des mécanismes de marché ou de négociations entre agents. Cela signifie qu’en l’absence d’intervention publique la rémunération de certains effets positifs ou l’indemnisation de certains effets négatifs ne sont pas intégrées dans le prix de marché des biens ou des services à l’origine de l’externalité. La qualité de l’intervention publique se mesure notamment par la prise en compte des externalités par le système économique. Même s’il existe de nombreuses externalités, nous ne détaillons que le problème de la circulation dans les villes, sujet qui concerne aussi la qualité de vie et la qualité des transports. La circulation dans les villes La pollution atmosphérique et le bruit sont les principales nuisances liées à la circulation automobile. À ces externalités négatives, très difficiles à évaluer en termes monétaires, s’ajoute l’encombrement du réseau de circulation urbaine. Le fait de 87
prendre sa voiture a un effet externe pour les autres automobilistes en augmentant les risques de bouchons. La fluidité du réseau est un critère de qualité pour l’automobiliste et la congestion amplifie les phénomènes de pollution. Pour atténuer toutes ces externalités négatives, certaines administrations ont cherché à limiter la circulation, en arbitrant entre deux objectifs opposés : la qualité de vie des habitants et la liberté de circulation. Depuis 2001, des solutions différentes ont été retenues par les villes de Paris et de Londres pour restreindre le flux de voitures. La ville de Paris a choisi de développer les couloirs de bus (infranchissables pour les automobilistes et aménagés en 2001), alors que l’administration de Londres a choisi de faire payer l’entrée dans le centre-ville aux heures de pointe depuis février 2003. Londres s’appuie donc sur la tarification, avec 800 caméras qui enregistrent les plaques minéralogiques lors des entrées. À l’inverse, Paris rationne les quantités de réseau disponible pour les automobilistes. Les deux systèmes ont des effets similaires sur la circulation globale, même s’il existe des phénomènes de répartition des coûts différents. Il est à noter que même si la solution retenue par Paris n’est pas coûteuse en termes monétaires, elle entraîne un coût en termes de hausse du temps de transport pour les automobilistes qui ne peuvent se passer de leur voiture ou qui habitent en périphérie. Les deux systèmes rendent difficile l’accès des automobilistes extérieurs aux centres-ville. Ces deux solutions visent à fluidifier le réseau et à entraîner un report vers les transports en commun, lesquels bénéficient de l’amélioration de la fluidité de la circulation. Il semble que le système londonien soit plus efficace dans le domaine de la fluidité. En effet, la circulation a baissé de 16 % en six mois dans le centre de Londres, alors qu’elle n’a diminué que de 7 % en deux ans à Paris [Observatoire des déplacements à Paris, 2002]. Bus et voitures roulent beaucoup mieux dans Londres depuis l’instauration du péage [Boltanski, 2003]. En revanche à Paris, les couloirs ont augmenté la vitesse des bus, alors que celle des voitures s’est dégradée du fait de la diminution de leur place sur la chaussée. 88
La régulation de la circulation dans les centres des grandes villes pose in fine la question de la qualité des comportements des citadins et de leur incitation quant aux possibilités d’une moindre utilisation de la voiture. La question de la qualité des transports en commun (ponctualité, propreté…) compte tout autant pour les usagers, que les programmes de limitation de la circulation automobile mis en place à Paris ou à Londres. En conclusion, la gestion des services publics nécessite de penser les incitations pour obtenir la qualité. Même en l’absence d’un prix payé par l’usager, le mode d’organisation des services publics est poussé à prendre en considération les exigences de qualité. Les services publics font souvent l’objet d’une volonté d’amélioration de qualité de la part des pouvoirs publics. Cependant, sans évaluation crédible de cette qualité, une telle volonté risque de ne pas atteindre tous ses objectifs. Une autre méthode de gestion des services publics consiste à s’appuyer sur les outils garantissant la qualité de tous les biens et services, tels que les standards de qualité minimale ou la responsabilité civile et administrative qui sont étudiés dans le prochain chapitre.
VI / Les politiques publiques assurant la qualité
L’intervention publique en faveur de la qualité est légitime en cas d’inefficacité des actions privées ou des mécanismes de marché. Les chapitres précédents ont permis d’illustrer tous les critères à considérer dans le choix d’une réglementation publique. Ainsi, le chapitre II a souligné l’inefficacité des mécanismes de marché en présence d’information imparfaite. Le chapitre III a montré les ambiguïtés liées à la communication d’information sur la qualité, notamment en présence de caractéristiques de confiance. Le chapitre IV a détaillé les limites de l’autorégulation notamment la mise en œuvre de sanctions au sein des professions. Le chapitre V a insisté sur certaines difficultés d’obtention d’une qualité satisfaisante pour les usagers des services publics. La réglementation est un moyen plus ou moins imparfait pour remédier à certaines de ces inefficacités. Les États disposent d’instruments pour informer les consommateurs, les usagers ou les contribuables, contrôler la qualité des produits. Ce chapitre insiste sur le choix et les limites des instruments, tels que les standards de qualité minimale, la révélation obligatoire d’information et/ou l’indemnisation en cas d’accident ou de problème.
90
1. Le choix des instruments Les politiques publiques de la qualité et de la sécurité fondent principalement leur légitimité sur l’incertitude des consommateurs ou des usagers sur la qualité. Les principaux objectifs de ces instruments sont de garantir un certain niveau de qualité/ sécurité aux consommateurs, et de les orienter dans leur décision d’achat (c’est-à-dire de transmettre de l’information sur les caractéristiques des produits). Cette transparence de l’information permettra également de rémunérer les efforts des producteurs pour l’offre de produits ou de services de meilleure qualité. Les outils de gestion publique Trois grands outils de gestion sont généralement distingués. (1) Les standards de qualité minimale s’imposent à tous les producteurs. Il s’agit notamment de toutes les normes obligatoires sur les facteurs de production, les processus de production et/ou les caractéristiques des produits. C’est ainsi que l’Union européenne impose que les produits respectent les « exigences essentielles » en matière de qualité et de sécurité pour pouvoir circuler sur le territoire européen, le marquage CE attestant du respect de ces exigences. Les procédures d’autorisation de mise sur le marché des nouveaux produits s’apparentent également à un standard, car l’autorité compétente décide des critères nécessaires à l’introduction du produit sur le marché. Tout nouveau médicament doit faire l’objet d’une procédure d’autorisation de mise sur le marché, qui dure en moyenne trois ans aux États-Unis [Viscusi et al., 1996, p. 759]. (2) Les politiques d’information regroupent tous les moyens pour garantir la crédibilité sur les messages délivrés par les producteurs. Le droit des marques (Code de la propriété intellectuelle) préserve les noms des firmes et empêche les contrefaçons. Les lois sur la publicité mensongère visent à limiter les informations trompant les consommateurs. La révélation obligatoire d’information signale une ou plusieurs caractéristiques jugées comme indispensables pour un choix éclairé du consommateur ou de l’usager. C’est notamment le cas pour toutes les 91
informations nutritionnelles apposées sur les produits, labels particulièrement importants dans un contexte de fort développement de l’obésité dans de nombreux pays. Les instruments (1) et (2) sont qualifiés d’instruments ex ante, intervenant avant la production ou la mise sur le marché. (3) L’indemnisation des consommateurs ou des riverains en cas d’accident ou de défaillance d’un produit s’effectue via la responsabilité civile ou l’indemnisation publique. Il s’agit d’instruments ex post, intervenant après la production et la déclaration d’un accident, mais ils influencent les décisions des firmes pour garantir un niveau suffisant de qualité et limiter les produits défectueux. L’analyse coûts/bénéfices Pour les pouvoirs publics, privilégier le bon instrument s’avère être une tâche très délicate. L’intervention publique pourrait en partie s’appuyer sur des analyses coûts/bénéfices (cf. encadré), une réglementation inefficace, en matière de sécurité ou de qualité, se traduisant par le fait que les consommateurs n’obtiennent pas le niveau de qualité satisfaisant. Une réglementation devrait ainsi être évaluée pour les bénéfices qu’elle procure, par rapport à d’autres options comme l’absence de réglementation, et aux coûts qu’elle impose à l’économie. Arrow et al. [1996] préconisent un recours systématique à l’analyse coûts/bénéfices, après avoir observé des écarts très importants dans le coût des différents programmes publics. Ils donnent des exemples où le coût estimé par vie sauvée varie au sein d’une même agence, entre 200 000 et 10 millions de dollars selon les programmes financés. Cela signifie qu’avec un même coût pour la société, il serait possible de sauver davantage de vies. Le risque zéro est souvent trop coûteux à atteindre d’un point de vue social, voire impossible à mettre en œuvre. En dépit de certaines limites de l’approche coûts/bénéfices présentées dans l’encadré, sa généralisation contribuerait à une amélioration de l’efficacité des politiques de qualité et de sécurité mises en œuvre, un renforcement de la légitimité et de la cohérence des mesures réglementaires auprès des différents 92
L’analyse coûts/bénéfices : objet et limites
L’analyse coûts/bénéfices est une méthode d’aide à la décision publique. Elle permet d’étudier la pertinence d’une réglementation par rapport à d’autres options possibles comme l’absence d’intervention. Les principaux domaines concernés sont la santé publique, l’environnement, les transports [cf. Boardman et al., 1996] pour un panorama complet). Cette analyse est largement employée, quoique de manière très inégale selon les pays. Elle est par exemple une étape obligatoire dans le domaine de la santé et de l’environnement pour les projets réglementaires d’une certaine importance aux États-Unis. « Fondée sur la théorie du surplus économique, l’analyse “coûts/avantages” est une méthode d’évaluation qui apprécie une décision en fonction de la somme de tous ses effets évalués en termes monétaires. Elle généralise donc le critère classique du profit financier en considérant aussi bien les effets marchands que non marchands de la décision et en tenant compte des effets sur tous les groupes concernés et non sur le seul décideur » [B. Walliser, in Gauthier et Thibault, 1993, p. 4]. Les principales étapes à considérer sont les suivantes : premièrement, une sélection des populations concernées par la décision et les autres options possibles ; deuxièmement, une quantification monétaire des gains et des coûts des différents impacts de la décision et des autres options ; troisièmement, une présentation de la sensibilité et de la robustesse de l’analyse et des
éventuelles propositions de recommandations au décideur public. La deuxième étape est celle qui pose le plus de difficultés, plus particulièrement ce qui relève de l’évaluation monétaire des coûts et bénéfices non marchands. Ces évaluations sont incertaines dans la mesure où elles sont contingentes à la méthode de calcul retenue. Le rapport Boiteux [2001] sur les transports insiste sur l’impossibilité de proposer une évaluation précise des effets non marchands, principalement des nuisances, liés aux transports tels que la congestion du trafic, la pollution atmosphérique, le bruit, l’occupation de l’espace (paysage) ou les accidents de la circulation [Boiteux, 2001]. Il propose un chiffre pour l’évaluation de la vie humaine sans commune mesure avec le chiffre retenu dans le premier rapport [Boiteux, 1994] : 1 million d’euros en 2001, soit 6,5 millions de francs, contre 3,6 millions de francs en 1994. La différence entre les deux montants s’explique par le recours à des méthodes de calcul distinctes. La méthode retenue en 2001 est celle de la disposition à payer qui consiste à découvrir le montant que la population ciblée est prête à payer pour bénéficier de la réduction du risque d’accident. Le rapport de 1994 retenait la méthode dite du capital humain qui préconise d’attribuer à un décès une valeur monétaire correspondant à la contribution au produit intérieur brut de la personne (manque à produire résultant du décès), méthode souvent critiquée en raison des nombreux
93
aspects qu’elle néglige, tels que le préjudice moral et psychologique des proches. Les analystes ont de plus en plus recours à la méthode de la disposition à payer pour évaluer les effets non marchands. Ainsi, dans le cas d’une réglementation visant à assurer la
qualité, les méthodes de l’évaluation contingente et celle de l’économie expérimentale présentées dans la section 2 du chapitre I peuvent être utilisées. L’analyse coûts/bénéfices a le mérite de contribuer à une certaine rationalisation des choix.
agents économiques, une information sur les gains et les coûts des différents agents ou lobbies participant à l’élaboration des réglementations. La mise en évidence des effets économiques des divers instruments (1), (2) et (3) présentés ci-dessus constitue une première étape dans le processus de choix des pouvoirs publics. Ainsi, nous verrons par la suite que chaque type d’instrument présente des avantages et des inconvénients. Droit commun anglo-saxon ou droit civil L’efficacité de l’intervention publique dépend de la qualité des institutions en charge des contrôles et des sanctions. Elle affecte les choix concernant les instruments (1) à (3). Plus de réglementation ne signifie pas nécessairement une réglementation plus efficace. Un système d’indemnisation (3) efficace rend moins nécessaire l’usage des instruments (1) et (2) en vue d’atteindre un objectif. En effet, un fort risque d’indemnisation incite les producteurs à réaliser tous les efforts qu’ils estiment nécessaires. L’application des lois et la mise en place des sanctions dépendent de nombreux facteurs, tels que par exemple la taille des institutions judiciaires par rapport au nombre d’habitants. La différence entre le droit commun anglo-saxon (common law) et le droit civil (d’origine romaine) est un facteur explicatif en ce qui concerne la mise en œuvre des sanctions. Le droit commun anglo-saxon a été établi autour de la défense du Parlement et des individus face aux possibilités de réglementation de l’État, alors que le droit civil a davantage permis à l’État 94
d’intervenir dans la vie publique. Ainsi, les deux systèmes ont entraîné des pratiques différentes notamment en ce qui concerne l’instrument (3), à savoir l’indemnisation imposée par les cours de justice en cas de problèmes ou d’accidents. Par exemple, l’indemnisation punitive (punitive damage), qui permet un dédommagement des victimes supérieur au dommage, existe aux États-Unis mais pas en Europe. Les class actions permettant aux victimes de regrouper leurs plaintes sont très développées aux États-Unis, ces démarches n’étant pas autorisées en Europe. Dans le domaine financier, ce système de class actions confère un certain poids aux actionnaires minoritaires leur permettant de demander, devant la justice, des comptes sur la mauvaise gestion des entreprises et les déconvenues boursières. Aux États-Unis, le chevauchement des juridictions fédérales comme la Stock Exchange Commission et des tribunaux au niveau des États assure une concurrence qui peut conduire à une application plus stricte des réglementations. Il est très difficile de comparer l’efficacité des systèmes judiciaires dans le monde. Djankov et al. [2003] ont réalisé une étude comparative concernant le règlement des loyers impayés dans 109 pays. Ils montrent que les pays avec les principes du droit commun anglo-saxon ont, entre autres, moins de chances d’être associés à de longs délais de jugement, à des décisions incohérentes, à des possibilités de corruption que les pays avec des principes de droit civil. Au-delà des différences qui viennent d’être énumérées, la suite de ce chapitre détaille tout d’abord les instruments ex ante, à savoir les standards et les politiques d’information, puis les instruments d’indemnisation.
2. Standards et/ou politiques d’information Un standard de qualité minimale a l’avantage de s’imposer à toutes les firmes et d’éliminer les produits ou services de trop basse qualité. Cependant, il présente le désavantage d’imposer des rigidités aux producteurs et d’éliminer des produits susceptibles de répondre à une demande potentielle. En cela, les 95
standards de qualité peuvent s’avérer moins efficaces que des politiques d’information favorisant l’orientation des choix. Beales et al, [1981] montrent que les politiques d’information, en évitant les effets négatifs des politiques de standards de qualité minimale qui limitent la diversité des produits, peuvent remédier aux dysfonctionnements du marché liés à l’information imparfaite. La politique d’information est parfois substituable à la politique de standards. Selon Jin et Leslie [2003], l’affichage obligatoire des classements concernant l’hygiène pour les restaurants de Los Angeles a provoqué une augmentation généralisée de l’hygiène. Les résultats des restaurants se sont améliorés, les consommateurs sont devenus plus exigeants et le nombre d’hospitalisations pour cause d’intoxication a diminué. Les politiques d’affichage préservent la liberté de choix des consommateurs et favorisent la souplesse dans les choix de production. Dans d’autres cas, les politiques d’information sont complémentaires à la mise en place des standards. Par exemple, en Amérique du Nord, les femmes enceintes ou allaitant leur enfant sont mises en garde afin de limiter la consommation de poissons carnivores (thon, daurade…), à cause du risque de contamination de leur enfant au mercure. La communication sur de tels risques soulève la question de l’information qui doit être transmise aux consommateurs. En effet, il ne s’agit pas de dissuader ces femmes de manger du poisson, essentiel au développement du fœtus, mais d’éviter l’abus de consommation de poissons carnivores. À ce propos, Oken et al. [2003] montrent que les campagnes d’information aux États-Unis à l’attention des femmes enceintes ont été relativement efficaces. La détermination des standards ou de l’information à révéler Dans de nombreux domaines comme celui de la sécurité des produits et des services, la politique publique comporte deux volets : un volet évaluation des risques et un volet gestion des risques. L’intervention publique est d’autant plus indispensable que les risques sont inconnus ou indétectables par le consommateur (caractéristique de confiance). 96
L’évaluation des risques par les experts est de plus en plus indépendante de la gestion des risques. En ce qui concerne l’évaluation des risques, il a été jugé fondamental de mettre en place des agences indépendantes qui centralisent l’information scientifique. En France, l’Agence française de sécurité sanitaire des aliments (AFSSA) et l’Agence française de sécurité sanitaire des produits de santé (AFSSPS) émettent chacune des avis sur l’innocuité des nouveaux aliments et médicaments. Ces instances d’évaluation doivent conseiller les instances de contrôle et de gestion dans l’établissement des standards de qualité minimale. Les réglementations sur la sécurité et la qualité des produits peuvent prendre de nombreuses formes telles que des spécifications sur les procédés de fabrication, des obligations de résultat… Les crises de la « vache folle » (encéphalite spongiforme bovine) ont conduit à de nombreuses mesures sanitaires, parmi lesquelles l’interdiction des farines animales (standard sur le processus de fabrication) et la détection des bovins à l’abattoir en vue de l’éradication du prion (standard de résultat). Les coûts additionnels de mise en conformité des installations aux réglementations peuvent affecter la viabilité de certaines firmes. Le coût total d’application des standards peut dépasser de loin le simple coût administratif, et il est nécessaire de laisser autant que possible une flexibilité aux agents. En général, il est préférable de permettre aux entreprises de choisir la façon de remplir un objectif donné, ce qui leur permet de privilégier le procédé à moindre coût et d’innover pour l’atteindre. Les standards privés complètent, voire dépassent, les exigences émises par les organismes publics. Un débat constant porte sur le degré d’intervention souhaitable de la part des pouvoirs publics sur la réglementation de la qualité. Ceci soulève des questions sur l’influence des intérêts privés plutôt que publics dans la définition des réglementations. En France, l’activité de contrôle relève de la compétence de différents ministères : l’économie avec la Direction générale de la concurrence, la consommation et la répression des fraudes (DGCCRF), l’agriculture avec la Direction générale de l’alimentation (DGAL), la santé avec la Direction générale de la 97
santé (DGS). Le chevauchement des compétences entre ces agences peut être source d’inefficacité. D’autre part, un dispositif de veille sanitaire a été mis en place le 1er juillet 1998 (loi 98-535) avec la création du Comité national de la sécurité sanitaire et de l’Institut national de veille sanitaire. Tous ces contrôles visent principalement à la prévention des risques. Le rappel de lots de produits dangereux peut être organisé, ainsi que l’imposition de sanctions pécuniaires en cas de fraude. Dans le domaine financier, l’Autorité des marchés financiers contrôle la transparence des informations financières. La crédibilité et la confiance des consommateurs imposent une séparation stricte entre contrôleurs et contrôlés. Les lobbies de producteurs font évidemment pression pour limiter l’ampleur des contrôles et des sanctions, comme l’illustrent les propos de C. Babusiaux [1995], directeur de la DGCCRF, à propos des premières mesures à adopter à la suite des premiers cas de vache folle en France : « Nous nous sommes heurtés dans tous les cas à une profonde réticence du ministère de l’Agriculture. Ce dernier semble soucieux de privilégier des intérêts particuliers sans prendre suffisamment en compte la protection de la santé du consommateur. » L’efficacité des activités de contrôle concernant le respect des standards ou de l’information débouche sur deux questions économiques. Les activités de contrôle sont-elles suffisantes pour un respect significatif des règles ? Quel financement pour les contrôles ? Des standards critiquables et des contrôles insuffisants Les réglementations concernant les normes obligatoires ne sont pas toujours fidèlement appliquées, le plus souvent en raison du manque de moyens financiers. Il convient de se demander si la puissance publique a véritablement les moyens de ses ambitions. À ce sujet, la qualité de l’air et de l’eau offre des exemples intéressants. La plupart des grandes villes connaissent des problèmes de pollution de l’air, liés en grande partie à la circulation automobile. La mesure économique des effets de la pollution sur la 98
santé est encore très controversée, en dépit des travaux de Boiteux [2001], et la question des standards déclenchant les politiques à adopter en cas de pics de pollution l’est tout autant. Selon la loi sur l’air adoptée en 1996, la circulation alternée en fonction de la plaque minéralogique est mise en œuvre par les pouvoirs publics, si la pollution dépasse certains seuils d’alerte. De tels seuils sont critiqués, car ils n’ont conduit qu’à une unique journée entre 1996 et 2004 (le 1er octobre 1997) de circulation alternée en Île-de-France, alors que la pollution est récurrente dans de nombreuses agglomérations françaises. L’application de seuils d’alerte plus restrictifs aurait permis de limiter de manière plus drastique la circulation dans de nombreuses villes de France. Le choix du standard, ici les seuils de pollution, influe donc sur le contrôle de la circulation. En ce qui concerne la qualité des eaux, dont le contrôle incombe aux services de l’État, les autorités publiques françaises ont été condamnées à plusieurs reprises pour le manque de respect des réglementations (arrêt du 8 mars 2001 de la Cour européenne de justice (CEJ) pour non-respect des seuils sur les nitrates dans l’eau en Bretagne ; arrêt du 15 mars 2001 de la CEJ pour une qualité des eaux de baignade insuffisante ; décision nº 97182 du 2 mai 2001 du tribunal administratif de Rennes pour absence de contrôle des porcheries en Bretagne). Comme le note la Commission européenne (AFP, 24 juillet 2003) à propos de l’arrêt du 15 mars 2001, « des problèmes de qualité persistent et la fréquence de surveillance n’est pas en conformité avec la directive de 1976 sur les eaux de baignade ». La fréquence insuffisante des contrôles dans le domaine de l’eau, et plus généralement pour toutes les inspections des activités à risque conduit à s’interroger sur le financement de l’activité de contrôle. Qui devrait payer les contrôles ? La question du financement des agences de contrôle se pose directement dans tous les domaines, comme par exemple, avec la mise en place de la filière non OGM, la prise en charge des tests de détection de la maladie de la vache folle payés par le 99
consommateur, le contrôle maritime pour empêcher le dégazage, le contrôle des sites Seveso ou nucléaires, ou encore le repérage des contrefaçons par les douanes. Combien de fois n’entend-on pas dire que les moyens manquent pour une lutte efficace contre les fraudes ? Quel que soit le domaine d’application (finance, environnement, sécurité…), une politique publique de contrôle devrait chercher à limiter les distorsions de prix sur les marchés ou d’impôts pour les contribuables, tout en veillant à une allocation de moyens financiers suffisants et à un contrôle de l’efficacité de la politique par le Parlement. Les sanctions en cas de fraudes devraient être clairement déterminées et elles pourraient contribuer au financement de cette politique. Ainsi, Crespi et Marette [2001] ont comparé différents modes de financement d’une agence publique chargée du contrôle et de l’élimination de produits dangereux sur un marché. La maximisation du bien-être collectif (c’est-à-dire la somme des gains des acheteurs, des vendeurs et des contribuables) et l’équilibre budgétaire de l’autorité de certification publique sont pris en compte. Sur cette base, les efficacités relatives de différents instruments de financement de l’activité de contrôle, que sont l’impôt (payé par les contribuables), la contribution par unité vendue ou la contribution fixe imposée aux producteurs, sont comparées. Une contribution par unité vendue est répercutée dans le prix payé par le consommateur sans modifier la structure de concurrence. À l’inverse, une contribution fixe imposée aux producteurs n’est pas directement répercutée dans le prix payé par les consommateurs et choisi par les producteurs, car elle ne dépend pas des quantités vendues. Cependant, le paiement de la contribution fixe peut restreindre la concurrence entre producteurs, car des profits suffisants sont nécessaires pour couvrir cette contribution. S’il est coûteux socialement de prélever l’impôt, il est optimal de recourir à une contribution par unité en situation de forte concurrence entre vendeurs, et à une contribution fixe si la concurrence entre vendeurs est faible voire inexistante dans le cas du monopole. En effet, une contribution par unité préserve la concurrence entre vendeurs (à la condition que celle-ci soit 100
suffisamment intense) et le coût de certification est répercuté dans le prix payé par les consommateurs. En présence d’un nombre restreint de vendeurs, la contribution fixe est supportée par ces vendeurs quand ils réalisent des profits suffisants. Cette contribution fixe n’est pas répercutée dans le prix, ce qui évite d’amplifier la distorsion de prix résultant du pouvoir de marché des vendeurs. À l’inverse, si l’impôt prélevé sur les contribuables n’est pas coûteux socialement, ce dernier est substituable à la contribution fixe, mais pas à la contribution par unité (contributions choisies selon les critères énoncés précédemment). La perspective d’une relation de long terme entre les firmes et des agences de contrôle en situation de concurrence permet d’envisager d’autres modalités de financement de l’activité de contrôle. Ainsi, Coestier [1998] souligne l’intérêt d’une modalité de financement favorisant la fidélisation des firmes envers une agence responsable des contrôles. Elle propose de remplacer le paiement d’un coût périodique de contrôle (par exemple un coût mensuel) par le paiement d’un coût fixe, sorte de coût d’entrée payé au début de la relation, lequel donne droit à une réduction du coût périodique. Une telle modalité de financement ne coûte rien aux agences de contrôle dans la mesure où le montant du coût d’entrée correspond exactement aux allégements du coût périodique dont les entreprises vont bénéficier au cours des périodes suivantes. Elle consiste simplement en une répartition différente du coût périodique dans le temps, sans modification du coût de contrôle actualisé effectivement payé par les firmes. Cette modalité de financement, qui comporte une clause de fidélisation, comparée à la modalité de financement correspondant à un coût périodique, permet un meilleur fonctionnement du marché : la qualité est favorisée, les entreprises produisent plus et le prix diminue. Elle contribue ainsi à améliorer la satisfaction de l’ensemble des agents. Ces développements montrent qu’une analyse coûts/bénéfices (cf. encadré) devrait intégrer les considérations de financement des contrôles en vue d’une recherche d’efficacité. Soulignons que peu de travaux ont mesuré le coût induit par l’activité de contrôle. 101
3. L’indemnisation en cas d’accident L’indemnisation des victimes en cas d’accident relève de la responsabilité civile ou administrative et/ou de l’indemnisation par des fonds privés ou publics. Agir sur le cadre juridique en matière de responsabilité civile peut être une forme de réglementation sur la qualité, notamment lorsque la composante sécurité est en jeu. La responsabilité concerne l’indemnisation des victimes à la suite de la réalisation d’un dommage. Face au risque de lourdes indemnités lorsque leur responsabilité est engagée, les entreprises ou les organismes publics sont conduits à mettre en place un niveau « socialement optimal » de sécurité. Cette prise en compte par les firmes permet au marché d’intégrer les risques environnementaux et sanitaires. Cela ne va pas sans tensions, comme l’ont montré les réactions de professions médicales à risque comme les gynécologues ou les anesthésistes (et leur difficulté à s’assurer) à la suite de la mise en application de la loi relative aux droits des malades et à la qualité du système de santé du 4 mars 2002 dite « loi Kouchner ». La sécurité des produits et la responsabilité civile Les fondements juridiques de la responsabilité en matière de consommation reposent sur des articles du Code civil, du Code de la consommation et du Code pénal. En matière civile, la responsabilité des professionnels pour les dommages causés par des produits relève du Titre IV bis du Livre III du Code civil : « De la responsabilité du fait des produits défectueux » (transposition en droit français de la directive européenne du 25 juillet 1985 relative à la responsabilité du fait des défauts de sécurité des produits). L’infraction au Code pénal est constituée en cas de manquement à l’obligation générale de sécurité posée par l’article L. 221-1 du Code de la consommation, dès lors que ce manquement a causé un dommage corporel. L’infraction consistant en la mise en danger d’autrui sans qu’il y ait effectivement dommage peut être réprimée au titre du Code de la consommation (articles L. 213-1 à L. 213-4), en tant que circonstance aggravante d’un autre délit ou au titre du Code pénal 102
(article 223-1), en tant que délit. Alors que l’existence d’une intention coupable constitue le principe général de la responsabilité pénale, certaines infractions peuvent entraîner une condamnation sans qu’un élément intentionnel ait été nécessairement mis en évidence (articles L. 214-2 du Code de la consommation et 221-6 du Nouveau Code pénal). L’efficacité de la responsabilité en tant que mécanisme régulateur des comportements repose sur différents aspects. Tout d’abord, l’impact de la responsabilité sur le comportement des entreprises dépend de la règle de responsabilité mise en œuvre, la responsabilité sans faute n’entraînant pas les mêmes effets que la responsabilité pour faute [Shavell, 1987]. La responsabilité sans faute s’attache à faire payer la partie fautive sans considérer les efforts préventifs mis en œuvre, alors que la responsabilité pour faute sanctionne une négligence dans l’application des mesures préventives (ce qui correspond à une obligation de moyens). La réaction du cabinet PricewaterhouseCoopers (PwC) est révélatrice des effets de la responsabilité civile ayant conduit à la disparition du cabinet Arthur Andersen suite à l’affaire Enron. Comme le note Parker [2002] : « PwC, le premier cabinet d’audit comptable au monde, menace de ne plus certifier les comptes de certaines grandes entreprises, parce que ce travail risque de devenir trop dangereux d’un point de vue économique à la suite du scandale Enron. Samuel DiPiazza, le patron de PwC, a signalé que sa firme pourrait refuser de travailler pour des entreprises qui rechigneraient à payer des honoraires élevés. Il a également déclaré que PwC ne certifierait plus les comptes d’entreprises qui refuseraient de payer certains services, comme l’évaluation des risques, permettant de réaliser un audit complet. » Les critères d’inspection et les honoraires de PwC sont donc revus à la hausse pour limiter les risques de poursuites civiles et garantir leur indépendance. Deux conditions sont nécessaires pour atteindre un niveau efficace de sécurité des produits via la responsabilité civile : une information complète du côté de la victime pour prouver l’origine du dommage et des fonds suffisants du côté de la partie responsable de façon à pouvoir indemniser en totalité les victimes 103
et ainsi éviter le problème de l’insolvabilité financière [Shavell, 1986]. On peut répondre à l’information imparfaite du côté de la victime par l’imposition d’un système de traçabilité de la chaîne de production, afin d’isoler les parties responsables d’un accident. Le problème de l’insolvabilité peut être contourné au moyen de l’extension de la responsabilité à des tiers [Pitchford, 1995 ; Boyer et Laffont, 1997]. Si une firme est insolvable, le dommage peut alors être couvert par les banques ou les assurances engagées auprès de cette firme. Le risque d’insolvabilité peut aussi être limité par l’imposition d’assurances obligatoires ou l’exigence de garanties financières, comme dans le cas de la gestion des déchets [Chevalier, 1998]. Agir sur le cadre juridique en matière de responsabilité permet d’orienter les comportements mais peut aussi avoir des effets pervers. Avec des systèmes de responsabilité civile très stricts, les entreprises peuvent réduire leurs engagements de sécurité, limiter l’innovation et la promotion de nouveaux produits. Un tel système peut également entraîner une multiplication des procédures légales, favoriser le regroupement des entreprises et les entraves à la concurrence. Tout ceci peut induire des coûts importants pour la société. Par exemple, dans le secteur des vaccins aux États-Unis, le renforcement de la responsabilité des entreprises et le haut niveau de dommages payés ont beaucoup contribué à la disparition de fait de la concurrence, le nombre de producteurs passant de treize en 1991 à trois dix ans plus tard. Un exemple de coût pour le consommateur est souvent cité : 15 % à 25 % du prix des échelles seraient liés à la responsabilité du fabricant aux États-Unis [Viscusi et al., 1996]. Au-delà de la responsabilité civile Il apparaît que les règles de responsabilité gagnent en efficacité si elles sont complétées par des mesures favorisant un contrôle ex ante des risques tels que les standards ou les normes [Shavell, 1987 ; Kolstad et al., 1990]. Des différences fondamentales dans le système de responsabilité civile des entreprises, en cas de problème sanitaire ou environnemental, font que le rôle de l’État quant à la fixation des 104
Quel système d’indemnisation pour les marées noires ?
Deux systèmes distincts d’indemnisation des victimes de marées noires coexistent, à savoir le système américain et le système international. Aux États-Unis, le système de responsabilité civile concerne les propriétaires de bateau et les affréteurs en vertu du principe d’extension de responsabilité civile [Boyd, 2001]. Ce système a été renforcé à la suite du naufrage de l’Exxon Valdez en 1989 au large de l’Alaska. Cette marée noire a déjà coûté près de 3,4 milliards de dollars à ExxonMobil en dédommagements versés aux agences fédérales et d’État et aux particuliers. À la suite de nombreuses décisions de justice, ExxonMobil devrait encore payer 4 milliards de dollars. Le dédommagement total s’élèverait donc à 7,4 milliards de dollars. Il s’agit d’une indemnisation punitive (punitive damage), car l’indemnisation est supérieure à la valeur du dommage. En effet, le ratio de l’indemnisation par rapport à la valeur du dommage est égal à 4. Il est à noter que l’indemnisation des victimes peut encore prendre plusieurs années, alors que le déversement accidentel de pétrole a eu lieu en 1989. Néanmoins, quel que soit le montant final de l’indemnisation une fois toutes les possibilités d’appel épuisées, ExxonMobil devrait être capable d’y faire face : pour la seule année 2002, son profit net était égal à 10 milliards de dollars. Ce chiffre suggère que les grandes compagnies pétrolières, réalisant des profits d’envergure similaire, pourraient couvrir l’intégralité des coûts faisant suite à une pollution, dans
la mesure où l’accident de l’Exxon Valdez est reconnu comme étant le plus coûteux de l’histoire. L’extension de responsabilité civile à l’affréteur a poussé les compagnies pétrolières à directement gérer le transport. En Europe, les récentes marées noires liées au naufrage du pétrolier Erika le long des cotes françaises en 1999 et au naufrage du pétrolier Prestige au nord ouest de la côte espagnole en novembre 2002 relèvent des systèmes CLC (Convention on Liability of the Carrier) de l’OMI (Organisation maritime internationale) et du FIPOL (Fonds d’indemnisation pour les dommages dus à la pollution par les hydrocarbures). La convention de l’OMI qui date de 1975 concerne la responsabilité du propriétaire du navire : ce dernier est soumis à une obligation d’assurance financière et la pénalité maximale qu’il peut encourir en cas d’accident s’élève à 80 millions de dollars. Le remboursement maximal du FIPOL, financé par les compagnies pétrolières, s’élève à 100 millions de dollars. De sorte qu’avec ces systèmes, la compensation totale en cas de pollution par les hydrocarbures s’élève au plus à 180 millions de dollars. Ce montant limité de compensation s’est avéré insuffisant pour indemniser complètement les victimes de l’Erika. Le FIPOL semble incapable de dédommager intégralement les victimes du Prestige. Les victimes des pollutions se retrouvent donc face à un problème de responsabilité civile limitée. Suite aux insuffisances de ce système d’indemnisation révélées
105
notamment par le naufrage de l’Erika, deux propositions ont été formulées de façon à l’améliorer. La première vise à accroître la compensation totale via les systèmes CLC et FIPOL de 180 millions de dollars à 270 millions de dollars au 1 e r novembre 2003. La seconde proposition émane de la Commission européenne qui envisage la création d’un fonds d’indemnisation complémentaire européen, COPE (Compensation Oil Pollution in European Waters) destiné à dédommager les victimes des marées noires dans les eaux européennes. Au-delà de ces améliorations, des associations écologiques plaident pour la sortie de l’Union européenne du FIPOL et la mise en place d’un
système proche du système américain, avec un dédommagement complet (indemnisation égale au coût du dommage) incluant l’extension de responsabilité à l’affréteur, et l’obligation d’une assurance responsabilité civile. Il est à noter qu’un tel changement, décrié par les compagnies pétrolières soutenant le FIPOL, ne serait peut-être pas si coûteux notamment en termes d’assurance, indicateur incontestable du risque de l’activité. Boyd [2001] a montré qu’aux États-Unis, le coût de l’assurance pour les marées noires ne représentait que 1 % du coût de transport, en raison d’une bonne maîtrise des risques depuis l’accident de l’Exxon Valdez en 1989.
règles techniques, des normes ou des standards n’est pas forcément le même dans tous les pays (cf. l’encadré sur les systèmes d’indemnisation des marées noires aux États-Unis et en Europe). Le système juridique en vigueur dans la plupart des pays latins donne un poids important aux réglementations ex ante, et impose relativement peu de sanctions économiques aux entreprises dont la responsabilité est engagée dans des problèmes sanitaires ou environnementaux. À l’inverse, les exemples abondent aux États-Unis où des entreprises ont dû payer des sanctions excédant largement le coût des dommages, ce qui dissuade les gestionnaires et les actionnaires de mettre en danger la santé des consommateurs. On peut ainsi concevoir un rôle différent donné aux normes et standards obligatoires et aux démarches volontaires en fonction de l’environnement juridique des différents pays. Ceci ne facilite pas l’harmonisation des réglementations au niveau international. Enfin, il n’est pas rare d’observer un accord amiable entre différentes parties car il permet d’échapper aux coûts (en temps et en argent) d’un procès et d’éliminer l’incertitude liée au verdict. 106
Néanmoins, ce type d’accord peut avoir des conséquences socialement non désirables. En particulier, un tel accord affecte les incitations à limiter le risque : la partie à l’origine du dommage sait qu’avec un tel accord la sanction devrait être moins importante, ce qui peut la pousser à moins de vigilance. En conclusion de ce chapitre, nous pouvons noter que les pouvoirs publics disposent de plusieurs instruments (incitatifs et répressifs) pour favoriser la qualité. Dans de nombreuses situations, ces instruments s’avèrent indispensables, mais aussi complémentaires à la fois entre eux et par rapport à l’autorégulation (évoquée au chapitre IV). L’approche coûts/bénéfices, en incluant tous les développements de ce chapitre contribuerait à légitimer l’intervention publique visant à assurer la qualité.
Conclusion
Cet ouvrage a tenté de définir les conditions d’obtention d’une qualité satisfaisante des biens et des services pour les consommateurs ou les citoyens. Il est une invitation à étudier toutes les dimensions des organisations humaines pouvant contribuer à cette qualité. Il souligne, entre autres, qu’on ne peut faire l’économie d’un prix à payer pour la qualité. La nécessité de penser correctement le rôle de la concurrence, l’importance de l’information publique concernant certains critères, l’effet de mécanismes incitatifs, l’équilibre entre actions privées et publiques, ou encore la généralisation de l’analyse coûts/bénéfices sont plus particulièrement mis en perspective. Une prise de conscience par les acteurs économiques de toutes les questions évoquées dans ce livre est une condition indispensable à l’amélioration de la qualité dans tous les domaines de l’action humaine. Tout n’est pas du ressort de la sphère économique dans la notion de qualité. L’économie permet de poser un décor propice à l’épanouissement de l’âme et de l’esprit. Mais encore faut-il que les communautés se donnent les moyens de faire exister ce décor ! Ces vers fameux de Baudelaire (Invitation au voyage, Les Fleurs du mal) expriment ce lien étroit entre la richesse du décor et cette quête intérieure : 108
« Des meubles luisants, Polis par les ans, Décoreraient notre chambre ; Les plus rares fleurs Mêlant leurs odeurs Aux vagues senteurs de l’ambre, Les riches plafonds, Les miroirs profonds, La splendeur orientale, Tout y parlerait À l’âme en secret Sa douce langue natale. Là, tout n’est qu’ordre et beauté, Luxe, calme et volupté. »
Repères bibliographiques
ADDA J. [1999], Les Consommateurs français et la vache folle, INRA Sciences sociales, 12 (4), 4 pages. AGHION P., BLOOM N., BLUNDELL R., G RIFFITH R., HOWITT P. [2002], « Competition and Innovation : An Inverted U Relationship », The Institute for Fiscal Studies, WP02/04, Londres. AKERLOF G. [1970], « The Market for “Lemons” : Quality Uncertainty and the Market Mechanism », Quarterly Journal of Economics, 84, p. 488-500. ANDREWS P. [2002], « Self Regulation by Professions-The Approach Under EU and US Competition Rules », European Competition Law Review, 23. ARROW K. [1963], « Uncertainty and the Welfare Economics of Medical Care », American
110
Economic Review, 53, p. 941-973. A RROW K.J., C ROPPER M.L., E ADS G.C., H AHN R.W., L AVE L.B., N OLL R.,G, P ORTNEY P.R., R USSELL M., SCHMALENSEE R., SMITH V.K. et S TAVINS R.N. [1996], « Is there a Role for Benefit-Cost Analysis in Environmental, Health and Safety Regulation ? », Science, 272, p. 221222. BABUSIAUX C. [1995], « Commentaire au ministre des Finances », DGCCRF, 24 mai 1995, dans « Inertie et entraves au ministère de l’Agriculture », Libération 26.03.2002. BAGWELL K. [2003], « The Economic Analysis of Advertising », Economic Department Columbia University, New York. B ASTIAT F. [1855], « Services privés, Services publics », in
Ce qu’on voit et ce qu’on ne voit pas, Romillat, 3 e édition [2004]. B EALES H., C RASWELL R. et SALOP S. [1981], « The Efficient Regulation of Consumer Information », Journal of Law and Economics, 24, p. 491-544. B EATH J. et K ATSOULACOS Y. [1991], The Economic Theory of Product Differentiation, Cambridge University Press, Cambridge. B ENOIT J.-M., B ENOIT P. et PUCCI D. [2002], La France à 20 minutes (et plus). La révolution de la proximité, Belin, Paris. BERRY S et WALDFOGEL J. [2003], « Product Quality and Market Size », NBER, Document de travail nº 9675, Washington. BICKERTON I., VOYLE S. et BUCKLEY N. [2003], « Ahold Faces Accounting Scandal », Financial Times, February 24. BIGOT R. [2002], « La consommation “engagée” : mode passagère ou nouvelle tendance de la consommation ? » Les 4 Pages des statistiques industrielles, SESSI, Paris, nº 170. BIKHCHANDANI S., HIRSHLEIFER D. et WELCH I. [1992], « A Theory of Fads, Fashion, Custom, and Cultural Change as Informational Cascade », Journal of Political Economy, 100, p. 992-1026. BILS M. et KLENOW P. [2001a], « The Acceleration in Variety
Growth », American Economic Review, 91, p. 274-280. BILS M. et KLENOW P. [2001b], « Quantifying Quality Growth », American Economic Review, 91, p. 1006-1030. B OARDMAN A., G REENBERG D., AIDAN R. et WEIMER D. [1996], Cost-Benefit : Concepts and Practice, Prentice Hall, Upper Saddle River, New Jersey. BOITEUX M. (prés.) [1994], Transports : pour un meilleur choix des investissements, Commissariat général du Plan. — [2001], Transports : choix des investissements et coût des nuisances, Rapport du groupe du Commissariat général du Plan, La Documentation française, Paris. B OLTANSKI C. [2003], « Filer à l’anglaise », Libération, 22 juin, p. 40-41. B ONTEMS P. et R OTILLON G. [2003], L’Économie de l’environnement, nº 252, La Découverte, coll. « Repères », Paris. BOURDIEU J. [2003], « Normes et classification à l’épreuve de la crise de la vache folle », in La Qualité des produits en France ( XVIII e - XX e siècles), S TANZIANI A. (éd.), Belin, Paris. BOURDIEU P. [1979], La Distinction. Critique sociale du jugement, Minuit, Paris. BOURGEON J.-M. et COESTIER B. [2001], « On Self-regulation and Quality Provision »,
111
document de travail Thema, 2001-2015, http://thema.uparis10.fr/. BOYD J. [2001], « Financial Responsibility for Environmental Obligations : Are Bonding and Assurance Rules Fulfilling Their Promise ? », Resources for the Future, Discussion Paper 01-42, Washington DC. BOYER R. et LAFFONT J.-J. [1997], « Environmental Risks and Bank Liability », European Economic Review, 41, p. 1427-1459. BRUECKNER J. [1979], « Property Values, Local Public Expenditure, and Economic Efficiency », Journal of Public Economics, 11, p. 223-245. CALLON M., MEADEL C. et RABEHORISOA V. [2000], « L’économie des qualités », Politix, vol. 13, p. 211-239. C HAFFIN J., W ELLS D. et MICHAELS A. [2003], « Wall St Banks Pay $1.4bn to Settle Scandal », Financial Times, avril 28. Challenges [2003], « Le salaire des patrons », nº 207, http:// www.challenges-eco.com/ articles/p207/a214374.html. CHAMBERLIN E. [1933], Theory of Monopolistic Competition, Harvard University Press, Cambridge. CHAMPY F. [1998], Les Architectes et la commande publique, Presses universitaires de France, Paris.
112
M. [1998], C HEVALIER « Comment garantir les exploitants de décharges ? », Revue Risques, 36, p. 91-95. COESTIER B. [1998], « Asymétrie de l’information, réputation et certification », Annales d’économie et de statistique, 51, p. 49-78. C OHEN E. et H ENRY C. [1997], Service public, secteur public, Conseil d’analyse économique, La Documentation française, Paris. COMBRIS P., LANGE Ch., ISSANCHOU S. [2003], « Assessing the Effect of Information on the Reservation Price for Champagne : What are Consumers Actually Paying for ? », in The Economics of Wine, O. ASHENFELTER et V. GINSBURGH (dir.), Princeton University Press, Princeton. C ONSEIL ÉCONOMIQUE ET SOCIAL [2001], Qualité et origine des produits agricoles et alimentaires, Rapport présenté par M. Gilbert Louis, Journal officiel de la République française, 4. CRESPI J. et MARETTE S. [2001], « How Should Food Safety Certification Be Financed ? » American Journal of Agricultural Economics, 83, p. 852-861. D ARBY M. et K ARNI E. [1973], « Free Competition and the Optimal Amount of Fraud », Journal of Law and Economics, 16, p. 67-88.
DIXIT A. [2002], « Incentives and Organizations in the Public Sector : An Interpretative Review », Journal of Human Resources, 37 (4), p. 696-727. DJANKOV S., LA PORTA R., LOPEZD E -S ILANES F., S HLEIFER A. [2003], « Courts », Quarterly Journal of Economics, 118, p. 453-517. DPD (Direction de la programmation et du développement) [2001], « Géographie de l’école », Ministère de l’Éducation nationale, 23 octobre. DREES (Direction de la recherche, des études, de l’évaluation et des statistiques) [2001], « Couverture maladie et organisation des soins aux États-Unis », Études et résultats, nº 119, ministère de l’Emploi et de la Solidarité. E DMONSON G., P ALMERI C, GROW B. et TIERNEY C. [2003], « BMW », BusinessWeek, 9 juin, p. 19-24. E YMARD -D UVERNAY F. [1989], « Conventions de qualité et formes de coordination », Revue économique, 40, p. 329-359. FONTAGNÉ L. et FREUDENBERG M. [1999], « Marché unique et développement des échanges », Économie et statistique, 326-327, p. 31-52. F RIEDMAN M. [1955], « On the Role of Government in Education », Economics and the Public Interest, R OBERT
A. Solo (éd.), The Trustees of Rutgers College Edition, New Jersey. F RIEDMAN M. [2002], « The Market Can Transform Our Schools », Hoover Digest, 4, fall issue, p. 26-31. G ABSZEWICZ J. [1994], La Concurrence imparfaite, La Découverte, coll. « Repères », nº 146, Paris. G ABSZEWICZ J. et T HISSE J.F. [1980], « Entry (and Exit) in a Differential Industry », Journal of Economic Theory, 22, p. 327-338. GADREY J. [2003], Socio-économie des services, La Découverte, coll. « Repères », nº 369, Paris. G AUTHIER G. et T HIBAULT M. [1993], L’Analyse coûts-avantages, Défis et controverses, Economica, Paris. G EHRIG T. et J OST P. [1995], « Quacks, Lemons and Selfregulation : a Welfare Analysis », Journal of Regulatory Economics, 7, p. 309-325. G OMEZ P. Y [1994], Qualité et théorie des conventions, Economica, Paris. G ROSSMAN S. J. [1981], « The Informational Role of Warranties and Private Disclosure about Product Quality », Journal of Law and Economics, 24, p. 461-483. G ROSSMAN S. et S TIGLITZ J. [1980], « On the Impossibility
113
of Informationally Efficient Markets », American Economic Review, 70, p. 393-408. G ROSSMAN G. et K RUEGER A. [1995], « Economic Growth and the Environment », Quarterly Journal of Economics, 112, p. 353-377. GUILLAUME [2003], « L’efficacité », Les Échos, 28 avril, p. 54. H ARCHAOUI T. et H AMDAD M. [2000], « The Prices of Classical Recorded Music : a Hedonic Approach ». International Journal of Industrial Organization, 18, p. 497-514. HEILMAN J. et JOHNSON G. [1992], The Politics and Economics of Privatization : the Case of Wastewater Treatment, University of Alabama Press, Tuscaloosa. HENRY D et MCNAMEE M. [2003], « Bloodied and Bowed », BusinessWeek, 20 janvier 2003, p. 42-43. HERPIN N. [2001], Sociologie de la consommation, La Découverte, coll. « Repères », nº 319, Paris. HIRSCHMAN A.O. [1970], Défection et prise de parole, traduction française, Fayard, Paris, 1995. HUFFMAN E., ROUSU M., SHOGREN J. et A BEBAYEHU T. [2003], « The Public Good Value of Information from Agribusiness on Genetically
114
Modified Food », American Journal of Agricultural Economics, 85, p. 1309-1315. INSPECTION GÉNÉRALE DE L’ENVIRONNEMENT [2002], Rapport sur les campagnes de labellisation des eaux de baignade, des plages et des ports de plaisance, http://www.environnement. gouv.fr/Publications/publi-ige. htm JIN G. et LESLIE P. [2003], « The Effect of Information on Product Quality : Evidence from Restaurant Hygiene Grade Cards », Quarterly Journal of Economics, 118, p. 409-451. JURAN J. M. [1999], Juran’s Quality Handbook, 5 e édition. McGraw-Hill. J URAN J. [2002], « A Call to Action », The Summit, Carlson School of Management, University of Minnesota, Minneapolis. DE KERVASDOUE J. [2003], « Canicule : leçons grinçantes d’un drame », Le Monde, 28 août 2003, p. 1. KARPIK L. [1989], « L’économie de la qualité », Revue française de sociologie, 30, p. 187-210. — [2000], « Le Guide rouge Michelin », Sociologie du travail, 42, p. 369-389. K EYNES J.-M. [1936], Théorie générale de l’emploi, de l’intérêt et de la monnaie, traduction française, Petite Bibliothèque Payot, Paris, 1979.
KLEIN B. et LEFFLER K. [1981], « The Role of Market Forces in Assuring Contractual Performance », Journal of Political Economy, 81, p. 615-641. K OLSTAD C.D., U LEN T.S. et J OHNSON G.V. [1990], « Ex post Liability for Harm vs. ex ante Safety Regulation : Substitutes or Complements ? », American Economic Review, 80, p. 888-901. LANCASTER D. [1966], « A New Approach to Consumer Theory », Journal of Political Economy, 74, p. 132-157. R., LOPEZ-DELA PORTA S ILANES F., S HLEIFER A. et VISHNY R. [1999], « The Quality of Government », Journal of Law and Economic Organization, 15, p. 222-279. LECOMTE T. [2003], Le Pari du commerce équitable, Éditions d’Organisation, Paris. LE GRAND J. [2003], Motivation, Agency and Public Policy : Of Knights and Knaves, Pawns and Queens, Oxford University Press, Londres. L ELAND H. [1979], « Quacks, Lemons, and Licensing : a Theory of Minimum Quality Standards », Journal of Political Economy, 87, p. 13281346. LEQUILLER F. [1997], « L’indice des prix à la consommation surestime-t-il l’inflation ? », Économie et statistique, p. 3-32.
L ÉVÊQUE F. [1998], Économie de la réglementation, La Découverte, coll. « Repères », nº 238, Paris. LOISEL et COUVREUR [2001], Les Français, la qualité de l’alimentation et l’information. Credoc INC, Paris, 4 pages. L UPTON S. [2001], « Sécurité environnementale et sanitaire : les biens controversés », Économie rurale, mars-avril, 262, p. 3-18. MALLARD A. [2000], « La presse de consommation et le marché. Enquête sur le tiers consumériste », Sociologie du travail, 42, p. 391-409. M ARETTE S., C RESPI J.M. et S CHIAVINA A. [1999], « The Role of Common Labelling in a Context of Asymmetric Information », European Review of Agricultural Economics, 26, 167-178. MARTIN-HOUSSART G. et RIZK C. [2002], « Mesurer la qualité de vie dans les grandes agglomérations », Insee Première, nº 868, octobre 2002. MAZZEO M. [2003], « Competition and Service Quality in the U.S. Airline Industry », Review of Industrial Organization, 22, p. 275-296. M USSELIN C. [1996], « Les marchés du travail universitaires, comme économie de la qualité », Revue française de sociologie, 37, p. 189-207.
115
M USSELIN C., P ARADEISE C., CALLON M., EYMARD-DUVERNAY F., GADREY J. et KARPIK L. [2002], « La qualité, dossierdébat », Sociologie du travail, 44, p. 255-287. NELSON R. [1970], « Information and Consumer Behavior », Journal of Political Economy, 78, p. 311-329. N ISKANEN W.A. [1968], « The Peculiar Economics of Bureaucracy », American Economic Review, nº 58, p. 293-305. NOUSSAIR C., ROBIN S. et RUFFIEUX B. [2002], « Do Consumers Not Care About Biotech Foods or Do They Just Not Read the Labels ? », Economics Letters, vol. 75, nº 1, p. 47-53. OBSERVATOIRE DES DÉPLACEMENTS À PARIS [2002], Le Bilan des déplacements en 2002 à Paris, mairie de Paris. OCDE [1997], « Eco-labeling : Actual Effect of Selected Programs », Organisation for Economic Cooperation and Development, GD (97) 105. OCDE [2003], PISA, Program for International Student Assessment, http://www.pisa.oecd. org/, Paris. OKEN E., KLEINMAN K., BERLAND W., SIMON S., RICHE DWARDS J., G ILLMAN M. [2003], « Decline in Fish Consumption Among Pregnant Women After a National Mercury Advisory », Obstetrics and Gynecology, 102, 346-351.
116
OMS [2000], ORGANISATION MONDIALE DE LA SANTÉ, Rapport sur la santé dans le monde en 2000, http://www.who.int/home-page/. ORLÉAN A. [1999], Le Pouvoir de la finance, Odile Jacob, Paris. PARKER A. [2002], « PwC Warns Large Clients of Higher Audit Fees », Financial Times, 11 décembre. PARKER A. [2003], « EU Urged to Create Audit Oversight Body », Financial Times, 14 septembre. P ITCHFORD R. [1995], « How Liable Should a Lender Be ? The Case of Judgment-Proof Firms and Environmental Risks », American Economic Review, 85, p. 1171-1186. PLIHON D. [2003], « Commentaire », in Conseil d’analyse économique, Les Normes comptables et le monde postEnron, La Documentation française, Paris. RAINELLI M. [2003], La Nouvelle Théorie du commerce international. La Découverte, coll. « Repères », nº 211, Paris. R OSEN S. [1974], « Hedonic Prices and Implicit Markets : Product differentiation in Pure Competition », Journal of Political Economy, 82, p. 34-39. RUST R. et OLIVER R. L. [1994], Service Quality : New Directions In Theory And Practice, Sage Publications, Thousand Oaks, CA.
SALAIS R. et STORPER R. [1993], Les Mondes de production, enquête sur l’identité économique de la France, Éditions de l’École des hautes études en sciences sociales, Paris. SEGOND V. [2002], « Guerre de tranchées autour des autoroutes françaises », La Tribune, 29 octobre, p. 30-31. SHAKED A. et SUTTON J. [1981], « The Self-Regulated Profession », Review of Economic Studies, 48, p. 217-234. — [1983], « Natural Oligopolies », Econometrica, 51, p. 1469-1483. SHAVELL S. [1986], « The Judgment Proof Problem », International Review of Law and Economics, 6, p. 45-58. — [1987], Economic Analysis of Accident Law, Harvard University Press, Londres. SHOGREN J., FOX S., HAYES D. et ROOSEN J. [1999], « Observed Choices for Food Safety in Retail, Survey, and Auction Markets », American Journal of Agricultural Economics, 81, p. 1192-1199. SMITH A. [1776], La Richesse des nations, traduction française, Flammarion, Paris, 1991. SPENCE M. [1975], « Monopoly, Quality and Regulation », Bell Journal of Economics, 6, p. 417-429. S TANZIANI A. (éd.) [2003], La Qualité des produits en France ( XVIII e - XX e siècles), Belin, Paris.
S TEINER P. [1999], Sociologie économique, La Découverte, coll. « Repères », nº 274, Paris. S YMPOSIA [1998], « Measuring the CPI », Journal of Economic Perspectives, 12, p. 3-78. T ELLIS J. et W ERNERFELT B. [1987], « Competitive Price and Quality under Asymmetric Information », Marketing Science, 6, p. 240-253. TIEBOUT [1956], « A Pure Theory of Local Expenditures », Journal of Political Economy, 64, 416-424. TIROLE J. [1990], The Theory of Industrial Organization, MIT Press, 4e édition. — [1996], « A Theory of Collective Reputations (with Application to the Persistence of Corruption and to Firm Quality) », Review of Economic Studies, 63, p. 1-22. VALENTINE D. [1998], « Industry Self-Regulation and Antitrust Enforcement : An Evolving Relationship », Federal Trade Commission, Washington D.C., http://www.ftc.gov/speeches/ other/dvisraelspeach.htm. VEBLEN T. [1899], Théorie de la classe de loisir, Gallimard, Paris, 1970. VISCUSI W., VERNON J. et Harrington J. [1996], Economics of Regulation and Antitrust, MIT Press, Cambridge, Ma. WEIL [2001], Le Management de la qualité, La Découverte, coll. « Repères », nº 315, Paris.
117
WILSON C. [1980], « The Nature of Equilibrium in Markets with Adverse Selection », Bell Journal of Economics, 11, p. 108-130.
WOLINSKY A. [1993], « Competition in a Market for Informed Experts Services », Rand Journal of Economics, 24, p. 380-398.
Table
Introduction ...................................................................
3
I / Les différentes facettes de la qualité ..................... 1. Le rôle clé des caractéristiques .............................. Des biens homogènes aux biens différenciés .......... Différenciation horizontale et/ou verticale .............. La qualité, une caractéristique verticale ? ............... Description selon les caractéristiques ..................... Conditions de production ........................................ La classification des biens (ou caractéristiques) selon l’information disponible ............................ 2. Méthodes d’évaluation de la disposition à payer pour la qualité ......................................................... L’évaluation contingente ......................................... L’économie expérimentale ...................................... 3. L’importance de l’environnement des consommateurs ................................................. Cascade informationnelle et phénomènes de mode . La dimension sociale et historique de la qualité ..... Le rôle de la coordination des acteurs .....................
7 8 8 9 10 10 13
20 20 21 22
II / Quelle corrélation entre la qualité et le prix ? .... 1. Le coût de la qualité ............................................... De l’importance de la nature des coûts ...................
25 25 25
15 16 17 18
119
Une corrélation positive entre prix et qualité .......... 2. L’intérêt de la qualité pour les entreprises ............ Une diversité des produits limitée en situation de concurrence imparfaite ................................... Le choix du niveau de qualité affecté par la structure de marché ................................... La qualité en tant qu’innovation de produit ............ La qualité totale : de la qualité des produits à la qualité de l’organisation ............................... 3. L’information imparfaite des consommateurs et ses conséquences ................................................. La diversité des qualités menacée ........................... Plusieurs prix égalisant l’offre et la demande ......... L’importance de l’hypothèse d’anticipations rationnelles .......................................................... III / Les démarches qualité des consommateurs et des entreprises ....................................................... 1. Des consommateurs à l’affût de l’information ....... S’informer peut être coûteux ................................... La presse de consommation et les guides ............... Le recours aux intermédiaires : le cas des services financiers ......................................... 2. Les stratégies de différenciation et de signal des vendeurs ............................................................ Une prime informationnelle pour la qualité ............ L’engagement de dépenses pour signaler la qualité . 3. Le cas des caractéristiques de confiance ............... L’intermédiation potentiellement efficace .............. IV / L’autorégulation .................................................. 1. Les enjeux de l’autorégulation ............................... Pouvoir de marché versus meilleure gestion de la qualité ......................................................... Règles volontaires ou obligatoires .......................... 2. Une démarche collective volontaire : la certification et les labels ..................................... Différents types de labels ........................................ 120
26 28 28 29 31 33 35 35 36 38
42 42 43 43 45 47 48 49 52 53 56 56 56 57 58 58
Labelliser pour informer sur la différenciation ....... 3. Les règles « privées » obligatoires sont-elles la panacée ? ............................................ L’autorégulation des professions est-elle une garantie de qualité ? ...................................... Les limites de l’autorégulation : les comportements opportunistes ........................ V / Services publics : les conséquences de l’absence de prix ......................................................................... 1. Services collectifs et qualité ................................... La contribution des classements internationaux ..... La typologie des services collectifs ......................... Les diverses modalités de financement des services collectifs .......................................... 2. La régulation des services de club ......................... L’arbitrage quantité-qualité pour les services de club ................................................................. 3. Les problèmes soulevés par la « gratuité » pour les usagers ...................................................... Organisation et égalité d’accès ................................ Des prix indirects tels que le coût de l’immobilier . Les incitations en l’absence de prix ........................ 4. Favoriser la concurrence si cela est souhaitable et possible ................................................................ Mise en concurrence d’une offre publique et privée versus amélioration interne du système public ... Les concessions et l’équilibre entre le privé et le public ........................................................... 5. Les externalités ....................................................... La circulation dans les villes ................................... VI / Les politiques publiques assurant la qualité ..... 1. Le choix des instruments ........................................ Les outils de gestion publique ................................. L’analyse coûts/bénéfices ....................................... Droit commun anglo-saxon ou droit civil ...............
63 65 65 68
71 72 72 74 75 76 76 78 78 79 80 82 82 85 87 87 90 91 91 92 94 121
2. Standards et/ou politiques d’information ............... La détermination des standards ou de l’information à révéler ............................... Des standards critiquables et des contrôles insuffisants .......................................................... Qui devrait payer les contrôles ? ............................. 3. L’indemnisation en cas d’accident ......................... La sécurité des produits et la responsabilité civile .. Au-delà de la responsabilité civile ..........................
95
98 99 102 102 104
Conclusion ......................................................................
108
Repères bibliographiques .............................................
110
96