Vers une autre économie...                                             in Economie Appliquée, tome LXIII , 2010, n°1, p. 177-195

 

 

 

LA MESURE, CLEF DE L’EXCELLENCE

 

Henri Duprat

PLAN

·                                INNOVER... MAIS COMMENT ?

·                                L'INNOVATION ET LA THEORIE CLASSIQUE

·                                LA PRATIQUE DES INGENIEURS

·                                UNE AUTRE SCIENCE ECONOMIQUE

·                                LA MESURE, ARME STRATEGIQUE

 

 

INNOVER... MAIS COMMENT ?

 « Les produits sont variables »

Edward Chamberlin

 

La surabondance d'informations qu'apporte l'actualité, le bruit et la fureur du débat politique risquent de faire oublier la permanence des problèmes de fond : depuis plus d’un siècle, le progrès des sciences et des techniques devient le principal facteur de l’évolution économique, sans que son action, heureuse ou néfaste, puisse être contrôlée, ni même que ses mécanismes soient correctement analysés.

Selon la science économique orthodoxe, "le progrès technique a pour effet que la même production puisse être obtenue avec moins de facteurs de production". Cette conception a fait du chômage une fatalité naturelle et du travail un bien rare qu'il faut partager. Elle  inspire à l'Etat et aux entreprises une politique industrielle consistant à diminuer les effectifs et, si possible, les salaires, pour améliorer la compétitivité et produire moins cher...la même chose qu'hier.

Or tenter de produire la même chose moins cher est suicidaire : on ne peut pas battre à ce jeu les pays de l’Est asiatique, qui innovent, eux, en produisant ce qu'ils ne savaient pas produire hier, tout en enrichissant leurs dirigeants et même leurs salariés.

Innover, c'est changer de production, c'est-à-dire produire autre chose, ou produire autrement. Le principal effet du progrès technique est que la production ne soit plus la même.

Cela commence à se savoir, et l’innovation devient le maître mot des programmes de politique économique. Mais la vraie question est, en pratique, pour un chef d'entreprise, de prévoir ce qu'il pourra produire demain. La recette de la croissance : mieux prévoir ce qui se vendra.

Mieux prévoir ? ...que les concurrents. Comment ?

Ceux qui le savent ne le diront pas. La supériorité d'une entreprise, c'est sa capacité d'anticipation, tout comme celle d'un joueur de tennis ou d'échecs. Ce savoir-faire, elle tient à se le réserver. Les méthodes que l'on enseigne et publie sont donc celles qui sont dépassées. Il faut en trouver d'autres: celles que certains utilisent déjà sans le dire. Ou de meilleures... Pourquoi pas ?

Les moyens ne viendront pas de la science économique, mais de l'exemple donné par la pratique des ingénieurs. La science économique, centrée sur la théorie de l’équilibre du marché, n’a rien à dire de l’innovation, qu’elle traite comme extérieure à l’économie. Au contraire, la pratique des ingénieurs comporte des procédures de calcul économique nécessaires au développement de l’innovation, du stade de la faisabilité technique à celui de la rentabilité économique. Mais cette pratique, forme moderne du devis,  reste étrangère au corpus théorique de la science établie.

La théorie en est pourtant possible. Elle implique le retour au concept de valeur d’usage, rejeté depuis Marshall, et un réexamen des relations entre l’économie et la métrologie, disciplines scientifiques qui s’ignorent encore, alors que le rôle des grandeurs et des erreurs de mesure est capital dans le développement de la technologie. L’analyse économique de ce rôle de la métrologie devrait permettre, d’une part, de développer des méthodes nouvelles de prévision, d'évaluation et d’orientation de l'innovation, et, d’autre part, de mettre en oeuvre une nouvelle politique scientifique et industrielle.

 

L'INNOVATION ET LA THEORIE CLASSIQUE

« Un bijou dans une vitrine … »

Kelvin Lancaster

 

La théorie économique néoclassique, dite «Théorie de l'équilibre général », fondement actuel de la science  économique et « boîte à outils » des économistes, ne contient ni les concepts ni les méthodes nécessaires à la nouvelle économie industrielle. La technologie, transformation de savoirs scientifiques en nouvelles techniques et nouveaux produits, est extérieure au champ de l'économie, que le « voile de la monnaie » sépare de celui des sciences et des techniques. Non seulement l’innovation est ignorée de la théorie économique, mais elle en est exclue.  La célèbre axiomatisation de l'équilibre présentée par Gérard Debreu en 1959, par l'incontestable clarté des définitions initiales, permet de mettre ce fait en évidence.

 "Une marchandise est caractérisée par ses propriétés physiques, la date à laquelle elle sera disponible et le lieu auquel elle sera disponible.... Dès que l'un de ces trois facteurs change, une marchandise différente en résulte....

Nous supposons qu'il n'y a qu'un nombre fini l de marchandises distinctes, qui seront repérées par un indice h allant de 1 à l. Nous supposons aussi que la quantité de chacune peut être n'importe quel nombre réel.

La grande généralité du concept de marchandise, tel qu'il a été illustré par tous les exemples précédents, ne doit plus être perdue de vue."

La définition de l'espace de référence comme "espace des marchandises R» a pour conséquence l'impossibilité  d'introduire l'innovation dans la  théorie. Le modèle de Debreu est invariant par construction. Il exclut toute innovation, même sous la forme d'une modification d’un produit déjà existant. Une telle modification ferait apparaître dans le modèle un second produit sans lien avec le premier. Le nombre l  des marchandises étant traité comme un paramètre donné à l'avance et invariant par la suite, la prise en compte d'un produit nouveau n'est possible qu'au prix du changement de l'espace de référence : ce changement implique un autre équilibre d'ensemble, sans que la transition puisse prendre place dans la théorie. Cette discontinuité formelle est analogue à celle rencontrée dans le problème classique dit "du commis-voyageur".

L'hypothèse première, restée implicite, mais évidemment nécessaire à  l’existence d’un « espace des marchandises », est l'existence d'une description détaillée de chaque bien et de l'unité permettant d'en mesurer la quantité : ce "préalable métrologique" conditionne l'existence même de "prix". La notion première, lors de toute transaction, est en effet celle de la valeur globale du bien qui va faire l'objet de l'échange. Ce n'est que lorsqu'il existe une unité de mesure spécifique du bien en question que la valeur échangée va être analysable comme produit de deux facteurs : une  quantité et un prix unitaire. L’existence d’une telle unité n’est pas un don de nature, mais une convention sociale : elle est le résultat d’un travail collectif, de l’élaboration d’un accord sur la « qualité loyale et marchande » du bien en question et sur la manière d’en mesurer la quantité. Parmi les multiples caractéristiques physiques du bien, une seule va être adoptée comme variable de quantité, toutes les autres étant tenues de ne pas trop différer de valeurs usuelles sur le marché et supposées connues des acheteurs. L’usage a conduit à respecter les normes d’un cahier de charges implicite, dont la théorie postule l'existence, sans en dire l'origine ni en étudier les conditions. Ce préalable métrologique de l'élaboration d'une grandeur permettant de mesurer la quantité d’un bien est loin d'être toujours possible. Debreu ne l'ignorait pas puisqu'il évoquait dans une note discrète le problème des biens indivisibles, sans l'aborder.

Enfin, chaque "bien" est supposé être homogène et assurer au consommateur une satisfaction déterminée, fonction croissante de la quantité achetée, et. indépendante de celle apportée par d’autres biens. Les biens ne peuvent être ni complémentaires ni concurrents. Or le développement de l’innovation dans l'industrie moderne multiplie le nombre, l'importance et la complexité de ces  biens indivisibles : machines, appareils et systèmes techniques dont les composants sont liés par de multiples contraintes, tandis que la diversification des produits multiplie les cas de biens ou de procédés différents de nature mais répondant à un même besoin. La condition classique d'indépendance des biens, ni complémentaires ni concurrents, n'est plus compatible avec la réalité économique. Sraffa et Leontieff ont tenté de sortir de cette impasse, mais on ne produit pas n'importe quelle marchandise au moyen de n'importe quelle autre et les coefficients techniques des échanges interindustriels ne sont que des ratios statistiques entre flux comptables, au lieu des « données d’ingénieurs » que voulait Leontieff. Il reste à introduire dans le calcul économique les propriétés intrinsèques qui différencient les biens, c'est-à-dire à internaliser la technique. Le paradigme du marché, modélisé par l'espace des quantités, ne le permet pas, mais, en contrepartie, enferme la science économique dans la sphère monétaire et la sépare du champ de recherche théorique offert par l'économie industrielle.

L'incapacité de la théorie néo-classique à rendre compte de l'apparition des biens nouveaux a eu de graves conséquences pour la recherche scientifique. Depuis que Mansfield a identifié le progrès scientifique au « facteur résiduel » de la croissance découvert par Denison, l'idée simpliste s'est répandue que les chercheurs devaient produire des innovations industrielles comme les meuniers de la farine. La lenteur et la complexité de la transformation d'un progrès des connaissances en progrès industriel n'ont fait l'objet que de rares études de cas, vite oubliées par leurs quelques lecteurs, et ignorées de presque tous les théoriciens de l’économie.  La recherche scientifique, présentée dans les discours politiques comme un investissement majeur, n'apparaît dans les comptes, de la nation ou des entreprises, que par son coût et non par ses résultats, que personne ne sait évaluer. Il est impossible d'imputer à un programme particulier l'escompte  d'un quelconque retour sur investissement, sauf à limiter l'activité scientifique à la seule recherche technique sur les applications de connaissances existantes à des objectifs immédiats.

Seuls quelques groupes d'économistes ont tenté d'élaborer une autre formulation et de construire une théorie de l'économie industrielle adaptée au monde moderne. L'oeuvre de Kelvin Lancaster reste exemplaire par son originalité, mais aussi par son échec relatif. La substitution de l'espace des caractéristiques à l'espace des quantités parut à la plupart des économistes une bizarrerie théorique de peu d'importance. Lancaster lui-même et ses rares continuateurs semblent avoir hésité sur ses applications possibles.  Les recherches les plus avancées ont porté sur l'utilisation de l'espace des caractéristiques pour la représentation du transfert technologique, sous la forme de "trajectoires de l'innovation". Elles permettent aux théories évolutionnistes de l'innovation  de dépasser le stade des tautologies darwiniennes, sans pour autant atteindre une quantification véritable, faute d'un lien suffisant avec la pratique des ingénieurs.

 

LA PRATIQUE DES INGENIEURS

« Le devis est le chef-d'oeuvre de l'ingénieur »

Bernard Forest de Bélidor

 

La technique de calcul économique nécessaire au développement des innovations existe depuis longtemps dans la pratique des ingénieurs : c'est tout simplement le devis.  Il existe en effet deux sortes de transactions, selon qu'il s'agit :

- de marchandises, biens déjà existants, dont la nature et l'unité de quantité sont connues par avance des acheteurs et des vendeurs, et pour lesquels les transactions ne font intervenir que des quantités et des prix,

- de biens encore en projet, dont la nature exacte n'est déterminée qu'à l'issue de chaque transaction, sous la forme de spécifications figurant dans un cahier de charges, et dont le prix fait l'objet d'un devis sur lequel se fait l'accord de l'acheteur et du vendeur.

Un devis, qu'il soit fait par un artisan, un architecte ou un ingénieur, obéit à une rationalité spécifique, qui n'est pas celle du marchand, ni du banquier. Il est le résultat d'une négociation, entre un fournisseur (le maître d'oeuvre) et son client (le maître de l'ouvrage) pour déterminer, par approximations successives, les caractéristiques futures du bien en projet et le coût de sa réalisation, compte tenu des caractéristiques nécessaires des fournitures et des opérations à mettre en oeuvre. Le rôle du maître d’oeuvre est de prévoir les moyens permettant d'obtenir une amélioration souhaitée par le client et l’augmentation de coût qui en résultera, ou, au contraire,  l’économie rendue possible par la suppression d’un élément inutilement coûteux. Le devis aboutit à un cahier des charges, dont les spécifications expriment les désirs ou les besoins du client sous la forme de grandeurs mesurables, donc vérifiables après l'achèvement du projet.

Dès ses lointaines origines, la pratique du devis s'appliquait à un projet quelconque, quelle que soit la part de nouveauté qu'il comportât. Il est donc naturel que cette pratique intervienne, sous ses formes modernes, dans la conception et la réalisation d'un nombre de plus en plus grand de procédés ou de produits nouveaux.

L'ancien devis reste pratiqué, sous sa forme traditionnelle, par les architectes et les artisans, mais il a donné naissance, dans l'industrie moderne, à un travail collectif, associant quatre fonctions, de plus en plus spécialisées :

- l'étude de marché,

- l'analyse de la valeur,

- les achats industriels,

- le contrôle des fabrications.

Ces fonctions sont issues d'une même problématique d'ensemble, celle du dialogue ancien entre le maître d'oeuvre et le maître de l'ouvrage. Elles font appel à un même langage, celui des caractéristiques techniques, nécessaires à l'identification et la description des procédés et des produits, et utilisées lors des calculs de faisabilité technique ou de rentabilité économique. L'espace des caractéristiques introduit par Lancaster  dans la théorie économique répond ainsi à une nécessité expérimentale : il est la formalisation d'une pratique industrielle. Celle-ci fait l'objet d'ouvrages techniques et de stages de formation proposés par des sociétés de conseil, plutôt que de cours universitaires, mais elle s'apprend souvent « sur le tas ». Le mot « devis » ne figure pas dans les encyclopédies françaises de science économique.

 Mais le développement de l'industrie et la production en série ont profondément modifié les conditions de la transaction. À la relation personnelle entre le maître d'oeuvre et le maître de l'ouvrage, convenant ensemble des caractéristiques et du prix du bien futur, s'est substitué un système de communication entre un chef d'entreprise et une clientèle. L'ancien cahier des charges, adopté par les deux parties, est remplacé par une description du produit issue du bureau d’études, à partir de l'étude de marché, et supposée conforme, après fabrication, à l'attente des futurs clients. La transaction ne s'achève que lors de l'offre du produit fabriqué au client réel, sur le marché.

C'est à ce stade qu'apparaissent deux faits nouveaux :

- l'incertitude de l'anticipation, qui rend aléatoire la vente du produit mis sur le marché,

- une différence fondamentale selon que le client est un acheteur industriel ou un consommateur final.

La réussite ou le déclin de l'entreprise dépendent dès lors de sa capacité à prévoir la demande future, non seulement en quantité, mais en nature. Les besoins non satisfaits sont le véritable moteur de l'innovation, le meilleur garant de sa réussite commerciale. La recherche des besoins auxquels peut répondre le savoir-faire de l'entreprise est une authentique recherche exploratoire, nécessaire à celle-ci. Elle incombe aux services commerciaux, et non au laboratoire, dont le rôle est avant tout d'enrichir ce savoir-faire de connaissances neuves, en résolvant des problèmes techniques et scientifiques rencontrés par le bureau d'études ou le contrôle de fabrication. Les méthodes de l'étude de marché sont fondamentalement différentes selon que l'entreprise est orientée vers la consommation intermédiaire où la consommation finale.

Lorsque les clients de l'entreprise sont d'autres entreprises, ses agents commerciaux ont affaire à des acheteurs industriels qui, comme eux, sont des professionnels, disposant d'une bonne formation technique, bien informés sur la concurrence, et dont les choix obéissent à une rationalité précise, selon un critère objectif, la valeur d'usage du bien acheté. Cette valeur d'usage est calculable en fonction des caractéristiques du bien et de son contexte d'utilisation par l'entreprise cliente. Celle-ci, d'ailleurs, ne manque pas de contrôler que ces caractéristiques sont bien celles annoncées par le fournisseur et dans le cas contraire de refuser le produit. La négociation conserve sensiblement les caractères d'objectivité et de clarté de la transaction sur devis, grâce au contrôle de qualité, à la fois chez le fournisseur et le client.

Le consommateur final, lui, n'est pas un professionnel. Le choix de ses achats est plus subjectif que rationnel et résulte, comme le veut la théorie, de ses préférences, plus ou moins fortement déterminées par la publicité, ce que ne dit pas la théorie... La tentation est forte pour les services commerciaux de s'efforcer de faire acheter par le client ce que l'entreprise a déjà produit, plutôt que de chercher à découvrir et à faire produire ce qu'il souhaiterait trouver. Les services commerciaux préfèrent donc se consacrer à l'action publicitaire, afin de corriger l'erreur d'anticipation de la demande. La théorie classique encourage ce processus.

 

UNE AUTRE SCIENCE ECONOMIQUE

 « Otez de ces mêmes volontés les plus et les moins qui s'entre-détruisent,

 restera pour somme des différences la volonté générale. »

Jean-Jacques Rousseau

 

Il y a donc deux comportements d'achat profondément différents, celui du consommateur et celui de l'acheteur industriel. Le consommateur partage le revenu dont il dispose entre des biens divers selon ses préférences et leur prix : sa consommation est représentée par un point dans l'espace des quantités. L'acheteur industriel choisit parmi des biens de même fonction, mais différents par leurs caractéristiques exactes et leur prix, celui qui répond le mieux à un besoin précis : sa démarche de recherche est celle de l'élaboration du devis et son choix est représenté par un point dans l'espace des caractéristiques.

On pourrait s'attendre à ce que la science économique ait développé des modèles différents pour décrire ces deux types de comportement, et traité séparément du marché et du devis. Il n'en est rien. Seul existe pour la théorie le comportement du consommateur sur le marché. Plutôt que d'admettre la présence de deux démarches différentes dans les pratiques observables, au risque d'avoir à changer de paradigme, l'école néoclassique a préféré ne voir dans les acheteurs industriels que des consommateurs comme les autres. Lancaster lui-même l'enseignait à ses élèves de Columbia, avec, semble-t-il, un peu d'embarras.

Ce parti pris théorique peut se comprendre. Le comportement de choix des consommateurs est le plus familier : chacun l'observe sur le marché du village ou du quartier. Au contraire, le comportement d'un acheteur industriel n'a pas d'autres témoins que son fournisseur éventuel, et la technicité de leur dialogue échappe en général aux économistes, qui ont peu de chances d'y reconnaître la démarche du devis. C'est sans doute l'une des causes du développement inégal, depuis trois siècles, de la science économique. Schumpeter expliquait les débuts tardifs de celle-ci par le fait qu’en économie la pratique empirique était allée bien plus loin que dans les autres domaines. En réalité, il n’y a eu d’analyse économique que du marché, celle du devis reste à faire, alors que les deux types de transactions, sur des objets et sur des projets, existent depuis des millénaires,  mais font appel aux savoir-faire de deux groupes d’hommes très différents :  marchands et financiers d’un côté,  artisans et ingénieurs de l’autre. Dès la Renaissance, les uns et les autres voulurent élever leurs pratiques au rang d'une science. Les financiers y parvinrent les premiers, et  la science économique se développa autour d'une théorie du marché, séparée du monde physique par le voile de la monnaie et ne traitant que des échanges de valeur. Cette théorie reste pour les économistes le point de départ nécessaire des progrès de la recherche et celle-ci s'efforce de décrire des situations expérimentales qui la vérifieraient.

Pour les ingénieurs, au contraire, les techniques mises en oeuvre, qu'il s'agisse de la conception de produits, de l'analyse de la valeur, ou du contrôle de fabrication, sont l'état actuel du développement et des progrès d'un métier centré depuis toujours sur la pratique du devis, et dont la théorie générale reste à construire.

Mais la naissance au Siècle des Lumières de l'actuelle science économique lui a donné pour fondements deux concepts plus philosophiques que scientifiques : une conception de l’homme, que Pareto baptisera plus tard « homo oeconomicus », et la théorie de « la main invisible ». Ils ont eu pour conséquences deux phénomènes majeurs : la déstabilisation monétaire et l'émancipation morale de l'économie.

Pour la science économique, l'homo oeconomicus est un être sans feu ni lieu, sans famille ni métier, sans droits ni devoirs, sans histoire ni projet. N'obéissant qu'à ses désirs, il contribue sans le vouloir au bonheur collectif, si nulle contrainte extérieure ne perturbe l'action de la main invisible. Ce mythe a la vie dure. Pour Rousseau, déjà, la volonté générale émergeait des volontés particulières par un simple calcul : «Ôtez les plus et les moins qui s’entre-détruisent, reste pour somme des différences la volonté générale».

L'homo oeconomicus n'ayant pas d'autres dimensions que son revenu et ses préférences, le progrès économique va reposer sur le crédit, amplificateur du revenu, et la publicité, maîtresse des préférences.

L'expansion monétaire n'ayant pas de limites naturelles, la publicité et le crédit provoquent une croissance incontrôlable de la sphère financière, où se concentrent les pouvoirs de décision économique. L'énorme capitalisation boursière du monde moderne est censée rassembler et mettre en concurrence les projets de production des entreprises, la vertu régulatrice du « marché » assurant, à l'équilibre, la sélection de ces projets et le meilleur choix des investissements, en orientant l’offre de capital vers les entreprises qui distribuent les meilleurs dividendes... En réalité, un nouvel espace de pouvoir est créé, qui n'est pas un lieu d'arbitrage, mais de conflits et. de conquêtes. Le seul rôle d’une entreprise est de  produire du profit et sa valeur est faite du profit que l’on attend d’elle. Les décisions de cession ou d'acquisition de capital modifient le système de décision lui-même, au sein de la sphère financière. Mais les contenus et les enjeux de ces décisions ne peuvent être formulés qu'en termes monétaires, à l'exclusion de toute autre dimension, alors qu'elles modifient en même temps les structures physiques du système productif, hors de cette sphère, sans que ces modifications puissent être évaluées et prises en compte.

L'innovation financière rend impénétrable le réseau des transactions, illusoire tout contrôle des découverts réels, et apparemment légaux des enrichissements sans cause, contrepartie de promesses non tenues quelque part. C'est par abus de termes que l'on parle de produits financiers pour désigner la vente en cascade de promesses de profit. Le taux d'intérêt a toujours été à la fois le prix du temps et le prix du risque. La recherche de la rentabilité des placements conduit naturellement à la dissimulation des découverts et au sacrifice du futur au présent. Sur le marché boursier, l'exactitude comptable dissimule l'incertitude réelle et permet toutes les dérives. La spéculation peut provoquer des mouvements erratiques d'une ampleur très supérieure aux variations tolérables pour des économies d'entreprise ou de région. Une cargaison mal arrimée dans la cale d'un navire devient dangereuse par gros temps. La théorie de l'équilibre général affirme pourtant qu'un équilibre existe, qu'il est unique et qu'il est stable... La foi dans les vertus du marché comble les vides de la démonstration. La Bourse est en principe un marché de projets, en réalité un marché de promesses, que seul le temps peut tenir ou démentir. Tel un jeu de chaises musicales, la spéculation enrichit ceux qui savent vendre à temps, et la vraie sélection est celle des logiciels d'analyse financière.

En devenant la mesure de toutes choses, la monnaie devient autoréférente et rend aveugle le système de décision. La traversée du voile de la monnaie fait disparaître, de façon irréversible, les grandeurs physiques nécessaires à l'anticipation des conséquences des choix économiques pour la vie des hommes.

 L'évidente contradiction entre les prévisions de la croissance économique mondiale et la perception de plus en plus claire des dangers qu'elle implique impose que le concept de développement durable fasse l'objet d'une définition rigoureuse et d'une prise en compte cohérente dans les programmes économiques. Il faut pour cela qu'une révision radicale de la théorie économique comble le vide qui sépare la science économique de l'ensemble des sciences et des techniques, pour permettre la description et l'analyse de l'innovation technologique.

Cela n'est possible que si le modèle de transaction élémentaire, qui constitue le coeur de la théorie, fait intervenir à la fois les prix et les caractéristiques physiques des biens, au lieu des prix et des seules quantités de ces biens. C'est précisément ce que fait la pratique du devis, où le maître de l'ouvrage est appelé à exprimer, par les  spécifications contrôlables du cahier des charges, le détail de ses préférences quant aux caractéristiques du bien futur, compte tenu de leur incidence sur le prix de l'ensemble. Le devis se situe donc en permanence à l’interface de la sphère monétaire et du monde réel. Il permet à tout moment d'intégrer les coûts indirects ou les effets induits omis en première analyse. C'est par exemple le cas pour les conséquences sociales, sanitaires ou environnementales des projets, que le cadre du devis permet de soumettre à toute négociation nouvelle. La traçabilité des produits implique une même logique d'analyse.

La lenteur habituelle des révolutions scientifiques donne à craindre qu'une telle révision prenne du temps. À cet égard, l'échec de la critique marxiste, qui prétendait y parvenir, mais qui n'a su faire qu'une critique idéologique, plutôt que scientifique, de l'orthodoxie classique, a constitué un désastreux gaspillage de ressources intellectuelles. Certes, on peut espérer que les progrès de l'analyse des systèmes et de la dynamique des processus puissent désacraliser la « main invisible », tandis que, depuis Ralph Nader, les mouvements consuméristes apprennent peu à peu aux consommateurs les méthodes de choix des acheteurs industriels.

Mais l'innovation théorique majeure introduite par Lancaster, avec l'espace des caractéristiques, est passée à peu près inaperçue. La « théorie de la conception des mécanismes » de Hurwicz et ses élèves vient d'être récompensée par un prix de la fondation Nobel, mais elle ne traite que de dispositifs juridiques et financiers, élaborés par les agents économiques au sein de la sphère monétaire, et non des véritables mécanismes, réalisés par les ingénieurs en matière scientifique et technique. La séparation conceptuelle entre l'économie et la technique persiste et la nature de l'espace des caractéristiques reste ignorée des économistes. Une meilleure connaissance de la pratique métrologique dans les sciences exactes aurait sans doute pu conduire les économistes à traiter le prix d'un bien comme une fonction de ses caractéristiques physiques. Jusqu'ici seuls des statisticiens l'ont tenté, non sans hésitations, sous la forme de fonctions « hédonistiques », dont le nom, conforme à l'orthodoxie, évoque le plaisir du consommateur, et dont l’usage se limite à la correction des indices de prix. 

Car les caractéristiques sont essentiellement des grandeurs de mesure, ou des fonctions de grandeurs de mesure, les unes fondamentales ou dérivées des fondamentales à travers les systèmes d'unités, les autres empiriques, mais progressivement rattachées à ces systèmes par le développement de la métrologie, corollaire de celui du savoir scientifique et technique. Malheureusement, la métrologie, science des grandeurs et des erreurs de mesure, semble encore considérée par les économistes comme une affaire d'ingénieurs, sans intérêt pour la science économique.

 

LA MESURE, ARME STRATEGIQUE

« Le rôle de la mesure est de garantir la loyauté des échanges marchands »

Pierre Giacomo

 

L’omission de la mesure par la science économique va de pair avec l'attention portée au seul comportement du consommateur. Les grandeurs nécessaires à l'expression des quantités échangées se limitent aux quelques grandeurs de base du système métrique enseignées dans les classes primaires : le mètre, le kilogramme, la seconde, le degré centigrade... Le développement de l'électricité a imposé l'introduction du kilowatt. La ménagère, comme le statisticien, n'ont guère besoin d'en connaître d'autres.

L'immense développement de la métrologie au XXe siècle est donc resté inaperçu des économistes, alors qu'il bouleversait la pratique scientifique et industrielle. Le temps est loin des échelles et des cadrans. L'avènement de l'électronique a changé tout cela : les grandeurs recueillies par les capteurs sont enregistrées comme suites d'impulsions électriques, dans le langage même des automates programmables ou des ordinateurs. La miniaturisation, à des fins militaires, des composants électroniques a provoqué leur production en série et permis, aussi bien pour les capteurs de mesure que pour les processeurs, des progrès de performances et des baisses de prix inconcevables dans toute autre industrie, Le nombre, la diversité et la précision des capteurs ne cessent de s'accroître dans les laboratoires comme dans les usines, et à l'intérieur même des appareils de la vie courante, leur miniaturisation les rendant invisibles.

Partout présente,  la mesure est devenue un facteur de production.  Mais elle ne contribue pas à la production comme les autres facteurs : machines et appareils, matières ou énergie. Toute mesure suppose un capteur, qui extrait de l'information du réel, à l'interface du matériel et de l'immatériel. Le mesurage est « adaequatio rei et numeri », ajustement de la chose et du nombre.

Or cette information est elle-même mesurable. Avant que Brillouin ne parle de néguentropie, savants et ingénieurs parlaient d'ordres de grandeur et de chiffres significatifs. La pratique scientifique et la pratique industrielle mesurent la valeur d'usage de la mesure par la réduction d'incertitude qu’elle apporte, que ce soit dans la prévision d'un phénomène ou celle du résultat d'un processus de production. La seule différence est que cette réduction d'incertitude est, en laboratoire, un progrès de connaissance sans dimension économique, et au contraire, en usine, la source d'une valeur mesurable. La valeur d'usage d'un instrument de mesure est ainsi calculable en fonction de son contexte d'utilisation.

Cette possibilité a surtout été exploitée, jusqu'ici, dans le domaine du contrôle de fabrication. Mais elle vaut pour toute décision en avenir incertain, et peut être étendue à l'ensemble du processus technologique,  transformation de découvertes scientifiques en innovations industrielles. On peut analyser comment, à partir des grandeurs fondamentales, les réductions d'incertitude se propagent à travers le réseau des lois physiques, qui relient les unités de mesure, pour aboutir à des réductions des tolérances de fabrication. Ce sont en effet les mêmes grandeurs de mesure qui servent, en laboratoire,  à étudier un phénomène pour en énoncer les lois et, en usine, pour en utiliser ou en contrôler les effets.

Le référentiel commun des grandeurs de mesure permet d'analyser les phases de l'innovation technologique et de mettre en évidence le rôle irremplaçable de la recherche scientifique dans les entreprises : fournir aux industriels les instruments qui leur permettent de mieux comprendre et de mieux maîtriser les processus physico-chimiques qu’ils mettent en oeuvre. Le chef d'oeuvre du chercheur est un nouvel instrument de mesure. La recherche est la clef de l'amélioration de la qualité et des performances des procédés et des produits, grâce au progrès des instruments de mesure et de contrôle.

L'instrumentation de mesure est ainsi un vecteur du transfert technologique. L'information de mesure n'est pas seulement l'expression quantitative des connaissances, mais aussi un outil de gestion de la technologie. Facteur de production, la mesure devient un moyen de domination technologique au profit des entreprises ou des nations qui en détiennent le monopole, à la fois par l'information qu'elle fournit et l'instrumentation qu'elle exige.

L'information de mesure est en effet la source d’indicateurs permettant de quantifier les progrès des sciences dites « exactes », par la réduction d’incertitude sur les constantes physiques. Sans la métrologie, il ne peut y avoir d'économie de la recherche, faute d'un accord sur l'évaluation de ses résultats. Ce n'est pas au nombre de pages, ni de citations, que l'on peut juger un travail scientifique, mais au nombre de décimales.

De même, c'est en termes de rapports performances/prix que doivent être évaluées les chances de faisabilité technique et de rentabilité commerciale d'un projet d'innovation, éléments majeurs de son dossier de financement, et que peuvent être mis en évidence les avantages ou les handicaps d'une entreprise face à ses concurrents.

Une entreprise est en effet compétitive si et seulement si ses produits le sont. La valeur d'une entreprise s'évalue d'après ses catalogues et non d'après ses bilans. Les fameux « fondamentaux », introuvables en Bourse,  existent dans la réalité industrielle :  ce sont des rapports performances/ prix, des tolérances d'usinage, des taux d'impuretés chimiques, des temps moyens de bon fonctionnement, etc.. Innombrables indicateurs qui donnent un sens aux prix demandés et dont le « noyau dur » est fait de grandeurs de mesure, fondamentales, dérivées ou simplement empiriques. « Zéro défaut » n'est pas une règle industrielle, mais un slogan publicitaire : la qualité d'une production se mesure au niveau des exigences de contrôle à satisfaire sous peine de rejet.  La réduction des tolérances de fabrication en matière industrielle permet d'évaluer les progrès techniques en termes d'information ajoutée, et d'en construire des indicateurs. C'est ainsi que le progrès de l'industrie de la mesure est la mesure des progrès de l'industrie.

De telles méthodes d'évaluation sont utilisées dans certaines grandes entreprises ou dans des sociétés de conseil très spécialisées. Mais il n'y a pas de modèle du transfert technologique dans la comptabilité nationale, pour éclairer les choix de politique économique. Il n'y a pas non plus d'indicateurs sectoriels pour orienter les stratégies d'entreprise.

La mesure est donc partout, sauf dans les Comptes de la Nation et les statistiques industrielles. Or les financiers et les politiques jugent de l'importance d'une industrie à son chiffre d'affaires et aux effectifs qu'elle emploie. C'est ainsi que l'industrie française de la mesure a pu disparaître naguère dans l'indifférence générale, créant un handicap, peut-être insurmontable, pour la recherche comme pour l’industrie. Il est inquiétant que nos plus brillantes réalisations techniques puissent dépendre du bon vouloir de fournisseurs étrangers, susceptibles, du jour au lendemain, de décider un embargo stratégique.

Une politique de l'innovation ne sera possible que lorsque les instances de décision, publiques ou privées, disposeront d'un « tableau de bord » commun, qui permette d'analyser et de prévoir les voies de développement du savoir et de ses applications, et d'identifier les faiblesses des systèmes d'observation et de mesure. Il faut pour cela que les statistiques industrielles classiques, portant sur les quantités produites, les valeurs et les prix, soient complétées par le suivi de l'évolution des performances des matériels scientifiques et techniques et des procédés industriels, notamment sous les formes conjuguées d'indices de prix à performances constantes et d'indices de performances à prix constants. Un tel suivi nécessite des bases de données, rassemblant, sous une forme homogène qui en permette la comparaison, des séries aussi nombreuses que possible.

Certes les difficultés sont multiples. Les données sur les caractéristiques techniques et les prix des produits et des procédés sont contenues dans l'information industrielle et commerciale, source dont l'ampleur, la diversité, le manque de normalisation et l'absence d'archivage rendent l'utilisation onéreuse, parce que dispersée, pour les grandes entreprises, et difficile ou impossible aux autres. Les disparitions ou fusions d'entreprises se traduisent presque systématiquement par la perte d'archives techniques. Par exemple, la constitution de séries longues sur les tolérances d'usinage, précieux indicateurs des disparités du progrès technique et des écarts de compétitivité, n'est probablement plus possible au-delà de  trente ou quarante ans, les seules sources disponibles étant la mémoire des vieux ingénieurs.

De telles bases de données existent néanmoins depuis longtemps aux États-Unis et au Japon. Leur importance en stratégie industrielle explique aisément qu'elles soient d'un accès difficile.

Il faut s'attendre à leur généralisation dans les pays industriels avancés, parallèlement à la multiplication des capteurs de mesure. sous la double pression de l'évolution technologique et de la concurrence internationale. Ce sont en effet des réponses empiriques aux besoins des entreprises, où les grandeurs de mesure interviennent naturellement comme opérandes des calculs techniques, à la fois pour la conception et l'amélioration des procédés et des produits et pour l'évaluation des innovations technologiques.

Depuis cent cinquante ans, la technologie a été la source d'innovations de plus en plus spectaculaires et de plus en plus brutales, dévaluant les savoir-faire antérieurs et remettant en question les métiers, mais ses dangers ou ses nuisances restaient encore prévisibles à moyen terme. Il n’en est plus ainsi, une véritable mutation ayant donné une ampleur nouvelle aux besoins de prévision et d'action.

« L'apparition de la « mégascience » contemporaine marque une coupure dans l'histoire de l'humanité. La science est née de l'effort de l'homme pour comprendre et dominer une nature hostile. Il y a réussi en partie : les forces qu'il contrôle commencent d'atteindre l'ordre de grandeur de celles qu'il subit. Mais de ce fait, tout change : la nature était un invariant, à l'échelle du temps humain, et la découverte pouvait être lente et dispersée. Il n'en est plus ainsi : l'homme doit comprendre et maîtriser la « seconde nature » qu'il fait apparaître, et découvrir presque à la fois les énoncés et les solutions de problèmes désormais variables, ceux que pose sa propre action. ». Ces lignes écrites en 1972 étaient trop optimistes et sous-estimaient encore l'extrême complexité des interactions que masquent les apparents « équilibres naturels », et la fragilité qui en résulte pour ceux-ci. Les effets de seuil et la sensibilité aux conditions initiales sont des propriétés communes aux systèmes écologiques quelle que soit leur taille, et, malheureusement pour les statisticiens, les écarts ont plus d'importance que les moyennes : des vents de quatre cents kilomètres-heure pourraient souffler en France tous les dix ans bien avant que ne s'élève d'un mètre le niveau de la mer.

Les études d'impact sur l'environnement, quelle qu'en soit l'échelle, demandent un calcul spécifique d'optimisation sous contraintes qui s'apparente aux autres applications modernes du calcul du devis, dans la pratique des ingénieurs, mais qui en diffère par la nature et l'étendue des données à utiliser. Le suivi de nombreuses et longues séries d'observations est nécessaire pour analyser l'interaction entre la nature et l'activité des hommes et en prévoir au mieux les conséquences possibles. Les résultats de mesure ne peuvent en effet être interprétés et utilisés que dans le contexte des observations, anciennes ou récentes, d'autres variables. Une série solitaire ne sert à rien. La détection des nuisances, la protection de l'environnement et la prévention des catastrophes, naturelles ou provoquées par l'homme exigent l'extension à l'échelle planétaire de réseaux intégrés d'observation, d'une densité suffisante..

Or l'étendue et la gravité des problèmes à résoudre semblent augmenter plus vite que les moyens mis en oeuvre pour y parvenir. Ces moyens sont adaptés à l'échelle locale ou, au plus, régionale. Les politiques de protection de l'environnement se sont développées plus comme une concession à l'attente de l'opinion que comme la conséquence d'une nécessité. Malgré leur parenté étymologique, économie et écologie restent des disciplines qui s'ignorent et la synthèse n'est toujours pas faite entre l'évaluation du patrimoine naturel et le calcul économique, Le bilan financier d'un projet et l'inventaire de ses conséquences pour la nature et les hommes continuent le plus souvent de faire l'objet de travaux séparés, soumis à des autorités différentes, alors que les obligations de résultats techniques et les contraintes sanitaires, sociales ou écologiques devraient être inscrites dans un même cahier des charges. Les mécanismes du marché ne sont pas adaptés à la prévention et la gestion des catastrophes. Les futurologues des années soixante n'imaginaient pas les dangers du réchauffement de la planète. Certains au contraire annonçaient pour la fin du siècle la maîtrise des phénomènes météorologiques. Un expert peut toujours être récusé :  «Une mesure exacte vaut l'avis d'un millier d'experts», disait Grace Hopper. Le rôle immémorial de la mesure est de fonder la confiance mutuelle des parties. En l'absence de mesures, l'incertitude des scientifiques permet aux politiques de négliger les risques séculaires. L'assurance semble toujours trop chère avant l'accident.

Cela n'a que peu d'importance si les ingénieurs, plus proches du terrain que les financiers, peuvent travailler. C'est le cas dans les pays de culture anglaise ou germanique, où l'on adapte sans états d'âme des solutions empiriques, peu à peu perfectionnées, et finalement théorisées. Mais en France  la solution d'un problème doit être justifiée par une théorie préalable pour être socialement acceptée. Et nos meilleurs ingénieurs attirés par l'économie s'orientent vers la finance et non vers l'économie industrielle.  Ceux qui s'engagent dans une activité de consultant se spécialisent  en stratégie boursière, et non technologique.

Ces choix sont de mauvaise augure. Nos chances de redressement sont ailleurs.

Les besoins prévisibles en instrumentation de mesure sont d'une ampleur sans précédent, en raison de multiples facteurs :

·                                la poursuite du développement technologique, avec la sophistication croissante des techniques industrielles mises en oeuvre, la multiplication des paramètres à prendre en compte et la nécessité de sécuriser des systèmes de plus en plus complexes,

·                               la généralisation des capteurs de mesure dans le domaine de la santé, notamment par la miniaturisation des instruments médicaux de contrôle, d'imagerie ou de télécommande jusqu'au niveau cellulaire,

·                               la réalisation à l'échelle planétaire de réseaux de détection des nuisances, de protection de l'environnement et de prévention des risques majeurs,

·                               la mise en place de normes industrielles et commerciales strictes et de leur instrumentation de contrôle, pour garantir l'honnêteté des transactions  et réprimer les malfaçons et les fraudes, que favorise la mondialisation des marchés.

La croissance du marché mondial de la mesure devrait être beaucoup plus forte que celle de la production industrielle, à moyen et long terme, du fait à la fois de la technologie et de la mondialisation. Elle est dissimulée en statistique industrielle de la même façon que l'avait été celle de l'informatique, par la combinaison de progrès très rapides des performances et de fortes baisses des prix. La rapidité même de l'évolution des instruments crée un marché très ouvert. Ceux qui sauront en profiter prendront une avance difficile à rattraper.

Il y a là pour la France une chance à saisir... Le fera-t-elle ? Il faut pour cela une politique de la mesure industrielle. Car la diversité des actions, leur prosaïsme apparent, la modicité même des moyens nécessaires en rendraient la réalisation précaire sans une forte volonté politique, appuyant un grand projet fédérateur et garantissant l'unité de conception et d'objectif. Un tel projet est concevable à long terme, donc urgent : un « Plan Mesure », mettant en évidence et en pratique le rôle stratégique de l'industrie de la mesure  dans le développement scientifique, industriel et commercial.

 Une décision politique ?... Lorsqu'un premier ministre déclare que « La politique industrielle ne se décide pas à la Bourse », il joint, si l'on peut dire, le sacrilège au voeu pieux, car la Bourse est précisément le lieu où le dieu du Marché décide du choix des investissements des entreprises, selon les théologiens de l'économie. Si l'on veut qu'il en soit autrement, il ne faut pas enseigner ce dogme aux futurs conseillers techniques des cabinets ministériels ... Par un étrange paradoxe, nous nous soumettons au jeu du libre marché, et nous dépouillons l'État de son pouvoir d'initiative industrielle, alors que d'autres rétablissent en économie leur souveraineté nationale.

 

 10 janvier 2008

 

 

             

Retour au Sommaire