La gestion de la recherche. Nouveaux problèmes, nouveaux outils

373
Version prépublication Manquent deux textes et plusieurs figures GESTION DE LA RECHERCHE Nouveaux problèmes, nouveaux outils Dominique VINCK (éd.) Editions De Boeck, 1991

Transcript of La gestion de la recherche. Nouveaux problèmes, nouveaux outils

Version prépublication

Manquent deux textes et plusieurs figures

GESTION DE LA RECHERCHE

Nouveaux problèmes, nouveaux outils

Dominique VINCK (éd.)

Editions De Boeck, 1991

Table des matières

Introduction par Dominique VINCK

I. A quoi tient le succès des innovations ? L’art de l’intéressement par Madeleine AKRICH, Michel CALLON et Bruno LATOUR L’art de choisir les bons portes-paroles par Madeleine AKRICH, Michel CALLON et Bruno LATOUR

II. Les moments de la gestion Préparer : la démarche d'analyse stratégique et sa mise en œuvre par Philippe LAREDO et Dominique VINCK Décider : la sélection des projets de R&D par Philippe MAUGUIN Suivre : outils et gestion des mises à l’épreuve par Dominique VINCK Evaluer : médiation et préparation des actions futures par Philippe LAREDO et Dominique VINCK Transférer : circulation du savoir et réseaux de collaboration par Philippe MUSTAR

III. Nouveaux outils La méthode Leximappe desmots associés : un outil pour l’analyse stratégique du développement scientifique et technique par Michel CALLON, Jean-Pierre COURTIAL, William TURNER Gestion des programmes publics et réseaux technico-économiques par Michel CALLON Nouveaux outils, nouvelles pratiques : le cas de l’AFME par François MOISAN L’analyse socio-technique par Madeleine AKRICH Pour une description des liens entre science et technique : des brevets aux articles scientifiques par Vololona RABEHARISOA CANDIDE : un outil de veille technologique basé sur l’analyse des réseaux par Geneviève TEIL Une méthode nouvelle de suivi socio-technique des innovations : Le graphe socio-technique par Bruno LATOUR, Philippe MAUGUIN et Geneviève TEIL

IV. Ressources et expériences Les stratégies d'alliance : une voie nouvelle d'accès à la technologie par Thomas DURAND et Nicolas KANDEL Le métier de directeur de recherche par Bruno LATOUR La gestion d'un laboratoire de recherche universitaire par José REMACLE

Introduction La pratique scientifique change. Sa gestion et les politiques qui la mettent en

œuvre sont confrontées à de nouvelles questions. La liaison entre production de connaissance et progrès économique et sociale est devenue, depuis longtemps déjà, problématique. Elle demande à être pensée autrement.

Après quelques années de remises en question, en gros les années ‘70, et de craintes quant aux “impacts” des technologies sur la société, les sciences et les techniques font l'objet, depuis une dizaine d’années, d'un intérêt renouvelé ; elles devraient sortir nos sociétés occidentales de la crise, assurer la relance économique ou, au moins, aider à survivre dans la course au développement technico-économique. La Recherche scientifique et le Développement technologique se font aujourd’hui les véhicules d'un nouvel espoir.

Mais cet espoir est mitigé. La relance ne va pas de soi. Les innovations technologiques ne prolongent pas nécessairement les recherches scientifiques. Les mutations des sociétés et des techniques ne sont pas que bénéfiques. Et les nouveaux marchés ne se déduisent pas des rêves techniques. Bref, les sciences et les techniques alimentent autant de craintes que d’espoirs. Elles cristallisent à la fois nos ambitions, nos volontarismes et nos tâtonnements.

Nouvelles pratiques Au niveau des pouvoirs publics, tout d’abord, les politiques scientifiques ont

connu de nouveaux développements qui s'articulent autour des notions d'évaluation des choix technologiques, de programme de Recherche et Développement technologique (R&D) et plus récemment d'analyse stratégique. Au niveau des entreprises, ensuite, la recherche scientifique et le développement technologique gagnent le statut de ressource stratégique et font l’objet de suivis spécifiques. Dans les universités, enfin, les chercheurs établissent de nouveaux liens entre leurs travaux et des partenaires socio-économiques. Toutes ces nouvelles pratiques témoignent de ce même double souci de compter sur et de pousser le développement technologique en même temps que de l'évaluer et de l'orienter. Les politiques font des choix technologiques ; la société leur demande d’en rendre compte. Ils dépensent des sommes considérables dans la recherche et veulent aujourd’hui en évaluer les

résultats. Les industriels savent que la technologie devient pour eux une arme mais elle est couteuse et à double tranchant. Les choix technologiques sont parfois des “quitte ou double”. Aussi, progressivement, l’innovation technique vient au cœur des préoccupations stratégiques des états et des entreprises.

Par ailleurs, le régime de l’innovation et de la recherche change. Si, autrefois, elles étaient le fait de chercheurs isolés, elles sont, au moins depuis de début de ce siècle, liées à des équipes. Le laboratoire est l’unité de base. Et les relations que ceux-ci ont entre-eux passent principalement par la publication, la circulation et la lecture d’articles scientifiques ou par des discussions communes (au sein des sociétés scientifiques notamment). Mais cette réalité elle-même change profondément sous nos yeux. Des collaborations nouvelles et diverses sont établies entre universités, entreprises et pouvoirs publics, entre autres. Celles-ci sont à la base d’un nouveau régime d’innovation et de recherche qu’il faut encore apprendre à déchiffrer. Les anciennes sub-divisions ne sont plus toujours pertinentes. De nouvelles pratiques de recherche ont aujourd’hui une importance croissante, telles que la Recherche Technologique de Base, pour reprendre l’expression forgée par Michel CALLON. Celle-ci, par exemple, doit satisfaire à deux ordres d’exigence ; en tant que production de connaissances, elle est sanctionnée par les collègues au sein du monde académique et en tant que source de nouveaux savoir-faire, elle est aussi sanctionnée par le marché.

Nouveaux problèmes Toutes ces nouvelles pratiques, auxquelles sont confrontés les gestionnaires de la

recherche qu’ils soient dans les entreprises, dans des organismes publics ou dans des universités, demandent à être déchiffrées. Elles soulèvent de nouvelles questions : que sont donc ces nouvelles pratiques (Recherche Technologique de Base) ? Comment sont-elles régulées ? Comment laboratoires universitaires et privés coordonnent leurs travaux ? Que font les chercheurs quand ils créent des réseaux pour harmoniser leur langage et leurs méthodes ? Comment créer et gérer des réseaux, surtout quand ils associent des acteurs aussi différents que des cliniciens et des sociétés d’ingénierie, des petites et moyennes entreprises et des équipes universitaires réputées au niveau académique, ou encore, des grandes entreprises et des laboratoires publics ? Que se passe-t-il lors de la mise en œuvre d’une politique publique de R&D ? Quel est son impact ?

Ces interrogations ne viennent pas seulement des nouvelles manières de produire des connaissances et des artéfacts. Elles sont aussi liées à une lecture renouvelée du processus d’innovation à partir des acquis récents des recherches réalisées dans le champs Science-Technologie / Société. Dans plusieurs disciplines de recherche, en

sciences humaines, la construction des connaissances et des objets techniques ainsi que la formation de notre monde (post-)moderne à dominante scientifique et technique sont devenues, depuis une dizaine d'années, une préoccupation de recherche majeure. Les historiens des sciences et des techniques proposent de nouveaux cadres d'analyse qui prennent en compte les intrications étroites de celles-ci avec la société (SHAPIN, 1982 ; HUGHES, 1983 ; LATOUR, 1984 ; SERRES, 1989). Une nouvelle génération de sociologues des sciences s'intéresse de près aux pratiques et aux processus de construction des connaissances scientifiques, des objets techniques et des marchés (BIJKER, 1987 ; BLOOR, 1976 ; CALLON, 1982b, 1985, 1989a ; KNOOR, 1981 ; LATOUR, 1979b, 1987, MCKENZIE, 1985). Les sémioticiens se penchent sur les textes scientifiques (BASTIDE, à paraître) et sur les objets (AKRICH, 1987). Les économistes du changement technique, après avoir analysé l'innovation et sa diffusion (FREEMAN 1982, 1984 ; SAHAL, 1985), ouvrent les boîtes noires des objets techniques (ROSENBERG, 1982 ; DAVID, 1986 ; ARTHUR, 1988). Enfin, et sans vouloir toutefois être exhaustif, les chercheurs en gestion des entreprises se sont penchés, plus que de coutume, ces dernières années, sur le facteur technologique (DE

WOOT, 1988 ; DUSSAUGE, 1987 ; MORIN, 1985 ; PORTER, 1982, 1986) au point, pour certains, d'en faire le cœur des nouvelles stratégies (GEST, 1986). Progressivement, toutes ces disciplines accumulent les éléments d'une nouvelle compréhension des sciences, des techniques et des sociétés.

En bref, il n’est plus question de relation linéaire entre production de connaissances et création de marchés, ou l’inverse, entre objet et utilisation, entre politique scientifique et impacts. Les connaissances et les artéfacts techniques résultent d’un travail de construction au cours duquel les nombreuses et diverses interactions ont donné leur forme aux résultats. L’objet technique résulte d’un travail d’associations entre des entités très différentes ; ainsi, ce biologiste qui s’acharne à lier ensemble de façon durable des enzymes, un boîtier photo, un texte de loi et des paysans. John LAW parle, à ce propos, d’ingénierie hétérogène (LAW, 1987b).

Nouveaux gestionnaires et nouveaux outils Confronté à ces pratiques et inspirés par la nouvelle compréhension des processus

d’innovation, le gestionnaire est amené à penser différemment son travail. Gérer la recherche et l’innovation est un Art, comme l’est celui de l’ingénieur ou du médecin. Le gestionnaire fait appel à des ressources variées pour préparer, mettre en œuvre, suivre et évaluer ses interventions. La gestion de la recherche ne se limite ni à la gestion comptable ou financière, ni à celle des contenus scientifiques et techniques. A tout moment, le gestionnaire est amené à lier des personnes qualifiées à des enjeux politiques ou économiques, des problèmes de recherche à des procédures administratives, des ressources financières à des équipements. Aussi, puise-t-il dans

les connaissances provenant de diverses disciplines scientifiques qu’il traduit pour élaborer ses propres outils. Il cherche à mieux comprendre et à mieux gérer les cheminements des idées, des connaissances, des objets techniques, des utilisateurs et de la multitude des autres intervenants. La gestion est un lieu privilégié pour réaliser des synthèses à partir des acquis de différentes disciplines et c’est donc un grand honneur que de se poser des questions de gestion.

Jusque récemment, ces nouveaux gestionnaires, anciens scientifiques pour la plupart, se forment sur le tas : par essais et erreurs, en réalisant des expériences en grandeur nature et en relisant leurs réussites et leurs échecs. Les politiques qu’ils ont mises en œuvre, par exemple, ne produisent pas les effets qu’ils attendaient mais d’autres qu’ils apprennent à identifier. Il est peut-être temps d’assister et de préparer ce travail en proposant de nouveaux outils d’analyse et d’intervention et en organisant des formations spécifiques tant chez les scientifiques, les ingénieurs que chez les économistes appelés, de plus en plus, à gérer des contenus scientifiques et techniques. De quels outils dispose-t-on ? Sont-ils appropriés pour décrire, suivre, analyser et modifier les réalités qu’ils sont amenés à gérer ?

Si le nouveau gestionnaire est appelé à jouer un rôle central au niveau des politiques publiques de recherche et de la gestion stratégique de l’innovation dans les entreprises, il n’y a malheureusement, pour lui, aucun travail qui préparer sa tâche de traduction et d’articulation dans des pratiques concrêtes des acquis des diverses disciplines qui se sont penchées sur la production de connaissances scientifiques et d’artéfacts techniques. En particulier, s’il se réfère aux ouvrages consacrés à la gestion de la recherche, il se trouve coupé d’une partie des acquis récents des historiens et des sociologues des sciences voire même des économistes du changement technique. Si, au contraire, il se prend de passion pour les études anthropologiques de laboratoires, il est renvoyé à lui-même pour en tirer quelques conclusions qui lui soient utiles dans sa pratique de gestion quotidienne.

Cet ouvrage tente de se placer, comme le gestionnaire, dans les interstices entre les disciplines. Il entre-prend. Il s’efforce de jeter quelques passerelles entre des mondes intellectuels qui s’ignorent et, par là, de provoquer des fertilisations croisées. En ce sens, il s’inscrit dans un mouvement plus général, les recherches dans le champ STS (Science-Technique / Société) où des rencontres significatives entre disciplines sont en train de se produire. Il en est ainsi de la sociologie des sciences, de l'ethnométhodologie et de l'histoire des sciences et des techniques. La sociologie des sciences a, par ailleurs, exploité certaines des possibilités qu'offrent aujourd'hui les mathématiques et les outils informatiques pour proposer de nouveaux outils d'analyse (analyse bibliométrique, méthode des co-citations, méthode des mots associés) autour desquelles une discipline nouvelle s'est construite : la scientométrie (CALLON, 1986). D'autres rencontres de la même ampleur se profilent aujourd'hui, particulièrement,

entre les disciplines précédentes et l'économie. Elles conduiront probablement à des développements conceptuels et méthodologiques majeurs pour les prochaines années.

Pour le sujet qui nous concerne plus spécifiquement dans cet ouvrage, à savoir la gestion de la recherche et de l'innovation, peu de croisements fertiles de ce type ont été opérés. Les plus importants concernent la gestion publique de la recherche et la politique scientifique. Les premiers travaux ont porté sur l'évaluation des programmes publics de recherche (ARVANITIS, 1986 ; RIP, 1986) tandis qu'il tendent aujourd'hui à analyser la préparation et le suivi des interventions ainsi qu'à construire de nouveaux outils de gestion. En matière de gestion privée de la recherche et de l'innovation, une telle rencontre n'avait pas encore eu lieu1.

Cet ouvrage est destiné à faire connaître quelques acquis récents des études sociales sur les sciences et techniques. Nous espérons qu'il sera, comme un objet technique innovant, repris, utilisé, transformé et, de ce fait, diffusé par les travaux de nombreux chercheurs et praticiens de la gestion et de la politique de la science.

Toutefois, la tentative est limitée. Rien d’exhaustif ni de systématique. Pas de grande synthèse mais seulement une traduction : celle des acquis récents de la sociologie des sciences dans la pratique de la gestion de la recherche. Traduction qui se présente tantôt sous la forme d’une lecture renouvelée des problèmes, des pratiques et des outils de la gestion et de la politique scientifique, tantôt sous la forme d’outils complètement originaux dont certains ne sont encore que des prototypes et n’attendent qu’à être repris et transformés par des spécialistes en gestion.

Il nous faut donc dire quelques mots de cette sociologie des sciences et des techniques qui inspire fondamentalement la plupart des auteurs de cet ouvrage. Et pour ce faire, nous ne pourrons éviter de réécrire un bout de l’histoire de cette discipline.

Petite histoire de la sociologie des sciences et des techniques La sociologie s’est intéressée depuis longtemps déjà à la production sociale des

connaissances. Au débuts, dans les années ’30 avec MANNHEIM (MANNHEIM, 1952, 1956), elle excluait le contenu de la science du champ de ses analyses. Les énoncés et la dynamique scientifiques avaient un statut particulier ; ils n’étaient pas comparables aux autres systèmes de croyances et aux autres formes de connaissances. Les seules analyses sociologiques sur les sciences portaient sur son environnement et sur son financement. Plus tard, avec MERTON (MERTON, 1938, 1942), elle étend son champ d’investigation pour s’intéresser aux pratiques scientifiques : les normes en science, les systèmes de récompenses (HAGSTROM, 1965 ; STORER, 1966), le développement 1 A l'exception, toutefois du travail du Ph.MUSTAR sur les chercheurs créateurs d'entreprises

(MUSTAR, 1989).

quantitatif (PRICE, 1963), les hiérarchies et le prestige (COLE, 1973), les facteurs de productivité (PELZ, 1966), les relations avec la politique (SALOMON, 1970), les conditions institutionnelles d’émergence de nouvelles disciplines (BEN DAVID, 1966), la division du travail dans les laboratoires (LEMAINE, 1983), les motivations des chercheurs (MASLOW, 1969), l’organisation des colloques et congrès, les stratégies de publications, etc. Les seuls éléments de contenu faisant l’objet d’analyses sociologiques et psychologiques sont les erreurs et les retards, et éventuellement les orientations particulières adoptées par certains chercheurs. Pour l’essentiel, on considère que le mouvement de la science se déduit de sa seule dynamique interne et tombe dès lors sous le regard des épistémologues.

Dans les années ’60, des chercheurs, inspirés par le relativisme culturel des anthropologues, soulèvent des questions nouvelles à propos de notre système de connaissance, par exemple : est-ce que nos sociétés sont aussi rationnelles qu’on le prétend ? Est-ce que les sciences sont vraiment différentes des autres systèmes organisés de croyance (HOLLIS, 1982) ? Pour ces sociologues, les convictions des physiciens nucléaires posent les mêmes problèmes que celles de sorciers africains. Le relativisme gagne une partie de la sociologie des sciences et est à l’origine des interrogations sur la continuité / discontinuité du développement scientifique, sur l’importance relative des facteurs internes et externes, sur l’universalité et la localité de la rationalité. Grâce à des études empiriques, les sociologues des sciences imposent progressivement l’idée selon laquelle la science et le développement technique sont soumis aux mêmes déterminismes que les autres activités humaines.

Contrairement aux rationalistes (LAUDAN, 1977) qui pensent qu’une preuve correcte s’impose par elle-même, au moins aux personnes compétentes et sans préjugés et qu’elle doit normalement entraîner le consensus, les relativistes montrent que ce qui est considéré comme rationnel (pour la connaissance) ou efficace (pour la technique) est différent selon les contextes. Ce qui est reconnu comme preuve ne l’est que de façon locale et à l’intérieur d’un système de croyances donné. Les rationalistes expliquent le non-consensus par des facteurs extérieurs, psychologiques et sociologiques (manque d’information suffisante, préjugés idéologiques aveuglants, résistances au changement, etc). Les relativistes, de leur côté, se refusent à reconnaître a priori des critères absolus et universels de rationalité ou d’efficacité. Les critères étant locaux, ils relèvent d’une explication sociologique. Le consensus est purement social, résultat d’interactions et de négociations entre chercheurs ayant des ressources et des pouvoirs différents, des intérêts cognitifs différents mais qui partagent un même système de croyances, celui de leur communauté. Ces croyances partagées résultent elles-mêmes de négociations et de consensus antérieurs dont l’origine sociale a été occultée et qui apparaissent donc comme vraies, objectives ou naturelles (BARNES, 1974). La sociologie de la science devient la sociologie d’une croyance particulière.

Les sociologues et les historiens relativistes ont ainsi réagi à la fois contre l’absence du social dans les descriptions et les justifications que les épistémologues donnaient du développement des connaissances scientifiques, contre la sociologie classique (mertonienne) qui étudie le fonctionnement de la communauté scientifique et de ses institutions mais s’interdit de s’occuper du contenu même de la science, et contre une histoire des sciences qui n’est qu’une histoire des idées désincarnées (histoire internaliste). Ils rejettent l’idée selon laquelle la nature ou la logique permettent de justifier les connaissances scientifiques et d’assurer le consensus.

Deux grandes idées maîtresses ont marqué la sociologie des sciences de ces quinze dernières années : la notion de paradigme (KUHN, 1962 ; BARNES, 1974, 1977, 1982) et le principe de symétrie (BLOOR, 1976). La première a permis de montrer que des éléments sociaux (traditions, visions du monde, projets d’une communauté scientifique donnée) contribuent à structurer les connaissances scientifiques, y compris dans leurs contenus. L’idée a également été reprise et utilisée pour expliquer des développements technologiques particuliers, notamment par des économistes du changement technique. Cependant, la notion de paradigme n’a pas empêché que l’idée selon laquelle il y a un noyau dur des sciences subsiste ; ainsi, au cœur des pratiques scientifiques et techniques, une fois débarassée de leurs conditionnements sociaux et institutionnels, il y aurait une forme d’objectivité, de rationalité spécifique aux sciences ou de logique technique, au moins en tant qu’idée régulatrice du travail.

L’autre grande idée maîtresse, exprimée par BLOOR puis largement reprise comme principe de méthode par de nombreux sociologues et historiens des sciences, notamment par la plupart des auteurs de cet ouvrage, est celle de symétrie. BLOOR en a fait la pièce maîtresse de son “programme fort” de sociologie des sciences. Le principe de symétrie dans l’explication d’une production scientifique consiste à rendre compte dans les mêmes termes, à traiter de la même manière et à expliquer avec les mêmes causes, les croyances vraies et les croyances fausses, celles qui gagnent et celles qui perdent, celles qui sont acceptées et celles qui sont rejetées. Il en est de même pour les techniques dont le succès ou l’échec doivent être expliqués par les mêmes causes. S’il y a une asymétrie finale (entre une connaissance vraie et une croyance fausse, une technique efficace et une autre obsolète), cela doit être expliqué à partir de l’empilement des multiples éléments contigents qui ont contribué à sa constitution historique. LATOUR (LATOUR, 1984), par exemple, refuse les explications du triomphe final de Pasteur sur son adversaire Pouchet qui font appel à la raison ou au caractère plus rationnel de ses expériences et explications. Il essaye, au contraire, de montrer les facteurs, de toutes sortes (et pas seulement sociologiques), qui interviennent dans la constitution d’une asymétrie finale.

Armés de ces principes, des sociologues se sont rendus sur le terrain du laboratoire pour voir et décrire ce qui se fait effectivement en science et pour se plonger dans l’environnement de travail quotidien des chercheurs et des ingénieurs

(LATOUR, 1979). Ils ont alors mis en cause les idées de vérité, de progrès scientifique et ont refusé toute position privilégiée à la connaissance scientifique. Ils ont mis en évidence les facteurs sociaux qui interviennent dans la construction des contenus de connaissances scientifiques et des objects techniques. Pour certains, les croyances scientifiques et les choix techniques s’expliquent principalement par des déterminants sociaux et non pas par la logique interne et autonome du développement techno-scientifique (FORMAN, 1971)2. Cette position extrême, dénoncée par les rationalistes, n’est cependant pas généralisée parmi les sociologues des sciences. BLOOR, par exemple, affirme qu’il ne faut pas séparer les facteurs sociaux des facteurs cognitifs. Par rapport aux travaux des épistémologues, les sociologues des sciences ont surtout permis de prendre en compte les facteurs sociaux (PICKERING, 1984a, 1984b, 1985) et d’apprécier les circonstances contingentes qui affectent la production et l’évaluation des connaissances scientifiques. Ils essaient de démontrer empiriquement le tissu d’attentes et de buts, spécifiques d’un groupe donné, qui intervient dans la construction des énoncés. Sociologues et historiens des sciences ont ainsi produit des compte-rendus détaillés ; les premiers en suivant de près des controverses scientifiques dont l’issue est encore incertaine, les seconds en transformant des faits scientifiques en produits historiques3. Certains ont porté leur attention sur les relations entre la construction des contenus de connaissances scientifiques et la société globale (BARNES, 1974, 1977 ; FORMAN, 1971, MCKENZIE, 1981) et expliquent l’activité scientifique en recourant au contexte large. D’autres se sont concentrés sur des études de controverses scientifiques particulières voire sur des laboratoires4 et font appel, dans leurs explications, aux contextes plus immédiats.

Ces travaux ont mis en évidence l’importance et l’étendue des controverses. Celles-ci affectent non seulement l’observation de faits et leur interprétation (BAXTER, 1979) mais aussi les critères impersonnels destinés à produire des observations et des interprétations adéquates. Plusieurs suivis détaillés de controverses (PINCH, 1979 ; COLLINS, 1982a,b,c) montrent qu’il n’est pas possible de faire appel aux règles impersonnelles de la procédure expérimentale pour éviter le compte rendu sociologique de la production des faits. Il importe donc de prendre en compte la contingence des résultats scientifiques, des processus de négociation et des multiples interactions qui se jouent dans la construction des connaissances. Les études de laboratoire ont montré que le noyau dur des sciences est construit (constructivisme) à travers de multiples négociations. 2 Dans ce texte, l’auteur (FORMAN, 1971), qui a délibérément exclu de son analyse les textes

scientifiques, démontre l’influence de l’idéologie dominante sur l’abandon de la conception classique de la causalité et sur l’adoption d’une nouvelle conception (l’indéterminisme de la mécanique quantique) permettant aux physiciens de s’adpater à un environnement hostile.

3 Cfr la recenssion qu’en a faite S.SHAPIN in (CALLON, 1985) 4 Les premières études détaillées de laboratoires sont celles de G.THILL (1972), B.LATOUR (1979)

et K.KNORR-CETINA (1981). Depuis, elles se sont considérablement multipliées.

Certains sociologues ont aussi relié les connaissances produites aux intérêts des groupes de chercheurs et à leurs investissements professionnels (leur formation, l’expérience acquise dans leur laboratoire, les appareillages scientifiques (EDGE, 1982), par exemple). L’intérêt du chercheur consiste à poursuivre ses activités et à tirer profit des investissements passés. Il essaie de choisir la voie et la définition du réel qui a le plus de chances d’être féconde pour ce faire. C’est ainsi que la constitution de la nature ou d’une technique devient un enjeu pour lui. L’analyse de ces intérêts et investissements professionnels est une ressource explicative des constructions scientifiques et techniques5.

Les développements précédents de la sociologie des sciences ont permis de montrer que ni la nature, ni la logique, ni les critères interpersonnels de la communauté scientifique — telles que les normes sociales sensées être régulatrices dans la sociologie mertonienne ou la méthode scientifique chez certains épistémologues — ne permettent, à eux seuls, de susciter le consensus sur des produits scientifiques. Il faut donc faire appel à d’autres facteurs, sociaux notamment. Ces facteurs interviennent autant pour les connaissances scientifiques acceptées comme vraies que pour les croyances jugées fausses. Les études de laboratoire et les compte-rendus détaillés de productions d’énoncés ou d’artéfacts ont fait apparaître que rien n’échappe à la contingence et à la négociation qu’il s’agisse de l’interprétation des résultats, de la reproduction des expériences ou des critères permettant de juger la pertinence d’une preuve, l’efficacité ou la rentabilité d’une technique (MCKENZIE, 1984, 1985). Avec les techniques comme avec les sciences, seulement certains groupes sociaux jouent un rôle clef dans l’élaboration du consensus. Il s’agit d’étudier en détail, par exemple, comment les ingénieurs décident effectivement si une technologie marche ou si elle ne marche pas et comment cela est évalué. Les sociologues et historiens ont aussi relié les contenus de pratiques scientifiques et techniques à des éléments plus généraux de la société et ont montré qu’aucune démarcation générale ne pouvait être opérée entre le cognitif et le social (CALLON, 1980).

Cependant, l’explication par le social n’est pas pleinement satisfaisante. Elle ne permet pas de comprendre la stabilité dans l’espace et dans le temps de certains produits scientifiques. Si leur production s’explique par une conjonction locale de facteurs sociaux, on ne voit pas pourquoi ces produits se maintiendraient alors que les conditions changent. C’est ici une des principales difficultés rencontrées par le relativisme. Le social seul ne suffit pas à faire tenir les énoncés et les objets scientifiques.

5 Notamment en histoire des sciences avec les travaux de DEAN, 1979, MCKENSEY, 1979, ALLEN,

1979.

Une autre difficulté, constate CALLON (1986a), tient au fait que les sociologues des sciences introduisent une nouvelle forme d’asymétrie dans leurs explications. Alors qu’ils reconnaissent aux scientifiques et aux ingénieurs le droit à la controverse concernant la nature, ils n’admettent pas que ces controverses s’étendent à la société et à sa constitution. Ils sont relativistes à l’égard de la nature et réalistes à l’égard de la société6. Ils refusent d’accorder à la nature et à la logique un rôle déterminant ; pour eux, ni la nature, ni la logique ne permettent d’expliquer le consensus. Par contre, la société le peut. “Pour eux la Nature est incertaine, mais la Société ne l’est pas” (CALLON, 1986a). Ils réduisent alors les productions scientifiques et techniques à des constructions sociales. Pour rendre compte des sciences, ils font appel à des éléments sociaux (par exemple, les acteurs, leurs intérêts, les classes sociales, les normes, les rôles, etc) qu’ils traitent sans relativisme. CALLON note que cette approche conduit à trois difficultés majeures :

— difficulté stylistique : alors que les scientifiques et ingénieurs engagés dans les controverses les plus techniques doutent autant de la société que de la nature7, les compte-rendus qui en sont donnés gomment les discussions des acteurs sur les structures sociales. Ils ne laissent s’exprimer les chercheurs et les ingénieurs librement que lorsqu’ils parlent de la nature et des techniques. Les analyses et interprétations sociales proposées par les acteurs sont soit écartées, soit retournées contre eux pour expliquer leurs choix scientifiques et techniques au nom d’un savoir scientifique privilégié (la sociologie). Dans le cas contraire, lorsque les acteurs ne sont pas amputés d’une partie d’eux-mêmes, les effets littéraires produits par les compte-rendus sont très différents8. Ces négociations sur la définition de la société et sur l’identité des acteurs est particulièrement frappante dans le cas de développements technologiques qui doivent se trouver un public (CALLON, 1980). Lorsque les controverses sont vives, elles portent indissociablement sur la société et

6 C’est le cas notamment des travaux de Collins (relativisme cognitif mais pas moral), MacKenzie

et de l’Ecole d’Edinburgh en général : Collins H., Changing Order : Replication and Induction in a Scientific Practice, London, Sage,

1985 C’est également le cas de penseurs marxistes pour qui la science est un ensemble de relations

sociales : Young B., Science is Social Relations, Radical Science Journal, 5, 1977, pp 65-129 Cooter R., Deploying “Pseudoscience” : Then and Now, in Hansen M., Order M., Weyant R.,

Science, Pseudoscience and Society, Waterloo, Ontario, Wilfred Laurier Press, 1980, pp 237-272

7 Les travaux de Thevenot et Boltanski montrent également les incertitudes qui pèsent sur la société et sur la taille des acteurs, notamment lors de dénonciations en dehors des controverses scientifiques et techniques (BOLTANSKI, 1984, 1987). Les intérêts des acteurs sont également négociables comme l’a montré (HINDESS, 1982). L’identité des acteurs elle-même est controversable, notamment quant à savoir s’ils sont mus par des valeurs, des intérêts ou des désirs (CALLON, 1982a).

8 Cfr principalement : WATSON, 1968, KIDDER, 1982, LATOUR, 1984.

sur les connaissances car le recrutement d’alliés extérieurs, dont l’identité est problématique, devient nécessaire pour peser dans la négociation. Les scientifiques et les ingénieurs ne sont complètement d’accord sur la société que lorsqu’ils sont complètement d’accord sur les contenus scientifiques et techniques, et inversement.

— difficulté théorique : les controverses entre sociologues des sciences sur les explications à utiliser sont encore plus interminables que celles des scientifiques et des ingénieurs qu’ils étudient. La société est aussi incertaine que la nature ; elle n’offre pas de garantie ultime qui ne puisse à son tour être disputée. Pas plus que la nature elle ne peut être invoquée pour expliquer la clôture d’une controverse scientifique ou technique. Aussi, à partir du moment où on admet que les savoirs sur la nature, sur les techniques et sur la société sont aussi incertains, ambigus et discutables les uns que les autres, il est impossible de leur faire jouer des rôles différents dans l’analyse. L’explication sociologique voit ses fondements se dérober. Il s’agit donc d’étendre aux sciences sociales l’analyse qu’elles proposent des sciences de la nature.

— difficulté méthodologique : dans la recherche scientifique et le développement technologique, l’identité des acteurs et leurs tailles respectives (leurs intérêts, leurs intentions, leurs activités, etc) sont des sujets permanents de discussion. L’observateur qui l’ignore risque de mettre en scène dans ses récits des acteurs dont la réalité et l’existence même sont problématiques.

Vers une socio-économie de l’innovation Aussi, pour faire face aux difficultés, mentionnées ci-avant, des études sur les

sciences et les techniques, de nouveaux courants de pensée, en sociologie, en histoire et en économie s’inspirent aujourd’hui des suggestions de l’école française de sociologie des sciences tant dans ses aspects conceptuels que méthodologiques. Les lignes de force de cette école de pensée peuvent être résumées de la manière suivante :

1. Etendre l’agnosticisme de l’observateur aux sciences sociales elles-mêmes. Il s’agit d’éviter de porter des jugements sur la façon dont les acteurs analysent leur société exactement comme le sociologue des sciences s’abstenait de porter un jugement sur les arguments scientifiques et techniques des acteurs qu’il étudie. Il s’agit donc de ne privilégier aucun point de vue sur les acteurs et d’enregistrer les incertitudes qui portent sur leur identité lorsqu’elle est controversée.

2. Le principe de symétrie généralisée de CALLON (extension du principe de symétrie de BLOOR). Il ne s’agit plus seulement d’expliquer, dans la même manière, les connaissances acceptées et les croyances rejetées. Il faut aussi rendre compte, dans les mêmes termes, des aspects techniques et des aspects sociaux. De nombreux

répertoires peuvent être utilisés, à condition de ne pas en changer lorsqu’on passe d’un aspect à l’autre, par exemple, d’une innovation qui réussit à une autre qui échoue, des aspects techniques aux aspects sociaux.

3. Utiliser la libre association. Il s’agit de repérer comment les acteurs définissent et associent les différents éléments, sans imposer de grille d’analyse préétablie et de grandes distinctions a priori. L’observateur doit enregistrer l’inventaire des catégories utilisées, des entités mobilisées et des relations dans lesquelles elles entrent ainsi que de leurs remises en question permanentes. Il s’agit de rendre aux acteurs leur marge de manœuvre.

4. La théorie de la traduction (CALLON, 1976, 1982a, 1986a) et des réseaux. Il s’agit du répertoire proposé par l’école française conformément au principe méthodologique exposé au point 2 ci-avant.

— La traduction est un processus général par lequel un monde social et naturel se met progressivement en forme et se stabilise. Elle souligne la permanence des déplacements opérés. Elle permet de suivre comment les différents acteurs, notamment les scientifiques et les ingénieurs, sont constamment occupés à redéfinir et à reconstruire la société et le monde en introduisant des associations nouvelles9. L’identité des acteurs, humains ou non-humains, leur taille et leurs intérêts sont constamment négociés tout au long du processus de traduction ; il n’y a pas de monde pré-défini. Ainsi, les acteurs décrivent un système d’alliances ou d’associations (CALLON, 1981b) entre des entités dont ils définissent à la fois l’identité, les problèmes qui s’interposent entre elles et ce qu’elles veulent. Ils définissent un acteur-monde (CALLON, 1986b) (un ensemble de problèmes et d’entités au sein duquel un acteur se rend indispensable) sans lequel aucune entité (par exemple, un objet technique) ne peut être comprise. Il s’agit ensuite de stabiliser l’identité des différentes entités et leurs liaisons en mettant en place des dispositifs d’intéressement pour interrompre les associations concurrentes10.

— A l’idée de traduction est aussi liée celle de mobilisation d’alliés : celle-ci consiste à rendre mobiles des entités qui ne l’étaient pas. Par la désignation de porte-paroles et par la mise en place d’une cascade d’intermédiations et d’équivalences, toute une série d’acteurs sont déplacés et rassemblés en un point. Par la sélection de porte-paroles (échantillon de population, modèle animal, délégation syndicale, ratios comptables), c’est-à-dire d’entités qui parlent au nom des autres et donc qui font taire 9 Ainsi, par exemple, des chercheurs, ayant analysé le développement des techniques (LAW,

1987a, 1988a,b), ont montré que de nombreuses distinctions a priori sont non-pertinentes. Il s’agit, notamment, de la délimitation entre ce qui est acquis et ce qui ne l’est pas, entre science fondamentale et appliquée, entre facteurs sociaux et techniques, entre les acteurs participant aux controverses et les autres, entre contenus et contextes, etc.

10 De nombreuses études ont montré qu’il était possible d’analyser l’argumentation scientifique comme un dispositif d’intéressement : CALLON, 1983, 1984, 1986b, LAW, 1982, 1983, LATOUR, 1984.

celles-ci, la mobilisation contribue à réduire le nombre d’interlocuteurs représentatifs, à convertir des entités nombreuses et hétérogènes en un plus petit nombre d’entités plus homogènes et plus facilement controlables (investissement de forme (THEVENOT, 1985). Certaines entités acquièrent ainsi de la force parce qu’elles réussissent à en mobiliser de nombreuses autres et à se les allier. La mobilisation se matérialise par toute une série de déplacements, de simplifications et de juxtapositions qui conduit à ponctualiser (à transformer en un point ou en une boîte noire (CALLON, 1981, LAW, 1984) un réseau d’entités solidement liées entre elles.

— Lorsqu’une traduction est réussie, elle prend la forme d’un réseau11 contraignant pour les entités en présence. Alors qu’au début d’une traduction, un acteur avançait des hypothèses sur l’identité d’autres acteurs, leurs relations et leurs objectifs, — il composait son acteur-monde, unifié et auto-suffisant — à l’issue du processus, un réseau de liens les contraint et constitue un acteur-réseau avec ses points de passage obligés. Les éléments de l’acteur-réseau sont hétérogènes et mutuellement définis au cours de leur association.

— L’acteur-réseau a sa propre structure constamment susceptible de changer. Les réseaux et les porte-paroles sont toujours contestables. “De la traduction à la trahison, il n’y a souvent qu’un pas”. De nouveaux déplacements peuvent détourner les acteurs des points de passage obligés qui leur avaient été imposés. Les porte-paroles peuvent être dénoncés, les liaisons défaites, les réseaux se disloquer et s’irréaliser : rien n’est irréversible. Du même coup la description de la réalité sociale et naturelle se remet à fluctuer. Il n’y a plus superposition des descriptions d’un acteur à l’autre. Des controverses, par lesquelles est remise en cause, discutée, négociée ou bafouée la représentativité des porte-paroles, éclosent.

De la sociologie des sciences à la gestion de l’innovation La sociologie des sciences et des techniques, dont on vient de lire un condensé,

est une des principales ressources exploitées par les auteurs de cet ouvrage pour penser de façon renouvellée la problématique de la gestion de la recherche et de l’innovation. Les études de laboratoire, les analyses détaillées d’innovations ayant réussi ou échoué ainsi que l’étude des politiques publiques de recherche constitue un fond conceptuel et empirique à partir duquel de nouveaux éclairages et de nouveaux outils peuvent être proposés aux professionnels et aux chercheurs en gestion.

Bien que le chemin à parcourir entre des études de laboratoires, réalisées par des sociologues pris dans des controverses avec leurs collègues philosophes des sciences, et des outils opérationnels de gestion soit long et incertain, il est déjà largement 11 La notion de réseau est utilisée pour rendre de compte des associations entre des entités

hétérogènes.

balisé. Ainsi, le lecteur trouvera dans cet ouvrage, d’une part, des analyses et des réflexions stimulantes pour la gestion de la recherche, d’autre part, un ensemble d’outils et méthodes pour l’analyse stratégique, le suivi et l’évaluation des projets d’innovation. Certains de ces outils sont utilisés couramment, notamment, pour assister les pouvoirs publics et des grandes entreprises dans la définition de stratégies de Recherche & Développement.

Souhaitons qu’à l’avenir, les outils présentés dans cet ouvrage connaissent de nouveaux développements au fur et à mesure que les gestionnaires et chercheurs en management les adopteront. Ils sont, en effet, ces acteurs sans lequels une idée ou une technique n’est rien s’ils ne la reprennent pas pour, tout en la déplacant, la transformer en fonction de leurs propres préoccupations et stratégies.

Plusieurs lectures possibles La première partie donne le ton. Madeleine AKRICH, Michel CALLON et Bruno

LATOUR exposent, en s’appuyant sur de nombreuses situations d’innovation concrêtes, un cadre de pensée : qu’est-ce qui se passe dans un processus d’innovation ? A quoi tient le succès ou l’échec ? Quelles sont les stratégies mises en œuvre par les parties en présence ? Ce texte est quasiment un point de passage obligé.

La deuxième partie dresse un panorama du travail de gestion de la recherche. Elle le découpe en 5 moments : la préparation, la décision, le suivi, l’évaluation et le transfert. Pour chacun, les auteurs (Philippe LAREDO, Philippe MAUGUIN, Philippe MUSTAR et Dominique VINCK) dressent un cadre pour penser le travail spécifique de cette étape de la gestion. Ils s’appuient sur la littérature, les outils et les pratiques existants qu’ils permettent ainsi de situer. Par ailleurs, ils en renouvellent l’articulation, suggèrent de nouvelles pistes pour déchiffrer les situations et indiquent de nouveaux outils pour les gérer.

Le point d'orgue de l'ouvrage, à savoir la troisième partie, est constitué par la présentation d'outils d'analyse et de gestion complètement originaux et quasi inconnus en dehors de la sociologie des sciences et des techniques. Certains d’entre-eux sont d’ailleurs exposés pour la première fois à l’occasion de cet ouvrage ; c’est la ces, notamment, du programme CANDIDE et du graphe socio-technique. Ces nouveaux outils ont de nombreux liens entre-eux ; ils s’inspirent souvent les uns des autres. Le premier outil est le logiciel LEXIMAPPE (Michel CALLON). Destiné à produire des cartes stratégiques de la recherche à partir des données contenues dans les bases de données, notamment bibliographiques, il est aussi le plus ancien. Un autre outil, proposé par Michel CALLON, exploite le concept de Réseau Technico-Economique afin de suivre les interventions des politiques publiques de R&D. Son utilisation pratique fait l’objet d’un texte particulier de François MOISAN,

gestionnaire des programmes de R&D d’un organisme public. Lorsqu’il s’agit de se pencher plus directement sur les objets techniques en cours d’innovation, Madeleine AKRICH propose de s’appuyer sur la méthode de l’analyse socio-technique. Celle-ci peut être utilisée tantôt la conception d’un objet innovant, tantôt le suivi ou l’analyse d’une réussite ou d’un échec. Vololona RABEHARISOA montre alors ce qu’on peut tirer comme information à partir de l’interrogation des bases de données de brevets et de l’utilisation intelligente de quelques outils élémentaires. Geneviève TEIL présente le logiciel CANDIDE, outil récent dérivé de LEXIMAPPE ; il présente l’intérêt de pouvoir traiter des textes pleins et variés (rapports techniques, publications scientifiques, notes d’interviews, études de marché, etc). Cet outil décrit les réseaux de mots-associés dans un ensemble de textes produits au cour du processus de recherche et d’innovation. Enfin, Bruno LATOUR, Philippe MAUGUIN et Geneviève TEIL proposent un outil original de suivi ; celui-ci tire profit des outils précédents pour proposer une représentation visuelle et des indicateurs d’une innovation et de son histoire.

Dans une quatrième partie, nous avons rassemblé quelques textes et témoignages dans lesquels sont abordés deux dimensions particulières de la gestion de la recherche et de l’innovation, à savoir : l’accès aux technologies et la “gestion des hommes” dans un laboratoire ou une entreprise. Les deux premiers textes s'appuient sur les résultats de deux enquêtes correspondantes. Le premier, de Nicolas KANDEL et Thomas DURAND, analyse les stratégies d'alliances en tant que voie d'accès aux technologies. Le second, de Bruno LATOUR, s'intéresse au sort de ces acteurs particuliers de l'innovation que sont les directeurs de la Recherche et Développement dans les entreprises. A cette occasion, il montre la complexité de la tâche qui consiste à gérer à la fois les objets et les chercheurs. Deux témoignages et réflexions de gestionnaires de la recherche, l’un dans un grand groupe industriel (Pierre CROOY), l’autre dans un laboratoire universitaire (José REMACLE), complètent cette dernière enquête.

Que soient ici remerciés tous les auteurs de cet ouvrage dont la contribution à

l’ouvrage dépasse largement le cadre de leurs textes. Dominique VINCK

Présentation des auteurs Madeleine AKRICH, Ingénieur des Mines, Sociologue, Chercheur au Centre de

Sociologie de l’Innovation à l’Ecole des Mines de Paris. Michel CALLON, Ingénieur, Sociologue, Directeur du Centre de Sociologie de

l’Innovation et Professeur à l’Ecole des Mines de Paris. Jean-Pierre COURTIAL, Ingénieur Ecole Centrale, Docteur en psychologie sociale,

Chercheur au Centre de Sociologie de l’Innovation à l’Ecole des Mines de Paris, Maître de Conférence à Aix-Marseille III.

Pierre CROOY, Docteur en Sciences, Directeur des Affaires Scientifiques, chez SmithKline Biologicals, Rhode St Genèse (Belgique).

Thomas DURAND, Ingénieur Ecole Centrale, PhD mécanique des solides (Univ.Wisconsin-Madeson), Directeur du Laboratoire Stratégie et Technologie et Professeur à l’Ecole Centrale de Paris.

Nicolas KANDEL, Ingénieur agronome, DEA génie Rural, Chercheur au Laboratoire Stratégie et Technologie, Ecole Centrale de Paris.

Philippe LAREDO, Docteur en économie, Centre de Sociologie de l’Innovation à l’Ecole des Mines de Paris et conseiller du “Comité National d’Evaluation de la Recherche”.

Bruno LATOUR, Agrégation de philosophe, Centre de Sociologie de l’Innovation, Professeur à l’Ecole des Mines de Paris et

Philippe MAUGUIN, Ingénieur du Génie Rural, des Eaux et Forêts, Chargé de mission auprès du Ministère de la Recherche et Chercheur au Centre de Sociologie de l’Innovation à l’Ecole des Mines de Paris.

François MOISAN, Economiste, Responsable de la programmation de la recherche, Agence Française pour la Maîtrise de l’Energie.

Philippe MUSTAR, Economiste, Chercheur au Centre de Sociologie de l’Innovation à l’Ecole des Mines de Paris, Directeur de la collection CPE (Editions Economica) et de la collection Sociologies (Editions Anthropos).

Vololona RABEHARISOA, , Chercheur au Centre de Sociologie de l’Innovation à l’Ecole des Mines de Paris.

José REMACLE, Docteur en biologie, Directeur de l’Unité de Biologie Cellulaire et Professeur aux Facultés Universitaires de Namur.

Geneviève TEIL, Ingénieur des télécommunications, Chercheur au Centre de Sociologie de l’Innovation à l’Ecole des Mines de Paris.

William TURNER, Bachelor of Art (Univ.of British Columbia, Canada), Docteur en sociologie, Diplômé de l’Institut des Hautes Etudes Européennes (Strasbourg),

Responsable d’un programme de recherche au sein de la direction de l’Information Scientifique et Technique du CNRS.

Dominique VINCK, Ingénieur chimiste et des industries agricoles, Philosophe, Chercheur au Centre de Sociologie de l’Innovation à l’Ecole des Mines de Paris (boursier CEE - programme FAST) et Collaborateur scientifique à la Cellule Interfacultaire de Technology Assessment des Facultés Universitaires de Namur (Belgique).

A quoi tient le succès des innovations ?

L’art de l’intéressement

Madeleine AKRICH, Michel CALLON et Bruno LATOUR

L’art de choisir les bons portes-paroles Madeleine AKRICH, Michel CALLON et Bruno LATOUR

Cette première partie constitue un point de passage obligé. Elle introduit le lecteur

à la problématique de l’innovation en montrant, à partir de nombreux exemples, la difficulté du métier d’innovateur.

L’art de l’intéressement12

Madeleine AKRICH, Michel CALLON et Bruno LATOUR Les ressorts de l'intrigue sont connus. D'un côté l'invention, c'est à dire les idées,

les projets, les plans mais aussi les prototypes et les usines pilotes: en un mot tout ce qui précède la première et incertaine rencontre avec le client et le jugement qu'il rendra. De l'autre côté, l'innovation proprement dite, c'est à dire la première transaction commerciale réussie ou plus généralement la sanction positive de l'utilisateur. Entre les deux, un destin qui se joue selon un scénario mystérieux. Des firmes qui périclitent ou au contraire prospèrent, des nations qui déclinent ou , à l'inverse, deviennent hégémoniques. Un projet jugé prometteur par tous les spécialistes et qui s'effondre soudainement tandis qu'un autre, auquel personne ne croyait plus, se transforme brusquement en succès commercial. Et toujours les mêmes questions. Comment expliquer ces succès et ces échecs imprévisibles? Comment rendre compte de ces retournements inattendus, de ces résistances qui se transforment en adhésion ou de ces enthousiasmes qui se muent en scepticisme puis en rejet?

Nous avons tous en mémoire la brillante réponse apportée, voilà cinquante ans, par J. SCHUMPETER13. Elle tient en un personnage: celui de l'entrepreneur, et en une passion: celle qui le pousse à surprendre ses concurrents , à imaginer de nouvelles combinaisons productives pour dégager des profits extra-ordinaires que viendront bien vite rogner les imitateurs en tous genres. L'entrepreneur est cet être d'exception, qui jouant sur deux tableaux, celui de l'invention et celui du marché, sait amener une intuition, une découverte, un projet au stade commercial. Il est le médiateur, le traducteur à l'état pur , celui qui met en relation deux univers aux logiques et aux horizons distincts, deux mondes séparés mais qui ne sauraient vivre l'un sans l'autre. Que s'interrompe le flux des inventions et bien vite l'économie est prise de langueur; que s'étouffe le moteur de la demande et bien vite se tarit l'inspiration qui conduit aux nouveaux projets.

12 Texte précédemment publié dans Gérer et Comprendre, n° 11, juin 1988 et reproduit avec l’autorisation

des auteurs. 13 C'est à J. SCHUMPETER qu'on doit la célèbre définition de l'innovation comme première transaction

commerciale réussie ainsi que la distinction entre invention et innovation. L'oeuvre de J. SCHUMPETER est difficile d'accès. Sa théorie de l'innovation est présentée dans deux livres (SCHUMPETER, 1934, 1939) dont la lecture n'est pas aisée.

Dans le modèle schumpétérien , la mission de l'entrepreneur est vitale et sa tâche écrasante. C'est lui qui inspecte, filtre, sélectionne, adapte , couple. Il est la vigilance incarnée en une seule et même personne. Il donne à l'économie son dynamisme et à la technologie ses débouchés. L'entrepreneur schumpétérien a existé - les historiens l'ont vu prospérer au tournant du XXième siècle à la fois en Allemagne et aux Etats-Unis - et il existe encore - la puissance publique le place sous perfusion dans les technopoles ou autres parcs scientifiques. En tous temps et en tous lieux il est ainsi des hommes qui, partant d'une idée, la leur ou celle d'un autre , parviennent à recomposer, à force d'obstination, de ruses , d'habileté et de capacité à anticiper, des secteurs industriels entiers. Une économie ne saurait cependant dépendre entièrement de l'inspiration de quelques hommes providentiels. Progressivement, et c'est une des grandes créations du début du siècle, l'entrepreneur schumpétérien a été remplacé par une foule d'intervenants diversifiés14. Le court-circuit qu'il était seul à réaliser, se transforme en une longue chaîne interactive qui va du laboratoire universitaire jusqu'aux services commerciaux des entreprises en passant par les unités de production, les centres de recherche industriels, les laboratoires techniques, les services de planification des firmes voire même les administrations publiques. La mise en relation du marché et de la technologie, par lesquels se construisent patiemment et les inventions et les débouchés qui les transforment en innovation, sont de plus en plus souvent le résultat d'une activité collective et non plus seulement le monopole d'un individu inspiré et obstiné. Les qualités individuelles: perspicacité, intuition, sens de l'anticipation, rapidité, habilité, entregent, doivent être réinventées et reformulées dans le langage de l'organisation. Elles ne sont plus les propriétés d'un seul, mais deviennent des vertus collectives dans l'émergence desquelles l'art de gouverner et de gérer jouent un grand rôle.

Comment dépasser les limites inhérentes à l'activité d'un seul individu, tout en conservant les qualités qui assuraient son succès? Comment le remplacer par une multitude plus efficace? Comment en d'autre mots diviser le travail tout en multipliant la capacité de vigilance? Les réponses , apportées à cette question qui a été au centre de nombreux travaux de spécialistes de l'entreprise, se résument facilement. Est innovatrice une organisation ou un ensemble d'organisations qui favorisent les interactions, les allers et retours permanents, les négociations en tous genres qui permettent l'adaptation rapide15. Comme le manifeste la figure emblématique de l'entrepreneur schumpétérien, dont le rôle est de faire surgir des associations inattendues, l'innovation ne ressemble en rien à un processus linéaire , en une série 14 A vrai dire J. SCHUMPETER avait envisagé cette transformation comme le montrent ces derniers écrits, qui

sont en France les plus populaires (SCHUMPETER, ). 15 La bibliographie est abondante. Contentons-nous de citer deux ouvrages qui à vingt cinq ans d'intervalles

délivrent le même message, le premier sous une forme académique (BURNS, 1961), le second sous une forme plus provocatrice et moins nuancée (PETERS, 1985). Pour une bonne présentation de la littérature voir : (SAINFORT, 1987).

d'étapes obligées allant par exemple de la recherche fondamentale au développement. Pour reprendre l'heureuse expression de C. FREEMAN, qui sur ce point se fait le porte parole fidèle de tous les économistes de l'innovation, elle ressemble à un phénomène de couplage (coupling process) mais d'une nature particulière puisque les deux éléments mis en relation - le marché et la technologie - évoluent de façon imprévisible16. Pour avoir une idée assez juste de la complexité du processus d'innovation, il faudrait imaginer une fusée pointée en direction d' une planète dont la trajectoire à long terme est inconnue et décollant d'une plate forme mobile dont les coordonnées ne sont calculées que grossièrement; il faudrait également imaginer une division des tâches qui spécialise certains dans l'observation de la planète, d'autres dans le calcul de l'emplacement de la plate forme , d'autres encore dans la définition de la puissance des moteurs...; il faudrait enfin imaginer des décideurs qui à tout moment devraient tenir compte des informations parfois incompatibles produites par tous ces spécialistes.. On comprend dans ces conditions pourquoi les maîtres mots sont ceux d'interactions, de décloisonnement, de circulations de l'information, de concertation, d'adaptation et de souplesse17. Cet acteur collectif doit pouvoir réagir à toutes les fluctuations , il doit être en mesure de saisir toutes les opportunités. Pour innover il faut donc éviter les modèles rigides, mécaniques, les définitions trop précises des tâches et des rôles ainsi que les programmes trop contraignants.

Ces mots d'ordre - décloisonnement, création de structures ad hoc , adaptation ! - qui résonnent comme antiennes à la messe, sont sans nul doute utiles. Il reste qu'il existe mille manières d'interagir et de choisir avec qui interagir. Le modèle organique18, qui s'inspire de métaphores biologiques, ne suffit pas à garantir le succès, même s'il permet d'en préciser les conditions. Il décrit un climat organisationnel sans lequel les évolutions nécessaires au développement de nouveaux projets deviennent difficiles, mais il ne dit rien sur le processus d'innovation lui-même. Or, ce dont nous avons tous besoin, pour progresser dans l'art de gérer les innovations, c'est d'une meilleure compréhension des mécanismes par lesquels celles-ci réussissent ou échouent afin d' élaborer quelques principes qui servent de guide à l'action.

Pour parvenir à cette compréhension fine des mécanismes du succès ou de l'échec, sans laquelle l'écart entre celui qui participe à l'innovation et celui qui s'efforce d'en 16 "Innovation is a coupling process; the test of successful entrepreneurship and good management is the

capacity to link together these technical and market possibilities, by combining the two flows of informations" (FREEMAN, 1974). C. FREEMAN ajoute un peu plus loin: "The fascination of innovation lies in the fact that both the market and the technology are continually changing. Consequently there is a kaleidoscopic succession of new possible combinations emerging". La meilleure critique des modèles qui refusent de traiter de manière symétrique le marché et la technologie se trouve in : (MOWERY, 1979).

17 La forme la plus extrême prise par ces recommandations est le Management By Wandering Around (MBWA) de la Passion de l'Excellence (op. cit.). Dans ce cas la gestion se réduit à la seule quête d'informations. Ecouter, interagir,travailler en groupe : telles sont les nouvelles (!) Tables de la Loi. Voir sur ce point : (KERVERN, ).

18 Cette notion a été proposée voilà bientôt trente ans par BURNS et STALKER, qui l'ont reprises à DURKHEIM!

rendre compte demeurerait infranchissable, il faut se méfier comme de la peste des récits édifiants qui invoquent après coup l'absence de marché, les difficultés techniques ou les coûts rédhibitoires. A chaud toutes ces questions sont controversées. Si le véhicule électrique (VEL) est désormais considéré comme un projet qui ne pourra raisonnablement déboucher avant la fin du siècle, c'est parce qu'on a appris à travers bien des vicissitudes que le fonctionnement et la rentabilité des piles à combustibles dépendaient de catalyseurs qui ne sont pas prêts de voir le jour, que l'automobile thermique pouvait être améliorée au delà de ce qu'on espérait et que les mouvements de défense de l'environnement étaient une flambée sans lendemain. Tout ce qui , au début des années 70, rendait le VEL possible , voire inévitable , apparaît aujourd'hui comme autant d'explications de son échec! A quoi cela servirait-il de rendre compte de ce retentissant fiasco en invoquant les difficultés techniques, l'évolution du marché ou la rentabilité douteuse du projet ? Tout cela est vrai, banalement vrai, mais d'une vérité que l'histoire a produite à tâtons . Doctus post factum . Une fois ces certitudes , d'ailleurs provisoires,douloureusement acquises , l'affaire est instruite et le dossier est clos . C'est le moment que choisissent les donneurs de conseils pour s'abattre sur les pauvres innovateurs en difficulté. La chouette de Minerve s'envole au soir tombé: quand on devient sage il est déjà trop tard. Et pourtant , au milieu du gué, qui eût osé prononcé un jugement sans appel? Comment oublier par exemple l'état de commotion et de terreur dans lequel était plongée une entreprise comme Renault que le choc pétrolier et l'avenir par tous promis aux piles à combustibles réduisirent au silence pendant trois ans ? Qui se souvient , dix ans après, de cette indécision, de ces incertitudes, de cette cacophonie ? (CALLON, 1979) Certains des protagonistes, tellement marqués par l'échec et tellement démunis face aux savants discours de ceux qui viennent leur expliquer pourquoi ils se sont trompés, sont maintenant prêts à reconnaître leurs erreurs passées et leur responsabilité. Pire que les procès staliniens ! Leur voix tremble, alors que voilà quinze ans ils croyaient dur comme fer à ce qu'ils proposaient. Ils ont été battus et en plus ils doivent faire amende honorable. Telle est la redoutable efficacité de ces explications qui ne sortent pas des discours d'accusation: faire porter le poids de la faute à ceux qui ont osé, faire se rétracter ceux grâce à qui sont devenus savants ces juges qui donnent maintenant des coups de menton !

Cette exigence - restituer l'innovation à chaud sans faire intervenir dans l'explication des éléments qui ne sont connus qu'en fin de parcours - conduit à récuser toute histoire, toute interprétation qui censure, évalue , ou pis, ridiculise les prises de position ou les argumentations qui sont développées au moment où les décisions sont prises. La règle est de rétablir, sans prendre partie , les points de vue et les projets des uns et des autres , d'éviter de laisser croire qu'avec un peu de jugeote , tel protagoniste , qui se fourvoie "parce qu'il est aveuglé par ses intérêts ou qu'il est mal conseillé", aurait pu prendre une décision rationnelle et reconnaître de lui-même le bon chemin. Laisser se dérouler les épreuves qui départagent les concurrents. En un mot faire

preuve de suffisamment de tolérance et d'agnosticisme pour que des décisions, qui sur le coup étaient prises au sérieux y compris par leurs adversaires, ne changent pas de signe , dans le récit qui en est fait, pour être qualifiées de légères ou d'imprudentes. Et qu'à l'inverse , une opinion minoritaire, combattue par la majorité , ne soit après coup présentée comme prémonitoire.

Cette exigence de méthode, en ouvrant la voie à une théorie de l'innovation qui reste au plus près des acteurs et de ce qu'ils vivent , réduit considérablement le volume des données et des informations utilisables. Alors que la littérature sur la gestion de l'innovation occupe des bibliothèques entières, les études de cas qui évitent le piège des explications rétrospectives demeurent encore très peu nombreuses même si elles commencent à se multiplier. Nous disposons en tout et pour tout de quelques remarquables travaux d'historiens américains, d'une série limitée de témoignages de journalistes ou d'ingénieurs et de trop rares analyses sociologiques faites à chaud. C'est peu, mais c'est assez pour en tirer de premiers enseignements. C'est à leur présentation que sont consacrés ces deux articles qui visent à rendre intelligibles , et à terme plus facilement maîtrisables, les mécanismes de l'échec et du succès.

Un méli-mélo de décisions en tous genres et qui ne peuvent attendre Analysée à chaud l'innovation laisse apparaître une multiplicité de décisions

hétérogènes, souvent confuses , dont on ne peut a priori décider si elles seront cruciales ou non, et qui sont prises par un grand nombre de groupes différents et souvent antagonistes.

Un des meilleurs témoignages sur la variété et la complexité des décisions qui forment la trame d'une innovation est celui livré par John T. KIDDER dans son livre The soul of a new machine, qui est rapidement devenu un best seller aux USA et a été traduit en français (KIDDER, 1982). On imagine mal dans notre pays qu'un journaliste accepte de suivre au jour le jour, pendant près de deux ans, la conception d'un nouveau micro ordinateur. C'est pourtant ce qu'a osé KIDDER. Il a partagé le travail, les doutes et les enthousiasmes d'un petit groupe d'ingénieurs installés dans les sous-sols d'une de ces nombreuses firmes qui prolifèrent le long de la route 128 et qui se livrent une concurrence acharnée. Ils les a accompagnés pendant de longs mois dans les combats qu'ils ont livrés pour faire déboucher leur projet. Le résultat littéraire est remarquable. Ce livre est aux industries de haute technologie ce que Au bonheur des dames était à la naissance des grands magasins et Germinal au développement de l'industrie minière. Dépeignant sans fard et avec un réalisme convaincant la mise en forme d'un nouvel objet technique, il constitue un véritable essai sur le management de l'innovation, montrant à la fois les décisions prises en permanence par les ingénieurs engagés dans le projet et les grandes incertitudes qui les entourent. Voici une histoire aussi

embrouillée, aussi illogique et apparemment aussi irrationnelle que n'importe quelle aventure romanesque et qui parle de l'objet technique apparemment le plus logique et le plus impitoyablement prévisible.

Tout commence par une obscure histoire de déménagement . Il faut la décision , prise par la direction de Data General, de déplacer les équipes de recherche en Caroline du Nord où la fiscalité est particulièrement favorable aux entreprises, pour faire naître une compétition interne entre deux projets concurrents. Le premier, qui bénéficie de l'appui officiel des dirigeants est ambitieux: l'argent coule à flot pour permettre à des ingénieurs triés sur le volet, et installés dans les nouveaux locaux de l'entreprise, de travailler à une génération nouvelle de micro-ordinateurs. Dans le même temps , sous la houlette de West - un ingénieur entreprenant que l'exil en Caroline du Nord ne séduit pas et qui parvient à convaincre presque par surprise son supérieur hiérarchique - prend forme un projet analogue mais plus modeste. Et comme dans les contes de fées, c'est l' équipe animée par West qui l'emporte. Pendant que le projet officiel s'enlise dans le perfectionnisme et dans le paradis fiscal de la Caroline du Nord, le petit commando avance à pas de géant dans la quasi-clandestinité, prend rapidement ses décisions, remet plusieurs fois les prototypes en chantier et débouche deux ans plus tard sur un produit commercialisé qui s'arrache comme des petits pains. On ose à peine appeler décision cette mise en concurrence qui n'aurait jamais existé sans le déménagement et sans l'opiniâtreté d'un ingénieur qui arrache à ses supérieurs la possibilité de continuer à travailler à Westborrough. Les schémas habituels sont mal adaptés. Non seulement la notion de rationalité est de peu de secours, mais celle de décision est encore trop claire, trop explicite pour rendre compte d'une bifurcation qui se fait à l'insu du plus grand nombre. On est plus proche de la perruque, de ses tâtonnements et de ses coups de force que de la réflexion lucide et des débats ouverts.

Une fois le train mis sur ses rails, tout reste à faire. Les décisions se multiplient. Va-t-on ou non maintenir la compatibilité avec la gamme des précédents micros? Opte-t-on pour un simple 32 bits ou pour un bit de mode qui permet de combiner deux ordinateurs en un seul dont le premier est "un 16 bits tout ce qu'il y a de plus ordinaire" tandis que le second est, par un simple effet presse-bouton, "un ordinateur à 32 bits , élégant et rapide" ? Décide-t-on de faire confiance à une nouvelle puce, PAL, particulièrement performante , dont un producteur vient d'annoncer les prometteuses caractéristiques et dont la commercialisation devrait - mais en est-on vraiment sûr ? - coïncider avec le lancement du micro sur le marché? Et puis il faut embaucher, et vite, de nouveaux ingénieurs, sélectionner avec soin les candidats, car c'est d'eux que dépendront le succès ou l'échec du projet, définir leur degré d'autonomie, de telle sorte qu'ils fassent preuve d'assez d'initiative pour innover sans pour autant partir dans toutes les directions. Ce n'est pas tout. Une fois le projet lancé, les décisions techniques se font de plus en plus pressantes: pour tester le micro-ordinateur , est-il , par exemple, préférable de concevoir de complexes programmes destinés à faire simuler par des

ordinateurs existants le fonctionnement de l'ordinateur en projet, plutôt que de se contenter des habituels prototypes?

" Tom , je voudrais qu'on prépare un simulateur" . West, de guerre lasse, lâche :"Eh bien vas-y,

mais c'est de l'argent et du temps de perdu" (KIDDER, op.cit.)

Cette décision arrachée par un jeune qui ne doute de rien à un ingénieur chevronné qui doute de tout, s' avèrera, mais seulement après coup, absolument décisive. Le simulateur, réalisé contre toute attente en seulement six semaines, permettra de gagner un temps précieux. Ce temps qui est tellement capital, car l'innovation est un parcours qui de décision en décision vous amène au bon moment sur le bon marché avec le bon produit. Sans cette pression permanente qui peut à tout moment transformer une bonne décision en son contraire, l'innovation devient une promenade de santé qui risque de se terminer dans le drame. Comme dans une partie d'échecs où l'on arrêterait l'horloge puis que l'on interromprait brutalement sans prévenir les joueurs déjà habitués à prendre tout leur temps. La Caroline se hâte avec lenteur, pensant bien faire et mettre toutes les chances de son côté, mais le temps qu'elle prend n'est ni celui celui de ses clients, ni celui que lui concèdent les concurrents et l'équipe dirigée par West. Elle se laisse dépasser par les événements, occupe des positions qui ne commandent plus rien et finit par sortir du jeu, disqualifiée. Pour comprendre le processus de l'innovation il faut non seulement restituer la diversité des décisions à prendre et leur complexité, mais également le temps qu'elles se fabriquent et dans lequel elles se glissent, l'irréversibilité qu'elles créent au jour le jour et qui transforme la prudence en pusillanimité et la réflexion approfondie en coupable temporisation.

Parmi toutes ces décisions, celles qui semblaient secondaires au moment où elles ont été prises, peuvent s'avérer par la suite aussi cruciales que celles qu'on pensait stratégiques. Il est difficile, sauf après coup, de les hiérarchiser, de pondérer leur importance relative. Même la décision, très tôt prise, d'adapter la taille d'Eagle, c'est le nom donné à l'ordinateur tout au long de sa conception, aux ascenseurs d'extrême orient , n'est pas négligeable car elle contribue à ouvrir un marché de "taille" ! Dans un projet d'innovation, comme de manière plus générale dans toute activité de recherche, ce sont les détails qui finissent souvent par compter et qui, ajoutés les uns aux autres , font la différence entre un échec et un succès.

Les acteurs qui interviennent pour prendre ces décisions sont tellement nombreux et celles-ci sont tellement embrouillées qu'en bout de course plus personne ne sait à qui attribuer la paternité des résultats. L'état d'abattement qui suit l'innovation, analogue à la dépression qui s'empare de la parturiente, est en partie dû à ce sentiment bizarre, à ce goût de cendre sur les lèvres que laisse tout projet qui échappe un peu à ses auteurs. A-t-on vraiment voulu cela ? Qui l'a vraiment voulu? Les ingénieurs eux-mêmes sont tout

surpris du résultat. Et certains voudraient le présenter comme une suite cohérente, un programme logique, un enchaînement de décisions rationnelles!

" La boîte ne nous l'a jamais demandée cette machine" s'écria Guyer. "Nous la lui avons offerte.

C'est nous qui l'avons conçue" . " Cette machine , c'est West qui l'a créée"... "Attends, répète, c'est West qui a créé quoi?" (KIDDER, op. cit.)

Quelques mois plus tard l'accord sur les responsabilités sera probablement obtenu et la recherche en paternité aura fini par aboutir. Mais à l'instant précis où la machine est présentée au Grand Salon , les ingénieurs se retrouvent tout décontenancés devant elle, ne sachant pas comment ils en sont arrivés là. Tout rentrera bientôt dans l'ordre et se constitueront , par négociations successives, des histoires officielles comme celle qu'on raconte après coup pour pour expliquer la victoire de Scipion l'Africain sur Hannibal . Dans le feu de l'action, il n'y a pas un architecte mais plusieurs, il n'y a pas un décideur mais une multitude, il n'y a pas un plan mais dix ou vingt qui s' affrontent. Le micro-ordinateur n'est rien d'autre que cette histoire cahotante , faite de bruits et de fureurs et qui laisse désemparés ses propres acteurs.

"West n'était jamais très sûr de ses sentiments et des intentions de l'étage supérieur au sujet de son

équipe; ses propres lieutenants à leur tour, ne savaient trop à quoi s'en tenir sur ses intentions à lui; quant aux nouveaux venus, les jeunes ingénieurs , ils étaient laissés dans l'ignorance la plus complète ou peu s'en faut, des enjeux réels, des intentions et des tactiques qui se cachaient derrière ce qu'on leur demandait de faire" (KIDDER, op. cit.)

Il ne faudrait pas imaginer que cet embrouillamini de décisions prises à la hâte , en toute méconnaissance de cause et sans que l'on sache vraiment lesquelles finiront par compter , soit l'apanage des technologies de pointe où tout bouge de façon imprévisible. La situation si bien décrite par KIDDER est générale. Dans toutes les innovations étudiées par le CSI, qu'il s'agisse d'un brûleur à charbon pulvérisé, d'un lit fluidisé ou d'un nouveau procédé de filtration du lait, les décisions à prendre en toute urgence comme celles que l'on prend sans vraiment s'en rendre compte , se succèdent dans leur diversité et leur hétérogénéité, impliquant une multitude d'acteurs aux compétences et aux projets dissemblables, chacune d'entre elles, aussi mineure paraisse-t-elle sur le moment, pouvant finir par s'avérer absolument cruciale.

Des décisions difficiles à prendre C'est une chose de reconnaître qu'une innovation progresse à coup de décisions,

dont certaines sont parfois implicites, c'en est une autre de soutenir, comme nous avons

commencé à le faire, que ces décisions sont prises au milieu d'incertitudes contre lesquelles il est pratiquement impossible de se garantir à coup sûr. Tel est le paradoxe à ne jamais oublier. C'est lorsqu'il s'agit de sciences et de techniques, pourtant considérées comme des parangons de logique, d'ordre et de rationalité, que les décisions rationnelles sont les plus difficiles à imaginer! L'innovation par définition crée de l'instabilité, de l'imprévisibilité qu' aucune méthode, aussi raffinée soit-elle, ne parvient à maîtriser entièrement.

Des coûts évanescents Prenons un critère simple, celui du coût ou plus généralement de la rentabilité.

Lorsqu'il s'agit d'une innovation sur les procédés, il semble naturel de considérer que la sélection s'opère sur cette base incontestable. Pourtant lorsqu'ils suivent les innovations en train de se faire, tous les observateurs sont d'accord pour dire que l'évaluation des coûts n'est souvent qu'un argument avancé par certains pour imposer leurs choix. En aucun cas il ne suffit à expliquer l'avancement d'un projet. Pourquoi la coulée continue de l'acier finit-elle par s'imposer au détriment des méthodes traditionnelles de fabrication des plaques et des billettes? La réponse semble d'autant plus évidente qu'il s'agit d'un cas d'école où l'innovation sur les procédés laisse relativement inchangées les propriétés du produit final. Si la nouvelle technologie élimine la précédente, n'est-ce point parce que son rendement est meilleur, parce qu'elle économise de l'énergie et de la main d'oeuvre ? Ce n'est pourtant pas si simple. Comme l'a bien montré Bela GOLD dans l'étude qu'il a consacrée à la diffusion de cette innovation majeure aux Etats Unis, la rentabilité de la coulée continue n'est acquise que plus de quinze ans après son introduction dans l'industrie (GOLD, 1981) ! Contrairement aux affirmations initiales des ingénieurs américains qui s'efforcaient de la promouvoir, sa mise en place se traduit en réalité, et si l'on utilise les grilles de calcul qu'eux mêmes proposaient , par une augmentation continue des coûts et non par leur diminution...Les économies attendues en investissement de capital fixe étaient en effet de l'ordre de 25 à 40% . Mais une telle évaluation supposait la construction de nouvelles capacités de production à l'écart des sites existants. Or pendant toute la période de diffusion de la coulée continue, l'industrie de l'acier est en surproduction et la nouvelle technologie ne peut être installée qu'en complément des procédés existants qu'on doit amortir à tout prix. Maintien d'autant plus inévitable qu'en cas d' incidents de fonctionnement, et parce qu'on ne peut se permettre de laisser sans traitement de l'acier en fusion, il faut avoir la possibilité de se rabattre sur la chaîne traditionnelle. La nouvelle technologie, au lieu de se substituer à l'ancienne, vient au contraire la parasiter. Du même coup, un des autres avantages de la coulée continue, l'économie d'espace qu'elle permet en principe de réaliser, se trouve relativisé puisqu ' il dépend très concrètement de la possibilité d'intégrer physiquement les nouvelles techniques aux anciennes, qu'il

s'agisse de l' organisation des transports de pièces et de matériaux ou de la définition des modes opératoires.

Comme le montre cet exemple, toute innovation suppose un environnement qui lui soit favorable. S'il n'existe pas , il ne sert à rien de parler de coûts avantageux : la productivité, la rentabilité sont les résultats d'une action obstinée qui vise à créer une situation dans laquelle la nouvelle technique ou le nouveau produit pourront faire valoir toutes leurs présumées qualités. Sur le papier la coulée continue paraît plus avantageuse; dans la pratique toutes les expériences tentées montrent l'inverse. Où est la vérité? Dans ce futur que certains affirment favorable? Où plus prosaïquement dans ce présent qui dément toutes les prévisions? Chacun croit détenir la juste réponse à ces questions. Mais ce qui est paradoxal, dans ce cas précis, c'est que malgré l'élévation durable des coûts qu'elle entraîne, la coulée continue finit par être adoptée de plus en plus largement. Nous croyions être en présence d'un cas simple, d'une innovation de procédé dont la rentabilité évidente expliquait le succès progressif. Nous nous retrouvons face à des décisions qui sont prises en dépit des résultats négatifs observés! Comme le conclut justement Bela GOLD :

" Si la rentabilité financière était le seul critère pour évaluer l'opportunité d'une innovation, les

installations actuelles devraient être considérées comme d'indéniables échecs" .

Voilà une innovation majeure dont la principale qualité semblait être de réduire les

coûts dans des proportions appréciables. Une minutieuse enquête montre qu'au contraire toutes les décisions prises pour la promouvoir ont dû l'être en dépit d'une augmentation durable des coûts! Le coût avantageux ne peut être au mieux que le résultat chèrement acquis d'une série de décisions difficilement imposées et non la cause immédiate de ces décisions19.

Les enseignements de cette étude empirique qui explique comment se construisent

les propriétés économiques d'un procédé sont confirmés par une analyse récente du processus de robotisation dans une grande entreprise française (MOLET, 1985). Autres pays, mêmes moeurs! Introduire un robot, n'est-ce pas, entre autres avantages, réaliser des gains sur la main d'oeuvre, rationaliser les tâches et améliorer la productivité ? C'est bien la conviction qui anime les ingénieurs du bureau des méthodes lorsqu'ils proposent à un atelier de fabrication de plaques d'aciers spéciaux traités, l'installation d'un robot chargé "tout simplement" de transférer les plaques d'un petit four de recuit vers un autre four. Sur le papier les gains à attendre d'une telle "modernisation" semblent incontestables: en deux ans le robot sera remboursé grâce à la suppression de

19 Pour une bonne critique de l'explication du succès des innovations par leur rentabilité supposée voir :

(FORAY, 1986).

deux postes d'opérateurs chargés du transfert des plaques. Las, l'histoire réelle est moins rose que prévu. C'est le même scénario catastrophe qui se reproduit. Dès l'installation du robot, pourtant réalisé sur mesure, les difficultés de toutes sortes apparaissent: séparateurs qui ne veulent pas tenir, convoyeurs trop brusques, chariots dont la conception est inadaptée, ventouses qui lâchent. Et pour couronner le tout, il s'avère rapidement nécessaire de maintenir en poste un ouvrier pour vérifier les défauts des plaques sortant du four de recuit. Jusqu'à la dalle de béton qu'il faut refaire pour éviter les vibrations qui endommagent les plaques lorsque le robot se déplace! Au fil des jours, c'est la conception de l'atelier dans son ensemble qui petit à petit doit être complètement reconsidérée si l'on veut fournir au robot un environnement qui lui soit favorable. Le gain en main d'oeuvre que l'on espérait, ne se réalise pas : non seulement un poste sur les deux est maintenu, mais l'autre opérateur en vertu des conventions collectives est reclassé dans une autre partie de l'atelier où il se trouve en surnombre. C'est ainsi que les investissements non prévus se multiplient pour adapter l'atelier au robot . Pourtant la décision de poursuivre l'expérience est maintenue contre l'augmentation des coûts qu'elle provoque. En bout de course, plusieurs années après l'introduction du robot, il se pourra que celui-ci soit considéré comme indispensable et que réintroduire de la main d'oeuvre s'avère coûteux. Mais durant la longue transition qui conduira à une éventuelle usine robotisée, les décisions devront être confirmées en dépit de leur irrationalité économique constatable. L'homo oeconomicus est au pire une belle fable, au mieux un résultat patiemment construit. C'est le nom de code donnée à une opération réussie.

Une demande fluctuante D'accord , direz-vous, pour admettre que l'évaluation des coûts ne soit pas simple,

même dans le cas très favorable où l'innovation porte sur les procédés de fabrication sans modifier le produit final. Plus personne ne croit , ajouterez-vous pour montrer votre largeur d'esprit, à l'homo oeconomicus. Il ne faut pas aller chercher midi à quatorze heures: si une innovation réussit c'est parce qu'elle est capable de satisfaire une demande que ce soit celle d'un directeur d'usine, d'un client de super marché ou d'un constructeur d'avions. Peu importe le prix : suivez le marché, suivez les utilisateurs et vous gagnerez. Comme nous le verrons, une telle recommandation est vraie, banalement vraie mais de peu d'utilité. Plus facile à dire qu'à faire ! Comment identifier les utilisateurs, comment suivre un marché lorsque vous préparez une innovation qui va contre les marchés existants? En faisant des études de marché? En vous mettant à l'écoute de la clientèle? La encore aucune technique ne peut prétendre garantir la justesse des décisions.

Les études de marché? Prenons le cas d'une innovation patiemment murie tout au long des années 60 et 70: le cuir artificiel baptisé Porvair par la firme qui l'a mis au point et qui décide alors de le commercialiser. L' histoire de cette innovation a été racontée dans le détail par un économiste anglais et elle est très édifiante (GIBBONS, 1979). Passons sur les incertitudes et les difficultés techniques. Le cuir artificiel est le résultat inattendu de recherches entreprises pendant la guerre pour remplacer le séquoïa utilisé comme séparateur dans les batteries. C'est Chloride Electrical Storage qui eut l'idée d'élaborer un PVC microporeux obtenu par chauffage d'amidon et de PVC. L'amidon était éliminé par un bain d'acide et en se retirant laissait des trous. En 1959 Porous Plastic est créé pour le développement et l'exploitation de cette technologie . De fil en aiguille les ingénieurs songent au marché des chaussures. Les prévisions pessimistes sur le marché du cuir créent un climat propice à des projets d'élaboration d'un cuir artificiel, présentant les mêmes qualités de confort (les polymères poreux facilitent la respiration des pieds) et les mêmes propriétés mécaniques que le cuir naturel. Après de difficiles recherches techniques, le matériau et l'usine sont au rendez-vous à la date choisie par Porvair: le début de l'année 71.

Pour prendre cette décision lourde de conséquences, la direction de PORVAIR s'est entourée de toutes les précautions imaginables. C'est que l'affaire est risquée: selon toutes les études disponibles, la rentabilité du cuir artificiel passe par la construction de puissantes usines automatisées . Sans larges débouchés permettant la réalisation d'économie d'échelle, les coûts de fabrication resteront en effet beaucoup trop élevés . C'est à condition de pouvoir chasser très rapidement le cuir naturel que le Porvair aura une chance de s'implanter durablement. Le mot d'ordre est simple: inonder le marché et se maintenir. Les études de marché viennent de montrer qu'une stratégie aussi agressive n'est pas irréaliste: les consommateurs, et tout particulièrement les femmes qui constituent la première cible commerciale, sont peu sensibles à la nature du matériau lui-même. Peu importe, semble-t-il, que le cuir soit naturel ou qu'il ne le soit pas. Les variables importantes , qui déterminent les choix des consommateurs, se révèlent être le prix, le confort permis par le matériau et bien sûr l'état de la mode. . Le Porvair est prêt à satisfaire toutes ces exigences. La simplicité de sa mise en forme, plus aisée que celle du cuir naturel, lui permet de s'adapter à toutes les modes et pour le confort , il n'y a vraiment rien à craindre.

Reste à régler la question du prix. La stratégie arrêtée par les commerciaux est simple et convaincante : profiter du moment où les prix du cuir naturel culminent pour l'attaquer vigoureusement et inonder le marché. Une fois en place, et grâce aux économies d'échelle que permettront l'automatisation et la production de masse, le Porvair sera indélogeable. Les commerciaux se mettent au travail. Ils récitent les leçons qu'ils ont apprises dans les Business Schools : l'innovation doit venir ni trop tôt, ni trop tard, mais à son heure. Question de Kairos, comme disaient les anciens qui s'y connaissaient en matière de gestion du temps. Les économistes se penchent sur le

marché du cuir et découvrent des régularités intéressantes. Le cuir n'est qu'un sous-produit de la production de viande: il est bon marché lorsqu'on abat massivement le bétail. Or le cycle de ces abattages est parfaitement régulier: sa période est de six ans. Ce qui veut dire que tous les six ans le volume des peaux jetées sur le marché passe par un maximum et les prix du cuir par un minimum. Mais ce n'est pas tout. La demande de cuir est elle-même cyclique , car les achats réalisés par les fabricants de chaussures fluctuent de façon régulière , passant tous les quatre ans et demi par un maximum. La conclusion s'impose d'elle même. Le Porvair doit être lancé au moment précis où l'offre de cuir naturel passe par un minimum et la demande par un maximum . C'est à cet instant précis où les prix culminent que l'adversaire est le plus vulnérable. Cette conjonction , aussi heureuse que l'éclipse totale qui sauve Tintin dans le Temple du Soleil , se produit à intervalles réguliers. Toutes les estimations convergent: c'est en 1972 que doit être lancée la grande offensive , le blitzkrieg qui consommera la défaite du cuir naturel.

Le plan de bataille est suivi à la lettre et les prévisions se trouvent confirmés: en l'espace d'un an le prix du cuir double comme prévu et ceci permet une foudroyante percée du Porvair. Très rapidement pourtant, la tendance se retourne. En 1974, coïncidence malheureuse, le prix du pétrole s'accroît brutalement. Un implacable déterminisme se met alors en branle: la hausse de prix du pétrole entraîne par chimie interposée celle du prix des aliments pour le bétail, hausse qui à son tour provoque des abattages en masse. De cher , le cuir devient , soudainement et à la surprise générale, bon marché. Malgré tous les efforts des services de marketing de Porvair, les fabricants de chaussures qui devaient être soutenus dans leur reconversion technique difficile reviennent à l'ancien matériau : la greffe n'a pas eu le temps de prendre. Et comme un malheur n'arrive jamais seul, c'est le moment précis que la mode choisit pour échancrer les chaussures, diminuant la couverture du pied qui se met à respirer sans problème, quelle que soit la qualité du matériau utilisé ! Du même coup disparaît l'avantage du cuir artificiel sur les polymères non poreux bas de gamme et bon marché. Grâce aux effets de mode , les matériaux enduits de PVC redeviennent concurrentiels et mordent rapidement sur le marché des chaussures pour femmes. Malgré ces renversements de tendance la firme continue à investir pendant au moins 4 ou 5 ans espérant un redémarrage et scrutant les frémissements du marché. Quatre ans plus tard, l'usine construite à coup de millions ferme ses portes. En dépit d'études de marché et de prévisions réalisées avec un luxe inhabituel de détails et de précautions, l'entreprise échoue finalement à imposer son nouveau produit. Elle est prise à revers par deux adversaires aussi puissants qu' imprévus: la mode et le marché du pétrole.

Que veulent exactement les consommateurs? Comment choisissent-ils leurs chaussures? Comme on le voit sur cet exemple la réponse à ces questions est incroyablement complexe. Elle dépend de la stratégie et des habitudes des fabricants de chaussures, de la politique de l'OPEP, des décisions prises par les éleveurs d'

Amérique du Sud, des fluctuations d'une mode ondoyante, du coût des polymères non poreux, mais également, et ceci s' avèrera crucial, de la plus ou moins grande ouverture des pays de l'Est. Comment tenir simultanément tous ces éléments pour s'assurer du concours des consommateurs, c'est à dire pour rendre prévisible leur comportement? Toutes les études de marché du monde sont impuissantes à démêler pareil imbroglio. Pour qu'elles puissent délivrer des prévisions plausibles, il leur faut être confrontées à des tendances si incontestables qu'en réalité aucune véritable innovation n'est possible. Là gît le paradoxe. Innover c'est changer le consommateur. Mais une fois bouleversées les règles du jeu, redistribuées les cartes, nul n'est vraiment capable de prévoir l'évolution: le changement peut bifurquer brutalement et profiter au concurrent qu'on croyait tenir dans sa main. Et de tels retournements s'observent même dans le cas pourtant simple d'une innovation de substitution et alors que toutes les précautions ont été prises!

Des clients à géométrie variable D'accord direz-vous, en principe ceci est vrai, mais en pratique l'indécision est

rarement aussi grande. Lorsque vous connaissez bien vos clients et qu'ils sont en nombre limité, une manière d'assurer l'innovation est d'avoir un bon contact avec eux pour discuter des problèmes qu'ils rencontrent , de leurs projets et de leurs attentes. Qui oserait nier la sagesse de tels préceptes? En réalité il est difficile de les suivre comme le prouve le cas, étudié par le CSI, d'une entreprise ayant cherché à développer un nouveau type de brûleur à charbon pulvérisé. Après de nombreuses hésitations, une licence est accordée à une petite entreprise que le marché semble intéresser. C'est elle qui , une fois le prototype mis au point, se charge de la production, de l'installation et du suivi. Très rapidement les difficultés surgissent: les utilisateurs se plaignent de manière lancinante du mauvais fonctionnement des brûleurs, des pannes qui surviennent inopinément... L'installateur quant à lui se garde bien de remettre en cause le brûleur, il préfère accuser le charbon, l'utilisateur et le broyeur qui pulvérise le charbon. Les ingénieurs qui ont mis au point le brûleur ne sont qu'à moitié convaincus: faut-il croire le licencié dont certains affirment qu'il est en difficulté financière et qu'il envisage , pour en sortir, de se faire racheter par le groupe qui a créé le brûleur? Si cette information est vraie, le licencié n'a-t-il pas intérêt à disculper les concepteurs du brûleur pour faire endosser la responsabilité de ce qui ressemble déjà à un échec, aux seuls utilisateurs. Qui croire? Qui dit la vérité? L'intermédiaire , pas plus que l'étude de marché, n'a de raison d'être fiable. L'innovation ressemble plus souvent au jeu du menteur qu'au jeu de la vérité.

Le client est à l'évidence un des protagonistes essentiels, mais un contact "direct" ne suffit pas à régler tous les problèmes. Quel est le bon interlocuteur: le service entretien qui manifeste des réticences devant un nouveau matériel qui va bouleverser

ses habitudes, la direction financière qui tient les cordons de la bourse, les ingénieurs de fabrication qui hésitent à se lancer dans un bouleversement des techniques de production, les responsables de l'approvisionnement qui ne sont pas prêts à se limiter à une seule catégorie de charbon et à devenir complètement dépendants des fournisseurs. Le client? Quand on l'invoque on croit tenir un être concret alors qu'il s'agit de l'abstraction la plus forte qui soit! Il est multiple, évanescent, il tient plusieurs discours et vous lâche au moment même où vous pensiez le tenir. Au lieu d'un seul représentant ou d'un seul porte-parole, vous êtes confronté à plusieurs intermédiaires qui prétendent vous dire ce que veulent les utilisateurs. Si le client était clairement identifiable, prévisible, loyal et s'il savait toujours ce qu'il veut vraiment , alors l'innovation serait une véritable partie de plaisir. Pour se développer il lui faut souvent cet espace incertain, ces mouvements inattendus qui rendent évanescents des marchés qui semblaient pouvoir durer et laissent entrevoir des réorganisations bénéfiques. Le client est roi, mais d'un empire dont les frontières sont mal définies et dont les lois sont floues. C'est un être énigmatique. C'est pourquoi les études de marché ou le contact avec les utilisateurs ressemblent parfois à des traques nécessaires mais désespérées. Les agents doubles sont partout et difficiles à démasquer. L'innovation ressemble plus aux romans de John le Carré qu'à ceux d'Agatha Christie!

Des techniques controversées Ce qui est vrai du marché l'est également de la technique. Comment savoir au

début des années 70 si le véhicule électrique (VEL), innovation majeure s'il en est, est technologiquement viable ? Après coup il est relativement aisé de répondre à cette question et d'affirmer que les générateurs électrochimiques étaient alors bien loin d'atteindre les performances requises. A chaud c'est une autre paire de manches (CALLON, 1979)! Plusieurs grands groupes industriels et une pleïade de scientifiques de renom se battent avec acharnement pour imposer leurs points de vue. L'avenir commercial du projet tient non seulement à l'attitude des consommateurs, mais également et surtout à la possibilité de réaliser des générateurs peu coûteux et performants. Si la question est simple: existe-t-il des catalyseurs bon marché pour les piles à combustibles, la réponse l'est moins. Les experts ,tous plus autorisés les uns que les autres, sont irrémédiablement divisés. Les uns estiment que la mise au point de nouveaux catalyseurs est à portée de main; les autres , à l'inverse, qu'un long détour par la physique du solide est inévitable et que le résultat n'est pas sûr. Là encore, la question est la même , obsédante: qui croire? Ce professeur de faculté , renommé? Ou ce chercheur, encore jeune, mais à qui tout le monde prévoit un avenir brillant. Il faut décider sans être certain de faire le bon choix. Les réunions et colloques se multiplient et les comptes rendus nous montrent une ambiance plus proche de celle des meetings politiques que de celles des dicussions raisonnables auxquelles aiment croire les

scientifiques! Comme les clients, et de façon encore plus bruyante, les experts sont divisés et l'innovateur doit trancher dans le vif. Il se trouve plongé dans une cacophonie infernale, des cris et des plaidoyers montant de tous côtés; il est saturé d'informations contradictoires, assailli par les projets et les prévisions les plus extrêmes. C'est au milieu de cette tourmente, bringuebalé, enivré de conseils en tous genres, qu'il doit se frayer un chemin.

Remise en situation, analysée à chaud, l'innovation laisse découvrir toutes les incertitudes qui l'entourent et surtout l'impossibilité de s'appuyer sur des critères ou des procédures indiscutables pour prendre les innombrables décisions qui la font avancer. Faut-il pour autant conclure au caractère complètement aléatoire et arbitraire de ces décisions? En d'autres termes faut-il renoncer à expliquer pourquoi certaines d'entre elles rapprochent l'innovation du succès plutôt que de l'échec?

L'art de l'intéressement Face à une innovation comme la coulée continue, le premier réflexe est de recenser

ses avantages et ses inconvénients: économie de matière première, augmentation de la productivité, amélioration de la qualité des produits... Ce sont ses qualités intrinsèques qui servent ensuite à expliquer la plus ou moins grande vitesse de diffusion de l'innovation. Celle-ci, comme dans un phénomène épidémiologique, convainc de plus en plus d'utilisateurs potentiels. D'où ces courbes logistiques bien connues qui illustrent la propagation des innovations (MANSFIELD, 1961).

En dépit de leur popularité , de tels modèles n'ont qu'un lointain rapport avec la réalité. L'adoption d'une innovation, qu'il s'agisse du Porvair, de la coulée continue ou de l'installation d'un robot, passe par toute une série de décisions qui dépendent du contexte particulier dans lequel elle s'insère. L'évaluation des défauts et des avantages d'une innovation est toute entière entre les mains des utilisateurs : elle dépend de leurs attentes, de leurs intérêts, des problèmes qu'ils se posent.

Prenons le cas de kits photovoltaïques mis au point par des industriels français

pour le marché des pays en voie de développement et dont les premières installations ont été suivies par l'une d'entre nous (AKRICH, 1985). Leur hypothèse de départ est simple et convaincante: dans la brousse - ils visent plus particulièrement l'Afrique - le besoin d'éclairage individuel semble partout présent. Ne voit-on pas le soir - sur ce point les témoignages sont nombreux - les enfants apprendre leurs leçons au pied des trop rares révèrbères ou les familles se réunir à la veillée autour d'un poste de télévision non pas pour regarder les émissions mais pour profiter de la lumière qu'il dispense? Une fois cerné ce besoin fondamental, il reste à choisir la solution technique la mieux appropriée. L'éclairage photovoltaïque décentralisé apparaît comme une des

meilleures solutions pour l'avenir : faible coût d'installation, énergie renouvelable, robustesse , portabilité... Les industriels n'hésitent pas longtemps. Dans leurs laboratoires métropolitains, ils concoctent un dispositif simple d'emploi et fiable. Ils expédient ensuite les prototypes sur les sites retenus par les différentes administrations françaises et africaines qui ont financé le projet. En réalité la procédure d'expérimentation retenue vise à cerner la fiabilité "technique" des kits plus qu'à vérifier qu'ils sont bien adaptés aux besoins supposés des utilisateurs. Les industriels ne sont pas prêts à remettre en cause la conception du kit: tel qu'il est, et s'il est prouvé qu'il fonctionne, il est à prendre ou à laisser. Les ingénieurs ne font qu'appliquer à 50 ans de distance la belle , mais trompeuse, maxime de l'exposition universelle tenue à Chicago en 1933 : " La science découvre, l'industrie applique et l'homme suit" . L'ennui c'est qu'il arrive à l'homme de ne pas suivre! Au Zambèze comme en Corrèze! Les sites d'installation des premiers kits sont choisis au gré des pressions politiques locales. Certains , qu'on avait expédiés dans des dispensaires, se retrouvent chez un particulier; d'autres sont installés dans une infirmerie, d'autres encore dans des écoles. Les points de chute sont imprévisibles. L'un d'entre eux est installé, au terme de savantes négociations, dans une mosquée. Difficile de nier que cet étrange dispositif suscite des intérêts et des convoitises. On se l'arrache, on le kidnappe , on le détourne mais pour en faire tout autre chose que ce qui était prévu. Etrange destin des objets techniques fait de constantes réinterprétations, comme celui de ces textes sacrées qui , exégèses après exégèses, finissent par changer complètement de sens. Mais partout, quels que soient les usages retenus, l'expérimentation tourne au désastre. Ce ne sont pas tant les pannes que le désintérêt progressif des utilisateurs qui fait obstacle aux kits.

Face à ces difficultés imprévues les ingénieurs français s'engagent dans les procès

d'accusation. Le kit a des propriétés techniques indiscutables. Si les utilisateurs n'en veulent pas, c'est de leur faute: ils ne disposent d'aucune infrastructure, ils n'ont pas les compétences requises, ils rejettent par principe les nouvelles technologies... Et pourtant les ingénieurs ont l'impression d'avoir parcouru à eux seuls la presque totalité du chemin: ils ont choisi le soleil si abondant et si bon marché en Afrique; ils ont refusé l'installation de réseaux coûteux; ils ont fourni un dispositif compact, prêt à l'emploi. Et malgré celà, après une phase éphémère d'engouement, les kits ne sont repris par personne. Ils rouillent sous l'oeil attentif d'ingénieurs , spécialement dépêchés pour vérifier, mois après mois, les performances techniques des panneaux photovoltaïques.

Ces ingénieurs , comme de nombreux analystes de l'innovation, ont adopté ce que nous nommons le modèle de la diffusion. Le produit lancé sur le marché ou plus généralement offert aux utilisateurs finit , en vertu de ses qualités propres, par se répandre à travers la société par effet de démonstration. Ou bien les résistances finissent par céder, ou bien les temps ne sont pas mûrs et les usagers accusés d'être

empêtrés dans leurs préjugés ... qui coûtent cher à l'innovateur! L'échec comme le succès tiennent à l'adaptation mutuelle d'un produit bien défini et d'un public bien identifié. Dans le modèle de la diffusion la symétrie n'est pas totale. Ce qui ne saurait être remis en cause , c'est la technique et les choix auxquels elle a donné lieu. Aux utilisateurs , aux intermédiaires de s'adapter soit de force, soit de guerre lasse.

Une telle conception, si prégnante chez les ingénieurs , est de peu d'utilité lorsqu'ils doivent prendre des décisions pour redonner une chance à une innovation bloquée ou pour définir les caractéristiques d'une innovation à venir. Pour comprendre le succès ou l'échec, c'est à dire la diffusion et ses péripéties, il faut accepter de reconnaître qu'un objet n'est repris que s'il parvient à intéresser des acteurs de plus en plus nombreux. Des décisions qui creusent l'écart entre les propriétés de l'objet, doté d'une cohérence qui lui est propre , et les propriétés de l'environnement social (utilisateurs, distributeurs, réparateurs,...) multiplient les obstacles sur le chemin que suit l'innovation. Faire comme si le contexte socio-économique était connu une bonne fois pour toute , le produit pouvant être défini en dehors de toute interaction avec lui, est contraire à tout ce que nous savons de l'innovation. Celle-ci est perpétuellement en quête d'alliés. Elle doit s'intégrer dans un réseau d'acteurs qui la reprennent, la soutiennent , la déplacent. Et ceci dépend très directement des choix techniques opérés. Revenons aux kits et soumettons les à ce que nous appellerons l'analyse socio-technique. Ses caractéristiques se transforment alors en autant de propriétés qui vont lui permettre de s'attacher à , ou au contraire se détacher de , toute une série de groupes sociaux qui vont décider de son avenir.

!!! INSERER FIGURE 1 Un examen rapide montre qu'il n'a de kit que le nom. Tout est rigidement fixé, rien

n'est bricolable (Fig 1). Premier élément du kit : les photopiles. Elles intéressent au premier chef les instituts spécialisés qui vont sur place suivre les performances du kit et se familiariser avec la technologie photovoltaïque. Allié non négligeable , puisqu'il est souvent lié à l'administration publique locale dont le poids est important dans les premières décisions de diffusion. C'est ce même panneau photovoltaïque qui va assurer le soutien financier d'une grande agence gouvernementale française dont la mission est de promouvoir l'industrie des industries renouvelables. Par contre les utilisateurs et les industriels africains ne sont que médiocrement concernés par ce choix. Autres éléments du kit: l'ensemble batterie régulateur et le fil qui le relie au panneau solaire. Les choix opérés par les concepteurs français conduisent tous à écarter des alliés stratégiques. La longueur des fils est fixe et les utilisateurs sont dans l'impossibilité d'adapter les kits à ses conditions particulières d'utilisation: à plusieurs reprises le fil s'avèrera trop court pour permettre l'installation du panneau sur le toit et il semble exclu d'aménager dans tous les cas un enclos pour y placer des cellules photovoltaïques qui doivent être

protégées d'éventuels actes de vandalisme. De plus, les diverses connexions étant non-standard, aucun bricolage n'est envisageable. L'ensemble batterie-régulateur forme un tout hermétiquement protégé de toute intervention extérieure: si une panne survient la seule solution est de renvoyer le kit au constructeur qui se trouve à quelques milliers de kilomètres. Continuons notre radiographie socio-technique: la batterie produit un courant continu qui alimente un tube fluorescent de 13 Watts. Cette série de choix coupe à nouveau l'objet d'alliés potentiels: les électriciens locaux spécialisés dans l'alternatif comme les revendeurs qui n'ont jamais distribué de tubes de ce modèle . Comment les kits pourraient-ils se diffuser ? Personne n'est prêt à les reprendre. Ils découragent par avance les alliés de poids qui auraient pu s'en saisir.

On voit sur cet exemple la solidarité qui s'établit entre les choix techniques qui

donnent forme au dispositif et son destin socio-technique. Les kits intéressent sans aucun doute les industriels français, quelques chercheurs africains et une agence gouvernementale; amis dans le même mouvement ils se coupent de tous ceux (utilisateurs, artisans, distributeurs...) qui sur place auraient dû le soutenir. Ces derniers, à l'inverse, s'en défient. En réalité le kit se présente comme une machine de guerre explicitement montée contre eux: l'obsession de ses concepteurs est d'éviter à tout prix que l'utilisateur ne le bricole ou qu'un réparateur n'intervienne, car ils leur font trop peu confiance pour imaginer autre chose qu'une catastrophe.

Si nous avons choisi de présenter ce cas, c'est qu'il est particulièrement simple.

Mais toutes les techniques que nous avons étudiées au CSI peuvent être analysées de la même façon. Leurs caractéristiques correspondent à des décisions techniques qui contribuent à définir les groupes sociaux concernés, établissant les uns en alliés, les autres en adversaires ou en sceptiques. Un dispositif technique répartit les forces qui vont le soutenir ou résister. C'est en ce sens qu'il peut être analysé comme un dispositif d'intéressement. Le modèle de la diffusion suppose une séparation irrémédiable entre l'innovation et son environnement socio-économique. Le modèle de l'intéressement souligne à l'inverse l'existence de tout un faisceau de liens qui unissent l'objet à tous ceux qui le manipulent. Le modèle de la diffusion déplace l'objet technique à l'intérieur d'une société qui constitue un milieu plus ou moins récepteur. Le modèle de l'intéressement met en scène tous les acteurs qui se saisissent de l'objet ou s'en détournent et il souligne les points d'accrochage entre l'objet et les intérêts plus ou moins organisés qu'il suscite. Le résultat d'une telle description est un diagramme socio-technique qui combine deux genres que l'on a tendance à mélanger: l'analyse technologique qui se limite à la description de l'objet per se et de ses propriétés intrinsèques; l'analyse sociologique de l'objet, c'est à dire des milieux dans les quels il se déplace et sur lesquels il produit des effets. A vouloir rendre distinctes ces deux lignes d'analyse, on s'interdit de comprendre les raisons de l'échec ou du succès de

l'innovation. L'analyse socio-technique, quant à elle , se place à l'endroit précis où l'innovateur se situe , dans cet entre-deux difficile à saisir où se mettent simultanément en forme la technique et le milieu social qui le reprend.

Que le sort d'un projet dépende des alliances qu'il permet et des intérêts qu'il

mobilise, explique pourquoi aucun critère, aucun algorithme ne permettent d'assurer a priori le succès. Plutôt que de rationalité des décisions, il faut parler de l'agrégation d'intérêts qu'elles sont ou non capables de produire. L'innovation c'est l'art d'intéresser un nombre croissant d'alliés qui vous rendent de plus en plus fort.

L’art de choisir les bons porte-paroles20 Madeleine AKRICH, Michel CALLON et Bruno LATOUR

Le succès d'une innovation peut être expliquée de deux manières différentes

suivant que l'on insiste sur ses qualités intrinsèques ou sur sa capacité à susciter l' adhésion de nombreux alliés (utilisateurs, intermédiaires...) . Dans le premier cas on fait appel au modèle de la diffusion ( l'innovation se répand d'elle-même par contagion); dans le second cas on recourt au modèle de l'intéressement ( le destin de l'innovation dépend de la participation active de tous ceux qui sont décidés à la faire avancer).

L'adopter c'est l'adapter L'écart entre les deux modèles apparaît clairement dans l'exemple de la coulée

continue21. Suivons le modèle de la diffusion. Il nous amène à recenser les avantages de la nouvelle technologie de production et à un pronostic sans ambiguïté: la diffusion de la coulée continue ne peut être que rapide. Elle a pour elle, les économies d'investissement, d'espace, de main d'oeuvre mais également un meilleur rendement (matière) et une meilleure valorisation des laminoirs. Qui serait assez aveugle pour refuser de tels avantages? Un tel pronostic suppose que les avantages relevés présentent pour tous et en tous lieux la même signification et la même force. Or cette similitude des situations et des jugements est rarement donnée a priori. Elle est au mieux le résultat d'une série d'investissements, d'adaptations et de transformations. Si , comme l'a montré Bela GOLD (GOLD, 1981), la diffusion de la coulée continue, du moins aux USA, s'avère particulièrement lente c'est parce que ses avantages supposés ne valent pas uniformément et dans certains cas se retournent même contre elle. Chaque site industriel constitue un cas particulier et l'intérêt de la coulée continue varie suivant les lieux considérés. Bela Gold a décrit avec beaucoup de détails cette disparité des situations qui explique la diversité des décisions. Les cas d'implantations réussies sont par contraste très révélateurs. Ils démontrent tous la formidable mobilisation nécessaire à la diffusion de l'innovation. Il faut d'abord une direction 20 Texte précédemment publié dans Gérer et Comprendre, n° 12, septembre 1988 et reproduit avec

l’autorisation des auteurs. 21 Ce cas a été présenté dans la première partie de l'article. Il a été étudié par Bela Gold qui s'est efforcé de

comprendre pourquoi la coulée continue de l'acier qui s'est assez rapidement imposée en Europe a mis beaucoup plus de temps à se répandre aux Etats-Unis.

consentante que ne découragent pas les résultats désespérement négatifs des premières expérimentations et qui doit être convaincue en permanence de l'intérêt à long terme du processus. Il faut qu'ouvriers, contremaîtres et ingénieurs soient associés à la mise au point pratique de la coulée continue et surtout à son insertion toujours problématique dans les systèmes techniques traditionnels. Ce sont eux qui identifient les problèmes, débusquent les défauts, adaptent inlassablement les cycles de chauffe. Ce sont également eux qui rédigent les manuels à l'intention des futurs utilisateurs en association étroite avec les sociétes d'ingéniérie. Immense travail collectif qui suppose un soutien actif de tous les acteurs impliqués. Il ne faudra pas moins de quinze ans avant que ne soit commercialisée la première tôle fabriquée par la coulée continue. Il faudra de nombreuses volte-face des directions générales qui, à plusieurs reprises, au moment de lancer de nouveaux investissements, seront saisies par la peur du risque et préfèreront arbitrer en faveur des technologies traditionnelles22. Il faudra surtout que l'innovation soit prise en mains par une foule anonyme d'individus actifs et intéressés. On est à mille lieues du modèle de la diffusion, de la stratégie du tout ou rien et de la mystérieuse contamination qu'elle suppose.

Le modèle de l'intéressement fait comprendre comment est adoptée une innovation,

comment elle se déplace, comment elle se répand progressivement pour se transformer en succès. L'analyse socio-technique souligne que le mouvement d'adoption est un mouvement d'adaptation. La coulée continue n'existe pas en général. Elle doit être transformée, modifiée en fonction du site où elle est mise en oeuvre. Sans cette adaptation , qui peut aller jusqu'à la redéfinir de façon substantielle, c'est son adoption qui est compromise. Adopter une innovation c'est l'adapter : telle est la formule qui rend le mieux compte de la diffusion. Et cette adaptation résulte en général d'une élaboration collective fruit d'un intéressement de plus en plus large23. La coulée continue est la conséquence du travail des chercheurs dans leurs labos, mais aussi de la myriade d'ingénieurs, de contremaîtres et d'ouvriers qui, usine après usine, en ont redéfini les caractéristiques, l'adaptant aux conditions particulières des sites concernés. L'exemple du manuel d'utilisation montre jusqu'où va la création collective: sans ce manuel la coulée continue risquerait d'être sans utilisateurs. Le processus d'innovation inclut fréquemment la mise en place des conditions de la maintenance. Dans le cas de

22 Comme l'écrivait joliment KEYNES : " ( dans les décisions d'investissement) le calcul exact des bénéfices à

venir joue un rôle à peine plus grand que dans une expédition au Pôle Sud....Lorsqu'on examine les perspectives de l'investissement , il faut donc tenir compte des nerfs et des humeurs, des digestions même et des réactions au climat des personnes dont l' activité spontanée les gouverne en grande partie" in : (KEYNES, 1969), PP 177-178.

23 Les économistes ont bien mis en évidence l'importance de ce qu'ils appellent les innovations d'accompagnement. Voir en particulier : (ROSENBERG, 1976). De la même manière (FORAY, 1987) souligne l'importance de la recherche technique d'accompagnement sans laquelle les innovations ne sauraient se répandre.

biens destinés à des utilisateurs extérieurs à l'entreprise, le travail collectif d'adaptation englobe les clients "leaders" qui jouent comme ceci a été souvent souligné un rôle essentiel. Mac Donnel à la fin des années 70 est en avance dans le domaine des logiciels de CAO, mais sa politique est d'en conserver la propriété. Loockeed entre sur le marché, vend ses logiciels à plus de 200 utilisateurs qui les améliorent rapidement . En deux ans Loockeed rattrape Mac Donnel. De la même façon la compétition entre IBM et GE est vive pour contrôler les sites d'utilisateurs comme Bell, Cornegie-Mellon… (PETERS, 1985). L'enjeu est dans tous les cas d'identifier les utilisateurs les mieux placés pour transformer l'innovation et la porter au devant de ce que demanderont les usagers. Intéresser et transformer sont les deux faces d'une même réalité.

Les deux modèles s'opposent à nouveau terme à terme. Le modèle de la diffusion

restreint le travail d'élaboration au cercle limité des concepteurs responsables du projet; le modèle de l'intéressement souligne la dimension collective de l'innovation. Dans le premier cas la majorité des acteurs est passive; dans le second cas elle est active. Dans le premier cas l'innovation est à prendre ou à laisser; dans le second cas l'adoption est synonyme d'adaptation.

Négociations en tous genres Des kits photovoltaïques d'éclairage, mis au point par des industriels français pour

les pays en voie de développement, recoivent un accueil plutôt réservé de la part des utilisateurs potentiels dans les différents sites d'expérimentation où ils ont été installés. Le CSI, chargé de suivre les réactions qu'ils provoquaient, découvre qu'un des prototypes, au terme de tribulations rocambolesques, a échoué dans une mosquée à laquelle il n'était pas destiné et où, divine surprise, il suscite immédiatement un engouement passionné (AKRICH, 1985). L'utilisation était inattendue, mais des intérêts puissants se font jour qui sont prêts à se saisir du dispositif. Pourquoi refuser ce fantastique réseau que représentent l'Islam et ses lieux de culte ? Pour profiter de ces alliés aussi puissants qu'imprévus, il faudrait à l'évidence accepter de redéfinir les kits: prévoir plusieurs barettes lumineuses, augmenter la puissance, ne plus maintenir fixe la longueur des fils. Des groupes sociaux auxquels on n'avait pas songé se manifestent. Leur demande s'exprime en dépit de ce qui apparaît brutalement comme des faiblesse du système, faiblesses qui se révèlent en situation , dans les mosquées. Pour ne pas perdre ce soutien, que convient-il de faire? Bien évidemment accepter de changer la conception de l'objet, pour établir un compromis satisfaisant entre ses caractéristiques et les revendications des usagers. La "matière" sociale et la "matière" technique sont toutes deux relativement malléables et l'innovation réussie est celle qui stabilise un

arrangement acceptable à la fois par les acteurs humains (utilisateurs, négociants, réparateurs,...) et par les entités non-humaines ( électrons, tubes, batteries...). La force particulière de l'innovateur est de pouvoir jouer en permanence sur ces deux registres, de traiter symétriquement la nature et la société . Pourquoi parler de faisabilité technique et d'acceptabilité sociale ? Pourquoi changer de vocabulaire? L'acceptabilité comme la faisabilité sont aussi bien sociales que techniques.

Les génies méconnus ou les inventeurs irréalistes sont ceux qui n'acceptent pas d'entrer dans ce processus de négociations tous azimuts au terme duquel, s'il est habilement mené, l'innovation s'est fabriquée un contexte favorable à sa diffusion et à son acceptation. Et comme dans toute négociation , les stratégies possibles sont infiniment variées. Les moyens à mobiliser pour parvenir à un compromis sont affaire de circonstances. Pourquoi , par exemple, si l'on se sent assez fort ou rusé, ne pas tenir bon coûte que coûte sur le dispositif technique en s'efforcant de remodeler un environnement d'abord récalcitrant? C'est ce que démontre l'histoire en forme de fable de Post-it24. Art Try, qui travaille chez 3M, a une passion : le chant choral. Mais lorsqu'il participe à l'office du dimanche, il s'embrouille dans les cantiques car les petits morceaux de papier qu'il utilise pour marquer ses pages se mettent invariablement à danser le quadrille. Il pense alors à utiliser une colle qui colle suffisamment pour fixer les petits bouts de papier sur les pages mais pas assez pour laisser des marques ou provoquer des déchirures lorsqu'on les retire. C'est ainsi que naît Post-it, ces petites feuilles jaunes qu'on trouve maintenant dans les bureaux de toutes les secrétaires. Les raisons du succès nous semblent évidentes. Il ne faudrait pourtant pas croire qu'il a été obtenu sans effort. Satisfait de son produit Art Try s'est tourné aussitôt vers ses collègues du marketing qui lui ont répondu sans ambages : pas de marché pour cette innovation, personne n'en voudra ...et nous savons de quoi nous parlons. Art Try aurait pu en rester là et l'innovation n'aurait jamais vu le jour. Mais il ne s'avoua pas battu. Il imagina de distribuer ses papiers jaunes à toutes les secrétaires de direction de son groupe et même de firmes concurrentes. Celles-ci furent si bien accrochées que bien vite elles en redemandèrent ! Il ne restait plus qu'à férer le poisson . Art Try décida, au bout d'un certain temps, de ne plus répondre aux coups de téléphone. Les commandes des secrétaires en manque furent systématiquement détournées sur le service marketing qui se trouva assailli de demandes pour un produit qui était censé ne pas avoir de marché. La leçon mérite d'être entendue. L'innovateur est parfaitement libre de croire en son produit au point de ne pas vouloir le transformer. Mais alors il doit se montrer capable de retourner les résistances qui le bloquent en découvrant de nouveaux alliés, en inversant les rapports de force qui lui sont défavorables, en un mot en créant l'environnement qui sera prêt à le reprendre.

24 Cette histoire est racontée dans l'excellent film réalisé par les auteurs de : A Passion for Excellence

(PETERS, 1985).

L'intransigeance technique ne paye que si l'on a les moyens de maîtriser le contexte socio-économique.

Une telle séquence stratégique est une exception. Rarement s'enchaînent avec autant de netteté et de façon aussi dictincte la combinaison technique et la machination sociale. L'idée de congeler les aliments date de 1912. En son temps elle paraît sans avenir. Pour réussir elle doit se construire un environnement socio-technique favorable: mises au point d'espèces végétales supportant la congélation, nouvelle méthode de rassemblement des produits bruts, usines de transformation implantées plus près des sources d'approvisionnement, équipements et règlementations spécialement conçus pour le transport, le stockage et la préservation d'aliments congelés, action obstinée auprès des détaillants et des ménages pour qu'ils achètent ces équipements de stockage, pression auprès de pouvoirs publics pour qu'ils mettent fin (il s'agit des USA) au blocage des prix des surgelés. Quarante ans de négociations acharnées, de compromis permettant de jouer sur les intérêts et les projets des uns et des autres, et d'adaptations techniques destinées à contourner les résistances (PETERS, 1985). C'est d'une véritable machination socio-technique qu'il s'agit où l'innovateur (collectif) joue en permanence sur les deux registres, celui de la société et celui de la technique. Qui dans ces conditions pourrait s'arroger le droit de séparer l'objet technique de son contexte socio-économique, pour répartir les responsabilités de l'échec ou du succès, pour parler de faisabilité technique ou d'acceptabilité sociale ? Toute analyse, tout jugement qui ne restitue pas cette co-évolution de l'objet et de sa société , qui efface cette construction lente, patiente, incertaine par laquelle s'édifie par exemple une économie du surgelé liant des utilisateurs , des distributeurs, des agriculteurs, des entreprises agro-alimentaires, des cheptels et des moissons, des règlements et des laboratoires de recherche serait de peu d'utilité. Comme on est loin des simplettes métaphores biologiques qui parlent de la sélection des innovations par leur environnement sans voir que l'environnement se fabrique en même temps que l'innovation qu'il va juger25 ! Bizarre procès que celui dans lequel le prévenu pourrait choisir ses juges! Compromis socio-techniques et négociations sont les deux notions essentielles qui permettent de comprendre ce travail d'adaptation mutuelle qui commande l'adoption .

C'est pourquoi un objet ne se déduit jamais des objets antérieurs. On peut toujours, comme dans la galerie d'un musée qui aligne les avatars successifs de la bicyclettes ou du piano à percussion, établir des lignées, rendre manifestes des ressemblances26. On

25 La littérature consacrée à l'innovation et qui utilise la méthaphore darwinienne et les deux notions de

variation et de sélection est une des plus abondantes qui soit. Voir par exemple: (KRANSBERG, 1982). Une version plus élaborée et plus ambitieuse, mais guère plus convaincante est développée par R. Nelson et S. Winter in : (NELSON, 1982).

26 La notion de lignée est très souvent utilisée par ceux qui étudient l'évolution des technologiques. Les ouvrages de référence sont évidemment : (SIMONDON, 1958 ; LEROI-GOURHAN, 1964 ; DEFORGE, 1985).

n'expliquera jamais comment on est passé de la génération N à la génération N+1, si on ne fait pas entrer en ligne de compte toutes les stratégies d'intéressement, tous les compromis socio-techniques qui ont dû être montés pour transformer le dispositif, pour faire passer l'objet technique d'un état à un autre. Les ressemblances manifestent après coup les choix de l'innovateur collectif, ce qu'il a décidé de conserver ou de transformer, pour tenir compte des intérêts en présence, des résistances rencontrées, des contraintes socio-techniques éprouvées. Si certains centres techniques sont des cimetières d'innovations sans débouchés, des musées poussiéreux, ce n'est pas dû à leur incompétence ou à leur inadaptation, c'est parce que les ressources leur ont manqué, peut-être même la volonté, pour s'engager dans cette inlassable activité de compromission, bien souvent au nom d'une conception hautement idéalisée de la virtuosité technologique. L'avenir est à l'hybridation plutôt qu'aux lignées pures et dures.

La transformation socio-technique La recherche du compromis , qui n'est que l'autre nom donné à la volonté de

succès, s'opère par des expérimentations tous azimuts et par des itérations successives. L'innovation part de n'importe où. Les scientifiques et les ingénieurs n'ont pas le monopole de l'imagination. Elle peut aussi bien naître dans un centre de recherche que dans un service commercial, chez un client ou dans une usine. Puis de projet mal conçu et grossier, de programme encore flou , elle se transforme progressivement , à travers une série d'épreuves et d'expérimentations qui la confrontent aux savoirs théoriques, aux savoir faire ou aux utilisateurs, en un dispositif capable d'intéresser. Le célèbre modèle linéaire, par lequel sont distinguées des étapes successives dont l'ordre chronologique ne peut être bouleversé , est le plus mal adapté qui soit pour rendre compte de ce mouvement erratique. Nous proposons de lui substituer le modèle tourbillonnaire qui permet de suivre les multiples négociations socio-techniques qui donnent forme à l'innovation.

L’exemple du MacIntosh Un des exemples les plus représentatifs de ce processus tourbillonnaire qui

multiplie les épreuves est la mise au point du célèbre Macintosh (GUTERL, 1984). Où naît l'idée ? Dans la tête d'un vieil ingénieur d' Apple qui croit en un micro pas cher et facile d'emploi. Ces objectifs sont suffisamment simples et clairs pour indiquer ce sur quoi doit porter l'effort. L'automatisation de la production semble une nécessité absolue dès lors que l'on veut casser les prix. Une équipe est rapidement constituée qui comporte des ingénieurs du soft et du hard, des commerciaux, des designers, des

ingénieurs de production... Tout celà sous la houlette du fameux Steve Jobs. C'est là, au sein de cette équipe soudée et polyvalente , que le Mac va prendre forme. Sous la direction de Jobs l'équipe devient rapidement aussi compacte et intégrée que le Mac devait l'être. C'est que la forme d'un objet technique, comme le démontre également l'histoire de l'Eclipse MV/8000 , dépend très directement de l'identité des acteurs qui participent à son élaboration et de la nature des relations qu'ils entretiennent (KIDDER, 1982). Quelques jours avant de se lancer dans son projet , West , le créateur du nouvel Eclipse, examine en détail le VAX que vient de commercialiser la firme concurrente.

" En examinant le VAX , West s'était dit qu'il avait sous les yeux un véritable diagramme de

l'organisation interne de la DEC. Trop compliqué, vraiment trop compliqué à ses yeux.. Il en conclut que , décidément, le VAX était une des incarnations de la DEC . Il lui semblait retrouver dans cette machine tout le style de cette entreprise à la réussite spectaculaire, un style bureaucratique, réfléchi, circonspect" (KIDDER, op.cit.)

En ouvrant clandestinement le micro concurrent, West ne se rend pas seulement coupable d'espionnage industriel. Il fait de l'analyse socio-technique, mettant en relation la forme de l'innovation et les conditions de son élaboration, les choix techniques opérés et le style des négociations qui les ont précédés. Dites moi avec qui vous négociez, dites moi comment vous mettez vos idées à l'épreuve et je vous dirais quel type d'innovation vous allez produire et le destin que vous lui forgez. Avant le Mac, les micro comportaient plusieurs circuits imprimés, enfichés séparement et spécialisés. Par la seule présence d'ingénieurs de fabrication, introduits dans l'équipe pour préparer l'automatisation de la production, voilà une nouvelle génération de micros qui ne comportent pas plus de deux circuits intégrés: en réduisant le nombre des enfichages le montage est simplifié et de plus la vitesse de l'ordinateur se trouve sensiblement augmentée. De même les quotidiennes discussions avec les commerciaux conduisent à un générateur de son à quatre voix qui utilisent efficacement certaines des propriétés de la machine. L'usine de fabrication est conçue en même temps que l'ordinateur qu'elle fabriquera !.. L'innovation prend forme par ce mouvement rapide , ces allers retours incessants, favorisés comme dans les tragédies classiques par l'unité de lieu, qui vont de concepteur au commercial, du designer au créateur de logiciels. Les phases ne sont pas soigneusement séparées, elles sont consciencieusement embrouillées. C'est un imbroglio d'où émergent des formes successives qui matérialisent, par choix techniques interposés, le résutat de tous les compromis passés , c'est à dire de tous les intéressements réussis (Fig 2).

!!! INSERER FIGURE 2

Le modèle tourbillonnaire Dans ce schéma l'innovation se transforme en permanence au gré des épreuves

qu'on lui fait subir, c'est à dire des intéressements qu'on expérimente. Chaque nouvel équilibre se trouve matérialisé sous la forme d'un prototype qui teste concrètement la faisabilité du compromis imaginé. Smith prétend qu'il n'est pas nécessaire de prévoir un contrôleur séparé pour la souris du Mac. Personne ne le croit. Il ne cherche pas à convaincre autrement qu'en revenant quelques jours plus tard avec un proto qui marche. Les commerciaux affirment que personne ne veut de Post-it. Art Try monte une expérience, pourquoi utiliser un autre mot, qui prouvera le contraire. Le premier prototype réalisé est parfois, mais rarement, suffisamment convaincant. En général plusieurs passes sont nécessaires. Il faut être prêt , une fois la première boucle fermée, à se lancer dans une seconde, puis pourquoi pas dans une troisième voire une quatrième. A chaque boucle l'innovation se transforme redéfinissant ses propriétés et son public. C'est ainsi qu'Eastman, parti pour concevoir un appareil et des produits destinés aux photographes professionnels, se trouve rapidement confronté à des réactions de refus (JENKINS, 1976). Plutôt que de s'entêter dans une stratégie qui promet d'être difficile, il réoriente ses investigations et par dérives successives définit un nouveau produit, le boîtier facile d'emploi, et une nouvelle catégorie sociale, le photographe amateur. Comme on le voit, ce tourbillon créateur peut s'étendre très loin, faisant naître dans un cas un groupe social qui n'existait pas et conduisant dans l'autre cas à la première usine de micro-ordinateurs complètement automatisée.

Etre préparé à se lancer dans plusieurs passes successives, sans pour autant

transformer ce principe en règle intangible: c'est dans cette formule qui n'exclut pas le modèle linéaire ( dans certaines circonstances il est stratégiquement adapté) que tient l'art de l'innovateur. Par contre le modèle linéaire établi en dogme ou en règle d'action ("Résolvez d'abord les problèmes techniques et on s'occupera ensuite du marché"), rend difficiles les éventuelles adaptations qui devraient être réalisées en cours de projet pour tenir compte , par exemple, d'évolutions techniques inattendues, de changements dans les attentes des usagers ou des variations de stratégie des concurrents. Comme dans le jeu du Scrabble il faut être prêt à tenir compte de l'état du plateau que modifie en permanence les coups joués par les adversaires. Parfois il est préférable de changer de combinaisons, c'est à dire de redéfinir le produit, pour profiter d'une opportunité, plutôt que de s'obstiner , de passer son tour en attendant l'hypothétique occasion qui permettra de placer le mot complet qu'on a préparé sur son chevalet..

Dans le modèle linéaire, la seule possibilité d'adaptation, si celle-ci s'avère nécessaire, est la complexification progressive du projet et des dipositifs sur lesquels il débouche: ainsi connaît-on des robots qui deviennent de plus en plus monstrueux au fil des mois, parce qu'on a refusé de revenir sur la conception initiale pour tenir compte

des difficultés rencontrées. Ce qui est vrai des robots l'est également des théories scientifiques qui multiplient , comme dans les constructions scolastiques, les hypothèses ad hoc pour expliquer tous les résultats qu'elles ne permettaient pas de prévoir. Plus le temps passe, plus les investissements matériels et affectifs croissent et plus il est déchirant de revenir en arrière: le modèle linéaire conduit tout droit à la stratégie bien connue de la fuite en avant. Pendant (trop) longtemps, l'innovation vit dans un monde cotonneux et au moment où le contact avec les dures rigueurs économiques et sociales provoquent un soudain traumatisme, il est trop tard et trop coûteux de revenir en arrière: c'est ce qu'on appelle, avoir laisser passer sa chance. A l'inverse le modèle tourbillonnaire, et les transformations socio-techniques qu'il favorise, érige l'art du compromis et la capacité d'adaptation en vertus cardinales. Foin de la perfection obtenue à la fin des temps . Le temps passe qui produit des irréversibilités, sature le plateau du scrabble, redistribue les pions et les ressources, et tout change et vous arrivez trop vieux dans un monde trop jeune. Dans le modèle tourbillonnaire l'innovateur collectif, au lieu de retarder les sanctions et les jugements, suscite toutes les critiques et toutes les objections, même si, sûr de lui et de sa stratégie ,il décide en toute connaissance de cause de ne pas en tenir compte.. La distinction si courante entre tests techniques et tests d'utilisation est abolie puisque l'innovateur est prêt à jouer sur les deux registres, à surmonter les réticences de certains utilisateurs en modifiant la conception technique de son innovation, à éviter des investigations scientifiques incertaines en changeant son public pour identifier celui qui se satisfaira de l'innovation en l'état. Il faut être à tous moments prêt à brûler ce que l'on adorait. Si le mot recherche s'applique à l'innovation, c'est dans ce sens précis, de la recherche des évaluations et des épreuves de toutes sortes auxquelles on désire se soumettre. Et cette recherche , la seule qui mérite ce nom, est la plus difficile et la plus douloureuse qui soit.

Le difficile choix des porte parole Certains mythes ont la vie dure. On connaît celui qui entoure l'oeuvre de Mendel,

dont on persiste à croire qu'elle fut méconnue en son temps malgré toutes les preuves historiques contraires (CALLON, 1985a). Edison n'échappe pas à ce destin funeste qui se saisit des grands inventeurs. Comme si l'on avait besoin de rendre la science et la technologie encore plus inintelligibles et plus inexplicables qu'elles ne le sont! Edison en bricoleur de génie qui du fond de son laboratoire concocte les innovations qui vont bouleverser le monde entier. Edison n'a rien d'un professeur Nimbus autodidacte. C'est à Rastignac qu'il fait songer, à un Rastignac qui se serait écrié un de ces soirs où s'expriment les plus secrètes ambitions: a nous deux l'Amérique! Qu'il est loin en effet des stéréotypes auxquels nous sommes habitués, l'Edison que nous décrit T. HUGHES dans son passionnant livre concacré à l' histoire de l'électrification des USA (HUGHES,

1983). HUGHES a reconstitué minutieusement, en consultant notamment les carnets de notes d'Edison, les moindres péripéties qui ont jalonné cette véritable épopée des temps modernes. La fresque obtenue est impressionnante. Au départ une certitude et une volonté tenace: remplacer le gaz par l'électricité comme source d'éclairage domestique. Ce que fait ensuite Edison ne ressemble que de très loin à ce que l'on imagine. Edison est tout sauf un bricoleur de génie. C'est un organisateur, un entrepreneur, un stratège, un chercheur, un homme de relations publiques, et si génie il y a , c'est dans cette capacité de passer d'un rôle à un autre et de jouer chacun d'entre eux avec un égal bonheur, qu'il faut le placer.

Par quoi croyez-vous qu'Edison commence? Par la fin, bien évidemment. Il met avec application la charrue avant les boeufs. Pourquoi se lancer en effet dans une entreprise difficile si personne n'y croit. Au lieu d'étudier la faisabilité technique de son projet, ce qui au pays de Descartes serait considérée comme un comportement rationnel, il se répand en déclarations fracassantes, en conférences de presse. Son message, qu'il martèle jour après jour, est simple: l'électricité est l'énergie de l'avenir, le gaz est en survie, les réseaux sont pour demain. Grâce à cette fantastique opération publicitaire, il prépare l'opinion en même temps qu'il la teste. Personne ne crie à la mystification. La moitié du chemin est parcourue: si jamais Edison se lance dans l'électrification, on ne le considérera pas comme un fou dangereux! Ce n'est qu'une fois réalisé ce premier test qu'il entame la seconde étape: celle de la mise en chantier d'un laboratoire. Il l'établit à Menlo Park, loin des fureurs de la ville. Le plus difficile reste à faire, non pas résoudre les problèmes techniques mais recruter ceux qui vont décider du succès ou de l'échec de l'entreprise. A nouveau un coup de génie. Edison bricoleur génial? Vous riez. Edison ferait pâlir les cabinets de recrutement les plus renommés! Il rassemble une brochette impressionnante de scientifiques de haute volée. D'abord un certain Upton qui a fait des études poussées en mathématiques et en physique aux USA et en Allemagne. Puis Jehl qui est un cumulard: de nombreux et prestigieux diplômes tous plus impressionnants les uns que les autres en physique, en mathématiques et en chimie. Ces deux-là il les embauche pour travailler à la mise au point des dynamos. Il recrute également un spécialiste de la mécanique, un spécialiste des transmissions et des génératrices, et enfin un expérimentateur confirmé. Les hommes sont importants, mais d'autres ressources sont nécessaires. Il achète machines outils, matériel de chimie, instruments scientifiques haut de gamme... Il aménage une bibliothèque où sont rassemblés toutes les revues et tous les livres dont son équipe aura besoin. Jehl est désigné pour lire systématiquement les publications scientifiques et technologiques qui sont publiés à travers le monde sur les sujets qui les intéressent. Enfin il embauche un juriste pour s'occuper des questions de financement :

" Vous permettrez de construire et de doter largement le laboratoire dont le monde a besoin, un

laboratoire tel que personne n'en a jamais vu"

Nous sommes loin du bricoleur solitaire. Edison crée une équipe et lui donne les moyens de travailler. Mais l'on aurait tort de limiter son rôle à celui d'un simple organisateur, d'un habile gestionnaire. Il ne suffit pas de recruter les meilleurs, d'acheter du beau matériel. Ceci, un bon ingénieur généraliste à la française en serait parfaitement capable. Si Edison était de cette espèce là, il gérerait les entreprise existantes, il ne s'engagerait pas dans un corps à corps terrible avec la société américaine. En recrutant tel ingénieur, tel scientifique, en choisissant les livres et les revues de la bibliothèque , en décidant d'acheter telle machine, Edison ne se contente pas de gérer, il fait des choix scientifiques et techniques stratégiques, à vrai dire il fait déjà de la recherche. Qu'il se trompe de spécialité, qu'il oublie les bonnes revues, qu'il passe à côté d'une technique prometteuse et c'est son projet qui est remis en cause. Qu'au contraire il fasse les bons choix et le voilà placé sur la bonne trajectoire. Tout se joue à ce moment précis; après il n' aura plus qu'à gérer, qu'à expérimenter.

Edison, c'est son ambition , veut transformer la société américaine, la faire passer

de l'éclairage au gaz à l'éclairage électrique. Face à lui des compagnies, des municipalités, des consommateurs ...qui sont prêts à lui rendre la vie dure, à faire capoter son projet. Un homme sensé devrait abandonner. Edison construit Menlo Park; et il prétend qu'avec cet outil dérisoire, à 10 contre quelques millions, il va l'emporter. Dérisoire , Menlo Park? Allons donc! Une véritable machine de guerre. Ce que crée Edison ce n'est pas une infrastrusture de qualité pour conduire de bonnes recherches, c'est un microcosme qui représente sous une forme simplifiée mais fidèle toutes les forces, tous les alliés qu'il lui faudra enrôler pour transformer une société entière.

Edison a pris soin de rencontrer les jounalistes, ceux qui font l'opinion. Il a réussi à les intéresser à son projet qui est "sensationnel". Il ne se passera pas un mois sans qu'il les invite, avec des responsables municipaux, à Menlo Park pour leur faire suivre ses progrès. Les medias et les décideurs sont à ses côtés. Voilà de premiers renforts. Viennent ensuite la physique de pointe, la chimie , l'électrotechnique, les mathématiques, la technologie des transmissions. Ce secours, Edison l'obtient grâce à ses recrutements judicieux. Quant à la recherche en cours et à ses découvertes, peut-être utilisables, Edison la tient grâce à sa bibliothèque , pièce maîtresse du dispositif qu'il a imaginé. Et l'argent des banquiers dont s'occupe Lowrey. Microcosme, Menlo Park? Oui , mais pas n'importe quel microcosme. Avec dix chercheurs, bien choisis, avec sa bibliothèque, avec ses équipements modernes, avec ses financiers, puis plus tard avec ses spécialistes de la propriété industrielle, avec ses journées portes ouvertes , Edison tient toute l'Amérique ou plutôt tout ce qui dans l'Amérique et dans le monde entier est crucial pour la réussite de son projet. Il a à ses côtés la science faite, la science en train de se faire, les équipements, la finance, le droit, l'opinion et les municipalités. Menlo Park est perdu dans la campagne, peuplé d'une poignée de

chercheurs, remplis de livres et de dispositifs expérimentaux. Et pourtant Menlo Park est branché sur tous les réseaux qui comptent. Menlo Park n'est pas à la périphérie mais au centre du monde et de la société américaine. Grâce à son génie, celui qui l'a conduit à imaginer et à constituer son laboratoire comme il l'a fait , Edison tient l'avenir dans le creux de sa main.

La leçon d’Edison Ecoutons la leçon d'Edison. Le destin de l'innovation, son contenu mais aussi ses

chances de succès, résident tout entier dans le choix des représentants ou des porte parole qui vont interagir, négocier pour mettre en forme le projet et le transformer jusqu'à ce qu'il se construise un marché. Changez le recrutement, oubliez la bibliothèque, installez d'autres équipements, et c'est au mieux une autre innovation qui voit le jour et au pire pas d'innovation du tout. Ceci est la conséquence du modèle de l'intéressement et des compromis-sociotechniques sur lesquels il débouche. Puisque l'innovation va , au gré des réactions qu'elle suscite, de négociations en négociations et de redéfinitions en redéfinitions, tout dépend de l'identité des protagonistes qui sont mobilisés: dites moi avec qui et avec quoi vous innovez et je vous dirai en quoi consiste vos innovations et jusqu'où elle se répandra. D' où l'importance de la notion de représentativité. Lowrey sera-t-il capable de transmettre à Edison les attentes et les inquiétudes des banquiers, de telle sorte que celui-ci puisse en tenir compte et fasse évoluer son projet de manière à les intéresser durablement? Upton et Jehl seront-ils en mesure de mobiliser parmi les connaissances scientifiques les plus récentes ,celles qui sont indiscutables? Claudius lors de ses voyages en Europe sera-t-il à même de déceler sans ambiguïté parmi toutes les génératrices en cours de développement celles qui déboucheront? On retrouve les situations d'incertitude par lesquelles nous avons commencé. Mais elles concernent maintenant le choix des interlocuteurs ou des collaborateurs qui vont participer à l'élaboration de l'innovation. Et la question en suspens est d'une nature radicalement nouvelle. Est-ce qu'en écoutant tel scientifique que j'ai choisi comme collaborateur, est-ce qu'en faisant confiance à tel spécialiste du marketing, est-ce qu'en croyant tel sondage, est-ce qu'en reprenant les résultats présentés dans telles revues, je m'engage dans une redéfinition de mon projet qui multiplie le nombre d'alliés que j'intéresse au lieu de m'isoler de plus en plus.

L'innovation est faite de décisions, mais de décisions d'un type particulier. Elles tournent toutes autour d'une même et seule interrogation: cette suggestion qui m'est faite, ce résultat dont on me demande de tenir compte, cette information que me donne ce spécialiste du marketing, ce comportement nouveau des électrons que décrit un article récemment publié, ces assurances que me donne le maire de New York , tout cela mérite -t-il d'être cru? En d'autre termes , en prenant les décisions qu'appellent ces recommandations ou ces réactions, vais -je augmenter le nombre de ceux qui me

soutiennent? Les usagers, les électrons, les concurrents, les banquiers vont-ils vraiment agir comme l'affirment tous ces porte parole qui m'entourent et dont je ne sais pas vraiment s'ils sont représentatifs, c'est à dire s'ils ne vont pas être démentis dans les instants suivants par tous ceux, électrons, consommateurs, banquiers , au nom desquels ils prétendent parler27. Voilà où gît l'incertitude. L'innovateur qui réussit est celui qui arrive à la maîtriser en choisissant les bons interlocuteurs. Choix stratégique qui dépend du projet en cours mais qui suppose aussi cette irremplacable intuition qui fait que dans certains cas on a l'impression d'un faisceau de présomptions qui rendent crédible ce discours singulier tenu par un être unique. Ce n'est qu'après coup, mais qu'après coup seulement, que l'on saura sans ambiguïté si les porte parole retenus étaient légitimes.

" Les formules tautomériques que j'avais copiées dans le livre de Davidson n'étaient pas selon Jerry,

correctement reproduites. Ma réponse immédiate que plusieurs autres textes représentaient aussi la guanine et la thymine sous sa forme énolique , n'entama pas l'opinion de Jerry. Il affirma joyeusement que pendant des années les organiciens avaient arbitrairement préféré certaines formes tautomériques à certaines autres sous les prétextes les plus futiles. En fait, les manuels de chimie organique étaient jonchés de reproductions de formes tautomériques hautement improbables. L'image de la guanine que je lui mettais sous le nez était à peu près du vent"

Ainsi Watson raconte-t-il dans La double Hélice la situation difficile dans laquelle il se trouve au moment même où il croyait toucher au but (WATSON, 1968). Il a avec lui tous les manuels de chimie de l'univers, il a avec lui un modèle de double hélice enfin cohérent. Seules font obstacle ces objections que lui lance en souriant son collègue de laboratoire. Qui doit-il croire? Qui doit-il satisfaire? Il ne s'agit pas d'une affaire de sentiment, mais d'une question stratégique. Qui parle légitimement au nom de la chimie des acides aminés? Tous les manuels qui donnent à l'unisson certaine formules tautomériques? Jerry qui , tout seul et il en est fier, penche pour une autre configuration? On hésiterait à moins. Une erreur peut être fatale. Si l'on décide mal, c'est la chimie dans son entier qui se retournera contre vous et vous retirera le prix Nobel pour lequel vous courez. WATSON finit par opter pour son collègue qui devient à ses yeux le porte parole légitime. Il choisit de repartir à zéro, de détruire sa belle construction, de considérer les manuels les plus prestigieux comme des tissus d'erreurs.

"Comme il avait travailler au Cal Tech pendant de nombreuses années sur les structures des petites

molécules organiques, je ne pouvais me leurrer et croire qu'il ne saisissait pas notre problème. Pendant

27 Sur la notion de porte parole étendue aux mécanismes de représentation et de la nature et de la société voir

: (AKRICH, 1987 ; CALLON, 1986a ; LATOUR, 1987).

les six mois où il partagea notre bureau, je ne l'avais jamais entendu s'exprimer sur des objets dont il ne connaissait rien"

Fantastique retournement. Quelques présomptions, quelques indices suffisent à réduire à néant des mois de travail! Génial, mon cher Watson. Mais pas du génie qu'on prête aux grands savants dans le pays de Descartes. Du génie du négociant ou du revendeur, qui risque tout parce qu'il croit être sur un bon coup sans en avoir la certitude. Un bon chercheur eût ignoré Jerry. Un inventeur le croit: c'est toute le différence. Humaines, la science et la technologie. Oui, trop humaines, et dans le sens le plus profond qui soi. Pas d'innovation, pas d'invention qui ne se développe sans ce pari initial, sans cet acte de confiance élémentaire, qui définit notre relation à autrui, et qui conduit à tenir pour légitimes les porte parole avec qui vous vous apprêtez à négocier votre projet d'innovation.

Microcosme-macrocosme En comparaison du choix des intermédiaires qui vont mettre en forme l'innovation,

le reste ressemble à une partie de plaisir. Négocier D'abord la gestion, dont on fait des gorges chaudes. Edison est en avance sur tous

les prix de l'excellence. Menlo Park, grâce à son éloignement des lieux de distraction, devient une véritable communauté. On y vit en famille, on y travaille collectivement sans se préoccuper des horaires règlementaires, on y goûte tous les plaisirs de la vie. La règle est simple: une fois recrutés les porte parole, dont le poids en alliances supposées est considérable, les faire interagir en permanence . C'est de leurs négociations constantes, des épreuves de toutes sortes qu'ils s'infligent les uns aux autres, des exigences contradictoires qu'ils s'imposent mutuellement que dépend le sort de l'innovation. En négociant le projet, en le transformant pour qu'il soit convaincant à l'intérieur de Menlo Park ils préparent collectivement son succès à l'extérieur de Menlo Park. Car si les porte parole, les intermédiaires de toutes sortes on été bien choisis, ce qui vaut à l'intérieur vaut à l'extérieur. Le microcosme que constitue le laboratoire représente dans toute sa richesse et sa complexité le macrocosme que forme la société américaine, en sorte que les solutions acceptables pour le premier le sont également pour le second. Comme dans les cosmologies antiques, de secrètes et hypothétiques correspondances ont été tissées ente les deux. C'est d'elles, de leur validité et de leur solidité, que dépend la réussite de l'entreprise. La vie communautaire ne suffit pas, la bonne circulation de l'information non plus, car

in fine la réussite ou l'échec ne dépendent que des porte parole mobilisés et du déroulement des négociations qui s'instaurent entre eux.

Une analyse socio-technique Choisir les porte parole, c'est tout à la fois définir , ou mettre en oeuvre, des

orientations stratégiques mais c'est également choisir ce sur quoi on innove et les problèmes qu'il va falloir résoudre. Là encore l'aventure d'Edison est exemplaire. Entouré de physiciens, de chimistes, de juristes et de financiers il va pouvoir se livrer à une analyse socio-technique, au terme de laquelle seront définis avec précision les problèmes de recherche de la solution desquels dépend, si les intermédiaires ont été bien choisis, le projet d'électrification de l'amérique. Lisons ses carnets de travail. Edison commence par une analyse économique détaillée: étant donné le prix du cuivre et compte tenu des coûts de production et des coûts de gestion prévisibles (Edison inclut dans cette évaluation le prix des batiments, celui des chaudières et des installations annexes, celui des conduites électriques et des compteurs, il n'oublie pas de comptabiliser tous les frais salariaux allant jusqu'à inclure les salaires du chauffeur principal et celui du chauffeur adjoint, ...) , l'avenir de l'éclairage électrique face au gaz nécessite l'utilisation de fils de faible section de manière à diminuer autant que faire se peut la quantité de cuivre employé. Edison qui vient de donner une brillante leçon d'analyse économique, se retourne alors vers les scientifiques et les ingénieurs. Le problème qu'il leur pose est parfaitement clair: comment réduire la section de fils sans augmenter les pertes en ligne dues à l'effet Joule? C'est là que Menlo Park démontre son efficacité. Tout le savoir scientifique de l'époque est mobilisé pour apporter la réponse. Combinant la loi de Joule et la loi d'Ohm, Edison entrevoit la solution:

" C'était le moment de crier Eureka: il comprit , en effet, qu'en augmentant la résistance du filament,

il augmentait la tension, laquelle était liée à l'intensité... Les spécifications des lampes du système Edison étaient donc les suivantes : 100 watts,100 volts, 100 ohms. D'où le temps qu'il passa à chercher un filament à haute résistance. Mais l'invention remarquable, ce fut la déduction logique; le filament, lui, ne fut qu'affaire d'essais empiriques."

L'analyse socio-technique conduit à l'invention capitale du filament à haute résistance. Celle-ci n'est pas le fruit d'une intuition géniale. Elle est le produit d'une activité hautement stratégique et réfléchie qui aurait été tout simplement impossible, si dans le même lieu n'avait pas été réunies à portée de main et d'intelligence des compétences et des inquiétudes de toutes sortes, allant de l'économie à la physique fondamentale en passant par les savoirs de la gestion et la technologie. Mélange des genres, variété des interrogations et des savoir faire, mais organisés autour d'une

volonté stratégique bien précise : le remplacement de l'éclairage au gaz par l'éclairage électrique.

" La méthode d'invention d'Edison était un mélange d'économie, de technologie et de science. Les carnets de notes d'Edison mêlent des pages de calculs économiques et des pages de résultats expérimentaux, et parmi ces dernières on trouve des explications raisonnées et des hypothèses à base scientifique: le tissu est sans couture. Son originalité et son efficacité résident autant dans cette synthèse que dans l'exploitation qu'il sut faire des installations de recherche de Menlo Park"

Cet exemple montre à quoi tient l'impressionnante efficacité de la recherche scientifique. La force d'Edison réside dans cette faculté d'introduire dans le jeu économique des ressources et des réalités nouvelles. Cela est banal, mais essentiel : le chercheur, à la différence de tous les autres acteurs sociaux, a la capacité de bouleverser les règles du jeu. En inventant un filament à haute résistances, en lancant une lampe puissante et qui consomme peu d'électricité, Edison et ses collaborateurs affaiblissent la position des compagnies qui distibuent le gaz d'éclairage. Avant la découverte, elles disposaient d'un monopole total; après la découverte, elles se trouvent soumises à une concurrence inattendue, aussi inattendue, que le filament à haute résistance. L'innovation redistribue les cartes, parce qu'elle introduit dans une situation donnée des éléments jusqu'à là inconnus. Le laboratoire est l'atelier d'où sortent ces nouvelles troupes qui jetées sur le marché renversent les positions les mieux établies. Mais cette irruption ne se fait pas au hasard. Elle est le fruit d'un calcul stratégique. S'il suffit d'un filament de carbone pour bouleverser la technologie et l'économie de l'éclairage, c'est parce que tout se joue là sur ce terrain patiemment reconnu par Edison. Qui tient le filament tient le marché. Edison a traduit un objectif commercial en problème de recherche : pour électrifier l'amérique il suffit d'avoir un filament à haute résistance. Cette traduction est le résultat d'une analyse socio-technique qui eût été imposible sans la présence , à Menlo Park, de tous les porte parole rassemblés par Edison. Etablir un laboratoire, désigner tous ces porte parole et ses intermédiaires dont nous parlions précédemment, ce n'est pas seulement se donner les moyens de résoudre des problèmes complexes, c'est surtout et avant tout, se mettre en position de formuler des questions pertinentes c'est à dire de traduire une stratégie économique en actions de recherche.

Gestion de l'innovation ou gestion des procès d'accusation? L'innovateur ne se contente pas de mettre au point des dispositifs techniques, il

travaille à bras le corps la société et la nature qui l'entourent. Que veulent réellement les consommateurs, que peut-on attendre de l'Etat, quelles sont les stratégies des

concurrents, comment vont réagir les distributeurs, peut-on compter sur la firme qui a promis une puce révolutionnaire ? Mais aussi , et avec les mêmes incertitudes: comment tel catalyseur va-t-il se comporter? Est-il réaliste de penser que dans l'ADN la guanine et la thymine se trouvent sous la forme énolique ? Nous avons vu combien cruciales étaient ces questions et les décisions sur les quelles elles débouchent. Aucune procédure ne permet de guarantir qu'une réponse est la bonne . Perdu dans ce monde de "brouillards et d'illusions", l'innovateur ne peut s'orienter qu'en s'efforcant, à travers négociations et compromis socio-techniques, à intéresser des acteurs de plus en plus nombreux. Si recherche il y a , c'est bien de celle-ci qu'il s'agit, de cette quête d'alliés de toutes sortes, humains ou non humains, depuis le filament à haute résistance jusqu' aux journalistes chargé d'alerter l'opinion publique.. Le laboratoire est un des instruments priviligiés de cette quête tous azimuts.

La confiance et la suspicion Ces négociations en tous genres sont conduites, non pas directement avec

l'ensemble des interlocuteurs concernés, mais avec quelques délégués, quelques porte parole judicieusement choisis. Qu'il s'agisse d'identifier le comportement des électrons ou des enzymes, de cerner les attentes des consommateurs ou la stratégie des concurrents, l'innovateur ne peut que s'en remettre à quelques (trop) rares interlocuteurs dont il ne sait jamais complètement de qui ou de quoi ils sont représentatifs et s'ils le sont vraiment. Le doute , la confiance, puis la gratitude et l'admiration , ou au contraire la suspicion, la défiance et bientôt la haine , sont au coeur de l'innovation. Ces passions ne viennent pas parasiter le travail de l'ingénieur ou du chercheur : elles en sont les éléments constitutifs les plus intimes et les plus fondamentaux. C'est pourquoi il est vain de vouloir séparer les facteurs humains et les facteurs techniques, les passions et la raison. Comme il serait vain dans les tragédies shakespeariennes de dissocier le crime de la conquête du pouvoir , de retirer à Lady Macbeth l'ambition mortifère qui l'entraîne à pousser son époux sur le trône . L'innovation est faite de tous ces déchirements, de tous ces abandons , de tous ces renoncements auxquels on se décide parce qu'on choisit de croire Paul plutôt que Pierre, parce qu'on se convainc de la justesse des interprétations de Jean plutôt que de celles de Tom . Innover c'est jouer des hommes contre d' autres hommes, c 'est à dire récuser certaines analyses ou prévisions pour en accepter d'autres, que l'enjeu soit de prévoir une réaction chimique ou la réaction d'un marché. Pour tracer son chemin l'innovateur juge en permanence les êtres qu'ils rencontrent ou avec lesquels il travaille: il y a ceux qui vont trahir ou qui ont déjà trahi, ceux qui disent la vérité et ceux qui mentent, ceux qui sont des fidèles ou des inconditionnels et que l'on est décidé à croire en toute occasion, il y a les tièdes et les opportunistes dont on se méfie mais qu'on ne peut prendre le risque d'ignorer. Peu importe qu'il s'agisse d'établir ce

que peuvent ou veulent le charbon, les électrons, les chercheurs, les commerciaux , les concurrents ou les consommateurs. Le tout est de savoir sur qui et sur quoi on peut compter pour mener à bien tel projet, mais aussi de prévoir la façon dont seront redistribuées les alliances si on décide de le transformer. C'est pourquoi toute décision s'accompagne fréquemment d'accusations proférées contre ceux dont on vient de négliger l'opinion: " je ne me lance pas dans le développement des piles à combustible car le labo de Beauregard raconte n'importe quoi et je doute sérieusement de la compétence de ses chercheurs". X se trompe , qui devient rapidement , X me trompe: " alors que ces commerciaux étaient manifestement incapables d'écouter les consommateurs, ils m'ont fait croire qu'ils connaissaient bien les besoins des utilisateurs; ils m'ont égaré". Les procès d'accusation, dont nous avons pu constater au CSI qu'ils forment la trame de l'innovation, ne sont pas des formes arriérées de superstition ou de pensée magique. Ils constituent un des rares outils d'analyse dont dispose l'innovateur pour asseoir ses décisions ou expliquer, après coup, ses échecs ou réussites.

Confronter les discours d’accusation Si les accusations ne représentent pas un phénomène parasite , c'est parce qu' elles

constituent l' analyse par les acteurs eux mêmes du processus d'innovation dans lequel ils sont engagés. Et cette analyse n'a rien d'académique et d'abstrait. Elle est tout entière tendue vers la recherche de l'efficacité. En effet, selon l'accusateur, l'identification des obstacles et la répartition des responsabilités vont aller dans un sens ou dans un autre. Si , par exemple, l'idée pervient à s'imposer que les difficultés rencontrées par un nouveau brûleur tiennent au charbon utilisé , et si personne ne se lève pour prendre la défense du charbon, alors les actions à entreprendre vont tendre naturellement à concevoir autant de brûleurs que de qualités différentes de charbon ou au contraire à s'en tenir à une seule qualité. Si au contraire l'échec du brûleur est imputé à l'incapacité des chercheurs à résoudre les problèmes techniques, et si ce discours s'impose, alors les décisions s'orienteront naturellement vers une réorganisation des équipes, vers le recrutement de nouveaux scientifiques. De même pour le choix du licencié, qui sera changé , si s'impose l'idée qu'il bloque l'innovation. Les exemples pourraient être multipliés. Ils montreraient tous que les discours d'accusation sont gros de choix stratégiques implicites ou explicites, puisqu'ils visent tous à faire le départ entre les porte parole représentatifs et ceux qui ne le sont pas. Mettre en cause, comme l'expression le dit, c'est chercher des explications et dégager des règles pour l'action. Souvenons nous d'Edison : c'est en choisissant les intermédiaires dont il s'entoure et en décidant de les croire qu'il élabore dans le même mouvement sa stratégie industrielle et de recherche. Qu'on le veuille ou non la

dimension stratégique de l'innovation s'exprime toute entière dans ces accusations que nous croyons venues d'un autre âge.

Les discours d'accusation sont des hypothèses, de simples conjectures. Imposer une accusation, c'est à dire imposer une certaine imputation des responsabilités, que l'on soit potier dans le pays Zandé, ingénieur chez Péchiney ou paysan dans le pays de Caux, n'est jamais une partie de plaisir. C'est une véritable épreuve de force car il n'est pas facile de faire admettre à tous que votre voisin ou votre collègue bloque votre projet ou fait tarir vos vaches. Accusations et contre-accusations s'entrecroisent, dans une ambiance de mise à mort. Chacun mesure sa force, et c'est à celui qui tient le plus longtemps. Et soudain tout craque. Le maillon le plus faible saute: des chercheurs sont remerciés, qui n'ont pu soutenir l'accusation, le licencié est congédié car tous les autres suspects ont tenu bon, les sources d'approvisionnement en charbon sont changées car un accord s'est établi pour en faire un bouc émissaire. Les controverses interminables qui émaillent la vie d'une innovation ne sont rien d'autres que le choc de ces discours d'accusation, qui s'affrontent pour déterminer parmi les porte parole ceux qui sont légitimes et ceux qui ne le sont pas, ceux qui sont dignes de confiance et ceux qui mentent volontairement ou sans même s'en rendre compte. Et comme dans le bocage, les mots qui circulent ont une force et une efficacité qui leur sont propres (FAVRET-SAADA, 1977). Qui veut gérer l'innovation doit accepter de s'immerger dans ce monde. La gestion de l'innovation commence avec la confrontation des divers discours d'accusation qui gouvernent les décisions stratégiques.

Les moments de la gestion

Préparer : la démarche d'analyse stratégique et sa mise en œuvre

Philippe LAREDO et Dominique VINCK

Décider : la sélection des projets de R&D Philippe MAUGUIN

Suivre : outils et gestion des mises à l’épreuve

Dominique VINCK

Evaluer : médiation et préparation des actions futures Philippe LAREDO et Dominique VINCK

Transférer :

Philippe MUSTAR

Cette deuxième partie propose un cadre de réflexion pour penser la gestion de la recherche et de l’innovation. Elle s’appuie sur la littérature existante en matière de

gestion mais elle l’articule de façon nouvelle, tenant compte des acquis récents de la sociologie des sciences.

Préparer la démarche d'analyse stratégique et sa mise en

œuvre Philippe LAREDO et Dominique VINCK

La situation de l'innovateur est un peu comparable à celle d'un joueur de Scrabble

(CALLON, 1985b). Il conçoit de nouveaux produits en laboratoire comme le scrabbleur pioche dans les lettres à la recherche de combinaisons originales. Malheureusement, l'innovation géniale ressemble parfois à ces mots admirables qui utilisent toutes les lettres mais qui ne sont d'aucun intérêt dans le jeu, soit parce qu'il n'existe sur le plateau aucune lettre pour les y accrocher, soit par qu'ils sont interdits par les règles du jeu (un mot en langue étrangère, par exemple), soit parce qu'ils se placent trop loin des cases stratégiques (“mot compte double” ou “mot compte triple”) et ne rapportent aucun point. Pour qu'il réussisse, l'innovateur doit tenir compte de l'état toujours changeant des techniques et du marché, de la position et des stratégies des concurrents comme des réglementations. L'analyse stratégique prospective correspond, au niveau de la gestion de la recherche, à cette démarche. Mais là s'arrête la métaphore car l'analyse stratégique va plus loin ; elle se penche aussi sur le jeu des concurrents. Elle consiste à mettre en évidence leurs orientations stratégiques.

Avant de présenter les grandes lignes de ce que pourrait être une analyse stratégique spécifiquement destinée à la gestion de la Recherche & Développement (R&D) et de l'Innovation, nous exposerons quelques concepts préalables, à savoir : la stratégie, la démarche et l'analyse stratégique. Ceux-ci sont inspirés des travaux en “Gestion stratégique des entreprises” mais ont été complétés et réécrits pour tenir compte des acquis récents de la sociologie des sciences et des recherches en politique scientifique.

La stratégie La stratégie d'un acteur, qu'il s'agisse d'un chercheur, d'un laboratoire, de la

direction R&D d'un groupe industriel, d'une agence ou d'un programme public de recherche, correspond à l'ensemble des objectifs généraux qu'il poursuit et des grandes lignes de conduites qu'il compte adopter. La stratégie d'un chercheur

biologiste consistera, par exemple, à intéresser des collègues médecins en élucidant certains mécanismes pathologiques. Celle d'un laboratoire reposerait sur la maîtrise de quelques techniques à partir desquelles plusieurs programmes de recherche peuvrent être proposés. Tandis que celle d'un programme public viserait à accroître la compétitivité technologique du pays autour de quelques enjeux définis au préalable. Pour l'entreprise, la stratégie “est l'ensemble des manœuvres qui lui permet de mener victorieusement ses luttes concurrentielles (…) Elle vise à conduire l'évolution du groupe de manière à maintenir ses performances et d'éviter son déclin par vieillissement, manque d'initiative, perte de la maîtrise technologique, commerciale ou économique” (DE WOOT, 1984).

La stratégie peut être explicite et affichée dans des discours politiques ou des rapports d'orientations stratégiques. Dans ce cas, elle résulte d'une démarche stratégique. Toutefois, souvent, elle est implicite, voire absente. La stratégie est, en tout cas, de l'ordre de l'intention et demande à être concrétisée sous la forme de choix et d'actions effectives.

La notion de stratégie évoque une démarche volontaire, tournée vers l'avenir et attentive aux évolutions de l'environnement. Le chercheur surveille la littérature et participe à des colloques pour sentir les tendances de sa discipline et pour revoir éventuellement l'orientation de ses travaux. La direction d'un groupe industriel analyse le positionnement de son porte-feuille d'activités par rapport aux concurrents et donne des impulsions nouvelles à son laboratoire de R&D. Les pouvoirs publics commandent des études sur les changements de modes de vie du futur avant de lancer un nouveau programme de recherche. Ainsi, la stratégie implique parfois une perspective de longue durée (le long terme) mais toujours l'anticipation des menaces et des opportunités ainsi que la préparation systématique de l'avenir et de son destin. De ce fait, elle est aussi liée à l'idée de risque, d'incertitude et d'affrontement. Pour un laboratoire ou un programme de recherche, la stratégie dépasse la rigueur scientifique et les performances techniques. Pour une entreprise, elle va au-delà de la maîtrise de coûts de production et de la gestion financière qui enferment la R&D dans un monde trop limité, inapte à saisir valablement l'environnement et ses turbulences. La stratégie entend intégrer ces autres dimensions à la vie de l'entreprise en faisant connaître le jeu concurrentiel et les facteurs-clés du succès ainsi qu'en cherchant à l'intégrer harmonieusement dans la société.

La recherche et l'innovation technologique ne sont des facteurs de succès que s'ils s'intégrent dans des stratégies qui les valorisent et les orientent. Ils n'aboutissent que s'ils intéressent effectivement des partenaires à l'extérieur de l'organisation (les clients, les décideurs publics, les groupes de pression, etc) et prennent en compte la stratégie de ces derniers. Faute de gestion stratégique, la R&D et l'innovation risquent de n'être que de simples changements isolés ou des inventions sans effets sociétaux. Le chercheur qui ne se positionne pas par rapport à ses collègues est

menacé de ne jamais être ni lu, ni cité. Le programme public qui ne suit pas les évolutions de l'environnement technico-économique, législatif et socio-politique prend le chemin de la création de chef d'œuvres technologiques destinés aux musées. D'après les spécialistes en gestion stratégique des entreprises, “la R&D n'influence la rentabilité des entreprises que par l'intermédiaire d'une stratégie de produits et marchés. Ce n'est pas la R&D qui oriente la stratégie mais l'inverse” (DE WOOT, 1988).

La démarche stratégique La démarche stratégique est le processus par lequel un acteur détermine ses

priorités d'action à partir d'une analyse de ses forces et de ses faiblesses ainsi que des menaces et des opportunités de l'environnement. Elle comprend trois dimensions essentielles : l'analyse stratégique, la recherche d'un consensus et l'explicitation des orientations stratégiques, la diffusion des orientations générales auprès des membres du groupe.

L'explicitation des choix stratégiques s'appuie autant que faire se peut sur des analyses stratégiques et prospectives, des analyses précises de l'environnement et de l'acteur. Ces analyses sont liées à des systèmes d'information et de gestion qui facilitent les diagnostics et les anticipations. Elles seront traduites par des objectifs précis, chiffrés et datés, dans des domaines particuliers.

S'ouvrir sur l'extérieur Les acteurs performants en matière de R&D et d'innovation ne limitent pas leurs

activités à des travaux internes. Au contraire, ils exploitatent systématique leur environnement scientifique et technologique. La qualité des relations avec les acteurs scientifiques et techniques externes est d'autant plus déterminante que de nombreuses idées proviennent de l'extérieur plutôt que du seul effort interne de R&D. Certaines entreprises ont créé des unités qui assurent un interface continu et une capacité à capter et à diffuser des informations pertinentes pour un certain nombre de problèmes spécifiques. Elles exercent une fonction de veille technologique c'est-à-dire qu'elles suivent l'actualité scientifique et technologique ainsi que les activités des concurrents afin d'identifier les tendances et les changements possibles. D'autres entreprises, principalement les petites et moyennes, s'adressent à des sociétés de services, à des organisations professionnelles ou à des organismes publics qui les assistent dans cette fonction de veille technologique (ARIST ALSACE, 1989a, 1989b ; MARTINET, 1988). Par ailleurs, une des formes privilégiées de l'exploitation de l'environnement

technologique est la coopération : coopération entre équipes de recherche, réseaux scientifiques, revues et colloques, contrats de recherche industrie-universités, contrats de recherche entre une grande entreprise et les nouvelles PME technologiques, etc : se référer aussi au chapitre consacré aux stratégies d'accès à la technologie.

Par ailleurs, la démarche stratégique contribue à l'intégration sociale des actions de recherche. Si les chercheurs pouvaient justifier leurs activités par la rigueur de leur démarche et par la création de connaissances objectives qui en résultait tandis que les industriels considéraient le profit comme une mesure suffisante de leur utilité sociale, aujourd'hui, il leur est demandé de mieux prendre en compte la société. Les opérateurs publics de recherche sont tenus de rendre des comptes quant à l'utilisation des fonds publics. Les innovateurs sont invités à évaluer les répercussions sociétales de leurs options technologiques. “La poursuite de stratégies économiques déconnectées des problèmes sociaux paraît de moins en moins légitime” (DE WOOT, 1984). Ainsi, les acteurs de l'innovation technologique sont amenés à s'ouvrir à leur environnement, non seulement pour saisir les opportunités et faire face aux menaces, mais aussi pour tenir compte de leur insertion dans la société, des défis auxquels elle est confrontée et de ses aspirations. La démarche stratégique devient alors sociétale ; elle permet de tirer un meilleur parti de l'environnement socio-politique (EFMD, 1982).

Créer un consensus Nourrie par le processus même de recherche des informations, de leur traitement

et interprétation, la démarche stratégique consiste à réfléchir systématiquement la situation et les options, à confronter les points de vue afin d'aboutir à un consensus autour de quelques orientations générales. Celles-ci font alors l'objet de débats, de confrontations et d'apports nombreux. La confrontation systématique entre des logiques différentes (par exemple, entre les membres d'un comité de gestion, entre le département de R&D et le département commercial d'une entreprise) est un facteur de succès des innovations (FREEMAN, 1988). Elle nécessite une implication personnelle des responsables, de la direction (dans le cas d'une entreprise ou d'un laboratoire universitaire, notamment) et des responsables politiques (dans le cas d'un opérateur public de recherche). La réflexion stratégique n'est pas pour autant abandonnée à la direction ou aux spécialistes de la planification. L'essentiel dans une démarche stratégique est le processus collectif par lequel les membres d'un groupe apprennent à connaître la réalité interne de leur organisation, à s'ouvrir à l'environnement, à réfléchir sur l'avenir, à confronter leurs points de vue et à créer un consensus sur quelques points forts. Pour un opérateur public de recherche, la réflexion stratégique prévoira, par exemple, la consultation et/ou l'implication dans le

processus des partenaires-clefs (universités et entreprises, notamment). Dans le cadre des grands programmes de R&D technologique Airbus, Ariane, Esprit, Race, la concertation aurait ainsi porté sur les objectifs et sur les stratégies plus que sur les moyens à mettre en œuvre et le partage des résultats (COHENDET, 1987). Au sein de l'entreprise, la démarche stratégique impliquera étroitement les chercheurs afin d'éviter que ceux-ci se désintéressent de l'entreprise et poursuivent des projets scientifiques sans intérêt pour le groupe (DE WOOT, 1988).

Des choix visibles La démarche stratégique se manisfeste toujours par des choix clairement visibles.

Elle explicite ce qu'on veut faire par rapport à tout ce qu'on pourrait faire et qu'on ne fera pas. Pour être crédible, lisible tant par les membres du groupe que par des acteurs extérieurs (dans le cas d'un programme public de recherche par exemple), son point d'aboutissement doit être constitué d'un nombre limité de projets clairement identifiables. Toutefois, la visibilité des buts et des règles permet des interpellations parfois difficilement acceptées. Ainsi, certains préfèrent éviter cette transparence et garder une marge d'incertitude afin de garantir le maintien du pouvoir. Cette question est d'autant plus délicate que l'établissement d'un véritable consensus entre des féodalités et de coalitions rivales est difficile à obtenir.

Fonction stratégique des Comités de gestion dans les programmes publics de recherche

Les programmes publics de recherche sont régulièrement dotés de Comités de Gestion et de Coordination (par exemple, à la Commission des Communautés Européennes (CCE), de Comités d'Evaluation et de Prospective (par exemple, dans le cadre du Programme de R&D Technologique “Transport Terrestre” en France) et autres conseils scientifiques, administratifs ou politiques. Ces comités, s'ils sont correctement conçus peuvent avoir une fonction stratégique déterminante dans la gestion et la coordination des programme publiques de recherche. Le CGC (Comité consultatif de gestion et de Coordination) du Programme communautaire Energie Non-Nucléaire (CALLON, 1989b) est un exemple de comité qui a déjà une longue expérience et pourrait se lancer dans une véritable démarche stratégique. Ses deux premières missions consistent à informer et à coordoner les politiques de R&D énergétiques nationales. Celles-ci constituent

la base pour l'exercice des choix que la programmation (troisième mission du comité) restranscrit dans son ensemble, que la sélection des opérations (quatrième mission) permet de suivre dans leur mise en œuvre opérationnelle et que l'évalutaion (cinquième mission) permet d'adapter périodiquement en fonction des aléas. Le CGC est un élément clé du dispositif comunautaire ; composé d'institutionnels nationaux (les responsables dans leur pays de l'action publique dans le même domaine), il constitue un rassemblement régulier et unique de connaissances et de compétences mobilisables pour l'action de la CCE. Au sein du CGC, il existe déjà un consensus fort sur le rôle du programme européen (il est un élargissement du programme national permettant de faire d'avantage, d'aller plus loin et de progresser plus vite ; il doit répondre à 4 critères principaux à savoir favoriser les connections européennes, mettre ensemble recherche publique et entreprises industrielles, prendre en compte les considérations environnementales et favoriser les travaux à long terme). Le CGC a donc déjà fait beaucoup de chemin : il a construit un milieu social capable de se donner des critères communs pour l'action. Ce travail de création d'une entente profonde sur les options fondamentales demande du temps ; l'émiettement d'un monde d'acteurs ne se transforme pas du jour au lendemain en un programme capable d'avoir une stratégie (VINCK, 1989) (cfr analyse des organisations). Le CGC comprend donc les ingrédients nécessaires pour entammer une véritable démarche stratégique. Il reste cependant un facteur limitant : le caractère féodal de la Communauté Economique Européenne. En l'occurence, il peut être résumé comme suit : “en aucun cas nous ne voudrions voir exclu du programme européen un thème qui est prioritaire au plan national”. Il s'agit d'une contrainte d'autant plus importante que, de par la qualité des membres du comité, ceux-ci peuvent aisément agir sur le levier politique pour peser sur les décisions. Pour progresser vers une démarche d'analyse et de réflexion stratégique, il n'y a ni recettes simples, ni étape logique ni fonctionnelle. Il s'agit pour le CGC de trouver un support qui facilite l'adhésion progressive de ses membres à la démarche stratégique. La construction d'un instrument de collecte d'information et d'analyse stratégique qui implique effectivement les partenaires pourrait être un tel support.

Fixer ses objectifs et définir des politiques générales

La démarche stratégique consiste principalement à : - identifier les zones-clefs : leur identification constitue le point de départ de la

démarche. Pour chacune d'entre-elles, les analyses stratégiques prospectives devront aider à spécifier les enjeux et les défis. Les zones-clefs résultent d'un découpage très précis. Elles ne sont assimilables ni à des pans entiers du système économique, ni à ceux du système scientifique et technique. Les spécialistes en gestion stratégique des entreprises proposent d'ailleurs un découpage très précis. “Un segment stratégique est constitué par un ensemble homogène de biens et/ou de services destinés à un marché spécifique, ayant des concurrents déterminés et pour lesquels il est possible de formuler une stratégie” (ADER, 1983). “Le segment stratégique correspond à une réalité économique beaucoup plus fine que le secteur : celle du couple produit-marché” (DE WOOT, 1984). Sans accepter a priori le découpage “produit-marché” comme étant le seul pertinent pour ce qui concerne la recherche et l'innovation, nous retiendrons que les zones-clefs pour les acteurs de la R&D ne sont ni des secteurs économiques, ni des disciplines mais une réalité plus fine à définir localement ;

- définir et caractériser les objectifs à atteindre : ils définissent les buts à atteindre. Ils sont des critères de décisions, de gestion et d'évaluation. Un objectif doit être défini pour chaque zone-clé. Pour une entreprise, les objectifs sont généralement d'ordre financier (rentabilité, croissance), industriel (productivité) et commercial (position concurrentielle, part de marché). En matière de R&D et d'innovation, les objectifs de chaque zone-clef seront précisés en explicitant le type de résultat et d'impact attendus ainsi que l'inscription temporelle de l'action à conduire. Les objectifs seront, dans la mesure du possible, référés à des indicateurs quantitatifs ;

- préciser les “règles du jeu”, celles que le groupe entend suivre pour la poursuite des objectifs. Elles qualifient les grandes lignes de conduite.

L'explicitation d'une stratégie sous la forme d'orientations générales claires et

contraignantes est un moyen pour conduire des ensembles complexes et hétérogènes tels que les différentes directions d'une entreprise ou les différents types d'acteurs d'un réseau technico-économique (équipes universitaires, organismes publics de recherche, grandes entreprises industrielles, petites et moyennes entreprises et sociétés d'ingénieurie, etc). L'opérateur d'une intervention de R&D (par exemple, le directeur d'une agence publique de recherche) ne peut pas se substituer aux dirigeants des diverses entités (universités et entreprises) qu'il mobilise sur son projet. Par contre, il peut leur imposer des critères d'évaluation et le respect des règles d'un jeu collectif. De ce fait, il facilite la mise en relation et la synergie des efforts et donne des indications pour la sélection et l'abandon des projets ainsi que pour la valorisation

du potentiel scientifique et technique28. La démarche stratégique accroit l'efficacité de la gestion de la R&D par la mobilisation qu'elle autorise autour d'enjeux forts et d'objectifs clairs.

Grands principes de la stratégie industrielle d'après (DE WOOT, 1984) et (PORTER, 1982)29

• Pour obtenir la victoire, être le plus fort à l'endroit où on se bat : conquête de positions concurentielles et refus de part de marché insuffisantes. • Garder l'offensive en s'appuyant sur ses positions de force. • Les réserves stratégiques doivent voler au secours de la victoire et pas se diluer dans les défaites. • Désinvestir à temps : savoir décrocher sans pertes, désinvestir avec autant de méthode et d'anticipation que pour investir. • Equilibrer les activités en croissance lente et en croissance rapide. • Equilibrer l'intérêt d'un secteur et la position concurrentielle qu'on y occupe. • Equilibrer le court et long terme. • Se créer des avantages compétitifs de manière systématique et volontariste. • Deux types d'avantages concurrentiels : - l'avantage en coût : obtenu par l'effet d'expériences cumulées ou de volume (échelle, apprentissage, innovation), par la modernisation des technologies de fabrication, par le comportement des travailleurs et gestionnaires ; - l'avantage en différenciation : offrir un produit différent de celui de son concurrent, qui s'adapte mieux aux besoins du client même s'il est plus cher. • Trois types de stratégies : de volume, de spécialisation, de niche ou une combinaison des trois.

28 Magement des ressources technologiques (MRT) : optimiser, enrichir, sauvegarder, inventorier, évaluer,

surveiller le patrimoine des ressources technologiques (MORIN, 1985). 29 Se référer également au chapitre de cet ouvrage consacré aux stratégies d'accès aux technologies, par

N.KANDEL et Th.DURAND ainsi qu'à (DUSSAUGE, 1987).

Un processus interactif La démarche stratégique intervient en fait tout au long de la vie d'une

intervention de R&D et d'innovation. Elle doit, à la fois, précéder la mise en oeuvre opérationnelle des orientations arrêtées (ce qui correspond à la planification stratégique des entreprises), l'accompagner (veille et gestion stratégique, en particulier la veille scientifique et technologique) et intervenir au moment de l'évaluation des actions de recherche.

Système d'information stratégique La mise en œuvre d'une démarche stratégique réclame le rassemblement d'une

série d'informations. Elle s'appuie sur un système de surveillance des différents environnements importants et sur une capacité de diagnostic portant sur la situation de l'acteur et sur son contexte. Chaque type d'information nécessite de véritables études et analyses. La démarche stratégique appelle donc à la fois la mise en place d'un système de collecte d'information et des outils d'analyse stratégique.

Les critères de l'information pertinente Il est à la fois trop onéreux et inefficace de rassembler toute l'information

susceptible d'être utilisée. Une couverture trop large aboutirait à accumuler tant de données qu'il deviendrait impossible d'y repérer les éléments pertinents. Il s'agit donc de commencer par définir l'information adéquate à collecter en tenant compte à la fois du fait que les menaces et les opportunités viennent souvent de secteurs éloignés et inattendus et du fait qu'il est impossible de tout suivre. L'information à rechercher est fonction de la stratégie poursuivie. Certains cabinets de conseil proposent ainsi aujourd'hui aux grandes entreprises des systèmes de veille technologique conçus à la mesure et intégrés à la stratégie. En ce sens, ils semblent plus appropriés que les systèmes de veilles classiques (ARIST ALSACE, 1989a,b) qu'il s'agisse des systèmes multiclients de recueil exhaustif et systématique soit tout azimut (veille horizontale) soit en fonction de la filière technologique concernée (veille verticale) de l'information technologique et économique ou des systèmes de veille personnalisée telle que la diffusion sélective de l'information à une entreprise.

Le processus de sélection, à partir de la stratégie, des informations à rassembler est itératif puisque ce sont ces mêmes informations qui sont destinées à préciser la stratégie.

L'information stratégique ainsi délimitée, pour être pertinente, doit encore être rapidement accessible sous une forme adéquate et flexible. Elle sera fine et désagrégée pour pouvoir répondre à différentes questions. Si elle doit être fiable, elle n'a, par contre, pas toujours besoin d'être très précise. Un ordre de grandeur pertinent est généralement préférable à un luxe de détails. La flexibilité et la rapidité d'intervention en dépendent. En outre, pour certains évènements jugés importants par l'acteur, la collection d'informations complètes et certaines est trop onéreuse.

La qualité des systèmes d'information Un bon système d'information doit également être polyvalent car les questions

que se posent les acteurs changent au cours du temps. Elles varient d'ailleurs d'une personne à l'autre, voire pour une même personne en fonction des situations qu'il doit traiter. Par exemple, le gestionnaire d'un programme public de recherche interrogera différemment son système d'information et conduira des analyses différentes selon qu'il s'adresse aux universitaires et aux entreprises qu'il mobilise ou qu'il argumente le projet d'un futur programme auprès de responsables politiques. Pour obtenir ce résultat, l'information doit être suffisamment fine et désaggrégée. Elle sera la plus indépendante possible pour être utilisable dans diverses analyses et interrogations. En articulant un système de collecte et de stockage des données sous une forme atomisée, son utilisation pourra faire l'objet d'aggrégations modulables en fonction des problèmes et questions posées. Il pourra alimenter le processus de réflexion a priori, en cours d'exécution et a posteriori. Un exemple d'un tel système, proposé aux gestionnaires d'un programme public de recherche est présenté dans la dernière partie de ce chapitre.

Pour rassembler cette information, il s'agira d'articuler une attitude générale et largement diffusée d'ouverture à l'égard des évolutions internes et externes à un réseau métrologique. L'attitude de veille assurera au système sa permanence. Elle permettra de mettre en évidence les sources d'information les plus pertinentes en tenant compte de la fiabilité, rapidité, coût. Progressivement, les acteurs localiseront et caractériseront leurs sources d'informations privilégiées. Grâce à une connaissance de ses sources et à la crédibilité qu'ils gagneront vis-à-vis des détenteurs d'informations, ils accédereront à des informations autrement non divulgées. Le réseau métrologique, pour sa part, implique le recours à des méthodes de collecte de l'information et de mesure des paramètres importants telles que les comparaisons, les aggrégations, les discussions, les arbitrages et les contrôles soient possibles. Le système d'information doit être suffisamment standardisé pour que les données aient les mêmes significations pour tous les décideurs. Le système d'information articule donc la décentralisation de l'attitude d'ouverture afin que les évolutions soient

perçues rapidement et la centralisation autour de quelques méthodes standardisées afin que les consolidations et les discussions soient possibles.

Qualité des systèmes d'information stratégique d'après (COBBAUT, 1974)

— rapidité d'accès aux informations : les systèmes “on line” et les systèmes interactifs sont préférables pour tester des hypothèses et vérifier la validité de manœuvres envisagées ou commencées ; — définition non ambigüe des données pour faciliter leur interprétation ; — flexibilité : modifiables et adaptables, ils permettent de fournir des informations qu'on avait pas prévu lors de la création du système. Systèmes modulaires ; — un bon ordre de grandeur obtenu rapidement vaut mieux qu'une donnée précise arrivant trop tard : “It's better to be approximately right than exactly wrong” ; — ouverture sur et surveillance de l'environnement : d'une attitude généralisée d'éveil à la recherche formalisée de certaines informations pour des zones-clés à surveiller ; — méthodes de repérage des données significatives dans la masse des informations qui circulent.

La “mise en scène” de l'information Il ne suffit pas de choisir et de collecter l'information. Encore faut-il que celle-ci

soit digérée de manière à accroître sa valeur pour les différents acteurs de l'intervention de R&D. En allant au-delà des faits et des informations brutes, en les reliants entre eux et en les traduisant en fonction de leurs utilisations et répercussions possibles, le système d'information augmente l'intérêt de telles informations. En fait, beaucoup d'informations brutes reçues par les acteurs de R&D ne sont pas utilisées. Ceux-ci les trouvent peu utiles (sentiment de déjà vu, d'inutilité liée au fait que chacun ne s'intéresse qu'à un morceau de l'information, de culture générale (ARIST

ALSACE, 1989a,b). Le système d'information doit donc répercuter les informations pour ce qu'elles représentent d'enjeux pour l'intervenant.

Cependant, rassembler et traiter l'information ne suffit pas. Il ne s'agit toujours là que de supports à une réflexion stratégique c'est-à-dire à la confrontation des points de vue et aux arbitrages. Leur rôle est d'alimenter les controverses, d'enrichir les discussions pour leur donner de la consistence. Les analyses stratégiques apportent

chacune une contribution limitée, un cadrage sur quelques aspects des évolutions internes et externes. De la même manière qu'il n'est pas toujours pertinent de rechercher une information complète, au niveau des analyses, l'idée d'une rationalité unique est abandonnée au profit d'un processus collectif de discussion. L'existence de logiques d'action différentes telles que, en entreprise, celles les différentes directions (marketing, R&D, finance) ou, au niveau des comités de gestion des programmes communautaires, celles des différents pays-membres (les grands et les petits pays, ceux du Nord et ceux du Sud), facilite la confrontations des points de vue.

Les principales méthodes en stratégie d'entreprise… Les spécialistes en gestion stratégique des entreprises ont développé plusieurs

outils d'analyse. Il s'agit principalement des méthodes de diagnostic interne et externe et de l'analyse du positionnement du portefeuille d'activités. Plus récemment, à ces démarches maintenant classiques, ils intègrent les analyses prospectives (GODET, 1985) ainsi que la notion de grappes technologiques (DUSSAUGE, 1987).

Les méthodes de diagnostic Le diagnostic interne permet de connaître l'état des ressources de l'acteur : les

hommes, les techniques, les produits, les réseaux et l'argent. Les méthodes visent à identifier les forces et les faiblesses de l'acteur. En entreprise, les méthodes de diagnostic interne sont avant tout financières : bilan (mesure des stock), compte de résultat (mesure des flux), les ratios et le tableau de bord. D'autres aspects interviennent dans le diagnostic interne. Il s'agit des diagnostics opérationnels et fonctionnels. Le premier analyse les produits et services (qualité, variété, image de marque), les réseaux de distribution et les marchés (demande, évolution passée, position concurrentielle) tandis que le diagnostic fonctionnel identifie les atouts et handicaps de l'organisation.

Le diagnostic externe apprécie les menaces et les opportunités qui proviennent de l'environnement. Il surveille (veille stratégique) à la fois les concurrents, les clients, les fournisseurs et les acteurs de l'environnement en général (pouvoirs publics, banques, médias, groupes de pression, etc). Il prend en compte les forces en présence, la position de l'acteur et les stratégies possibles. Les nouveaux acteurs potentiels (les entrants) font l'objet d'une attention particulière de même que l'évolution des débats sociétaux, des réglementations nationales et internationales et des modes de vie. Ainsi, par exemple, si les acteurs du développement des pompes à chaleur à compression avaient pris en compte le débat contemporain sur le fréon et la

destruction de la couche d'ozone, cette nouvelle technologie ne serait pas aujourd'hui dans une impasse ; les efforts auraient portés sur une solution alternative.

Les diagnostics interne et externe sont souvent séparés. Il est cependant préférable de les rapprocher car les menaces et les opportunités n'ont de sens que par rapport aux forces et aux faiblesses de l'acteur et réciproquement.

Les méthodes de positionnement stratégique Les méthodes d'analyse du positionnement stratégique des activités d'une

entreprise ont connu beaucoup de succès dans les années ’70. Elles reposent sur trois éléments fondamentaux : le découpage des activités de l'entreprise, l'évaluation de leur valeur actuelle et future, l'analyse de leur position concurrentielle. Le premier élément consiste à définir des segments stratégiques suffisamment fins que pour être relativement homogènes et pertinents. En gestion des entreprises, il s'agit des couples produit-marché. Pour conduire leurs analyses, les spécialistes en gestion stratégique font également appel aux notions de cycle de vie des produits et d'effet d'expérience. Par analogie avec les organismes vivants, la vie d'un produit est sensée traverser quatre phases : le démarrage, la croissance, la maturité et le veillissement. Cette notion est utilisée pour prévoir l'évolution des marchés. Elle est également adoptée pour la gestion du développement technologique. La difficulté, dans ce cas, consiste à positionner la technologie dans son processus de développement. La notion d'effet d'expérience, pour sa part, relie la réduction des coûts de production d'un bien à l'accroissement du volume de production (effet combiné, notamment, de l'apprentissage et des économies d'échelle).

Ainsi, ayant découpés les activités de l'entreprise en segments stratégiques et munis de ces outils d'analyse, les cabinets de conseil (Boston Consulting Group (BCG), Arthur D. Little (ADL), Mc Kinsey, SRI, PIMS) ont mis au point des méthodes d'analyse de portefeuilles d'activités. Ces méthodes s'appuient sur une matrice construite au moyen de deux indicateurs qui divisent l'espace du graphique en quatre cadrans, chacun correspondant aux valeurs élevées ou faibles de l'indicateur. Les activités sont alors positionnées par rapport aux axes. Par exemple, la méthode du Boston Consulting Group s'appuie sur les deux indicateurs suivants (cfr tableau 1) : la part de marché relative pour mesurer l'effet d'expérience et le taux de croissance du marché pour se situer dans le cycle de vie du produit. Les activités réparties dans les quatre cadrans sont alors baptisés : les étoiles (lorsqu'elles ont un taux de croissance élevé et une part de marché relative élevée), les dilemmes (croissance élevée / marché faible), les vaches à lait (croissance faible / marché élevé) et les poids morts (croissance faible, marché faible). Stratégiquement, il est déconseillé d'avoir un portefeuille d'activité concentré sur un seul cadran. Par

ailleurs, pour chaque cadran, des stratégies spécifiques sont recommandées : maintenir les étoiles, rattraper ou abandonner (ou segmenter) pour les dilemmes, rentabiliser les vaches à lait, attendre ou abandonner pour les poids morts. Une telle méthode assure une vision d'ensemble du portefeuille d'activités et relativise, l'une par l'autre, la position occupée sur un segment par rapport à l'importance de celui-ci.

Tableau 1 : positionnement du portefeuille d'activités selon le Boston Consulting Group

Taux de Part de marché relative croissance forte faible fort Etoiles Dilemmes (maintenir) (rattraper, segmenter ou abandonner) faible Vaches à lait Poids morts (rentabiliser) (attendre ou abandonner)

Ces méthodes qui ont connu beaucoup de variantes ont également été utilisées

pour aider à la définition de stratégies de Recherche & Développement. Ainsi, le cabinet de conseil Arthur D. Little a proposé de combiner les deux indicateurs agrégés suivants : la maturité du secteur (position du produit) et la position concurrentielle dans ce même secteur. Chacun de ces indicateurs est lui-même construit à partir de la prise en compte de plusieurs facteurs. La combinaison des deux indicateurs débouche sur une représentation matricielle des orientations à donner à la R&D (tableau 2). Ainsi, par exemple, si une entreprise n'a pas investi à temps dans une recherche qui commence à porter ses fruits sur le marché, la stratégie recommandée consiste à suivre les nouveaux produits ou technologies en phase de démarrage. En revanche, pour une technologie mûre et banalisée, il s'agirait de s'orienter vers des cessions de licence.

Tableau 2 : les stratégies de Recherche &Développement

selon Arthur D.Little30

Position Maturité du secteur concur- rentielle Démarrage Croissance Maturité Déclin Dominante Accéléer R&D Identifier N.T. Démarrer N.T. Activer R&D Affiner Vendre Qualité Licence Forte Stimuler R&D Développer Identifier N.T. Démarrer N.T. Qualité Vendre Licence Défendable Achat de Sous-traitance Licence Faible Achat de Sous-traitance Licence

N.T. = nouvelle technologies Les méthodes d'analyse de portefeuilles d'activités ont ainsi inspiré la conception

de méthodes d'analyse de protefeuille de technologies. Celles-ci positionnent les différentes technologies élémentaires maîtrisées par l'entreprise — telle qu'elles ont été recensées lors de la description du patrimoine technologique — dans une série de tableaux dont les entrées correspondent aux critères jugés essentiels par l'entreprise. Il s'agit, par exemple, de combiner la position dans le cycle de vie de la technologie avec le degré de maîtrise technologique ou l'impact concurrentiel (MORIN, 1985). La figure 1 illustre ce type de représentation de portefeuille de technologies ainsi que la façon dont il devrait être équilibré.

Figure 1 : le portefeuille de technologies (selon MORIN, 1985)

30 cité par (GODET, 1985)

Certain auteurs ont proposé d'articuler les analyses de portefeuille d'activités et

celles des portefeuilles de technologies (TASSEL, 1983) afin de mettre en évidence d'éventuelles anomalies dans le positionnement respectif des activités et des technologies. Le cabinet Arthur D. Little a ainsi proposé une série de matrices, pour chaque phase de la maturité d'une activité, combinant la position concurrentielle et la position technologique ce qui a conduit certains auteurs à représenter l'espace stratégique de l'entreprise en trois dimension (ANASTASSOPULOS, 1985) (figure 2).

Un patrimoinevulnérable

Emergence Evolution Stabilité Déclin Obsolescence

Maturité de la technologie

Tech

nolo

gie

de d

iffér

enci

atio

nTe

chno

logi

ede

bas

e

Possessionparune

entreprise

toutes lesentreprisesdu même

métier

Emergence Evolution Stabilité Déclin Obsolescence

Maturité de la technologie

Tech

nolo

gie

de d

iffér

enci

atio

nTe

chno

logi

ede

bas

e

Possessionparune

entreprise

toutes lesentreprisesdu même

métier

Un patrimoineéquilibré

Figure 2 : représentation en 3D de l'espace stratégique de l'entreprise (selon DUSSAUGE, 1987)

Histoire de la planification stratégique31

Entre les deux guerres : — chez Dupont de Nemours et General Motor : premières expériences de dissociation des responsabilités stratégiques (la fixation des objectifs) et tactiques (les moyens pour y parvenir) ; — développement des procédures de contrôle stratistique et financier, de plannification et de programmation des actions. Après la secondaire mondiale : — volonté de prévoir et d'organiser la croissance des entreprises : développement des analyses à court terme des produits et des marchés

31 d'après GODET, 1985.

Potentiel dedéveloppement de l'activité

Présence sur la marché

Degré de maîtrisetechnologique

(marketing). Années ’60 : — essor de la planification des entreprises, lié en France à l'existence de plans nationaux fournissant des projections économiques précises et crédibles ; — aux Etats-Unis, développement de la planification à long terme (Long range planning) allant au-delà de l'optique budgétaire annuelle : interrogations sur le devenir de l'entreprise, ses investissements, ses implantations futures ; — application de la planification à long terme à la croissance et diversification des activités de l'entreprise ; — réflexions théoriques sur l'adéquation entre la stratégie externe et la structure interne (CHANDLER, 1962) et sur l'évolution des systèmes de planification et de décision (ANSOFF, 1965). Années ’70 : — vague de critiques et de scepticisme à l'égard de la planification et de la prévision ; — les incertitudes de l'environnement renforcent la nécessité d'une planification d'entreprise, rebaptisée planification stratégique ; — l'entreprise doit faire preuve de flexibilité. La notion même de planification devient inadaptée car ce n'est plus l'objectif qui compte le plus mais la capacité à réagir et à s'adapter. On parle de gestion ou management stratégique ; — deux voies de recherche se développent : l'analyse stratégique des portefeuilles d'activité et la culture stratégique. La première (voir ci-avant) connaît un succès foudroyant ; elle propose des règles d'analyse stratégique universelles qu'il suffirait d'appliquer pour assurer le succès. La seconde postule que la clef des entreprises performantes doit être cherchée dans les structures et les comportements. Années ’80 : — succès croissant de l'approche “culture stratégique” (PETERS, 1983) : la clef du succès dépend de la mobilisation de toute l'intelligence de l'entreprise (SERIEYX, 1982) ; — l'analyse de la flexibilité stratégique est à la mode (DURAND, 1981)

Les méthodes de l'économie industrielle

L'économie industrielle propose également des approches susceptibles d'être

utilisées dans le cadre de la gestion de projets de R&D : l'analyse des structures de marché, l'analyse des comportements et l'analyse des performances (JACQUEMIN, 1985 ; MORVAN, 1985). Les critères utilisés dans ces analyses sont :

— pour l'analyse des structures de marché : le nombre de concurrents, la distribution des parts d'activités, les conditions d'entrée et de sortie, la standardisation des produits, la proximité vis-à-vis de biens substituts, l'interdépendance amont-aval de l'activité, la qualité de l'information détenue par les participants et l'importances des risques rencontrés ;

— pour l'analyse des comportements : les rôles respectifs des politiques de prix et de “non-prix”, le niveau de coopération établi au cours du temps entre les agents et l'usage de stratégies de différenciation et de diversification ;

— pour l'analyse des performances : l'allocation des ressources et la profitabilité observée.

Ces analyses s'efforcent de déterminer la nature de la concurrence dans un marché donné. Toutefois, selon le point de vue adopté, elles ont des significations différentes. Pour l'Etat, il s'agit d'évaluer si l'allocation des ressources est efficace et si la distribution est équitable tandis que pour l'entreprise, il est plutôt question de voir si la position relative actuelle ou potentielle est suffisamment différenciée et protégée que pour en retirer un profit substantiel.

De la même manière que les méthodes d'analyse de portefeuilles d'activités, les méthode de l'économie industrielle ont été critiquées pour leur caractère statique. Il leur a été également été reproché de minimiser le rôle des comportements. C'est ainsi que de nouvelles approches ont été développées principalement sur la base des modèles de concurrence imparfaite, de la théorie des jeux et de l'analyse de la dynamique des structures industrielles. Elles considèrent que les agents économiques prennent des décisions successives et tiennent compte des conséquences de leurs actions sur l'évolution ultérieure de l'activité industrielle (anticipations rationnelles).

Les méthodes d'analyse développées par les spécialistes en gestion stratégique et

en économie industrielle constituent la base à partir de laquelle l'entreprise peut mesurer son potentiel, ses forces et ses faiblesses. Les diagnostics internes et externes, les méthodes d'analyse de portefeuille d'activités et de technologies, les analyses de structures de marché, de comportements et de performances sont les principales ressources permettant à une entreprise de se décrire et de se situer. Dans le cadre d'une démarche de réflexion stratégique, il s'agit là d'un travail incontournable ; l'entreprise, de même que les autres intervenants en matière de R&D, doivent d'abord pouvoir définir leurs positions dans un univers concurrentiel.

Toutefois, ce travail ne suffit pas. Il ne prend pas en compte les évolutions et les ruptures possibles. C'est la raison pour laquelle nous allons présenter, dans ses grandes lignes, une des principales méthodes de l'analyse prospective : la méthode des scénarios.

Les méthodes de l'analyse prospective La méthode des scénarios32 est au cœur des travaux de l'analyse prospective. Elle

vise tout d'abord à identifier les problèmes clefs qui demandent des études plus approfondies dans le cadre d'une analyse globale du système. Elle détermine également les acteurs importants, leurs stratégies et les moyens dont ils disposent. Ensuite, elle décrit, sous la forme de scénarios, des évolutions probables du système étudié à partir de jeux d'hypothèses sur le comportement des acteurs. Enfin, les conséquences des différents scénarios sont évaluées au moyen d'analyses multicritères. Elle permet donc de comparer différentes évolutions futures, de saisir les opportunités, de détecter les menaces et de déduire les actions stratégiques à engager.

La première étape, essentielle, consiste à construire l'image de la situation présente. Celle-ci doit être à la fois détaillée et approfondie, qualitative et quantitative, globale. Elle doit prendre en compte les différentes dimensions de la situation. Elle doit être dynamique pour mettre en évidence les évolutions passées et les faits porteurs d'avenir. Elle s'opère en trois temps : la délimitation du système à étudier et son environnement, la détermination des principales variables et l'analyse des évolutions et stratégies (passées et présentes) des acteurs. La liste des variables peut être dressée au moyens de diverses méthodes telles que le brainstorming, les entretiens avec des spécialistes et des représentants d'acteurs présumés du système ; elle pourra s'appuyer sur les analyses du positionnement telles que présentées précédemment. Ayant constitué une première liste de variables, celle-ci est discutée. Les variables sont alors classées, principalement en deux groupes : les variables internes caractérisant le système étudié et les variables externes pour son environnement. L'ensemble des variables peut alors faire l'objet d'une analyse structurelle destinée à les hiérarchiser en tenant compte de leur impact direct sur d'autres variables mais aussi des impacts indirects via une ou plusieurs autres variables. Une matrice met en relation tous les éléments du système. Par ailleurs, une analyse rétrospective, partant des variables essentielles, identifie les acteurs déterminants des évolutions passées (tendances lourdes, invariants) et permet ainsi de relativiser la situation présente. L'analyse de cette dernière permet de cerner les germes de changement, les stratégies des acteurs et leurs rapports de force. Il s'agit 32 Pour un exposé complet de la méthode, lire GODET, 1985.

d'identifier les motivations des acteurs, leurs moyens d'action et leurs contraintes ainsi que de cerner les alliances et les conflits. Ces analyses débouchent sur la construction d'un tableau des stratégies des acteurs les uns par rapport aux autres et éventuellement de graphes d'interaction entre acteurs. La construction de la base permet ainsi de dégager une série de questions-clés autour desquelles les scénarios seront construits.

La seconde étape consiste à produire des scénarios probables. En faisant évoluer les principales variables dégagées à l'étape précédente et en confrontant les stratégies des acteurs, leurs alliances et les conflits, une multiplicité de scénarios peut être dégagée, chacun correspondant à un jeu d'hypothèses particulier portant sur les évolutions futures, les ruptures possibles, l'issue des conflits, etc. Toutefois, le nombre de scénarios devient rapidement ingérable : 2n scénarios possibles pour n variables. Par exemple, pour 10 variables, les prospectivistes se retrouveraient avec 1024 scénarios à comparer. Il s'agit donc de trouver un moyen de réduire cet éventail, en particulier, en associant aux hypothèses des probabilités, simples et conditionnelles, de réalisation. Pour ce faire, des experts, ou des acteurs des évolutions potentielles (AUJAC, 1983), dans le domaine analysé sont sollicités. Les probabilités subjectives exprimées par des experts sont alors traitées afin de réduire l'incertitude qui pèse sur les hypothèses.

Plusieurs méthodes d'experts ont été utilisées telles que la méthode Delphi, les machines à voter et les impacts croisés. La première et la plus connue date des années ’50. Elle procède par interrogations successives d'experts au moyen de questionnaires afin de mettre en évidence des convergences d'opinions. Les résultats sont présentées sous forme d'histogrammes. L'objectif consiste à en préciser les médianes en demandant aux experts de se repositionner par rapport à la distribution des opinions de ses collègues et de se justifier s'ils se situent hors de l'espace interquartile. Les arguments des uns et des autres sont présentés aux experts en même temps qu'il leur est demandé de se repositionner une nouvelle fois.

La méthode Delphi a fait l'objet de plusieurs critiques à savoir principalement : — le fait qu'elle est très dépendante du choix des experts ; — la recherche d'une convergence ou d'un consensus ne garantit ni la cohérence

ni la qualité des prévisions ; — la méthode est très normative. Seuls les experts ayant des opinions s'écartant

nettement de la médiane doivent se justifier ; — elle ne tient pas compte de l'interdépendance entre les questions. Les machines à voter (Abaque de Regnier manuel ou informatique, Consensor)

consistent à présenter, en une image globale, les positions d'un ensemble d'experts. Chacun indique sa position (par une couleur rouge, orange ou verte dans l'Abaque de Regnier) et peut la changer à tout instant en fonction du déroulement de la

discussion. Ces méthodes permettent aux individus de prendre position, dès le début de la discussion sans devoir pour autant rationaliser leur choix. Elles permettent donc de baliser les discussions jusqu'à ce qu'un consensus se dégage.

Les méthodes d'impacts croisés, contrairement à la méthode Delphi, prennent en compte les interdépendances entre les questions. Elles s'appuient sur une enquête postale dans laquelle il est demandé aux experts de probabiliser une série d'évènements. La différence entre ces méthodes tient principalement à la façon dont sont évaluées les interactions entre les questions. Dans la méthode SMIC, par exemple, les experts doivent répondre à toutes les questions croisées afin de donner des probabilités conditionnelles. Celles-ci sont ensuite traitées mathématiquement de manière à fournir une information cohérente la plus proche possible de celle donnée par les experts. Il en résulte un nombre limité de scénarios pouvant être hiérarchisés en fonction des probabilités calculées. Les scénarios font également l'objet d'une analyse de sensibilité des hypothèses les unes par rapport aux autres afin de dégager les variables motrices et les variables dépendantes.

Ayant réduit les incertitudes pesant sur les hypothèses, il est alors possible de proposer quelques images finales de scénarios. Un scénario de référence correspond au jeu d'hypothèse globalement le plus probable tandis que des images constratées sont choisies parmi les scénarios à probabilité moyenne. Il s'agit ensuite de décrire l'évolution conduisant de la situation présente aux images finales retenues. Au cours de ce travail d'écriture des scénarios, des modifications sur les hypothèses sont éventuellement introduites pour assurer une plus grande cohérence à la démarche.

La dernière étape de la méthode des scénarios consiste à comparer les conséquences des différentes situations projetées. Les méthodes d'analyse multicritère sont les plus utilisées à ce stade car elles prennent en compte les importances relatives accordées par les décideurs aux différents critères d'évaluation.

La méthode d'analyse des grappes technologiques La méthode d'analyse des grappes technologiques se réfère à l'hypothèse de

J.SCHUMPETER, (SCHUMPETER, 1939) selon laquelle les innovations technologiques tendent à apparaître par grappes : “Les innovations ne sont pas des faits isolés et ne sont pas distribuées également dans le temps mais au contraire, elles ont tendance à s'agglomérer, à venir en grappes” (cité par LEMAY, 1988). L'origine du dynamisme économique proviendrait de la rencontre entre innovations (PERROUX, 1956). C'est la raison pour laquelle certains auteurs ont développé des indicateurs de relation entre innovations, notamment en repérant des grappes d'innovations à partir de matrices technologiques (DEBRESSON, 1987).

Le concept de grappes technologiques a été repris par les spécialistes de la gestion stratégique pour mieux prendre en compte le potentiel et les compétences technologiques dont disposent les entreprises. La grappe technologique est ainsi définie comme “une collection d'activités liées entre elles par une essence technologique commune. La grappe est formée d'un ensemble d'axes de valorisation, partant de la technologie pour aboutir à des produits sur des marchés” (GEST, 1986). Elle est souvent représentée sous la forme d'un arbre dont les racines seraient les technologies génériques, le tronc le potentiel technologique propre de l'entreprise, les branches les secteurs et sous-secteurs d'application tandis que les fruits correspondraient aux produits ou couples produits/marchés. Les technologies génériques développeraient ainsi leur fécondité dans de multiples secteurs d'activités. Elles seraient aussi plus proches de la recherche fondamentale. “La mise en œuvre de stratégies de grappes technologiques exige donc des entreprises des capacités scientifiques et techniques importantes” (DUSSAUGE, 1987). La notion de grappe technologique permet ainsi à la gestion stratégique de mieux prendre en compte le potentiel technologique interne à l'entreprise, les compétences et les technologies maîtrisées ainsi que les relations qu'elles ont entre-elles.

…et leurs limites Les méthodes exposées dans le pages qui précèdent sont principalement destinées

à décrire et à positionner les entreprises, d'une part, à cerner des évolutions, d'autre part. Elles ont été appliquées à la conception de stratégies technologiques, voire de programmes de recherche et développement. Elles rencontrent cependant plusieurs limites. Elles nécessitent des adaptations importantes avant d'être utilisées par d'autres intervenants en matière de R&D que les entreprises. En outre, même pour les entreprises, elles ne prennent pas encore suffisamment en compte la spécificité des activités de R&D.

En matière de Recherche et Développement, le diagnostic interne passe par un recensement (MORIN, 1985) des compétences et des technologies maîtrisées. Cependant, très souvent, ces ressources scientifico-techniques sont méconnues ce qui contraste avec la connaissance très précise qu'ont, par exemple, les entreprises de leur patrimoine matériel (immobilier, matériel, stocks, etc) ou financier (DUSSAUGE, 1987). Des analyses équivalentes aux diagnostics opérationnels et fonctionnels pourraient être conduites pour les interventions de recherche. Il s'agirait alors d'analyser les produits (publications, brevets, pilotes, instruments, réactifs, etc) et services (compétences incorporées, assistance technique, etc) issus des services de recherche ainsi que leur circulation au travers de réseaux d'échanges divers — la

circulation d'une publication scientifique n'est pas nécessairement la même que celle d'un chercheur confirmé ; chaque “produit” décrit un réseau particulier33. Les listes de ressources permettent un premier type d'évaluation du potentiel mobilisable. Elles facilitent, en outre, la conception de nouveaux rapprochements et combinaisons. Cependant, le diagnostic conçu à la manière d'une série d'inventaires, s'il ne met pas en relation les unes avec les autres les différentes ressources court le risque de voir lui échapper les éléments clefs de son potentiel à savoir les aggrégats spécifiques d'entités aussi hétérogènes que l'association de chercheurs et d'agents de production (compétences incorporées), de techniques et d'instruments, de textes, etc. Ces aggrégats constituent des unités d'analyse pertinentes pour la définition d'une stratégie de recherche et d'innovation car s'ils sont solidement constitués, ils se comportent eux-mêmes comme des entités mobilisables dans de nouvelles interventions.

Quant aux diagnostics externes, notamment ceux proposés spécifiquement pour la gestion des technologies, ils consistent principalement en l'établissement de classifications des technologies en fonction de leur impact concurrentiel. La prise en compte des stratégies de recherche concurrentes et des raisons qui ont présidés aux choix de ces stratégies n'apparaissent pas dans ces diagnostics.

Les méthodes de positionnement stratégique reposent sur des notions qui ont été plusieurs fois critiquées. L'analogie du cycle de vie des produits ne rend que très grossièrement compte de l'histoire des produits de la recherche. Elle réduit la variété des parcours et des transformations que connaissent les innovations. La notion d'effet d'expérience est également remise en question, du point de vue de la gestion stratégique au nom du fait que l'augmentation des quantités produites d'un bien va de pair avec une rigidité accrue. Les méthodes d'analyse de portefeuilles d'activités et de technologies ont traités de l'innovation comme d'un phénomène uniforme. Or, certaines innovations menancent, détruisent et rendent obsolètes des compétences déjà établies tandis que d'autres les raffinent et les améliorent (ABERNATHY, 1988). En outre, les effets des innovations peuvent être très différents selon que l'on considère le système de production ou les relations aux clients et utilisateurs. De nouvelles méthodes de positionnement stratégique devraient mieux prendre en compte les évolutions du développement technologique ainsi que les rivalités entre concurrents dotés de ressources différentes — ce qui n'a pas été réalisé par les partisants de l'analyse des grappes technologiques. Les méthodes devraient permettre de mesurer la capacité — ce qu'Abernathy appelle la “transilience” — qu'a une innovation à mobiliser ou à redéfinir les compétences, les ressources et les relations des différents protagonistes. En combinant la capacité des innovations à affecter les compétences établies au niveau des systèmes de production avec sa capacité à

33 Cfr le chapitre de M.CALLON consacré aux réseaux scientifico-techniques, dans cet ouvrage.

affecter les marchés, Abernathy propose un nouveau type de carte stratégique des innovations (cartes de transilience) mieux adapté à la réalité du processus. Il reste, cependant, que ces cartes sont conçues spécifiquement pour l'innovation dans un secteur industriel et que ceci ne couvre pas tous les types de situations auxquels sont confrontés, par exemple, des gestionnaires publics de la recherche — songeons notamment aux interventions en matière de recherche sur le cancer.

Pour une démarche spécifique à la Recherche et Développement : l'analyse stratégique prospective Considérant comme acquises les méthodes précédentes, il importe maintenant

d'examiner ce que pourrait être une démarche d'analyse stratégique et prospective (ASP) destinée à la préparation des interventions de Recherche et Développement.

R.CHABBAL (1987) établit une double typologie des ASP : selon l'approche (l'analyse stratégique pour élargir les horizons / l'analyse prospective pour se pencher sur le long terme), selon le niveau (les grands problèmes / les problèmes spécifiques). Pour les pouvoirs publics, il propose une troisième typologie selon le type de politique que les ASP visent à définir (politique scientifique et technique, politique industrielle, politique sociale ou financière). A partir de là, il passe en revue différents types de travaux qui entrent dans ces catégories et dresse le constat suivant : en matière de recherche scientifique et technique au niveau public, la plupart des études relèvent actuellement de l'analyse stratégique plus que la prospective. Il s'agit d'états de l'art et d'analyses des évolutions possibles d'une discipline. Ces études dressent le bilan de l'action des dix dernières années, évaluent la position relative du pays considéré dans l'effort international, notent les interactions avec les disciplines voisines, décrivent l'impact des nouveaux instruments et techniques ainsi que l'effet possible de paradigmes émergents. Elles se concluent souvent en soulignant les besoins nouveaux en équipement, en moyens humains et en nouveaux types de formation. Lorsqu'il s'agit de transfert de technologie ou de technologie générique, des analyses des rencontres possibles entre nouveaux besoins technologiques et poussées scientifiques sont présentées qui se concluent par la mise en évidence de nouveaux besoins en termes de programmes de transfert. A côté de cela, de rare études de prospective identifient les évènements critiques à travers l'ensemble du champ scientifique et technique, réfléchissent sur l'émergence de paradigmes plus unificateurs, étudient systématiquement l'exportation des techniques et instruments de leur secteur d'origine à d'autres secteurs. Enfin, l'OCDE complète cet ensemble par des études des politiques scientifiques et techniques nationales. R.CHABBAL souligne également l'importance de prospectives socio-économiques globales.

Sur la base de ces considérations, nous proposons de retenir quatre types d'analyse à mettre en œuvre lors des ASP : l'études des enjeux économiques et sociétaux, la prospective scientifique et technique, l'analyse du potentiel mobilisable et l'analyse des stratégies des principaux concurrents.

Etude des enjeux économiques et sociétaux L'études des enjeux économiques et sociétaux s'appuie principalement sur les

scénarios macro-économiques et les analyses prospectives sociétales. Les analyses prospectives ayant déterminé un nombre limité de scénarios contrastés, portant sur la situation économique, géopolitique et énergétique par exemple, ceux-ci sont retranscrits dans des modèles macro-économiques pour quantifier, à long terme, les effets probables de situations supposées “extrêmes”. Ces méthodes permettent alors d'estimer les chemins critiques et les ressources nécessaires pour la réalisation des différents futurs possibles. Elles constituent un premier cadrage destiné à identifier des zones-clés, des verrous technologiques ou des ruptures à ne pas manquer par exemple, pour lequels des actions de recherche et développement devraient être lancées.

Prospective scientifique et technologique La prospective scientifique et technologique est destinée à compléter le premier

cadrage, correspondant très grossièrement à la “demande”, par une mise au point sur l'“offre” technologique future. Comme pour les autres analyses prospectives, il s'agit de procéder en trois temps : la construction d'une base d'information, l'élaboration des scénarios et leur comparaison. En matière de recherche et développement, la base de données est constituée principalement par les “états de l'art”, les “assessments” et “appraisals” technologiques (évaluations technologiques) ainsi que par les informations issues de la veille technologique. La construction de la base nécessite de rassembler les travaux déjà faits en la matière, de les compléter et de les harmoniser. A partir de là, l'élaboration des scénarios peut débuter. La prospective scientifique et technologique n'est pas indépendante des prospectives économiques et sociétales et réciproquement. Elle se distingue toutefois par le fait qu'elle permet, plus que les précédentes, d'envisager des ruptures potentielles par rapport aux tendances lourdes. Il convient donc de rapprocher ces deux approches et de les confronter.

Analyse du potentiel mobilisable

Pour décider des orientations de la R&D, l'examen des futurs possibles est une étape indispensable mais elle est de peu d'utilité si elle n'est pas confrontée aux possibilités réelles des acteurs scientifiques et techniques. L'analyse du potentiel mobilisable, à l'image du diagnostic interne ou de l'analyse des grappes technologiques dans les entreprises, a pour objectif de connaître l'état des ressources : les hommes, les techniques, les produits, les réseaux et les ressources financières et les liens entre celles-ci.

En matière de recherche et développement, les chercheurs, ingénieurs et techniciens qualifiés constituent une des ressources les plus importantes. L'évaluation du potentiel scientifique et technique porte sur les compétences, les expériences et les stratégies des chercheurs et des équipes de recherche. Elle doit être associée à la gestion de la carrière des chercheurs, dans les entreprises et dans les grandes institutions de recherche, et à celle des équipes, dans les grands groupes et au niveau des pouvoirs publics. L'analyse du potentiel humain mobilisable porte donc aussi bien sur les chercheurs (formation, caractéristiques professionelles, performances et trajectoires) que sur les équipes ; elle doit rendre compte de leurs stratégies (motivations et stratégies des chercheurs, orientations stratégiques des équipes).

Pour analyser les itinéraires, les stratégies et les performances des chercheurs et des équipes, l'évaluation s'intéressera particulièrement aux productions spécifiques du monde scientifico-technique : les publications scientifiques, les brevets, les prototypes, les échantillons de produits, les souches sélectionnées ou manipulées. De la même manière que le diagnostic interne des entreprise se penche sur la qualité, la diversité, la position et la différenciation des biens et services proposés à la vente, il s'agit ici d'évaluer la qualité, l'impact, la centralité et l'originalité des travaux. Cette partie de l'analyse est d'autant plus importante que l'acteur considéré compte mobiliser un grand nombre de chercheurs. Dans ce cas, l'analyse s'appuiera sur les méthodes d'analyse bibliométrique et scientométrique qui offrent d'intéressants cadrages34.

Les réseaux sont une autre dimenson des évaluations des potentiels scientifiques et techniques. Comme l'entreprise analyse ses réseaux de communication avec le public, ses réseaux de distribution de produits et de services (avant, pendant et après vente), les réseaux de la recherche et développement doivent faire l'objet d'un examen particulier. Il s'agirait de les décrire pour mieux les suivre et les gérer c'est-à-dire articuler entre-eux de multiples acteurs et intermédaires de manière à les stabiliser et à les fidéliser (par des bourses, des contrats et diverses formes d'intéressements). Ces réseaux ainsi constitués servent à diffuser les produits de la R&D, à détecter les changements qui peuvent apparaître dans l'environnement et à

34 Cfr le chapitre de M.CALLON sur la méthode LEXIMAPPE, dans cet ouvrage.

mobiliser aisément divers savoir-faire et compétences. Il peut y avoir autant de types de réseaux que d'éléments échangés (textes, objets, hommes, argent)35.

On s'intéressera, par exemple, aux réseaux de coopération scientifique et technique, notamment aux initiés par les pouvoirs publics afin d'assurer le maintien et le développement des compétences nécessaires pour faire face à des menaces ou pour tirer parti d'opportunités futures ; on parle alors de réseaux de compétences stratégiques. Ainsi, au niveau des communautés européennes, à partir des compétences en matière de géologie et de prospection pétrolière notamment ont été créés des réseaux de spécialistes en géothermie. Ceux-ci ont appris à se connaître, à travailler ensemble, à coordonner leurs travaux et à harmoniser leurs méthodes. D'autres types de réseaux articulent des acteurs de statut différents (des chercheurs, des entreprises, des organismes publics, etc) ; on les appelle des réseaux technico-économiques36. Leur analyse prend en compte tous les systèmes d'interfaces (coopération université - industrie, accord de coopération technologique entre grandes et petites entreprises37, joint ventures, etc). Elle permet d'estimer les possibilités de transferts de connaissances et de concepts nouveaux vers l'industrie ou d'autres utilisateurs et, réciproquement, la prise en compte dans les laboratoires des préoccupations des acteurs en aval du développement technologique. Un autre type de réseau concerne plus particulièrement l'harmonisation, la normalisation et la standardisation des équipements, des méthodes de travail et des produits. Ceux-ci permettent les comparaisons et la circulation des productions scientifico-techniques.

Pour conduire ces analyses, il importe de disposer d'outils qui permettent de caractériser les réseaux et cela n'est pas simple. Les travaux en scientométrie et technométrie ont débouchés sur des outils d'analyse et de visualisation des réseaux thématiques. Ils exploitent les bases de données bibliographiques et les bases de brevets afin de mettre en évidence les structurations et les évolutions de domaines de recherche et de mesurer des synergies existentes et potentielles38. Ces analyses permettent d'intéressants cadrages mais elles ne suffisent pas. De nombreuses informations échappent aux bases de données bibliométriques et de brevets : les rapports techniques, les schémas et plans, les échantillons et les prototypes, les protocoles, les résultats obtenus sur des installations de démonstration, etc. Il serait utile d'appréhender les formes existantes de stockage de ces informations, de concevoir des cadres communs de recueil, de mettre en place un ensemble d'outils opérationnels pour faciliter les adaptations des différents partenaires et de trouver des formes adaptées de synthèse et de visualisation facilitant l'interprétation des

35 Cfr le chapitre de M.CALLON sur les réseaux technico-économiques dans cet ouvrage. 36 Cfr le chapitre de M.CALLON sur les réseaux technico-économiques dans cet ouvrage. 37 Cfr le chapitre de N.KANDEL et Th.DURAND sur les stratégies d'accès aux technologies dans cet

ouvrage. 38 Cfr le chapitre de M.CALLON sur la méthode LEXIMAPPE, dans cet ouvrage.

comparaisons. A ce niveau, un outil, dénommé CANDIDE, permet de réaliser des analyses et des visualisations comparables à celles de la scientométrie, à partir de sources d'informations hétérogènes et en exploitant les textes pleins39.

Analyse des stratégies des principaux concurrents L'analyse des stratégies des principaux concurrents porte sur les aspects suivants :

le domaine et la nature des activités, le niveau et les modalités de l'intervention ainsi que les caractéristiques de l'intervenant. Qui sont les principaux concurrents ? Que font-ils ? Quelles sont les raisons qui les ont conduit à faire ces choix ? L'examen de ce que les autres font et de leurs raisons est particulièrement utile pour positionner ce qu'on veut ou ne veut pas faire et pour justifier pourquoi on veut ou ne veut pas faire comme eux. Ces analyses demandent des études spécifiques. Pour cerner les stratégies des acteurs scientifico-techniques concurrents, on peut utiliser de nombreuses approches : l'analyse des accords de coopération technologique (partage des risques financiers — risk spreading — et combinaison d'approches techniques différentes — risk pooling), l'examen des stratégies de détention de licences et les flux d'achats, les prises de participations financières et les joint ventures, les ressources consacrées à la R&D et à l'innovation, les accords en matière de normes et d'harmonisation technique. Les méthodes d'analyse de portefeuille d'activités et de technologies ainsi que les cartes de transilience d'Abernathy sont ici des outils utiles qui offrent des images et des cadrages à la réflexion stratégique.

Le chercheur stratège Les chercheurs ont contume d'analyser et de suivre les publications de leurs collègues de même qu'ils participent à des colloques afin de se tenir au courant des évolutions en cours et des nouveaux développements théoriques et instrumentaux. Ils s'appuient sur les impressions qu'ils en tirent pour orienter leurs travaux, définir leur problématique et se positionner. Certains exploitent les “Current contents”, d'autres interrogent des bases de données. Dans ces derniers cas, l'exploration s'articule autour de quelques mots clefs destinés à guider les chercheurs dans l'identification des publications nouvelles susceptibles de les intéresser ou de les aider à dresser un état de la situation. Il leur est toutefois très difficile d'avoir avoir une vision d'ensemble et de passer de celle-ci à une examen détaillé de certaines problématiques. En particulier, la mise en évidence de la structuration d'un domaine de recherche, de son évolution, de l'émergence de problématiques nouvelles et de rapprochements

39 Cfr le chapitre de G.TEIL sur l'outil CANDIDE, dans cet ouvrage.

entre thématiques est fastidieuse. Or, un chercheur, au fait des derniers outils développés par les sociologues des sciences, peut aujourd'hui gérer son processus de recherche en l'articulant à une analyse et à une veille stratégique permanente de son domaine d'activité.

En rapprochant ces analyses de celles sur le potentiel scientifique et technique, il

devient possible de positionner l'intervenant par rapport aux autres acteurs actuels et potentiels.

Conclusion La démarche stratégique en matière de Recherche et Développement est

soutendue par diverses analyses stratégiques et prospectives principalement par celles qui ont été présentées ci-dessus : l'études des enjeux économiques et sociétaux, la prospective scientifique et technique, l'analyse du potentiel mobilisable et l'analyse des stratégies des principaux concurrents. Ces analyses demandent à être outillées ; plusieurs outils ont ainsi été évoqués dont certains font l'objet d'une présentation développée dans un autre chapitre.

Les outils et méthodes constituent des appuis pour la démarche stratégique. Cependant, aucune méthode n'est également valable pour tous les acteurs scientifiques et techniques (du directeur d'une équipe de recherche au gestionnaire des programmes publics internationnaux) amenés à gérer la recherche et l'innovation. Dans chaque situation, il convient de choisir, d'adapter voire de créer des outils spécifiques. La création collective de tels outils est d'ailleurs au moins aussi importante que les résultats qui en découleront. La démarche stratégique importe plus que les outils eux-mêmes. Ceux-ci seront appelés pour la réalisation d'études parallèles destinées à interpeller les stratèges et à les stimuler dans leur démarche.

La mise en place de la démarche stratégique cherchera principalement à favoriser tant que possible la participation active des différents partenaires de l'intervention. Il s'agit d'en faire une occasion unique pour les différents partenaires de confronter leurs points de vue et d'entrer de plein pied dans une démarche d'analyse et de réflexion ouvrant les horizons et tournée vers le futur. Quelques soient les méthodes retenues, l'essentiel est de s'y mettre, de faire la démarche, de se poser les questions, de se donner des moyens de cadrer et de définir l'intervention, ses points d'appuis, ses objectifs et les grandes lignes de conduites.

Décider : la sélection des projets de R&D Philippe MAUGUIN

Si la recherche et développement est reconnue de plus en plus comme un facteur

important d'innovation et donc de compétitivité pour les entreprises, elle apparait encore pour beaucoup de managers comme une activité onéreuse, peu transparente et donc difficilement contrôlable. Citons pour mémoire des réflexions volontairement provocantes de chefs d'entreprises : "Il y a trois façons de dépenser de l'argent pour un patron : les femmes, les ingénieurs et la R&D !" ou encore "Il n'existe pas de méthode sérieuse et rationnelle pour gérer la recherche : une décision d'investissement en R&D ne peut être que le fait du prince."

Ce que ces propos révèlent, c'est le désarroi des "décideurs" confrontés à la décision en matière de recherche : comment évaluer la rentabilité d'un investissement en R&D ? Si tout le monde s'accorde à reconnaître que cette évaluation financière est délicate voire impossible, sur quels critères fonder l' évaluation de projets de R&D, qui devra pourtant être suivie d'une décision et d'un investissement ?

Les chercheurs et consultants en gestion, en analyse financière ou en stratégie d'entreprise ont dépensé des efforts impressionnants pour imaginer et optimiser des outils financiers, technico-économiques souvent multicritères d'évaluation et de sélection des projets de recherche en vue de répondre à cette attente. Résultat : une bibliographie assez conséquente sur le sujet, un grand nombre d'outils et méthodes souvent très perfectionnés, mais pour la plupart inutilisés et même inconnus des gestionnaires de recherche!

Pour éclairer ce moment apparemment si mystérieux de la gestion de la R&D qu'est la sélection des projets, immiscons-nous dans un grand groupe industriel, et suivons le lancement d'un projet de recherche réel. Cette "épreuve de vérité" nous facilitera ensuite l'analyse des méthodes d'évaluation des projets de R&D, gardant à l'esprit toutes les contraintes qu'elles doivent satisfaire. Pour finir, nous reviendrons à la pratique, pour étudier quelques situations exemplaires de sélection de projets.

LA SELECTION A L'EPREUVE ... Le cas d'un projet de R&D industriel

Janvier 1984, des chercheurs du groupe Rhône-Poulenc rencontrent à l'occasion d'un séminaire ministériel, des médecins d'un CHU, avec qui ils discutent du traitement des anévrismes. Mai 1986, la Direction de l'Innovation de RP "sélectionne" un programme de R&D sur la mise au point de microbilles magnétiques pour la bioindustrie. Entre ces deux dates, la lente gestation d'un projet d'innovation...

(1) Janvier 1984 : le Ministère de l'Industrie et de la Recherche organise un séminaire sur les

microsphères et le guidage magnétique ; sont discutées notamment des utilisations thérapeutiques comme le traitement des angiomes, des anévrismes, ou des tumeurs. Parmi les participants, des professeurs d'un Centre Hospitalo-Universitaire (CHU) et des chercheurs d'un Centre de Recherches (CR1) du groupe Rhône-Poulenc (dont M.Pierre et M.Paul).

(2) Ces derniers conviennent de définir un projet de recherche en commun : Pierre propose de réaliser les microsphères à partir de latex (NDLR : un produit RP), les profs de travailler sur le traitement des anévrismes (NDLR : maladie problématique dans leur service). Le projet tournerait autour de la “mise au point de latex magnétiques pour le traitement des anévrismes”. Il s’agirait d’injecter chez les malades, au moyen d’un catheter, des microsphères chargées ayant des propriétés intéressantes pour le traitement des angiomes et des anévrismes, puis de les guider vers la zone à traiter grâce à un champ magnétique.

(3) Pierre réalise quelques essais, et obtient des particules chargées en oxydes métalliques, cuivrées en surface (c'est peut-être un "plus" pour les anévrismes), d'un diamètre supérieur à 200 microns.

(4) Pierre adresse au responsable du développement de la division Chimie, M.Jacques un projet de recherche intitulé : “mise au point de latex magnétiques cuivrés en surface pour le traitement des anévrismes” . Celui-ci lui répond qu'il n'est "pas question d'utiliser nos produits (NDLR: les latex) dans des applications destinées à l'homme".

(5) Pierre précise qu'il limiterait l'expérimentation aux animaux, et propose d'associer à la réflexion la division Santé et la Direction de l'Innovation (DI) ; pour ce faire, Pierre et Paul envoient à la DI un pli innovation (NDLR: système de collecte hors hiérarchie d'idées originales, mis en place par la DI au sein de RP). Son titre ? "Traitement des anévrismes par des particules magnétiques cuivrées".

(6) André, Directeur de la DI, demande à Pierre quel est le marché correspondant. Pierre s'informe auprès des profs du CHU sur le nombre de malades recensés annuellement, et estime le marché potentiel inférieur à 5 MF.

(7) André sollicite dans le même temps l'avis de Raoul, directeur général de la division biomédicale : " j'aide Pierre et Jacques; votre division pourrait évaluer le projet, et éventuellement conduire les essais cliniques".

(8) Raoul répond : "pour ce qui est de l'utilisation des particules magnétiques en micro-embolisation (i.e. traitement des angiomes ou anévrismes), je suis contre : pas d'administration humaine, pas de développement commercial ; quant au traitement de métastases, il faudrait voir Mérieux, pour le greffage d'anticorps. En bref, faibles débouchés, il vaut mieux abandonner."

(9) Pierre propose une association avec Carl de l'INSERM, pour greffer des groupements fonctionnels sur des latex magnétiques, qui pourraient supporter des anticorps. (10) Raoul : " Déposez des brevets, arrêtez tout !"

(11) Les chercheurs de la division biomédicale réalisent des essais avec le CHU sur des particules d'éthylcellulose magnétiques cuivrées ; les chercheurs du CR1 déclarent arrêter les recherches après avoir déposé des brevets sur les particules magnétiques cuivrées.

(12) Pierre prépare un programme de recherche sur la fixation d'enzymes sur les latex, "qui pourrait faciliter l'introduction des matériaux RP chez les clients", qu'il réalisera avec deux DEA de l'Université de Lyon spécialisés en Génie enzymatique.

(13) Eric, Christian et Pierre du CR1 déposent des plis innovation sur le greffage de monomères vyniliques sur des particules d'oxydes de silice ou de fer magnétique, et sur la métallisation chimique de microbilles de polymères. Il s'agit de "préparer des latex calibrés magnétiques, support de catalyse chimique et enzymatique, ou pour une application thérapeutique, ou pour des épurations biologiques ou industrielles".

(14) Guy d'un autre Centre de Recherche (CR2) travaille sur la fonctionnalisation de polymères de silicone (PDMS). Il présente à la DI un programme commun CR2-CR1 sur la fonctionnalisation de latex de silicone. La fonction, séparée du latex par un spacer hydrophile, pourra fixer un anticorps par liaison covalente.

(15) Les chercheurs du CR1 présentent un programme à la DI sur les "microsphères de silicone magnétisables pour le traitement du cancer". Georges, adjoint de André à la DI, refuse ce programme en l'état : " le développement des microbilles n'est pas lié au cancer ! C'est une possibilité parmi d'autres. Il ne faut pas envisager de microdéveloppements."

(16) Georges leur propose de travailler sur le concept "microsphères magnétiques fonctionnelles, à usage industriel", en collaboration avec les chercheurs du CR2.

(17) Une équipe CR1-CR2 propose à Georges un programme en deux volets a) fonctionnalisation de PDMS, réalisé au CR2 ; coût 1,5 UVR (NDLR: 1 UVR = 1 chercheur an avec son environnement, environ 650 kF) ; b) préparation de dispersion aqueuse de microbilles magnétisables constituées des PDMS fonctionnalisés ; réalisé au CR1 pour 1 UVR. Ils envisagent ensuite une collaboration avec l'Université de Lyon pour la fixation d'enzymes sur ces microbilles, et avec l'INSERM pour les applications thérapeutiques.

(18) La DI soutient le projet "latex silicones magnétiques fonctionnalisés" ; elle s'appuie notamment sur une étude de marché qui prévoit pour 1995 un chiffre d'affaires mondial de 100 à 200 MF sur les supports de fixation et les tests bactériologiques. Georges présente le projet à différentes divisions de RP : Chimie, la filiale diagnostics, la division biomédicale.

(19) La DI monte un programme RP Recherches/Chimie/Diagnostics qui reçoit 200 kF de l'ANVAR : "latex pour diagnostics techniques". Il prévoit la réalisation de latex magnétiques de diamètre < 3 microns, peu dispersés, avec groupements fonctionnels NH2, spacers, anticorps fixés (sur deux ans 86-87).

(20) Les latex magnétiques fonctionnalisés intéressent la filiale Diagnostics pour les diagnostics techniques, le département Bio de Chimie, Pierre et l'Université de Lyon pour le génie enzymatique, la division Santé pour la galénique (via la microencapsulation), Carl de l'INSERM pour épurer la moelle des leucémiques.

(21) Mai 1986 : Georges sélectionne le premier "Etudinnov" de la jeune DI (NDLR : dans le langage de la DI, programme de recherche qui étudie la faisabilité d'une innovation ; vient après le pli innovation : formulation d'une idée basée sur des premiers résultats, et le Vérifinnov : petit programme qui vérifie l'intérêt de l'innovation). "Support de fixation polymérique adapté à la biologie, manipulable, où on peut fixer des enzymes, anticorps, médicaments". Marché pour RP > 10 MF avant 10 ans. Deux volets : a) CR2, réalisation des polymères silicones avec spacers et fonction d'accrochage (amine, hydrazine) - 1,5 UVR ; b) CR1, à partir des PDMS, obtention de latex magnétiques purifiés de 1 micron, biotolérables, et stables à l'eau, à une t < 121 °C. Les microbilles obtenues seront évaluées sur leur taille, dispersion,

densité par le CR1, leur toxicité par la division biomédicale, et la fixation par la filiale diagnostics. Chimie-BIO est prêt à financer la phase suivante si les résultats sont bons, dès 1987-88.

Ce projet est apparemment un specimen bien étrange : conçu une première fois au début

de 1984, le projet "microbilles magnétiques" ne sera retenu que deux ans plus tard, puisqu'il obtiendra un premier financement en 1986 ! Il est présenté à cinq "financeurs" potentiels du groupe (filiales ou divisions), presqu'à chaque fois sous des formes différentes, avant d'être "sélectionné". Et ce délai n'est pas imputable à quelque bureaucratie propre à ce groupe industriel ; bon nombre des projets de recherche de contenu fortement innovant suivent des trajectoires analogues avant d’être formalisés sous la forme d’un programme, et de solliciter un financement40. Ces délais ne sont pas du "temps perdu" ; toutes les mises à l'épreuve ont induit une série de transformations du projet, qui lui ont permis de se faire des alliés dans le groupe et donc de gagner en réalité.

Cet exemple nous permet de pressentir la difficulté de l’exercice de sélection. A quelle phase du projet doit-elle intervenir ? Les résultats de l’évaluation-sélection seront probablement différents selon qu’elle se situe à l’étape (6) ou à l’étape (20), par exemple.

Peut-on imaginer des critères de sélection déterminants, prioritaires ? C'est également une tâche problématique : les indicateurs ou les critères traditionnels paraissent peu opérationnels. Comment évaluer le marché des microbilles ? 5 MF à une étape, 200 MF à une autre ... Que dire du caractère stratégique du projet ? Il semble aller à un moment tout à fait à l'encontre de la stratégie d'une division, puis il en intéresse une autre. Quant à la faisabilité scientifique et technique, elle varie probablement autant que les différentes configurations du projet...

Quels doivent être les “juges”, ou les “sélectionneurs”, à l’intérieur de l’entreprise, de l’organisme de recherche ou de l’agence publique, pour garantir la sélection la plus efficace ? Sur le cas “microbilles magnétiques”, on voit bien que les points de vue et les conclusions ne seront pas les mêmes, suivant que l’évaluateur est le responsable de la Direction de l’Innovation, un expert de Chimie ou de la filiale Diagnostics ...

PRINCIPES ET METHODES DE LA SELECTION Pourquoi, quand, selon quels critères, par qui, et avec quelles méthodes réaliser la

sélection ? Cinq questions qui se posent à toute organisation confrontée à la sélection de

40Nous insisterons ici sur la sélection de ces projets très innovants, souvent atypiques, qui est la plus

délicate. Le financement de ces projets dépasse rarement 10% du budget de recherche d'une entreprise ; voir dans ce même article, le § "Pratiques de la sélection".

projets de recherche. Reprenons chacune de ces questions à la lumière de l'exemple précédent.

Pourquoi ? La première raison qui motive la sélection est assez évidente : elle est de nature

financière ; les ressources allouées à un opérateur de recherche, que ce soit la direction scientifique d'une entreprise ou un département ministériel, étant limitées et généralement inférieures au coût total des recherches réalisables, il doit choisir.

Une autre justification de la sélection est elle d'ordre stratégique : la phase de sélection permet à l'opérateur de vérifier que les recherches qui vont être engagées sont en adéquation avec les grandes orientations de son organisme. Ainsi, dans l'exemple des microbilles, la première configuration du projet est écartée (étape 4) parce qu'une division s'oppose à l'utilisation sur l'homme de ses produits, les latex techniques.

Le premier motif, la limitation des crédits, permet de contrôler au moment de la sélection la compatibilité des recherches avec la stratégie de l'organisme.

Quand ? Le choix du moment de la sélection se pose de deux manières différentes : - au niveau de l’organisation : il s'agit de savoir à quel moment celle-ci décide

d'engager de nouveaux crédits sur des programmes de recherche ; le plus souvent, ces engagements financiers sont conduits de manière périodique : chaque année, tous les deux ou trois ans ... Cette question est un des éléments clés d'une stratégie de programmation de la recherche.

Usuellement, les entreprises financent chaque année de nouveaux projets ; ainsi, dans le groupe Rhône-Poulenc, c'est au cours des Journées Recherche, qui se tiennent une fois par an et réunissent responsables opérationnels (les "financeurs") et chercheurs, que sont choisis les projets de R&D.

Les pouvoirs publics ont une panoplie assez diversifiée de procédures de financement de la R&D : en France, le Ministère de la Recherche évalue et sélectionne une fois par an de nouveaux projets dans le cadre de ses programmes technologiques ; la Commission des Communautés Européennes a elle une stratégie de programmation (et donc de sélection) pluri-annuelle (une fois tous les trois ans en moyenne) ; le programme EUREKA quant à lui accrédite deux fois par an de nouveaux projets de coopération technologiques.

- au niveau du projet : cette question concerne directement les responsables de projets ; à quel moment de la "vie d'un projet" doivent-ils le soumettre à une procédure de sélection, pour optimiser41 ses chances ?

Le projet "microbilles magnétiques" montre l'importance de la phase dite de définition, en quelque sorte la proto-histoire du projet, qui doit être réalisée avant de le présenter à évaluation.

En toute logique, selon les canons du management de la R&D, si la sélection s'était effectuée à l'étape (4), le projet n'aurait pas été retenu. Il devait logiquement être refusé pour des raisons éminament stratégiques : selon la division Chimie qui les fabrique, les latex ne doivent en aucun cas être utilisés dans des produits destinés à l'homme. A fortiori à l'étape (8) : l'absence d'un marché significatif aurait pu condamner le projet.

Ces deux étapes n'ont donc pas eu valeur de sélection, mais elles ont contribué de manière importante à la définition du projet en le contraignant à se modifier de façon significative. Adieu l'utilisation thérapeutique des microbilles magnétiques cuivrées en surface, pour le traitement des anévrismes ou des métastases, il faut imaginer des configurations modifiées visant d'autres applications, pour convaincre d'autres acteurs, et gagner en réalité. C'est finalement autour de microbilles magnétiques amincies (le diamètre est passé de 200 à 3 microns), munies de bras fonctionnalisés (et non de cuivre en surface), visant le marché prometteur des supports de fixation pour la bio-industrie (estimé à 200 MF en 1995) et non celui de la santé, que s'est stabilisé le projet de recherche. C'est sous cette forme qu'il a pu être évalué et sélectionné par la Direction de l'Innovation.

Cette phase de définition, qui se caractérise par toute une série de mises à l'épreuve du projet42, diminue l'imprévisibilité liée à la recherche en stabilisant un certain nombre d'acteurs autour d'une certaine forme du projet. C'est un préalable nécessaire à la phase de sélection43 ; ce qu'illustrent les propos d'un directeur R&D d'un groupe sucrier qui précise qu'il "n'évalue et ne sélectionne pas des idées de projets, mais des idées validées par des premiers résultats".

Avec quels critères ? Pour être efficace, la procédure de sélection doit être crédible auprès de l'ensemble des

acteurs concernés : chercheurs, opérateurs de la recherche, financiers. En particulier, cela suppose qu'une liste de critères explicites de sélection ait été élaborée au préalable, qu'elle 41Nous montrons ici qu'une phase de définition bien menée augmente les chances d'un projet. Tout

responsable de projet, souhaitant disposer de ses financements au plus tôt, tend à présenter son projet à évaluation le plus vite possible : il a donc intérêt à ne pas prolonger inutilement cette phase de définition. Il s'agit bien d'une tentative d'optimisation .

42Dans le cas des microbilles, ces mises à l'épreuve ont consisté essentiellement en des présentations du projet à des experts ou à des responsables opérationnels ; le plus souvent, elles impliquent également des expérimentations techniques en laboratoire.

43Comment s'assurer qu'un projet a suivi une telle phase ? Nous verrons qu'un outil comme le graphe socio-technique, présenté dans cet ouvrage, peut nous donner cette information.

prenne en compte les différents aspects du projet (scientifique, technique, économique), et qu'elle soit connue de tous. Ces critères doivent être définis en fonction de la stratégie de l'organisme, et plus particulièrement des enjeux et des objectifs qu'il assigne aux programmes de recherche44.

Ainsi, les programmes technologiques mis en place par les pouvoirs publics visent un rôle incitatif auprès de la communauté scientifique et industrielle : il peut s'agir de développer les collaborations entre ces deux communautés, de promouvoir de nouvelles voies de recherche, de soutenir la recherche industrielle... Dans ce cas, la liste doit inclure des critères de sélection ad-hoc portant par exemple sur le nombre, la nature, et la qualité des collaborations, ou sur l'importance de la part industrielle dans le financement du projet.

Pour sa part, la Direction Innovation a pour objectifs stratégiques de soutenir des projets pluridisciplinaires à l'interface des divisions, présentant un risque réel, pour à terme développer de nouveaux marchés de spécialités à haute valeur ajoutée. L'exemple des microbilles nous montre quels peuvent être les critères qui traduisent ces objectifs : existence d'au moins deux divisions ou filiales du groupe intéressées45 par le projet, compétences scientifiques mobilisées, importance du risque scientifique et technique46, existence ou anticipation d'un marché47.

La liste de ces critères peut varier suivant le degré de maturité du projet présenté à la sélection :

- dans le cas de recherches scientifiques exploratoires, les critères porteront

essentiellement sur l'originalité du sujet, la qualité scientifique du projet (bibliographie, programme de travail), les compétences des équipes réunies (références sur le sujet, complémentarité disciplinaire), dans un esprit assez proche de l'évaluation par les pairs pratiquée dans le monde de la recherche académique ;

44Pour la définition du cadre stratégique de la recherche, voir le chapitre “Préparer” de cet ouvrage. 45L'"intérêt" peut s'apprécier de différentes façons : participation financière au projet, engagement à le

prendre en charge dans une phase ultérieure, ou simple déclaration d'intérêt... 46Le risque peut être évalué soit directement : nombre d'éléments du projet sur lesquels on ne dispose pas

d'informations ou de résultats, ou indirectement : réticence des divisions intéressées à prendre en charge le projet.

47L'estimation du marché futur d'une innovation est toujours un exercice périlleux ; il est facilité si l'innovation est censée remplacer ou concurrencer un produit existant, ou si elle vise l'amélioration ou la substitution d'un procédé : le projet pourra alors viser une part du marché existant, voire argumenter l'augmentation du marché, ou dans le cas d'une innovation-procédé chiffrer les gains de productivité attendus. Le projet sera alors évalué sur la crédibilité des chiffres avancés. Dans le cas des nouveaux produits, ou nouveaux procédés, les critères porteront sur l'adhésion au projet des "porte-parole" du marché futur : utilisateurs potentiels, services marketing, services chargés de l' industriallisation des procédés (ont-ils été associés à la définition du projet ? Sinon, quels sont leurs avis ? Est-il envisagé qu'ils interviennent dans le déroulement du projet ? De quelle manière ? ...)

- pour des projets plus proches du développement industriel, les critères les plus importants tiendront à la crédibilité du partenaire industriel, à la qualité de l'argumentation technico-économique (enjeu industriel et commercial, positionnement concurrentiel ...) et bien sûr aussi aux compétences réunies (participation de bons "technologues" , et/ou de "développeurs"), ces critères devant traduire le souci d'une évaluation par le marché ;

- entre ces deux pôles, les projets intermédiaires touchant à la recherche technologique

de base48, sont plus délicats à évaluer, puisqu'ils doivent satisfaire à la double exigence de l'évaluation par les pairs et de l'évaluation par le marché, ce qui nécessitera de prendre en compte avec la même importance les deux types de critères.

Par qui ? On peut distinguer deux grandes fonctions dans la sélection des projets : - l'évaluation de la qualité des projets, suivant les critères retenus ; - la sélection sensu stricto, c'est-à-dire l'arbitrage entre les projets préalablement

évalués. Ces deux fonctions sont remplies généralement par des intervenants différents : - l'évaluation peut être confiée à des experts de différentes origines : des chercheurs,

bien sûr, experts du domaine de recherche concerné, et leur participation est quasi-obligatoire dans le cas de projets "amont" ; mais aussi, assez souvent, des experts marketing ou de l'industrialisation, pour des projets de recherche technologique orientés vers une application ;

- l'arbitrage entre les projets, une fois qu'ils ont été évalués, est réalisé le plus souvent

par les opérateurs de la recherche, en termes crus, "ceux qui la payent" ; c'est à eux qu'il appartient de choisir parmi les "bons" projets49 afin d'optimiser la réalisation des objectifs stratégiques de leur organisme... Ces opérateurs ont le plus souvent une autre responsabilité, celle de choisir les experts qui évaluent les projets50.

Dans certains cas, ces deux fonctions sont assumées par les mêmes personnes : c'est

probablement une pratique à déconseiller, si l'on veut garantir l'efficacité et de crédibilité51

48Pour une présentation du concept de Recherche Technologique de Base, voir (CALLON, 1990). 49Les projets évalués de façon positive par les experts ; ou, à tout le moins qui ne présentent pas de

faiblesses rédhibitoires. 50Nous verrons dans le § suivant, comment dans la pratique, ces opérateurs peuvent se faire assister par des

experts de haut niveau ainsi que des responsables des secteurs industriels concernés. 51En particulier vis-à-vis des chercheurs susceptibles d'"alimenter" la structure en projets. L'absence

d'arguments scientifiques, techniques, ou commerciaux explicites, émis par des experts reconnus dans

de l'étape de sélection. En effet, on imagine difficilement qu'une seule et même personne détienne toute l'expertise nécessaire à l'évaluation de projets d'innovation complexes et nombreux.

Avec quelles méthodes ? Comme nous l'évoquions en préambule, la complexité de cet exercice de sélection et

l'importance de l'enjeu économique qui lui est liée, ont considérablement stimulé l'imagination des chercheurs en gestion52. Selon DANILA, qui a analysé 80 méthodes de sélection de projets parmi plusieurs centaines recensées, seules 20 % environ auraient été testées ou utilisées par des entreprises !

Ces innombrables méthodes ont été regroupées selon douze familles (financières, économiques, matricielles, systémiques, multicritères, consensuelles etc ....). Il n'est pas question ici de s'aventurer à l'exercice fastidieux d'une analyse comparée voire d'une sélection de toutes ces méthodes de sélection53 ! Contentons nous d'illustrer leur grande diversité par quelques exemples de méthodes typiques des principales familles, choisies en raison de la participation d'un utilisateur à leur conception. Nous essaierons à chaque fois de les appliquer au projet "microbilles".

1. Des méthodes quantitatives 1.1. Deux exemples de méthodes des indices de notation - une à caractère économique : la formule de Carl Pacifico (PACIFICIO, 1964) Elaborée pour la société Alcolac Chemical's Co, cette méthode s'appelle aussi

"numérotation de projets" :

l'organisme, pour motiver le rejet des projets, entraîne souvent à court ou moyen terme la désaffection des chercheurs. L'expérience montre que les réponses "ce n'est pas prioritaire" ou "non stratégique !" ne les contentent que rarement !

52Un autre axe de recherche est effervescent dans le domaine des outils et méthodes d'aides à la décision : celui de la gestion des portefeuilles financiers; de nombreux logiciels de "scoring" ont même été développés commercialement afin d'aider les cambistes dans leur arbitrage. De la sélection des placements financiers à la sélection des projets de R&D, il n’y a qu'un pas, qu'ont franchi allègrement, avec plus ou moins de succès, certaines sociétés de conseil informatique ...

53Exercice réalisé par (CETRON et al., 1967) ; Ils avaient analysé à l'époque 30 méthodes selon 15 critères (!), et conclu que la faible utilisation de ces méthodes était imputable à leurs insuffisances, au manque de fiabilité des données d'entrée, et au peu d'appui de la direction générale. Ils suggéraient que de nouvelles méthodes plus performantes soient développées...

N = Rc x Rt (P - C) V x T Règle de décision : N > 1

Ct où N = numérotation de projets ; Rc = probabilité de succès commercial ; Rt =

probabilité de succès technique ; P = prix du nouveau produit issu de la recherche ; C = coût du nouveau produit ; V = volume annuel des ventes ; T = durée de vie ; Ct = coût total : recherches-développement + essais + lancement.

Cette formule présente l'intérêt d'être relativement simple, et de prendre en compte de

manière distincte, à la fois les problèmes techniques et commerciaux. Toutefois, elle suppose qu'on puisse définir précisément des critères difficiles à

appréhender lorsqu'on lance un projet très innovant : que dire du prix et du volume des ventes d'un nouveau produit, lorsque le marché n'existe pas ?

En fait, cette méthode a été appliquée par Alcolac pour des projets peu risqués, proches de l'application. D'après cette entreprise, la moitié des projets sélectionnés a abouti à des succès.

Dans le cas du projet "microbilles", au moment de sélectionner le projet, on pouvait estimer les paramètres suivants :

- part de marché accessible à Rhône-Poulenc avec ce produit à 10 MF avant 10 ans ; - sur ce type de produits (latex techniques), la marge brute est importante, proche de

80% ; - selon les experts de la direction de l'innovation, ce projet était très risqué surtout

sur le plan technologique : Rt ± 1/4 et Rc ± 1/3 ; - la durée de vie est difficile à estimer car ces produits évoluent tout le temps ; la DI

estimait que le produit pourrait être exploité au moins trois ans, avant de nécessiter de nouveaux efforts de R&D donc T = 3 ;

- le coût R&D était estimé à 2,5 UVR par an pendant 4 ans environ, soit un budget de 6 MF ; les coûts de développement ultérieurs (essais - lancement ...) sont estimés pour ce type de produit au double du coût de recherche, soit un budget de 12 MF ;

par conséquent, Ct = ± 18 MF ; La formule donne : N = 1/3 x 1/4 x 0,8 x 10 x 3 = 0,11

18

D'après la règle de décision, le projet aurait du être rejeté. - une à caractère financier : le ROI La formule du Return On Investment est connue des managers du monde entier. La

formule est très simple : Bp

ROIp =_______ où B = bénéfice de l'investissement, I = montant de I p-1 l'investissement ; p = l'année Règle de décision : ordre décroissant du ROI N Sur plusieurs années : R = π ( 1 + ROIp ) p=1 ____ N ______ le ROI moyen est alors : ROI = √ R - 1 C'est une méthode utilisée couramment pour apprécier la rentabilité d'investissements

industriels. Aucun aménagement n'est prévu pour prendre en compte les spécificités de "l'investissement" R&D, lié à l'imprévisibilité de l'innovation, qui se traduit par une double-incertitude : sur le marché et sur la technologie. Une autre difficulté vient de ce que les investissements et les bénéfices éventuels de la R&D sont très nettement séparés dans le temps : par conséquent, le ROIp est logiquement nul pendant les n années de R&D, de développement industriel ; il devient très important, si l'innovation aboutit, lorsque le produit est mis sur le marché.

Cette formule est difficilement applicable au projet "microbilles" dans sa phase de démarrage. Elle prendrait tout son sens beaucoup plus tard, par exemple au moment de décider le financement d'une usine ou d'une ligne industrielle de production de microbilles, ou du lancement d'une grande campagne commerciale ; alors que l'investissement de l'année peut être comparé aux bénéfices liés à la vente du produit, attendus l'année suivante.

Si on veut toutefois l'utiliser, il faut cumuler les investissements, et les comparer aux bénéfices attendus également cumulés. On retrouve alors la formule de Pacifico, sans les facteurs de risque ; soit, appliqué au projet microbilles :

ROI =//= (P - C) V x T = 1,33

Ct Avec cette formule, le projet serait vraisemblablement retenu. On le voit, les méthodes quantitatives d'évaluation sont diverses, à la fois dans leurs

principes et dans les résultats qu'elles donnent. On peut imaginer deux interprétations à ce phénomène : ces méthodes sont inopérantes puisqu'elles se contredisent, ou bien, avec un point de vue plus optimiste, ce sont des méthodes "ad-hoc" développées de façon spécifique pour une situation bien précise : une entreprise, un certain type d'organisation de la recherche... Développer sa propre méthode, adaptée à ses programmes de recherche, est un investissement important que peu d'entreprises ont réalisé.

2. Les méthodes qualitatives A la situation paradoxale des méthodes quantitatives - foisonnantes mais relativement

peu utilisées -, on peut opposer celle des méthodes qualitatives : plus homogènes, moins nombreuses, il semble qu'elles soient beaucoup plus répandues dans les entreprises. Succès à rapprocher probablement de leur caractère plus pragmatique et de la facilité de leur mise en oeuvre. N'ayant pas à les quantifier, elles peuvent prendre en compte toute une série de facteurs laissés pour compte par les méthodes précédentes, pourtant déterminants pour le succès d'un projet de recherche.

Le principe générique de ces méthodes est simple : c'est celui de la "check-list", c'est-à-dire la liste des questions incontournables au moment de décider du lancement d'un projet. Ces questions reprennent en fait les critères évoqués précédemment. Elles permettent de tester la crédibilité et la cohérence du projet : qualité scientifique du programme de travail, faisabilité technique, compétences et disponibilité des équipes engagées, enjeux techniques et commerciaux, état de la concurrence ... Les réponses peuvent être selon les cas binaires (OUI/NON), ou modulées (par exemple : FAIBLE/MOYEN/IMPORTANT). Il appartient aux différents protagonistes - chercheurs, décideurs ... - de définir ensemble ces questions, et les règles d'interprétation : ainsi, certains critères peuvent être considérés comme des conditions sine qua non, et d'autres de moindre importance, seront facultatifs. Enfin, et c'est l'un des principaux avantages de ces méthodes, elles sont utilisables en continu , pour le suivi des projets (cf chapitre suivant : “Suivre”).

Citons à titre d'exemple une liste de critères proposée par P.F.TENIERE-BUCHOT54, qui est représentative des méthodes des listes de contrôle :

Factibilité : Peut-on le faire ?

54Pour plus de précisions, se reporter à (DE HEMPTINE, 1987).

-Le projet de recherche utilise des connaissances actuelles -le PR s'intégre dans le plan de développement -le PR utilise l'équipement des labos -les compétences sont disponibles dans les délais -le PR est brevetable, et respecte les réglementations -les risques liés au PR sont couverts par des solutions alternatives

Finalité : A quoi çà sert ? -Le PR débouche sur une innovation

-le PR améliore les performances techniques ou économiques de produits existants -le PR pourra évoluer -le PR pourra être exporté -le PR améliorera l'image de l'entreprise -le PR aura une incidence sur l'emploi -le PR améliorera les recettes de l'entreprise

Marketing : Se vendra-t-il ? -Le PR correspond à des demandes de marché existants ou est exprimable

avec des arguments de vente -il bénéficiera de la notoriété de l'entreprise -il se situe dans une zone produit/marché peu concurrente -il correspond aux dispositifs des clients ou usagers -il débouche sur des marchés de grande importance quantitative et financière

-l'environnement lui est favorable (mode, réglements et normes, saisonnalité)

-il permet d'entraîner des achats complémentaires d'autres produits

Industriallisation : Sait-on fabriquer ? -la production ultérieure est aisée : équipements et outillages, personnels de

production et de préparation de la production, matières premières

Stratégie -les produits sur lesquels débouche le PR correspondent à un marché stable,

sur une longue période -ces produits rendront la vie plus difficile aux concurrents

-le PR permettra de constituer un dossier crédible pour un financier (appréciation du capital investi, flux de trésorerie, valeur résiduelle du projet, analyse du risque)

-les fonctions qu'il remplit ont un caractère indispensable qui garantit l'opération contre les aléas et la crise de la demande

-les risques de faire ou non le PR sont évalués du point de vue des conséquences poour l'entreprise

-en cas d'insuccès, les possibilités de faire évoluer le PR sont plus nombreuses que les paramètres retenus actuellement

Cette liste n'est pas exhaustive et les critères ne sont pas obligatoirement identiques d'un

projet à un autre. Leur regroupement par familles est par contre significatif dans la majorité des cas. Là encore, l'application à des projets fortement innovants comme le projet "microbilles" n'est pas aisée : certaines questions restent sans réponse (par exemple, couverture des risques ? incidence sur l'emploi ? les produits correspondent à un marché stable, sur une longue période ?! ...) ; quelques unes reçoivent des réponses négatives (existence de demandes de marché ; intégration dans le plan de développement...) ; les autres obtiennent des réponses positives. Comment trancher ? On réalise sur cet exemple l'importance des règles d'interprétation précédemment évoquées ; si tous les critères obligatoires définis par l'opérateur sont satisfaits, le projet peut être retenu.

Remarquons au passage que la frontière entre méthodes qualitatives et quantitatives peut être aisément franchie, si l'on pondére les questions en fonction de leur importance, et que l'on note les réponses (par exemple, de 1 à 1O). C'est ainsi que se sont développées les méthodes de scoring de projet et les méthodes graphiques.

Citons comme méthode de scoring, celle mise au point pour la division produits chimiques de Monsanto :

26 P = ∑ Ai , où P = profil du produit nouveau i=1 Ai = valeur du projet selon les critères i ; Ai peut prendre quatre valeurs -2, -1, +1, +2. Les 26 critères sont regroupés en 4 groupes : aspects financiers, R&D, production,

commercialisation. Règle de décision : choix du produit dont le profil est meilleur (risque le plus faible et

potentiel le plus fort). Il est possible d'obtenir avec cette méthode une représentation graphique. Toutefois,

comme pour les méthodes quantitatives précitées, les dimensions fiancières et

commerciales sont difficiles à appréhender, et sa fiabilité suppose une relative stabilité de l'environnement économique.

En conclusion, on peut recommander, quelque soit la méthode d'évaluation retenue, de

passer par une méthode de listes de contrôle. Au delà des limites ou contraintes inhérentes à l'utilisation de ces différentes approches, le choix et la formalisation d'une méthodologie d'aide à la décision sont déterminants. En effet, la mobilisation des différents acteurs concernés par un projet de R&D, - par exemple les responsables recherche, marketing, production -, pour définir ensemble les critères, leur importance, leur interprétation ... , contribue à la construction d'un consensus. Ce consensus est utile au moment de la sélection des projets, mais aussi pendant leur suivi ; à chaque réunion d'étape, on peut ainsi envisager que l'ensemble des partenaires rassemble les informations nécessaires à la mise à jour de la liste de contrôle.

PRATIQUES

Après ce "détour" méthodologique, revenons à la pratique de la gestion de la recherche.

Comment se mettent en oeuvre concrètement les procédures de sélection des projets de R&D? Sur quels types de décision peuvent-elles déboucher ?

Nous étudierons des situations a priori contrastées de gestion de la recherche afin de comprendre comment se fait la "mise en musique" des principes que nous venons d'évoquer : l'expérience d'un programme technologique public55, celle d'une association de centres techniques56, et enfin deux exemples industriels (la direction de l'innovation d'un groupe chimique57 et la direction de la recherche d'un groupe pharmaceutique58).

Autant d'exemples d'organisations confrontées au problème de la sélection de projets, qui ont mis en place des procédures ad-hoc.

1. La sélection, corollaire de l'incitation

55Le programme "Transformations Agro-Alimentaires" du Ministère de la Recherche et de la Technologie

soutient, dans le domaine des technologies alimentaires, des projets de recherche associant industriels, laboratoires publics, centres techniques.

56L'Association de Coordination Technique pour l'Industrie Agro-Alimentaire (ACTIA) qui fédère 17 centres techniques, finance des projets de recherche associant plusieurs de ses centres et éventuellement des laboratoires extérieurs.

57La Direction de l'Innovation du groupe Rhône-Poulenc finance des projets qui ne peuvent être pris en charge par une division : soit parce qu'ils paraissent trop risqués, soit parce qu'ils se situent à l'interface de plusieurs divisions.

58Le groupe SANOFI, filiale santé et bio-industries du groupe Elf-Aquitaine.

Ces trois opérateurs de recherche appartiennent à des organisations apparemment très différentes : quel point commun trouver entre un ministère, des grandes entreprises et un regroupement de centres techniques ?

Au moins un. La même volonté d'encourager, d'inciter une communauté de chercheurs et de technologues à élaborer des projets de R&D suivant des axes qui leur paraissent stratégiques :

- inciter des projets faisant collaborer laboratoires publics et entreprises sur des thèmes

prioritaires, dans le cas du programme du Ministère de la Recherche ; - encourager les coopérations entre ses centres sur des axes de recherche transversaux

pour l'association technique ; - favoriser des projets pluridisciplinaires à l'interface des domaines stratégiques des

divisions pour la fonction innovation du groupe industriel. Ces procédures de financement, dites incitatives, sont additionnelles et même

marginales en terme de volume de financement par rapport au budget recherche total de ces organisations, qui inclut les financements structurels et les engagements lourds (gros équipements, infrastructures, salaires).

Ainsi, le département bio-industries du groupe pharmaceutique59 consacre environ

70% du budget R&D à la gestion de son patrimoine de recherche et à la réponse aux questions posées par les unités industrielles, 10% à des programmes stratégiques émanant de la direction générale (dits "top down"), 10% à des projets proposés par ses chercheurs ("bottom up"), et 10% à des sujets émis par un réseau de consultants scientifiques extérieurs à la société.

Les 80% correspondant aux projets élaborés à la demande des divisions opérationnelles ou de la direction générale sont financés directement par celles-ci : par conséquent, ils échappent à une phase de sélection a priori sensu stricto. Celle-ci concerne uniquement les projets "bottom up", présentés spontanément par les chercheurs.

De la même façon, les crédits des programmes technologiques sont très inférieurs au

budget global des organismes publics de recherche (5% environ)60 ; l'activité principale des chercheurs, financée par ce budget, est rarement exprimée sous forme de projets, et n'est pas soumise à une procédure formelle de sélection.

59SANOFI BIO-INDUSTRIES, spécialisée dans les additifs et arômes, utilisés notamment dans l'agro-

alimentaire. 60En France, ces programmes sont financés par le Fonds de la Recherche et de la Technologie, d'un

montant de 1 milliard 200 millions de F, à rapprocher du budget total attribué aux organismes publics (CNRS, INRA, INSERM ...) proche de 20 milliards de F.

Une phase de sélection formalisée, telle que nous la décrivons ici, est donc

caractérisitique des procédures incitatives. Les opérateurs de ces procédures ayant à évaluer des projets par définition atypiques, sortant de l'activité traditionnelle des organismes et donc de leur processus classique de programmation61, en ne pouvant y consacrer que des fonds limités, mettent en place des épreuves de sélection ex-ante (c'est-à-dire avant le démarrage des projets).

Dans les autres cas, c'est-à-dire les programmes de recherche "classiques" relevant de l'activité traditionnelle des organismes, nous verrons qu'une certaine forme de compétition inter-projets peut s'instaurer et générer des situations de sélection "en continu".

2. La sélection ex ante en trois étapes Pour chacune des procédures incitatives, la sélection se décompose en trois étapes :

susciter et recevoir les projets, les évaluer individuellement, les comparer pour faire la sélection proprement dite.

La première étape est donc une phase de collecte de projets ou de déclarations d'intentions.

Pour ce faire, les programme technologiques publics ont le plus souvent recours à un appel d'offres : c'est un texte présentant les enjeux stratégiques du programme, les domaines de recherche prioritaires qu'il a définis et dans lesquels doivent s'inscrire les projets, les critères principaux d'appréciation des projets et les modalités pratiques de réponse ; ce texte est accompagné d'un formulaire-type de demande d'aide. Les laboratoires intéressés doivent répondre dans un laps de temps déterminé. La périodicité de ces appel d'offres est variable : annuelle dans le cas du Ministère de la Recherche, pluri-annuelle pour les programmes communautaires (une fois tous les deux ou trois ans).

Dans les autres cas, la collecte se fait de façon plus souple, par une procédure d'instruction permanente, et le plus souvent sans thèmes prioritaires. On peut citer l'exemple du programme EUREKA, ou de la direction de l'innovation de Rhône-Poulenc,

61Ce processus, qui concerne la part principale de l'activité de recherche, étant rarement formalisé est peu

étudié. Dans les entreprises, en première approche (celle que nous avons retenue ici), les sujets de recherche sont

définis à partir des demandes des unités opérationnelles, de la direction générale ou des services commerciaux. Le processus se décompose alors ainsi : 1. question ou demande adressée aux chercheurs - 2. proposition par les chercheurs d'un programme en réponse à cette demande - 3. examen du programme par les opérationnels, redéfinition éventuelle - 4. accord des opérationnels et financement.

Dans les laboratoires publics, le processus est plus difficilement analysable ; une étude sur ce sujet va être réalisée par le CSI à la demande de la direction scientifique d'un grand organisme public. Il semble toutefois que les chercheurs aient une autonomie plus grande de définition et de choix de leurs sujets. La seule procédure d'évaluation qui soit clairement formalisée est celle des chercheurs.

qui reçoivent et évaluent tout au long de l'année des projets ou des idées de projets sur les sujets les plus variés. L'information sur la procédure n'étant pas assurée par la diffusion d'un appel d'offre, il est nécessaire de mener parallèlement une activité de communication auprès des équipes scientifiques susceptibles d'être intéressées.

Une fois reçus, les projets sont soumis à évaluation : dans tous les cas étudiés, elle est

assurée par au moins deux experts d'origines diiférentes, et de compétences complémentaires. Ces experts restent anonymes afin d’empêcher d’éventuelles pressions des demandeurs, et de favoriser leur objectivité. Ils ont en général toute latitude pour rentrer en contact avec les équipes S&T impliquées, pour obtenir des informations complémentaires voire voire visiter les laboratoires. Le plus souvent, ils rédigent ces expertises selon une grille d'évaluation qui leur proposée par l’opérateur. Le fait que toutes les expertises réalisées sur les différents projets en compétition soient faites sur le même canevas facilite la comparaison. Ces grilles se composent des critères reconnus comme stratégiques par les organisations (cf grille d’évaluation du programme “Transformations Agro-Alimentaires” en annexe) ; en cela, elles se rapprochent des listes de contrôle. Après avoir analysé le projet point par point de la check-list, les experts émettent un avis global sur celui-ci. Lorsqu’ils l’estiment nécessaire, ils proposent des modifications du projet : par exemple, en suggérant d'autres voies d'approches, des compétences scientifiques complémentaires à mobiliser, voire un ajustement des coûts et de l'aide demandée ...

La troisième et dernière étape est celle de l’arbitrage, c'est-à-dire de la décision à proprement parler : l’ opérateur, sur la base des expertises, doit trancher entre les projets. Pour apprécier des projets de recherche technologique, exercice dont nous avons souligné la difficulté, et d'une manière générale des projets de caractère fortement innovant, il peut avantageusement se faire aider d'un groupe d'experts scientifiques et industriels. C'est le cas des programmes technologiques publics : l'opérateur s'appuie sur un comité scientifique, à la fois pour définir les priorités thématiques qui seront la base de l'appel d'offres, et pour sélectionner les projets. Généralement, pour chaque projet un rapporteur est nommé au sein du comité ; il présente le résultat des expertises, et propose un classement : A, projet à retenir en priorité - B, projet qui pourrait être retenu - C, projet à rejeter. La discussion s'établit et doit se conclure sur une position consensuelle.

Notons que la discussion concerne également les aspects financiers ; assez souvent, les projets retenus voient leur assiette modifiée, l'aide apportée est alors inférieure au niveau demandé.

Après ce premier tour, le comité s'assure que le montant des aides des projets retenus est compatible avec l'enveloppe financière disponible. Si tout le budget n'est pas attribué, un second tour permet de départager les projets classés B.

Cette procédure d'arbitrage n'est possible que lorsque l'on dispose de l'ensemble des projets en même temps (cas des appels d'offre). Dans les autres cas, où les projets sont

instruits tout au long de l'année, ils ne peuvent être mis en compétition : ils sont donc évalués sur leurs qualités intrinsèques, et retenus dans la mesure des fonds disponibles.

3. Vers une sélection "en continu" 3.1. La sélection en deux temps Dans certains cas, des programmes technologiques peuvent s'écarter du schéma évoqué

précédemment ; en particulier, lorsqu'ils suivent une périodicité pluri-annuelle (c'est le cas de la majorité des programmes communautaires). L'épreuve de collecte/sélection des projets est alors plus longue ; une première évaluation permet de constituer trois groupes :

- une première vague de projets excellents recueillant l'adhésion de tous, classés A, est retenue et représente près des 2/3 du budget,

- les projets jugés hors de l'appel d'offres ou nécessitant d'importantes modifications, classés C, sont rejetés,

- enfin, les projets du troisième groupe, classés B, sont jugés bons mais doivent être légèrement corrigés (au niveau des thématiques, ou des équipes participantes).

Les équipes responsables de ces derniers ont quelques mois pour les aménager en tenant compte des remarques des experts, et puis ils sont soumis à un second round d'arbitrage.

Cette procédure d'évaluation-redéfinition-décision est un premier pas vers une stratégie d'intéressement .

3.2. L'évaluation-sélection en continu : On conçoit assez aisément l'avantage pour un opérateur d'un processus d'évaluation

permanente. A tout moment, un projet peut être réorienté voire arrêté, si les résultats sont mauvais, ou si ils s'écartent de façon trop importante de son tableau de marche. Les fonds "économisés" permettent de renforcer les projets qui le méritent ou de soutenir de nouveaux projets. Un tel processus permet donc d'optimiser l'allocation des ressources.

Ce processus pose le problème de l'arrêt des projets : sur quelles bases et à quel moment

décider de l'arrêt d'un projet ? Là encore, observons des situations réelles : en septembre 1989, deux sociétés

japonaises ont abandonné le développement de protéines thérapeutiques importantes. La première, Green Cross, fournisseur de produits sanguins, a stoppé ses travaux sur le facteur VIII recombiné pour le traitement de l'hémophilie A, en raison de sa position en matière de brevets, jugée trop faible face à la concurrence, et des coûts de production qui seraient trop élevés.

La seconde, Snow Brand Milk Products, arrête ses recherches sur le tPA, qui étaient menées en collaboration avec le Weizmann Institute (Israël), après avoir constaté que les

cellules humaines en culture employées dans son procédé ne produisaient qu'à peine 20% du tPA obtenu par les techniques de l'ADN recombiné62.

Ces deux exemples montrent bien la diversité des motifs qui peuvent conduire à l'arrêt d'un projet ; remarquons que sur nos deux exemples, ces motifs correspondent à des critères des listes de contrôle (position brevets ; industriallisation ; compétitivité par rapport aux produits ou procédés concurrents).

Il est donc important de réflechir dès la sélection d'un projet aux critères prioritaires de suivi, et de définir les valeurs seuils ou les situations limites pour ces critères, susceptibles de remettre en cause la poursuite du projet.

Un mode de sélection en continu informel se pratique dans beaucoup d'entreprises,

notamment dans le secteur pharmaceutique. Prenons l'exemple de la société SANOFI ; pour chaque projet, l'équipe responsable définit plusieurs stratégies , c'est-à-dire plusieurs marches à suivre possibles pour atteindre l'objectif. Chaque stratégie, ou scénario, est caractérisée par des choix en terme marketing, production, réglementaire. Elle est traduite en terme de moyens : coûts internes et externes, hommes mobilisés ..., et de planning prévisionnel : dates d'aboutissement, étapes décisionnelles.

Une stratégie est retenue par la direction et l'équipe de développement ; on définit alors un cahier des charges (ou des tâches) plus précis, avec la méthode PERT. On arrive à un premier chiffrage global, d'environ 25 tâches, avec leurs responsables (pharmacocinéticiens, galénistes, toxicologues...). Ceux-ci déterminent eux-mêmes le temps qu'il faudra pour les réaliser, et leurs stratégies scientifiques (c'est-à-dire l'ensemble de leurs tâches), ce qui donne un cahier des charges de 1500 tâches et un planning théorique précis, revu par l'équipe de développement.

Il faut ensuite placer ces 1500 tâches dans les plans de charge, ce qui est particulièrement difficile. Si un service est saturé, on a recours si possible à la sous-traitance ; sinon, il faut modifier le plan de charges du service. Un retard important peut aussi être dû à un accident (contamination d'un bloc stérile) ou aux résultats obtenus (nécessité d'une étude complémentaire, voire de revenir sur la stratégie, voire sur les objectifs), et entraîner des modifications lourdes. On fait alors une simulation de l'impact des modifications sur les différents projets, et leurs objectifs. Cette étape de choix de la modification (quel projet va être retardé ?) met en concurrence les projets. Cette simulation peut être réalisée par des logiciels de suivi63 ; mais ces logiciels ne prennent pas la décision, c'est la direction qui fait l'arbitrage!

En moyenne, SANOFI Santé mène en parallèle près de 45 projets. 3-4 sont prioritaires pour la Direction Générale ; et 3-4 sont en queue. Sur les autres, il y a une véritable

62Source : Flash JAPON, publication CPE, septembre 1989. 63Citons par exemple le système ARTEMIS adopté par Rhône-Poulenc Santé ; "Pharmacie, l'ordinateur

gère la recherche", Technologies , septembre 1989.

concurrence ; la décision s'apparente alors aux décisions de sélection évoquées précédemment. La direction peut utiliser des méthodes analogues, une méthode de scoring par exemple, pour départager les projets.

L'évaluation d'un projet évolue dans le temps : par exemple, un produit cardio-vasculaire peut avoir en phase1 trois indications (arythmique, angor, anti-hypertenseur), et plus que deux indications réalistes en phase 2. Son degré de priorité baisse.

L'arbitrage du conflit prend en compte aussi le projet global SANOFI : le choix d'un projet prioritaire au détriment d'un autre moins bien classé peut générer des trous dans le plan de charge.

En effet, le "projet SANOFI" a deux objectifs principaux : - que les projets prioritaires arrivent à temps ; - que le plan de charge soit saturé.

Ces arbitrages sur l'affectation des ressources (hommes, équipements) représentent en quelque sorte une seconde sélection, moins formalisée que la sélection a priori, mais tout aussi importante pour la réussite des projets.

Conclusion : L'ELOGE DU SUIVI La phase de sélection des projets n'apparait de manière explicite qu'au sein des

procédures incitatives : elle est rendue nécessaire par un grand nombre de projets collectés, représentant un coût très supérieur au budget disponible ; elle permet en outre d'évaluer la compatibilité de projets innovants "bottom up", souvent atypiques, avec la stratégie d'un organisme. Dans le cadre de ces procédures incitatives ou d'encouragement à l'innovation, on observe des configurations similaires de sélection dans les programmes publics et les grandes entreprises.

Quelques paramètres sont déterminants pour garantir l'efficacité d'une sélection de

projets, notamment le choix des évaluateurs, des critères d'évaluation. La formalisation d'une méthode spécifique, si elle associe les différents partenaires impliqués (chercheurs, porte-paroles de la production, du marché ou des usagers de la recherche), les oblige à se mettre d'accord sur ce qu'ils attendent d'un projet, et en ce sens est un outil de consensus très précieux.

Le résultat de la sélection dépend aussi beaucoup du moment où elle est effectuée ; ce problème devient secondaire lorsqu'on évolue vers une sélection en continu, qui s'apparente au monitoring des projets. Elle consiste alors à arbitrer entre les projets en développement, lorsqu'il y a conflit pour l'utilisation des ressources.

Ce second type de sélection peut utiliser des méthodes de classement des projets analogues à celles de la sélection a priori.

Dans cette perspective, Décider et Suivre apparaissent comme deux "moments" de plus

en plus indissociables de la gestion de la recherche. Annexes : fiches d’évaluation de projet : - du programme “Transformation Agro-Alimentaire” du Ministère de la Recherche et

de la Technologie, - de l’Association de Coordination Technique pour l’Industrie Agro-Alimentaire. MANQUENT LES DEUX ANNEXES

Suivre : outils et gestion des mises à l’épreuve Dominique VINCK

Une fois le projet de recherche élaboré et lorsqu'il a satisfait aux épreuves de

sélection, son histoire ne fait encore que commencer : une histoire faite de multiples redéfinitions et réorientations. Aussi précis que soit le plan de travail, le projet initial se transformera. Certains disent qu'il dérive. Son histoire n'est pas celle d'un corps balistique dont on peut calculer avec plus ou moins de précision la trajectoire. Elle ressemble plutôt au bruit qui court, qui d'une personne à l'autre sera amplifié ou arrêté, mais toujours transformé, pour finir, parfois, par devenir une évidence qui s'impose à tous. Le projet de recherche, une fois décidé, suit rarement la programmation prévue et le beau schéma linéaire du type “formulation de l'idée -> étude de faisabilité du concept -> recherche en laboratoire -> développement industriel -> démonstration -> diffusion”. Aussi, les gestionnaires savent-ils que les projets doivent être suivis. Mais comment ?

Le suivi : de quoi parle-t-on ? La littérature gestionnaire a vu proliférer depuis 40 ans les outils de sélection, de

suivi et d'évaluation des projets de recherche et de l'innovation64. Cette littérature est brièvement exposée et mise en perspective par G.TEIL65. Par ailleurs, les lecteurs trouveront d'autres éléments pratiques dans la littérature consacrée au suivi des projets d'investissements et des projets de développement. Nous ne reprendrons pas ici ces contributions mais dégagerons seulement quelques concepts clefs pour la gestion de la recherche.

Tout d'abord, pour traiter de façon cohérente la diversité des tailles des interventions66 de recherche, nous proposons de les distinguer et de les dénommer respectivement programme, action et opération :

64 N.DANILA en présente une synthèse exhaustive dans son ouvrage (DANILA, 1983). 65 G.TEIL, CANDIDE : un outil de veille technologique basé sur l'analyse des réseaux, dans la troisième

partie de cet ouvrage. 66 Nous utiliserons indifféremment les termes d'interventions et de projet de recherche pour parler de façon

générique ce qui peut être un programme, une action ou une opération.

— l'opération est l'entité de base, dans la gestion de la recherche. Elle correspond à la mobilisation d'un ou de quelques partenaires autour d'un objectif scientifique ou technique donné à atteindre dans un délai précis. Le résultat attendu est clairement identifié ;

— l'action est un ensemble d'opérations qui correspondent à un même objectif. Celui-ci est exprimé à la fois par les enjeux (économiques, technologiques, sociaux, etc) et par le réseau d'acteurs à construire pour résoudre les problèmes posés ;

— le programme est l'ensemble des actions gérées par un même opérateur dans un domaine donné.

A ces trois niveaux d'intervention, correspondent globalement trois niveaux de suivi : stratégique, opérationnel et scientifique. Le niveau stratégique correspond à celui de l'analyse de l'environnement (scientifique, technique, économique, social, éthique et politique) et du positionnement relatif des acteurs en présence. Par ce suivi, les gestionnaires de la recherche se donnent les moyens de faire évoluer les projets en fonction des évolutions de l'environnement, notamment pour saisir des opportunités. Le niveau opérationnel est celui de la mise en œuvre et de la mobilisation des ressources correspondantes. Ce suivi consiste à s'assurer que les moyens mis en œuvre sont appropriés par rapport aux finalités poursuivies, aux ressources mobilisables et aux réseaux de contrainte dans lesquelles les gestionnaires doivent opérer. Le niveau scientifique est celui de la réalisation effective des recherches. Le suivi portera sur l'adéquation des outils intellectuels mis en œuvre par rapport aux objectifs scientifiques et techniques en tenant compte des résultats intermédiaires, des difficultés rencontrées et de l'évolution de la “discipline”.

Plus on se rapproche de l'opération, plus le suivi scientifique et technique est déterminant. A l'autre extrême, au niveau du programme, c'est le suivi stratégique de l'intervention de recherche qui constitue l'élément le plus important de la gestion. Toutefois, les trois types de suivi ne correspondent pas strictement aux trois niveaux d'intervention. Ils sont, en fait, souvent un peu présent à chaque niveau. Ainsi, par exemple, au niveau de l'opération, le chercheur et les experts chargés du suivi de son travail scrutent les évolutions de l'environnement scientifique et les stratégies de recherche retenues par ses collègues ; ils font un morceau de suivi stratégique. Par ailleurs, au niveau du programme, les gestionnaires s'entourent généralement de compétences scientifiques pour évaluer, en cours de route, la qualité scientifique et technique de l'ensemble des travaux ; ils font du suivi scientifique. D'ailleurs, rares encore sont les organisations où les trois types de suivis sont clairement distincts et dotés d'outils spécifiques. Et, encore plus rares sont celles où les trois types de suivi interagissent suffisamment que pour permettre aux gestionnaires d'assurer la série des traductions permettant de passer des contenus scientifiques aux discours politiques et inversément.

Au moment où commence une intervention de recherche, celle-ci fait souvent l'objet d'une description plus ou moins complète et synthétique. Les critères retenus par la caractériser varient d'un opérateur à l'autre. Il semble toutefois qu'une bonne façon de procéder67 consiste à prévoir une double définition, quelque soit le niveau de l'intervention : d'une part, par les objectifs, d'autre part, par le contenu du travail à réaliser.

Au niveau du programme, les objectifs sont généraux. Ils sont exprimés à la fois par rapport à des enjeux (économique, sociaux, politiques, etc) clairement spécifiés et par rapport aux réseaux d'acteurs à construire. Le programme est rattaché aux réseaux dont on prévoit la mobilisation puisque la réalisation des objectifs dépend de connaissances et de compétences localisées dans des réseaux existants (centres et équipes de recherche, entreprises et cabinets d'ingénierie, unités de production, département marketing, services financiers et juridiques, partenaires sociaux et usagers, etc) qu'il s'agit d'intéresser à la poursuite du projet. Ainsi, les objectifs d'un programme de recherche, par exemple en matière d'environnement, pourront être définis, d'une part, par l'enjeu que constituent les menaces qui pèsent sur la planète en relation avec les émissions d'oxydes de soufre et d'azote et, d'autre part, par la mobilisation des constructeurs automobiles et des producteurs de centrales de combustion de charbon. Le contenu du programme sera constitué par l'ensemble des actions qui le composent à l'issue du processus de sélection des actions et de leur redéfinition mutuelle. Au cours de ce processus, les objectifs des actions sont confrontés aux objectifs du programme.

La même double définition des interventions permet de caractériser les actions. Les objectifs de l'action sont, comme pour le programme, exprimés, d'une part, par des enjeux précis et, d'autre part, par les acteurs à mobiliser. Le contenu du travail correspond à la liste des opérations qui le composent et de leur enchaînement éventuel. Ainsi, par exemple, à l'Agence Française pour la Maîtrise de l'Energie (AFME), les actions de recherche sont décrites, d'une part, par leur thème, l'enjeu énergétique et le marché correspondant et, d'autre part, par la structure industrielle du milieu à mobiliser. Le contenu est exprimé par la liste des opérations retenues et à réalisé dans un temps donné. Le lecteur trouvera ci-après un exemple de fiche d'action de l'AFME concernant les échangeurs de chaleur (fiche n° 1).

Enfin, au niveau des opérations, la double caractérisation utilisée jusqu'alors change quelque peu de forme à cause de la place prépondérante du travail de recherche. Les objectifs ne sont plus généraux et définis par des enjeux et des acteurs mais sont des objectifs scientifiques et techniques précis, à réaliser dans un délai donné. Une opération de recherche se rapporte à un objectif défini dans le temps. Il

67 Agence Française pour le Maîtrise de l'Energie, Programme de Recherche et de Développement 1988-

1992, AFME, 1988.

doit donc lui être assigné une durée probable d'achèvement ce qui permet sa programmation (estimation, répartition et mobilisation des moyens), sa coordination et facilite son évaluation ultérieure. Le contenu est caractérisé principalement par les résultats attendus et par le plan de travail. Un exemple de fiche d'opération est présenté (fiche n° 2)68.

!!!! FICHES A INSERER Les fiches de description des programmes, actions et opérations constituent le

premier outil de suivi des interventions de recherche. Ainsi, une fois les interventions en matière de R&D ayant fait l'objet d'une présentation explicite de leurs objectifs, des échéances prévues, des moyens, des réseaux et des acteurs à mobiliser, la gestion courante et l'évaluation, en continu et a posteriori, du travail y trouvent leur principal point de référence. Par rapport à cette description initiale de l'intervention, les gestionnaires et évaluateurs pourront mesurer les transformations, les redéfinitions des objectifs en fonction des évolutions de l'environnement, les rééchelonnement des échéances, la réestimation des moyens, les modifications des modalités d'intervention, etc.

Le suivi des interventions en matière de R&D et d'innovation contribue à maîtriser les nombreux dérapages possibles. Ceux-ci peuvent aussi bien concerner les dépenses, les délais (situations les plus aisément constatables), les objectifs (qui évoluent inévitablement au fur et à mesure du travail de recherche et en fonction des mouvements de l'environnement) et les acteurs mobilisés (dont les comportements et stratégies ne sont pas toujours prévisibles). Le suivi a donc une double fonction : la première, et de loin la plus importante, consiste à offrir un support à une démarche collective tandis que par la seconde les gestionnaires se dotent de garde-fous.

Pour faciliter le suivi, il est coutume de découper les actions et les opérations en phases, chacune étant caractérisée par un objectif, un délai et un plan de travail. Chaque phase (action, opération ou fraction d'opération) est lancée après avoir évalué celle qui la précède ainsi que reformulé celles qui suivent. Si le découpage permet de structurer, gérer et évaluer les interventions, son utilité ne réside pas seulement dans le fait d'organiser la progression par étapes, qu'elles soient logiques ou fonctionnelles, mais essentiellement de trouver un support qui facilite l'adhésion progressive des différents alliés du projet. Le suivi assure un flux de réflexions et de concertations tout au long de l'histoire du projet, et même au-delà.

68 Energy Research, Development and Demonstration, Projects Inventory 1986, National Board for

Science and Technology, Ireland, 1987

Les outils du suivi… Pour permettre le suivi des interventions, les gestionnaires de recherche disposent

parfois de fiches de projet. Il s'agit de grilles de description de l'intervention à compléter à étapes régulières. Elles peuvent avoir une forme comparable aux fiches de programme, d'action et d'opération telles que décrites ci-avant. On y notera généralement l'état d'avancement, les résultats déjà obtenus, les problèmes et difficultés rencontrées ainsi que les éventuelles reformulations d'objectifs, de plans de travail, de résultats attendus, des échéances et des moyens à mobiliser. Selon l'organisation du suivi, la fiche sera tantôt complétée par le chef de projet qui réalisera la synthèse des avis sur le projet, tantôt elle servira de liaison entre différents intervenants en circulant entre eux et en étant progressivement complétée par chacun d'eux (le directeur du marketing inscrivant les nouvelles données concernant le marché, le directeur de la production notant les difficultés qu'il prévoit lors du passage du laboratoire à la production, etc), tantôt elle sera l'occasion d'une rencontre et de confrontations entre ces intervenants.

Pour contribuer à alimenter le processus de négociation et le travail d'intéressement que constitue la réalisation d'une intervention en matière de Recherche et Développement, les fiches de projet devraient également permettre de noter les soutiens et les oppositions, les raisons et les moyens des alliés et opposants en regard des transformations successives du projet. Les arguments de ceux qui le soutiennent et de ceux qui s'y opposent, de ceux qui hésitent et de ceux qui s'en désintéressent sont des éléments précieux à enrégistrer et à discuter dans ce cadre. On enrégistrera également les dérives par rapport aux prévisions initiales et aux orientations de base, les bouleversements dans les hypothèses et les chocs survenus dans l'environnement. Elles ne serviront pas seulement à contrôler le bon avancement du travail mais aussi à évaluer la solidité des associations qui définissent le projet. La fiche (version synthétique) ou le dossier du projet (version plus complète) constitue la mémoire des multiples déplacements et évolutions.

Aux fiches de projets sont parfois associées des listes de contrôles. Elles portent, de façon variable selon leurs auteurs, sur le projet (sa nature, son intérêt), les enjeux auxquels il est lié et son insertion stratégique, les possibilités de mobilisation et d'intéressement (de clients ou d'utilisateurs potentiels, par exemple), ses impacts probables, les projets concurrents, les ressources à mobiliser et leur fiabilité par rapport au projet, son insertion opérationnelle, etc. Nous avons repris à titre indicatif une série d'éléments susceptibles de se retrouver dans une liste de contrôle pour le suivi d'un projet de R&D en entreprise (fiche n°3).

Les discussions suscitées par ces types d'outils conduisent à remettre en question les idées initialement lancées, à stimuler des apports originaux et à éprouver les hypothèses fragiles et les idées reçues. Elles sont d'autant plus riches qu'elles sont

l'occasion d'une confrontation entre des points de vue différents (diversité des compétences et des insertions des personnes mobilisées). Le projet est ainsi soumis à une série d'épreuves au cours desquelles il s'élabore et oriente son destin. Plus les épreuves sont variées et portent sur les différentes entités qui le constituent et alliés qui le soutiennent, moindre sont les risques de rencontrer une situation imprévue qui compromette le projet lorsqu'il sera déjà bien avancé. La confrontation régulière des approches stratégique, opérationnelle et scientifique évitent ainsi de négliger des aspects essentiels du projet. L'important n'est donc pas de compléter la fiche ou de noter chaque rubrique de la liste de contrôle mais d'évaluer si les estimations établies préalablement sont toujours fiables, d'identifier les modifications qui sont apparues et surtout de comprendre les raisons des transformations ainsi détectées.

Fiche n° 3 : éléments pour une liste de contrôle en entreprise

1. Identification du projet : — nature : fabrication d'un nouveau produit, élaboration d'un nouveau procédé, amélioration de la qualité d'un produit existant, amélioration d'un procédé existant, nouvelle application d'un produit existant, application d'un produit nouveau, réponse à une demande du marché, diversification,… : de quoi s'agit-il ? — intérêt et originalité du produit, du procédé, de l'application ou du service : intermédiaire, commodité, spécialité (application existante, nouvelle application, substitution),… : pourquoi ce projet ? Qu'est-ce qu'il apporte de nouveau ? Quelle est l'idée à la base du projet ? — faisabilité du produit, procédé, application ou service : est-il techniquement réalisable et à quelles conditions (ruptures technologiques possibles, verrous technologiques à lever, etc) ? Est-il commercialement valable et dans quelles conditions ? — marché : caractéristiques (taille, vitesse de croissance, segmentation, support technique nécessaire, délai de développement en clientèle), — analyse de la concurrence : produits, procédés et applications, taille économique minimum, résistance à la pénétration, — hypothèses commerciales : quantités sur trois années, prix moyen, chiffres d'affaires. 2. Technique : — matières premières : situation économique et prévisions, fournisseurs, — ateliers nécessaires (disponibilité), équipes et know-how, — impacts possibles (environnement, toxicologie, hygiène et sécurité),

— synergie avec d'autres activités,… 3. Propriété industrielle : — brevets susceptibles d'interférer, brevetabilité de l'idée. 4. Investissements : — en R&D (labo, pilote, applications), — en industrie (atelier, modifications, extension), — commercial (adaptation du réseau, support technico-commercial, effort publicitaire) et autres (achat de licence, acquisition de fonds de commerce, association avec un partenaire). 5. Economie du projet : — amélioration des rendements et/ou des qualités, augmentation de capacité, des ventes, rattrapage d'un retard ou création d'une avance technologique, chiffre d'affaire lié au projet, investissement global, marge brute et marge d'exploitation additionnelles,… 6. Cohérence stratégique : — inscription des activités présentes ou futures du groupe (cfr analyses de portefeuilles d'activités).

Les fiches et les dossiers de projet ainsi que les listes de contrôle permettent de

constituer la mémoire des interventions de R&D et d'en retracer ultérieurement l'histoire. Ces outils de suivis sont parfois associés à d'autres outils de gestion tels que les cahiers des charges, les rapports intermédiaires et le suivi comptable.

L'objectif des cahiers des charges consiste à faire la charte détaillée et programmée dans le temps des résultats successifs à obtenir, des travaux à effectuer (et leurs spécifications), des moyens à employer et des budgets, des obligations imposées aux réalisateurs ainsi que les contrôles à effectuer. Le cahier des charges doit prévoir différents contrôles et déterminer les indicateurs clignotants à mettre en place ainsi que des critères d'abandon du projet. Ceux-ci ont une importance capitale dans la gestion des projets de recherche car, dans le feu de l'innovation, il est très difficile de prendre la décision d'interrompre voire même, simplement, de proposer l'abandon d'un projet. Les critères d'abandon doivent donc traduire la disparition des raisons de poursuivre le projet. Il ne suffit pas seulement de disposer d'indicateurs, encore faut-il qu'ils soient connus des différents partenaires afin qu'ils veillent sur le projet. L'ensemble des indicateurs constituent ainsi son tableau de bord tandis que la fiche correspond au journal de bord. Le tableau de bord permet d'avoir une vision

synthétique de la situation présente et d'attirer l'attention sur l'une ou l'autre transformation importante. Le journal de bord constitue la mémoire de l'intervention ; par l'enrégistrement des multiples transformations du projet , il permet de comprendre et d'expliquer un état donné du tableau de bord.

Les rapports intermédiaires permettent de documenter la construction du projet et de détailler certains points de controverse. Ils constituent l'instrument de base du suivi scientifique et technique. Leur traitement est principalement de deux types : la lecture critique par des experts (les gestionnaires scientifiques eux-mêmes ou des experts mobilisés pour la cause) et leur traduction par les gestionnaires. La lecture critique constitue une forme d'évaluation pour les chercheurs. Elle permet également au gestionnaire d'intégrer l'opération ou l'action sous-revue et de préparer son suivi stratégique.

Le suivi comptable analytique est le pendant économique des rapports scientifiques intermédiaires ; il permet de construire une information synthétique qui alimentera les suivis opérationnel et stratégique ainsi que les évaluations du projet.

Le suivi des projets d'innovation devrait avoir pour principal objectif de favoriser

et d'évaluer l'état de mobilisation constituve du projet. Aussi, les outils devraient-ils permettre d'enrégistrer l'aggrégation progressive des multiples intérêts en présence, de noter en regard l'un de l'autre les acteurs mobilisés, leur position par rapport au projet, ce qu'ils soutiennent, pour quelles raisons et avec quels moyens.

…et la gestion des mises à l'épreuve La gestion de la recherche implique des allées et venues constantes entre de

multiples acteurs aux intérêts divergeants, entre le laboratoire et la société. Comment dès lors suivre un projet dont le parcours est sinueux et dérive par rapport aux objectifs initiaux ? Comment prendre en compte les nécessaires aller-retour, les évolutions zigzagantes et les remises à l'ouvrage. Au cœur de l'innovation, il y a tout un travail d'intéressement de différents partenaires. De multiples et inévitables négociations sont recquises pour les convaincre et pour s'assurer de leur soutien. Comment organiser ce suivi ?

La vie du projet est étroitement liée à celle de ceux qui le portent. L'aggrégation progressive de multiples intérêts que constitue l'innovation est simultanée à la mobilisation d'acteurs. Chacun d'eux se fait le porte-parole d'une entité ou d'un réseau attaché au projet. Aussi, dans le suivi, le gestionnaire construit un microcosme de la société dans laquelle l'innovation aura à vivre, microcosme au sein duquel différentes alliances sont testées. La structure d'accueil du projet doit donc articuler étroitement

le travail d'entre-prise (intéresser et tenir ensemble les différents alliés et entités du projet) et celui de mise à l'épreuve (tester la solidité des associations). Le travail de mise à l'épreuve au sein du microcosme consiste à éprouver les différents composants du projet et à rendre prévisible leur comportement. Il s'agit de faire parler ces entités, qu'il s'agisse d'enzymes ou d'électrons, de concurrents ou de clients, de la législation ou de l'environnement. Tous ces éléments du projet seront représentés au sein du microcosme où ils seront évalués. Le sort de l'innovation tient à la solidité de l'aggrégat socio-technique qui résultera de ce travail d'entre-prise et de mise à l'épreuve.

Au cours du processus de recherche et d'innovation, différents types d'épreuves sont organisés : les expériences en laboratoire, les tests de prototype en atelier ou sur le banc d'essai, l'évaluation du comportement probable des futurs utilisateurs par le service marketing, etc. Chaque épreuve nouvelle est une occasion de vérifier et d'approfondir les données techniques et commerciales, d'évaluer les comportements des éléments techniques et ceux des usagers. Mais il existe d'autres, souvent plus informelles, dont l'exploitation constitue en soi un instrument du suivi ; il s'agit des controverses. Qu'il s'agisse de l'utilisation de scènes extérieures telles que des séminaires de recherche, des conférences ou la présentation d'un produit dans une foire, qu'il s'agisse de l'organisation d'une épreuve en dehors du laboratoire telle que l'évaluation d'un prototype chez un client ou qu'il s'agisse de l'organisation et de l'exploitation des débats en interne, les controverses constituent à la fois un outils d'analyse et un outil de suivi des projets.

La controverse est un outil d'analyse parce que c'est au cours de telles confrontations que seront testées la solidité de différentes liaisons constitutives du projet et la fiabilité des entités mobilisées. L'organisation des controverses, par la mise en place de structures et de méthodes de travail appropriées, est, par ailleurs, un instrument de suivi des projets. Ainsi, les gestionnaires d'intervention de recherche prévoient souvent la mise en place de comités de toutes sortes : comités scientifiques, comités de gestion et d'orientation, comités de développement ou comités d'évaluation et de prospective, structures d'accueil ou groupes de gestion des projets, etc. Ces structures sont des lieux privilégiés de controverses à condition, toutefois, que leur composition permette une confrontation effective entre des logiques différentes, entre des acteurs dont les intérêts par rapport au projet sont différents. En entreprise, par exemple, des structures d'accueil de projets rassemblent le responsable du projet et les représentants de diverses unités opérationnelles (marketing, ingénierie, production et services financiers).

Les controverses au sein des comités contribuent à intégrer les projets et à assurer ses nécessaires transformations. Lorsqu'elles sont systématiquement notées, d'où l'importance des compte-rendus de réunion enrégistrant les arguments des uns et des autres, et capitalisées, c'est-à-dire qu'elles feront l'objet d'analyses et de synthèses

régulières, elles constituent des instruments de suivi, et non d'inutiles querelles. Elles permettent de garder en mémoire les transformations des projets et les raisons de ses transformations tout au long du processus de recherche et d'innovation. Les compte-rendus sont toutefois rapidement volumineux et décourage quiconque de s'y plonger. C'est la raison pour laquelle il peut être utile de prévoir leur analyse et synthèse périodique ainsi que la construction de visualisations appropriés afin que chacun des partenaires ait une bonne compréhension de l'histoire du projet. Pour ce faire, les gestionnaires peuvent recourir à la méthode d'analyse ci-jointe (fiche n° 4) mise au point à l'occasion de l'évaluation de programmes publics de recherche (CALLON, 1987a ; VINCK, 1989a,b).

Fiche n° 4 : méthode d'analyse de compte-rendu de Comité

L’analyse des compte-rendus permet de dégager, entre autres, les raisons qui ont conduit à estimer qu’il faut faire de la recherche, à privilégier certains secteurs scientifiques ou technologiques et à opter pour certaines procédures, pour certains critères ou pour certaines classifications. A ce titre, ils contribuent à la compréhension de la dynamique et de l’orientation des politiques et des programmes de recherche. Classiquement, un compte-rendu comprend les données suivantes : le lieu et la date de la réunion, la liste des présences et le compte-rendu des débats et des décisions. Ces données et leurs corrélations font toutes l’objet d’analyses. La localisation révèle d’éventuelles stratégies de centralisation/décentralisation, de découverte mutuelle, etc. La liste des présences rend possible la description de la composition du comité et de son évolution dans le temps et/ou en fonction des thèmes débattus. Elle permet d’approcher le type de fonctionnement du comité (petit groupe de travail assidu, club fermé, assemblée de délégations, roulement permanent des participants). Le contenu des débats autorise l’analyse des logiques d’interventions des membres des comités, de la dynamique et de l’orientation des discussions au cours du temps, en notant, notamment les changements intervenus au cours du temps. Méthode d’analyse des compte-rendus Le Centre de Sociologie de l’Innovation a développé dans le cadre de l’évaluation d’autres programmes de recherche, une méthode d’analyse des compte-rendus des comités impliqués dans l’élaboration d’une politique de recherche. La première étape consiste à établir un résumé, pour chaque scéance, des principaux

débats et arguments échangés. A partir de là, les thèmes sur lesquels les membres ont développé des points de vue divergents ou convergents au cours de la vie du Comité sont identifiés. Cette analyse permet de visualiser : 1) les thèmes débattus en fonction des dates de réunions. Le tableau ainsi obtenu offre une vision très synthétique du travail du Comité et de son évolution au cours du temps ; 2) pour chaque case du tableau, correspondant à un couple thème-réunion, le nombre de propositions relevées dans les compte-rendus : une proposition correspond à une prise de position, à un argument, à une décision ou à une information d’un membre du Comité. Ainsi, le tableau fait apparaître, en principe, l’intensité des débats tout au long de la vie du Comité ; 3) les catégories utilisées aux différents moments de la vie du Comité pour identifier la nature des opérations de recherche (par exemple : action de démonstration/recherche de base) et leur thématique (par exemple : énergie renouvelable/utilisation rationnelle de l’énergie). La deuxième étape consiste à dégager les logiques d’action des membres du Comité ; pour ce faire est établie une fiche résumée des différentes interventions d’un membre donné sur un thème donné au cours du temps. La synthèse des fiches correspondant à chaque couple thème-membre révèle la logique sous-jacente aux diverses prises de position du membre en question ainsi que les changements apparus au cours du temps. La troisième étape identifie les réseaux d’alliances et d’oppositions entre les membres sur les différents thèmes et les alliés extérieurs mobilisés par les participants dans leurs interventions pour les rendre plus convaincantes.

La plupart des outils de suivi présentés dans les pages qui précèdent sont encore

souvent insatisfaisants. Ils permettent difficilement de suivre avec précision les retraductions successives de projets de recherche. Ils ne gardent pas en mémoire les états d'association ainsi que les intérêts et désintérêts correspondants. Ils rendent assez mal compte de la solidité des agrégats. Ils ne sont pas toujours des plus indiqués pour analyser les imbroglios socio-techniques que constituent les innovations.

Toutefois, en partant des acquis récents de la sociologie des sciences et des techniques notamment, il est possible de concevoir aujourd'hui de nouveaux outils de suivi qui satisfassent aux critères évoqués ci-dessus. Certains d'entre eux font l'objet d'un développement important dans la troisième partie de cet ouvrage.

Evaluer : médiation et préparation des actions futures

Philippe LAREDO et Dominique VINCK L'évaluation hérite d'une image particulièrement négative. Souvent perçue

comme une sanction ou comme la distribution, après coup, des bonnes et des mauvaises notes, elle est loin d'être accueillie avec joie par les acteurs de la recherche et de l'innovation. Depuis le début de ce siècle, les contrôles administratifs, qu'il s'agisse de la vérification de la régularité des pratiques administratives ou des contrôles budgétaires, n'ont fait que renforcer cette image. Les pratiques plus récentes en matière d'audit de gestion, notamment l'évaluation d'institutions étatiques par des sociétés de conseil privées, sont controversées. En outre, d'autres pratiques se réclamant de l'évaluation ont également contribué à jeter le soupçon ; il s'agit des évaluation-alibi (pour éviter toute discussion critique), des évaluations-cautions (pour justifier l'interruption d'une intervention) et des évaluations-plaidoyer pro domo (pour justifier l'existence d'une intervention). Enfin, l'idée d'évaluation suscite des craintes du type : jugement moral ex-post sur la recherche et sanction pour performances insuffisantes.

Par contre, nombreux sont les auteurs qui s'accordent aujourd'hui pour reconnaître l'importance d'un retournement lucide sur le passé destiné à mieux préparer l'avenir (QUERMONNE, 1986). Il s'agirait alors d'analyser les opérations terminées pour éviter de reproduire les erreurs du passé, pour tirer des leçons et pour capitaliser l'expérience. L'évaluation s'inscrit alors dans le déroulement de la gestion comme un moment privilégié, destiné à porter un regard nouveau et global afin d'alimenter la réflexion stratégique sur les interventions futures. Elle se distingue du suivi par le fait qu'elle est ponctuelle et périodique, contrairement au suivi qui accompagne le déroulement de l'intervention et est de ce fait quasi continu. Elle introduit un élément d'extériorité par rapport aux acteurs quotidiennement impliqués dans la mise en œuvre. Enfin, elle propose une lecture globale sur l'intervention, son déroulement et son positionnement.

Des évaluations chaque fois spécifique

Les évaluations diffèrent selon les lieux et les niveaux d'intervention. Ce n'est pas

la même chose lorsqu'un chef de laboratoire dans l'industrie fait évaluer un projet de recherche dont il a la responsabilité ou lorsqu'un directeur général d'une administration publique fait évaluer un de ses opérateurs (programme ou institution). Dans un cas, l'évaluation sera principalement scientifique et technique, dans l'autre, elle sera surtout stratégique. Le tableau 1 dresse un éventail de possibilités des objets à évaluer en fonction des commanditaires de l'évaluation. Nous avons repris les termes présentés dans les chapitres précédents en ce qui concerne les interventions de recherche dans le secteur public tandis que nous adoptons ceux couramment utilisés pour le secteur privé.

Tableau 1 : commanditaires et objets de l'évaluation

Niveau d'interventionCommanditaire de l'évaluation Objet de l'évaluation Secteur public Secteur privé Stratégique Directeur Général Opérateurs : Directions et - programmes services de - organisations recherche et d'innovation Opérationnel Directeurs ou Actions Programmes Gestionnaires Scientifiques scientifiques et techniques Scientifique et Responsable scientifique Opérations Projets Technique et technique

Dans les pages qui suivent, nous nous pencherons particulièrement sur

l'évaluation des opérateurs publics de la Recherche et Développement. Les travaux réalisés depuis une vingtaine d'année en ce domaine nous servirons de référence. La conception de l'évaluation a d'ailleurs beaucoup évolué. Son histoire accompagne celle de la gestion de l'intervention publique en matière de recherche scientifique et technique. Il existe par ailleurs une littérature spécialisée en matière d'évaluation des projets de Recherche et Développement industriel dont le lecteur trouvera l'essentiel dans les chapitres portant sur le “Suivi” et sur la présentation de l'outil “CANDIDE”.

Tout d'abord, nous évoquerons l'évolution de la notion de programme de recherche à laquelle est liée celle d'évaluation au niveau public. Ensuite, nous développerons quelques-uns des concepts et démarches qui inspirent aujourd'hui les évaluateurs. Enfin, après une présentation du contenu de l'évaluation, nous

exposerons quelques considérations portant sur sa mise en œuvre ainsi que sur quelques outils utilisables.

La gestion publique comme sphère d'expériences69 La notion de programme de recherche est depuis longtemps au coeur du travail

scientifique. Il correspond à l'itinéraire qui fait passer le chercheur d’une hypothèse à sa validation et d’un problème à un autre (LAKATOS, 1970). L'évaluation de ces programmes est principalement réalisée par les “pairs” sur base des publications. Elle porte sur la qualité et l'originalité des connaissances produites.

Dans les années ‘60, principalement aux Etats-Unis, les pouvoirs publics ont tenté d'adopter une démarche scientifique pour concevoir, mettre en œuvre et évaluer leurs interventions. Pour définir les politiques à suivre en différents domaines, notamment en matière d'urbanisme et de politique sociale, des expériences ou programmes expérimentaux ont été mis en œuvre. Ils étaient destinés à mesurer le degré de réalisation des objectifs et à comparer différentes hypothèses d'action. L'évaluation était alors conçue sur le modèle de la démarche expérimentale des sciences de la nature. Elle avait pour but d'éliminer les biais qui compromettraient la validité des résultats.

La conception de ces évaluations a toutefois fait l'objet de nombreuses critiques. Outre le fait qu'elles étaient de plus en plus lourdes, longues et coûteuses, les exigences de validité interne (fiabilité statistique, contrôle des variables exogènes) sont souvent apparues être contradictoires avec les exigences de la validité externe (le caractère acceptable et généralisable des conclusions). Les mesures se focalisaient sur les effets potentiels attendus et ne fournissaient pas d'informations sur des enjeux plus généraux. Elles privilégiaient les effets majoritaires et, selon la méthode utilisée, conduisaient à des conclusions opposées. Ces évaluations postulaient, en fait, que les décisions sont régies par une rationalité unique en s'appuyant sur la définition d'objectifs stables dans le temps auxquels on peut comparer les effets observés. Ainsi, les décideurs pouvaient comparer les différentes solutions testées et choisir la solution optimale.

Les travaux effectués montrent que les choses se passent rarement ainsi. Les décideurs sont rarement en mesure d'identifier clairement les objectifs et de les hiérarchiser. Ils prennent le plus souvent la forme de compromis entre les intérêts des acteurs en présence et se construisent progressivement. Les décisions émergent plus qu'elles ne sont prises (MONNIER, 1987) ; elles ne sont jamais réductibles à un algorithme quelconque (WEINBERG, 1968). Les objectifs sont rarement exprimés en termes opératoires par les décideurs ; souvent, ce n'est qu'a posteriori qu'ils sont 69 Cf l’introduction de P.LAREDO in (CALLON, 1989b).

construits par les évaluateurs. En outre, en cours de programme, les différents acteurs évoluent de même que les enjeux et le contexte de l'intervention. Aussi, il est apparu que si les perfectionnements des méthodes permettent d'accroître la précision et le nombre de mesures, ils sont rarement d'une grande utilité pour les décideurs (cf la première partie de cet ouvrage ainsi que (ARVANITIS, 1986).

Les travaux sur l'énergie nucléaire puis sur l’espace ont donné à la notion de programme une signification nouvelle : il désigne la conduite et la coordination de l’ensemble des travaux et opérations nécessaires à la réalisation d’un objet technique complexe et non encore maîtrisé comme une bombe, une fusée,... La réalisation de ces objets s’est d'abord inscrite dans des logiques de puissance et de prestige : les “grands programmes”. Puis leur finalité s’est peu à peu déplacée, l’ambition première devenant l'ouverture et le contrôle de nouveaux marchés : de la “course à la lune” on est ainsi passé aux lanceurs et aux satellites à usage commercial. Des avions comme les AIRBUS ou plus récemment les “ordinateurs de 5ème génération” ont également contribué à ouvrir le champ et à banaliser cette forme de programmation publique de la R&D. A la fin des années ‘70, elle a reçu, en France, le nom de “programme de développement technologique”.

La mise en œuvre de ces programmes implique des financements importants de la part des Pouvoirs Publics et à destination d’un nombre limité d’acteurs. Aussi, les opérateurs de programmes doivent-ils rendre compte de la bonne utilisation des moyens qui leur ont été consacrés70. Dans le cas des programmes de développement technologique, l'évaluation de la réussite ou de l'échec semble en première approche plus simple à effectuer ; elle est liée à la présence effective de l'objet technique visé et à la mesure de ses performances. Toutefois, que l'objet technique soit réalisé (comme la fusée ARIANE) ou non (comme le métro ARAMIS), l'évaluation permet également de tirer les leçons de l'expérience passée et de mesurer les éventuels résultats “secondaires” ou “retombées”.

Avec la crise, la notion de programme s'est encore élargie (LAREDO, 1986) pour devenir un outil de mobilisation des acteurs scientifiques et techniques au service d'objectifs économiques ou sociaux jugés prioritaires, par exemple : la recherche de sources alternatives d’énergie, l’aide au développement du tiers monde, la lutte contre le cancer, etc. Dans le même mouvement, la prise de conscience du rôle crucial joué par la technologie dans la compétitivité économique a conduit à concevoir le programme comme un outil contractuel entre les pouvoirs publics et un ensemble de partenaires économiques dont il vise à renforcer la compétitivité technologique. Ces “programmes technologiques” sont aujourd'hui devenus l’outil

70 “Les savants rendent des services très importants à la classe industrielle ; mais ils en reçoivent d'elle des

services bien plus importants encore, ils en reçoivent l'existence… Ainsi elle a le droit de dire aux savants… Nous ne voulons vous nourrir, vous loger, vous vêtir et satisfaire en général vos goûts physiques qu'à telle condition”, Saint-Simon cité par SALOMON, 1970.

principal de gestion des politiques publiques de R&D. Ils revêtent deux formes majeures :

— les programmes “sectoriels” se focalisent sur la compétitivité d’une branche d’activité comme les transports ;

— les programmes “diffusants” sont destinés à faciliter la pénétration dans le tissu industriel d’une technologie “générique” comme la productique, les matériaux ou les bio-technologies.

Ces “programmes technologiques” présentent trois caractéristiques nouvelles : — ils constituent des engagements inscrits dans le temps : leur durée est limitée

bien qu'ils soient souvent pluri-annuel ; — ils s’insèrent dans un milieu concurrentiel déjà existant : on ne crée pas un

marché ex nihilo, on s’appuie sur un milieu économique donné dont on accompagne l’effort de positionnement international ;

— ils ne visent pas directement la réalisation de produits commercialisables mais cherchent plutôt à développer les compétences nécessaires à la réalisation de tels produits. Les programmes technologiques peuvent aller jusqu’à la phase des pilotes ou des prototypes mais ils ne touchent généralement pas la réalisation industrielle des produits, c’est-à-dire la concurrence directe entre les acteurs économiques.

Un tel “programme technologique” incite des acteurs concurrents à identifier collectivement, sur des espaces géographiques particuliers, les “compétences” dont ils auront besoin dans le futur et à développer les actions permettant de les acquérir. Il contribue à organiser des “réseaux technico-économiques” (CALLON, 1988a)71. L'évaluation des programmes publics de R&D, qui était encore relativement aisée lorsqu'il s'agissait de programmes scientifiques (la publication permettant aux “pairs” de l'évaluer) et de programmes de développement technologique (la réalisation matérielle de l’objet faisant foi), devient particulièrement complexe pour un “programme technologique”.

Depuis une bonne dizaine d'années, certains opérateurs publics de programmes de R&D (en particulier, la Commission des Communautés Européennes) pratiquent systématiquement l'évaluation de leur intervention. Le besoin d'évaluer s'est, en outre, renforcé depuis la réduction des ressources budgétaires. En outre, depuis quelques années, l’évaluation devient une volonté politique, un exercice destiné à participer à la définition de stratégies. Il s'agit de se servir des expériences passées pour préparer les voies de l’avenir72. Cette volonté d’intégrer l'évaluation dans le processus décisionnel et de l'articuler à une démarche d'analyse stratégique prospective est aujourd'hui clairement exprimée (CHABBAL, 1987). 71 Se référer également au chapitre de cet ouvrage consacré au concept de réseau technico-économique.

(Partie 3). 72 cf. G. BOGGHIO, "Conclusions and recommandations", pp. 131-135 in (BOGGHIO, 1984).

Concepts et démarches d'évaluation L'évaluation des programmes de R&D répond donc à une double mission. La

première consiste à rendre compte à la société civile de l'intervention des pouvoirs publics. Il s'agit alors d'une évaluation - médiation. La seconde consiste à préparer l'avenir en tirant profit du travail accompli. Il s'agit d'une évaluation - pro active.

L'évaluation comme médiation Le premier rôle de l'évaluation est de servir de médiation pour permettre au

programme de “rendre compte” de son travail et à la collectivité de s’assurer de la bonne utilisation des deniers publics. Cette tâche n'est pas simple. En effet, la réussite d'un programme technologique ne se réduit ni à la qualité scientifique et technique des travaux, ni à la réussite des acteurs économiques qu’il soutient car il n’agit que sur une des composantes de la compétitivité économique et, en outre, seulement de façon indirecte (il ne soutient pas la réalisation de produits mis sur le marché) et décalée dans le temps (quand il se termine, il reste aux acteurs encore plusieurs étapes à parcourir avant de déboucher).

En plus, l'évaluation est souvent le siège de tensions socio-politiques intenses. Chacun des protagonistes (décideurs politiques, partenaires industriels, contractants chercheurs, groupes de pression, gestionnaires du programme, etc) cherche à faire prévaloir son point de vue. Une des grandes difficultés de l'évaluation tient donc à la multiplicité des significations dont elle est investie. Elle s'insère dans les jeux de multiples acteurs dont elle modifiera les interactions. Aussi, le contexte dans lequel elle se déroule et ses modalités de réalisation ont une importance considérable.

L'utilité d'une évaluation est étroitement liée à sa crédibilité, en particulier, auprès des acteurs à qui elle est destinée. Pour la rendre crédible, plusieurs solutions divergentes ont été proposées : la constitution d'un panel d'experts indépendants, l'adoption d'une démarche d'analyse inspirée des sciences de la nature, la mise en œuvre d'un processus d'apprentissage collectif. Les deux premières propositions sont destinées à éliminer les biais pouvant compromettre la validité des résultats. La crédibilité s'appuie essentiellement, dans ce cas, sur l'autorité de la démarche scientifique. Cependant, un programme de recherche et d'innovation est susceptible de modifier les équilibres existants. Il devient souvent le siège de négociations entre les partenaires qui défendent chacun des intérêts propres. Dans ce cas, l'évaluation ne peut pas simplement se réduire à la mesure du degré de réalisation des objectifs initiaux. Les interventions font, en effet, l'objet de redéfinitions constantes en fonction des réactions qu'elles suscitent (RIP, 1986). En outre, les opérateurs du

programme n'ont pas pour but d'optimiser d'un point de vue technico-économique leurs choix mais de rechercher une solution qui réussisse, c'est-à-dire qui aggrège toujours plus d'intérêts. Dès lors, la négociation est de règle ; l'évaluation devient un processus collectif au cours duquel les interactions avec les destinataires assurent sa crédibilité. A l'objectivité et à la neutralité, il faudrait substituer le concept d'objectivation (ROQUEPLO, 1985). Il s'agit d'organiser un système de négociation dans la transparence et la publicité de façon à assurer la convergence des discours.

L'évaluation a ainsi été pratiquée selon différents modèles (MONNIER, 1987) : le modèle bureaucratique, le modèle technico-économique et le modèle du modus vivendi.

Le modèle bureaucratique de l'évaluation repose sur le contrôle hiérarchique des pratiques administratives. L'évaluation s'exerce sous la forme de vérifications a posteriori de la conformité de l'action aux moyens et procédures définis par les règles. Elle n'a pas pour but d'améliorer la pertinence ou l'efficacité des modalités d'action ; elle est d'ailleurs dissociée dans le temps par rapport au processus d'action. Elle apparaît sous la forme d'une sanction postérieure au déroulement de l'action. Dans ce modèle, il y a un clivage entre les responsables de l'action, les évaluateurs et les destinataires de l'évaluation. Le modèle bureaucratique de l'évaluation présente des inconvénients : il rigidifie et fige les modalités d'action interdisant une adaptation ainsi que la prise en compte des effets engendrés par le programme. Il ne permet pas d'accumuler une connaissance réelle en matière de gestion. En outre, il manque de crédibilité aux yeux des partenaires du programme. C'est une des raison qui a conduit à privilégier le modèle suivant, fondé sur des références scientifico-techniques.

Le modèle technico-économique est cependant aussi normatif que le précédent. Aux valeurs traditionnelles de sécurité, continuité et régularité, se superposent celles d'efficacité et de rentabilité. Cette forme d'évaluation présuppose l'existence d'objectifs explicites pouvant servir de point de départ à l'évaluation. Elle privilégie ce qui est quantifiable et revendique la neutralité et l'objectivité. C'est dans le cadre de ce modèle qu'ont été adoptées les règles déontologiques de la séparation (l'indépendance des évaluateurs à l'égard des instances évaluées) et de reproductibilité (les conclusions ne sont fiables que si tout autre évaluateur disposant des mêmes informations et utilisant les mêmes procédures aboutit au même résultat) pour garantir l'absence de biais. Comme le modèle précédent, celui-ci fait fi de la réalité interactive et dynamique du processus de définition et de mise en œuvre d'une programme de recherche. Cette forme d'évaluation peut toutefois s'avérer efficace dans des réseaux où les comportements des acteurs sont stabilisés.

Le modèle du modus vivendi est le plus pertinent dans un contexte de changement tel que celui des programmes de recherche et d'innovation. La formulation du programme est complexe et ambiguë. Elle ne précède pas toujours la

mise en œuvre mais émerge souvent au cours de l'action73. Ensuite, l'intervention est le siège de pressions. Les opérateurs doivent composer avec les instances administratives, les politiques, les contractants (industriels et centres publics de recherche), les milieux scientifiques, les concurrents, etc. Le programme est un lieu de négociation permanent. L'évaluation ne peut donc se limiter à juger de la réussite ou de l'échec d'une intervention en comparant simplement les résultats finaux aux déclarations d'intentions initiales. Elle est jugée par les différents partenaires en fonction de la satisfaction de leurs intérêts spécifiques. L'environnement d'un programme public de R&D, les modalités d'intervention et les changements qu'elles suscitent offrent des opportunités et font peser des contraintes qu'il importe de prendre en compte lors de l'évaluation.

Un programme de recherche et d'innovation ne progresse pas linéairement depuis la déclaration d'intention initiale (les discours politiques) jusqu'aux résultats mais se transforme sous l'effet des conflits successifs à propos des objectifs, des moyens à mettre en œuvre et de l'appréciation des résultats. La négociation n'est pas toujours explicite ; il s'agit plutôt d'un processus d'ajustements mutuels. Un décideur a, en fait, rarement la liberté de procéder à un choix formel entre des alternatives discrètes. Les décisions qui émergent reflètent les compromis passés avec les différents acteurs. De sa formulation initiale aux résultats effectifs, le programme connait de nombreuses reformulations et traductions74. L'énoncé des enjeux et des objectifs évolue. Cette dérive complique les évaluations.

Les évaluateurs remplissent donc un rôle de médiateur entre différents acteurs qui tous portent un jugement sur la valeur du programme. Elle alimente les protagonistes en informations à partir desquelles ils pourront fonder un jugement sur la valeur de l'action. Cependant, chaque acteur poursuivant ses propres buts, les conclusions des évaluations seront toujours relatives.

L'évaluation pour l'action L'évaluation est aussi un outil indispensable à la formulation de l'action, à sa mise

en œuvre et à son amélioration. Elle ne se limite pas à la mesure des résultats de l'action (évaluation ex post) mais cherche à comprendre l'origine des effets observables et les conséquences des moyens mis en œuvre (ARVANITIS, 1986). Lorsqu'il s'agit de renouveler un programme, l'évaluation, le regard sur le passé, est inévitable. Il s'agit de décrypter, dans une histoire en partie subie, les volontés qui l’ont construite et qui organiseront l’avenir. Pour les pouvoirs publics qui ont délégué

73 Aux Pays-Bas, cette pratique est courante et même explicite, selon RIP, 1986. 74 P.LAREDO, D.VINCK, La dynamique thématique du programme Energie Non-Nucléaire, in (CALLON,

1989b)

à un opérateur le soin de mettre en œuvre une partie de son action, il n'est pas seulement question de vérifier périodiquement si les objectifs poursuivis sont atteints dans les meilleures conditions et notamment au moindre coût. Il s'agit aussi de tirer des informations du passé pour aider à la redéfinition de son action. L’évaluation apparait comme “une méthode d’investigation qui a pour but d’aider l’autorité responsable à comprendre et à réfléchir pour mieux préparer ses décisions stratégiques” (TENIERE-BUCHOT, 1988).

Le fait d’avoir à éclairer les décideurs publics confrontés à de nouvelles décisions à prendre entraîne deux conséquences majeures qui touchent à la finalité et aux destinataires de l’évaluation :

— l’évaluation ne s’adresse plus à des spécialistes (il ne s’agit plus d’une “évaluation par et pour les scientifiques”) ; elle vise les “cercles externes” au programme, décideurs politiques, administrateurs publics,... qu’il faut éclairer et convaincre (“écrire dans leur langage pour répondre à leurs questions”) (CHABBAL, 1988 ; BOGGHIO, 1984) ;

— ce qu’on attend d’elle est moins une “sanction” (sur l’efficacité passée) que des recommandations pour l’action future : quel outil ? avec quels objectifs ? avec quels moyens ?

Par rapport aux pratiques de l’évaluation dite “ex-post”, cette perspective introduit une différence essentielle. C’est pour en souligner l’importance que R.CHABBAL a proposé de nommer cette évaluation “pro-active”.

Le contenu de l'évaluation La première “génération méthodologique” des évaluations des programmes

publics de R&D, adoptées depuis 1978, celle maintenant classique du “panel d’experts”, avait pour mission, au travers de l’examen des résultats scientifiques et techniques obtenus, d’identifier les orientations thématiques à privilégier ; ce qu'on appelle les aspects “verticaux” de l’évaluation.

Dix ans plus tard, l’évaluation connait un renouvellement méthodologique en couvrant les aspects dits “transversaux” des programmes. Il s'agit, en fait, de focaliser l'attention moins sur la qualité des travaux que sur leurs effets “socio-économiques” et sur la performance de la gestion. L’évaluation quitte ainsi le terrain strictement scientifique pour pénétrer dans celui de la politique. Une telle préoccupation était déjà présente depuis plusieurs années (BOGGHIO, 1984). Avec l’évaluation du troisième programme Energie Non-Nucléaire, elle a trouvé pour la première fois à se concrétiser (CALLON, 1989b).

Les trois dimensions de l’évaluation d’un “opérateur”

Pour la puissance publique, le programme est un “opérateur” destiné à drainer

vers les acteurs de la recherche (publics et privés) les moyens nécessaires à la réalisation des objectifs qui lui sont fixés. Evaluer cet opérateur, c’est s’efforcer d’estimer la plus-value qu’il apporte par rapport à d’autres formes d’organisation voire même à la non intervention.

L’évaluation d’un tel opérateur ne saurait se limiter à l’appréciation de la qualité scientifique et technique des travaux réalisés. Bien que cette dernière soit évidemment nécessaire, elle n’apparaît plus suffisante dans un tel contexte. A quoi servent en effet des travaux de bonne qualité sur des thèmes sans relations avec les finalités poursuivies par le programme ? Pour dépasser le seul jugement scientifique, l’évaluation est ainsi conduite à questionner la pertinence des objectifs retenus : étaient-ils adaptés à la situation, a-t-on su les faire évoluer en fonction des stratégies des acteurs et des transformations de l’environnement ? Autant de questions qu’on regroupe souvent sous le vocable d’“impacts socio-économiques”.

S’attaquer avec compétence aux problèmes stratégiquement importants : telles sont les premières exigences qui s’appliquent à l’intervention publique dans le domaine des sciences et des techniques. Ce n’est pas tout, il reste ensuite à s’interroger sur les coûts. Dans un univers budgétaire de plus en plus difficile, cette interrogation occupe légitimement le devant de la scène. Les controverses qu’elle a nourries ont conduit à opposer les interventions “micro-économiques” (sectorielles, locales, individuelles) et les interventions “macro-économiques” (procédures génériques notamment de style fiscal). Au-delà de ces débats doctrinaux, l’évaluation d’un programme doit accorder une importance grandissante à la performance de la gestion et des outils mis en oeuvre : a-t-on retenu les meilleures procédures ? a-t-on choisi les structures les plus adaptées ?

Qualité, pertinence, performance : tels sont les trois registres sur lesquels doit jouer l’évaluation. A chacune de ces notions est associé un type de question que les pouvoirs publics se posent vis-à-vis de ces quasi-structures que constituent les “programmes technologiques”.

Ainsi mise en perspective, l’évaluation pro-active présente trois caractéristiques

essentielles : — elle s’adresse à un client principal, les pouvoirs politiques, et ne concerne

qu’au second chef les scientifiques ; — elle s’intéresse plus aux impacts des actions conduites - pertinence des

objectifs et performance de la gestion - qu’à la qualité scientifique et technique des travaux réalisés ;

— elle est plus tournée vers l’avenir (que faut-il faire ? comment faire évoluer les choses dans le bon sens ?) que sur le passé (distribuer des bonnes ou des mauvaises notes).

La mise en œuvre des évaluations Les multiples évaluations conduites à la Commission des Communautés

Européennes comme dans la plupart des pays européens obéissent toujours au même schéma : l’autorité responsable confie une mission à une personne ou à un petit groupe de personnes pour une durée donnée et avec des consignes plus ou moins clairement précisées. En général, ces évaluations ne sont pas systématiques et elles disposent rarement d’un support organisé pour leur mise en oeuvre : de ce point de vue, la Commission des Communautés Européennes, qui s’est dotée d’un service spécialisé, constitue une exception notable.

Quelle que soit la qualité intrinsèque des évaluations ainsi conduites, il reste que leur impact est souvent limité aux seuls opérateurs… pour des raisons de calendrier. Si les décideurs sont rarement atteints, c'est parce que les choix qu'ils opèrent interviennent avant que ne soient connus les résultats de l’évaluation.

L’évaluation pro-active étant un outil d’aide à la décision, doit, pour être utile, s’inscrire dans le calendrier décisionnel. Il lui faut produire ses recommandations avant que le processus de préparation du “renouvellement” ne soit achevé. Il faut donc démarrer l’évaluation bien avant la fin du programme. Démarrer suffisamment tôt l’évaluation, n’est cependant pas exempt d’inconvénients. Compte tenu des inévitables délais liés aux procédures scientifiques (les appels d’offre) et administratives (la passation des contrats), l'évaluation risque de n'avoir à évaluer que des travaux qui viennent à peine de débuter. Comment, dans de telles conditions, apprécier des effets ? Comment préjuger des résultats pour recommander les nouvelles orientations ?

Il est difficile de faire abstraction de cette temporalité propre aux programmes et qui est d’autant plus contraignante que leur durée est courte. Pour un programme de 4 ans, l’évaluation pour être utilisable par les décideurs, doit être appliquée à des projets encore en gestation ; en revanche, si les programmes duraient de 5 à 6 ans, il serait possible de lancer l'évaluation à un moment où un pourcentage significatif d’opérations est en voie d’achèvement tout en apportant les résultats au bon moment aux décideurs. Cette question de la durée des programmes est cruciale : si le pouvoir politique veut faire de l’évaluation un élément du processus décisionnel, il lui faudra réfléchir de façon plus globale au calendrier.

Assurer la crédibilité de l'évaluation

L'évaluation serait, d'après E.MONNIER, souvent meilleures lorsque les

évaluateurs viennent de la même organisation que ceux qui sont évalués. Cette observation remet en question la règle déontologique de séparabilité des évaluateurs et des évalués. Si une relation de confiance entre ceux-ci est nécessaire, la grande proximité avec les uns (les évalués) risque cependant de compromettre la crédibilité vis-à-vis des autres. Pour que l'évaluation devienne un lieu de négociation, il faut être attentif au dispositif à mettre en place. Celui-ci articulerait, par exemple, les travaux d'un comité de pilotage (composé de décideurs, d'opérateurs, de destinataires et d'autres partenaires), du commanditaire de l'évaluation ainsi que de deux équipes d'évaluation : l'une chargée de l'évaluation destinée aux opérateurs du programme tandis que l'autre servirait plus spécifiquement de médiateur par rapport à l'extérieur. Dans ce schéma, les commanditaires de l'évaluation n'ont pas plus de poids que les autres membres du comité. Impliqués dans l'évaluation, ils prennent connaissance des différentes analyses et conclusions. Le rapport final, dans ce cas, n'est qu'un document formel destiné à l'extérieur présentant les outils et les informations collectées ainsi qu'un compte-rendu du compromis négocié ainsi que des améliorations suggérées. D'autres dispositifs sont suggérés dans la littérature en fonction de l'opérateur à évaluer (MONTIGNY, 1987).

Ainsi, l’évaluation est un “jeu” à plusieurs partenaires. Qu'un seul d'entre eux manque à l’appel et l’édifice construit perd une bonne partie de son intérêt. R.CHABBAL dénombre, en effet, six partenaires essentiels : le client (celui qui commande et paie l'évaluation), les destinataires (ceux qu’il faut convaincre), l’équipe chargée d’assurer la logistique, le support méthodologique (ceux qui rendent disponibles les méthodes pour apprécier la qualité, la performance et les impacts), les acteurs de l’évaluation (le panel d’experts et ses éventuels sous-traitants) et le garant (qui assure la crédibilité de l’évaluation).

Ce schéma, largement inspiré des pratiques américaines, a l’intérêt de faire apparaître d'éventuelles lacunes dans les dispositifs existants. Ainsi, il arrive souvent que manque à l’organisation, un maillon essentiel : le garant, celui qui donne à l’évaluation sa crédibilité, celui qui permet aux suggestions et recommandations de ne pas rester lettre morte, celui enfin qui s’assure que l’évaluation ne démarre pas après la prise des décisions. Ce garant, toujours selon ce schéma, a trois fonctions principales : mettre en place les comités et fixer leurs objectifs, s’assurer des méthodologies retenues, avaliser les rapports des comités et assurer leur diffusion auprès des destinataires. Il doit être composé de personnalités reconnues et ayant une autorité indiscutable.

D'autres éléments de la mise en œuvre concourent également la assurer la crédibilité de l'évaluation. Il s'agit notamment du choix des membres des panel d'évaluation (des experts indépendants, pour assurer la crédibilité externe de

l'évaluation), de l'organisation d'interactions nombreuses entre les évaluateurs et les protagonistes de l'action à évaluer (pour assurer la crédibilité interne de l'évaluation), de la mise en œuvre d'outils d'analyse et d'informations ad hoc pour alimenter les débats des évaluateurs ainsi que de la publicité et de la visibilité assurée à l'évaluation. Le président du panel d'experts chargés de l'évaluation peut, par exemple, s'adresser aux acteurs scientifiques et techniques mobilisés par le programme pour leur annoncer l'ouverture de l'évaluation et les informer du fait qu'il sera durant la période des débats à leur écoute. Le panel peut également se réunir et rencontrer les protagonistes de l'action à évaluer sur leur terrain afin d'être visibles et d'acquérir un statut social reconnu.

“Outiller” les évaluations Un panel d’experts, formés d’hommes éminents donc fort occupés, est conduit à

avoir recours à des consultants externes. Ceux-ci ont la charge de constituer un certain nombre de dossiers spécialisés destinés à faciliter, par des descriptions synthétiques, le dialogue avec l’instance évaluée. Pour les rendre opérationnelles, il faut “outiller” les évaluations pro-actives c’est-à-dire imaginer des méthodes et des indicateurs permettant de mesurer des effets socio-économiques, d’apprécier la qualité de la gestion, d’analyser l’environnement, d’estimer la mobilisation du potentiel S&T, etc : la construction d’un “dossier de base pour l’évaluation”. Ces outils sont encore à développer. Cela explique sans doute le faible nombre d’opérations de ce genre effectivement initiées par des panels (CALLON, 1988b, 1989b ; GIBBONS, 1986 ; ROQUEPLO, 1982 ; ROUBAN, 1983a,b, 1984).

Les types d'outils à mettre en œuvre seront toutefois différents selon les situations. Lorsqu'elle est stable et que le comportement des acteurs est prévisible, les méthodes seront plutôt quantitatives alors que les évaluateurs feront appel aux enquêtes approfondies et aux observations ethnographiques lorsqu'il s'agira de comprendre des situations complexes et mouvantes (PATTON, 1981). Les facteurs contribuant au second type de situation sont, notamment, l'existence de plusieurs acteurs influants sur la définition des objectifs de l'évaluation, l'existence de résistance à l'évaluation, la recherche d'une évaluation destinées à la réflexion des gestionnaires de l'action, la recherche d'une compréhension des phénomènes dans un domaine peu étudié, le caractère innovant du programme, la poursuite du plusieurs objectifs par le programme ou bien lorsque sa définition est floue, sa mise en œuvre complexe et les acteurs concernés multiples, hétérogènes, voire antagonistes. Au contraire, lorsque le programme est clairement défini autour d'un objectif majeur qui fait l'objet d'un consensus entre les acteurs et mis en œuvre d'une façon simple et transparente en mobilisant des ressources stables, lorsqu'il s'agit d'un programme routinier ou bien d'une intervention dans un domaine déjà bien analysé, dans ces

situations, une évaluation à partir de l'observation de quelques indicateurs convenablement conçus constitue la solution la plus adéquate. Le plus souvent, les évaluateurs auront à combiner ces deux types d'approche. De façon générale, d'ailleurs, les analyses qualitatives feront l'objet, dans la mesure du possible, de quantifications adéquates afin de rendre plus parlantes les argumentations.

L'évaluation de la qualité scientifique et technique L'évaluation des travaux et des chercheurs se fait essentiellement par les pairs

c'est-à-dire par des spécialistes de la même discipline. Elle prend généralement une ou plusieurs des formes suivantes : la lecture critique des rapports de recherche et des publications, l'audition d'un échantillon de chercheurs, la visite sur place et l'interview des chercheurs. Parfois, des indicateurs de performance des chercheurs (OCDE, 1987) sont proposés aux experts, tels que : le nombre de publications, la réputation des revues où on été publiés les travaux, le nombre de citations (Science Citation Index) (MOED, 1985), le dépôts de brevets, l'élection en tant que membre de sociétés savantes, l'attribution de prix et de distinctions, l'octroi de susbsides de recherche, le nombre de transfert de technologie, le nombre de contrats avec des partenaires industriels, etc. Parmi ces indicateurs, certains mesurent la productivité scientifique des chercheurs, équipes, institutions et pays. Leur utilisation est toutefois délicate, voire très contestée (BERRY, 1984), car ils sont souvent liés aux système de récompense.

Les indicateurs de relation élargissent et enrichissent la base d'information destinée à alimenter l'évaluation. Il s'agit ici de mettre en évidence les liens entre des chercheurs et des publications qui reflètent les relations entre chercheurs, institutions et domaines de recherche. Il existe de nombreux indicateurs relationnels et de nouveaux peuvent être conçus en fonction des questions que se posent les évaluateurs : les publications cosignées par des chercheurs de l'industrie et des chercheurs universitaires, les citations portées sur les brevets, les relations contractuelles entre l'industrie et la recherche, les consultations assurées par les chercheurs, etc. Nous connaissons aujourd'hui une nouvelle génération de méthodes de construction d'indicateurs relationnels : il s'agit de l'analyse des co-citations et de l'analyse des mots associés75. Ces méthodes permettent de déceler les domaines de recherche qui se font jour et de situer un chercheur, une institution ou un pays par rapport aux éléments les plus dynamiques d'un environnement scientifique donné. Contrairement aux méthodes traditionnelles, qui partent de classifications a priori des activités de

75 Cette méthode fera l'objet d'une présentation plus approfondie dans le texte de M.CALLON sur la

méthode Leximappe dans cet ouvrage.

recherche, ces méthodes permettent de suivre les réorganisations et les mouvements des sciences et des techniques.

L'évaluation de la pertinence L'évaluation de la pertinence d'un programme de recherche est destinée à

répondre aux questions suivantes : le programme et ses objectifs étaient-ils adaptés à la situation ? A-t-on su les faire évoluer en fonction des stratégies des acteurs et des transformations de l’environnement ? La réponse à ces questions appelle plusieurs analyses.

Un premier volet de l'évaluation de la pertinence consiste à analyser les discours et les documents officiels du programme qui permettent d'en tracer le contour et son évolution. Ainsi, par exemple, par la comparaison des textes de définition du programme, de sa présentation, des appels d'offres, etc, il est possible d'en retracer les multiples traductions et transformations jusqu'au programme effectif, c'est-à-dire à l'image qui résulte des actions effectivement soutenues.

La pertinence d'un programme de recherche s'évalue également en le rapportant à son ou à ses environnements. Le programme en cours peut ainsi être positionné par rapport :

— aux éventuels programmes qui l'ont précédés. Dans ce cas, les analystes retracerons l'évolution thématique en décrivant les définitions successives et les raisons des transformations qui apparaissent ainsi ;

— aux programmes concurrents. Il s'agit ici de caractériser les programmes les uns par rapport aux autres en soulignant les convergences (y compris ce qui va de soi pour tout le monde) et les divergences ainsi qu'en mettant en évidence les raisons des choix des concurrents (cfr aussi les travaux de R.BARRE, 1987). Ainsi, par exemple, dans le cadre de l'évaluation du troisième programme communautaire Energie Non-Nucléaire (CALLON, 1989b) nous avons positionné le programme, d'une part, par rapport à son environnement communautaire c'est-à-dire par rapport aux autres activités de la Commission des Communautés Européennes sur le même domaine ainsi que par rapport aux activités des pays membres de la Communauté, et, d'autre part, par rapport à son environnement international, en l'occurence les Etats-Unis et le Japon ;

— aux acteurs mobilisés. Les acteurs peuvent, en effet, soutenir le programme pour des raisons différentes les uns des autres et en attendre des effets différents. Il s'agit, dès lors, d'évaluer le programme non plus seulement par rapport à ses objectifs initiaux mais aussi par rapport aux objectifs de ceux qui sont mobilisés par lui. Les évaluateurs examineront les convergences et les oppositions entre les orientations

stratégiques du programme et celles des autres acteurs de l'innovation (NORD-PAS DE

CALAIS, 1988). Enfin, la pertinence d'une action de recherche s'évalue aussi par ses impacts. Qu'il

s'agisse de mesurer la réalisation des objectifs initiaux, d'estimer les retombées positives d'un programme de recherche ou d'evaluer les coûts (les effets indésirables) liés à sa mise en œuvre, les évaluateurs ont à s'intéresser aux effets et impacts. Cet aspect de l'évaluation n'est pas sans lien avec les autres dimensions de l'évaluation, en particulier avec l'analyse du positionnement stratégique. Aussi, les dossiers d'information destinés aux évaluateurs, comprendrons des éléments tirés d'investigations auprès des gestionnaires, des acteurs mobilisés ainsi que de partenaires clefs dans les différents environnements du programme. Des indicateurs spécifiques seront conçus et construits sur mesure en fonction du type d'effets attendus qu'il s'agisse de modification de pratiques, de stimulation de la compétitivité technico-économique, de création de réseaux de compétences, etc.

L'évaluation de la performance L'évaluation des performances de gestion tâche principalement de répondre aux

questions suivantes : quels sont les ressources mobilisées par le programme et comment ont-elles été mise en œuvre ? Les meilleures procédures ont-elles été retenues ? A-t-on choisi les structures les plus adaptées ? En quoi l'opérateur-programme apporte quelque chose de plus par rapport à une distribution de subsides, par la voie du financement institutionnel par exemple ? Pour alimenter cette aspect de l'évaluation, deux types de dossiers d'informations peuvent être constitués :

— le premier concerne la description des ressources et des outils de gestions dont le programme a disposé ainsi que les réseaux de contraintes au sein desquels il a dû opérer. Le dossier devrait permettre de répondre aux questions : quels sont les outils de gestion (procédures et structures administratives, compétences et expertises disponibles, comités (CALLON, 1987a ; VINCK, 1989a,b), etc) dont a disposé le programme et qu'est-ce qui en a été effectivement fait ? En analysant les interactions du programme avec son environnement, il est possible de rendre compte des raisons des choix opérés et des processus à l'origine des effets observables ;

— le second analyse des opinions émises sur le programme, par exemple, par les acteurs mobilisés. Les enquêtes d'opinions permettent ainsi d'identifier les réussites et les difficultés de la gestion.

Transférer circulation du savoir et réseaux de collaboration

Philippe MUSTAR

Le rôle des dépenses de R et D et du changement technique dans la croissance économique a été depuis longtemps étudié par les économistes. Les liens entre la recherche et l’industrie ont également une longue histoire. Cependant ce n’est que très récemment que la question du transfert de technologie entre les universités ou les organismes de recherche et les entreprises est devenue cruciale. L’interpénétration des secteurs académiques et industriels et l’ampleur nouvelle des formes d’échanges entre la recherche et l’industrie renouvellent la question du transfert de technologie. La première partie de cette contribution dresse un bilan de l’abondante littérature traitant du thème du transfert entre la recherche et l’économie. Les travaux existants s’inscrivent dans une double tradition qui est née à la fin des années cinquante à partir notamment d’un article désormais célèbre de Zvi GRILICHES sur le maïs hybride et d’une étude de JEWKES, SAWERS et STILLERMAN (1958) sur les sources de l’invention. La divergence de conclusions auxquelles aboutissent ces analyses montre que le sujet reste en friche. Peut-être parce que rarement les économistes, partis des marchés, ont poussé la porte des laboratoires. La seconde partie de cet article tente de comprendre le transfert entre l’industrie et la recherche publique, non plus à partir des analyses économiques, mais en faisant le tour des pratiques institutionnelles et des points de vue des gestionnaires du transfert. Il s’agira d’offrir ici aux décideurs de la recherche un panorama des types de relations qui se nouent actuellement entre les laboratoires et les entreprises. Le lecteur uniquement intéressé par les modes opératoires et les pratiques micro-économiques pourra se reporter directement à cette seconde partie. 1ère partie : L'économie du transfert 1.1- L'EVALUATION DU ROLE DE LA R-D DANS LA NAISSANCE ET LE DEVELOPPEMENT DES INNOVATIONS Quel est le rôle de la science et de la technologie dans la naissance et le développement des innovations ? Dans les années 60, cette interrogation a été posée par de nombreuses

études qui ont tenté de mesurer quantitativement l'importance de la R&D dans la genèse des innovations techniques. L'étude la plus ancienne, The sources of invention (JEWKES, 1958), a été publiée en 1958, elle met en doute l'efficacité de la recherche. L'analyse des auteurs est provoquante : après avoir examiné une à une les grandes innovations produites depuis le début du siècle, ils montrent qu'elles ont été le fait d'individus le plus souvent isolés, à l'écart des grands centres de recherche. Leur principale conclusion est que les sources des inventions sont multiples, dispersées et variées ; et que malgré l'accroissement de la recherche organisée, les inventeurs indépendants ou individuels fournissent toujours une importante contribution. L'étude de SCHMOOKLER (1966) s'inscrit dans un temps plus long que la précédente mais aboutit à des conclusions assez proches. Elle répertorie les inventions importantes dans quatre grands secteurs industriels sur la période 1800-1957 (agriculture, raffinage du pétrole, industrie du papier et chemin de fer). L'auteur compte ainsi 934 inventions et établit qu'aucune d'entre elles n'a été stimulée à l'origine par une découverte scientifique. Pour la majorité des cas la littérature disponible ne lui permet pas de déceler un facteur stimulant, mais lorsque ce facteur peut être identifié, il s'agit d'un problème technique ou d'une possibilité conçue en termes économiques. Cependant, Schmooker souligne qu'un grand nombre de ces 934 inventions dépendait des résultats scientifiques bien qu'ils eussent souvent plus de vingt ans d'âge. Dans cette lignée de travaux, l'étude la plus célèbre reste le Projet Hindsight (ISENSON, 1969) qui analyse vingt types principaux d'armements développés aux Etats-Unis depuis 1945. Pour les auteurs, la recherche "non dirigée" ou fondamentale n'a pas joué de rôle notable dans le développement de ces 20 technologies. Ils montrent que la recherche fondamentale n'est présente que pour 0,3 % de l'ensemble des 710 "évènements" de R et D qu'incorporent les vingt types d'armements étudiés. La recherche appliquée y compte pour 7,7 % et la technologie pour 92 %. En définitive, ils concluent que la recherche fondamentale ne contribue que marginalement au développement de ces systèmes d'armes et que seulement moins de dix pour cent de tous les évenements critiques de R&D qui ont été nécessaires au développement des techniques qu'ils ont étudiées sont nés à l'université. A l'opposé des conclusions de ces différents travaux se trouve le projet TRACES (1968). Là, les auteurs ont choisi cinq innovations industrielles récentes "de grande importance sociale et économique" : les ferrites magnétiques, le magnétoscope, la pilule contraceptive, le microscope électronique et l'isolement matriciel des radicaux intervenant

dans les réactions chimiques. Pour répertorier les recherches correspondant à chacune de ces innovations, Traces remonte jusqu'au milieu du XIXe siècle. Il aboutit à 341 évènements clés dont 70 % étaient de la recherche non orientée, 20 % de la recherche orientée et 10 % du "développement et application". En définitive, Traces calcule que "plus de 50 % des évènements clés des innovations étaient dûs à la recherche fondamentale poursuivie dans les universités depuis plus d'un siècle et que 10 % des évènements de recherche libre indispensables à l'innovation finale avaient été découverts dans 10 années qui l'avaient précédée” (ils étaient donc le résultat de recherches fondamentales récentes ni planifiées, ni prévues). L'étude conclut que les innovations de demain viendront de la recherche fondamentale faite aujourd'hui. Ces études aboutissent à des conclusions diverses et parfois opposées. Dès 1972, la Division des politiques de la science et de la technologie de l'OCDE (SALOMON, 1972) notait que les analyses variaient suivant la finalité de l'agence qui les avait commandées : l'étude TRACES qui conclut que la recherche fondamentale universitaire est indispensable aux innovations technologiques était commandée par la National Science Fondation, le projet Hindsight qui conclut que la recherche non dirigée ou fondamentale n'a pas joué de rôle notable dans le développement des vingt principaux types d'armement développés aux Etats-Unis depuis 1945 n'avait-il pas pour but de montrer que les centres de recherche du Département de la Défense travaillaient très bien dans leur isolement ? D'autres éléments expliquent la divergence des conclusions comme par exemple la différence de perspective temporelle sur laquelle les annalyses ont été faites. On peut notamment reprocher aux auteurs du projet Hindsight de ne faire remonter la généalogie de chacune des vingt technologies étudiées qu'à l'année 1940. Leur résultat néglige donc la somme des connaissances scientifiques créées avant cette date. Pour les tenants du projet TRACE un recul d'au moins trente ans est nécessaire pour apprécier pleinement l'impact de la science sur la technologie. Mais cette conclusion n'indique pas si tout transfert de connaissances de la recherche fondamentale à la technologie est intrinséquement très lent ou si ce transfert est susceptible peut être accéléré par des mécanismes facilitant les relations entre par exemple l'université et l'industrie. D'une façon ou d'une autre ces études posent la question du laps de temps qui s'écoule entre la découverte et son exploitation ou pour reprendre la distinction faite par Schumpeter entre invention et innovation (l'innovation se définissant alors comme la première transaction commerciale réussie de l'invention). On a beaucoup dit que ce laps de temps avait diminué au cours des dernières décennies. Des travaux ont dressé des listes

d'intervalles de temps entre des découvertes et leurs exploitations. D'autres auteurs (LANGRISH, 1972) ont mis à mal ce qui apparaissait comme évidence en démontrant : -qu'il est difficile de définir précisément la découverte scientifique sur laquelle une application est basée, - que le fait de bâtir une liste d'exemples prête à la discussion: toute sélection amène de nombreux biais, et il n'est pas difficile de produire des listes d'exemples qui montrent un intervalle de temps s'acroissant au cours de ces cent dernières années, -qu'il était par définition impossible d'observer quelque chose d'autre qu'un intervalle court pour une découverte récente. Les découvertes faites ces dernières années qui n'ont pas donné lieu à exploitation sont par nécessité écartés, -que dans de nombreux cas il existait des "intervalles négatifs", c'est-à-dire que l'avance industrielle est arrivée avant l'avance scientifique qui l'aide ensuite à la rendre intelligible. Par exemple ce n'est qu'après que les premières gommes et plastiques synthétiques ont été découverts que la science des polymères s'est developpée (LANGRISH, 1972, pp 33-35). La relation entre la science et la technologie est à double sens, il n'y a pas une indépendance unilatérale mais des interactions. Le débat sur le rôle de la science dans l'innovation soulève en définitive des problèmes de définitions et de frontières. Ainsi différents types d'innovations techniques sont indistinctement pris en compte dans les travaux présentés ci-dessus : les innovations mineures ne sont pas différenciées des innovations radicales qui remodèlent parfois tout une secteur industriel ou tout un paradigme techno-économique (FREEMAN, 1988b, pp 38-56). Le sens des qualificatifs "fondamental", "de base", "non orientée"… accolés au mot recherche varie suivant les contextes où ils sont employés. La frontière entre ce type de science d'un côté et la recherche appliquée et le développement de l'autre est floue. Suivant les lieux où elle est faite la même recherche peut-être qualifiée différemment : la première synthèse d'une enzyme a été réalisée simultanément en 1969 dans un laboratoire universitaire (Rockefeller University) et dans un laboratoire industriel (Merck). "Appliquées ici et fondamentales là, ces recherches ne se distinguent plus que par l'institution qui les a hébergées" (SALOMON, 1972). Il n'existe pas non plus de distinction tranchée entre science, technique et marché. Les travaux que nous avons analysés sont basés sur le même postulat que les liens entre ces trois pôles peuvent être correctement mesurés en étudiant certains types d'"évenements critiques" scientifiques ou techniques telles les "découvertes", les "ruptures" ou la "communication d'idées cruciales"… Or toutes les études qui sont entrées dans le détail

de la fabrication concrète des techniques76 ont battu en brèche la vision d'une filière continue allant de la recherche fondamentale à l'industrialisation via la recherche appliquée et le développement. La nouvelle image qu'elles donnent est infiniment plus complexe, plus nuancée que celle du modèle linéaire où au temps "t" la science découvre, et où au temps "t+1" l'industrie innove. L'innovation n'est pas un processus linéaire, les relations entre la science et le marché sont faites de va et vient incessants. L'impact qu'ils ont l'un sur l'autre passe par mille canaux différents, et ce sont de ces multiples interactions que se nourrissent les innovations. Il est par conséquent méthodologiquement condamnable d'isoler des "événements critiques" ou d'identifier des "sources d'information" supposées "cruciales". Au total, même lorsque elles ont examiné en détail des technologies précises, les études qui ont tenté de mesurer le rôle de la science dans la naissance et le développement des innovations n'arrivent pas à apporter de réponse générale à la question formulée dans ces termes. Une perspective historique leur fait cruellement défaut : elles ne nous disent pas si oui ou non les relations entre la science et la technologie ont évolués au cours du temps. Mais leur lecture ne nous apprend rien non plus, et c'est peut-être le plus criticable, sur les mécanismes actuels d'interaction entre science et technologie. Ces travaux ont cependant pour point commun de montrer la difficulté d'un partage pour une innovation donnée entre les apports de la science et ceux de la technologie. En ce sens, les relations entre la science et l'innovation sont largement indirectes, tout comme les bénéfices économiques qui naissent de la recherche de base. Ils ne s'accumulent pas forcément dans le pays où la recherche fondamentale est faite. Ainsi des travaux récents montrent une faible relation entre les dépenses de R&D de différents pays et leur taux de croissance économique. 1.2- LES CORRELATIONS ENTRE R-D ET PRODUCTIVITE De nombreuses études ont tenté de mesurer "l'impact" de la R et D et des innovations sur le potentiel de croissance. Elles aboutissent, tout comme les travaux précédents, à des solutions divergentes. Ainsi les travaux de Zvi GRILICHES concluent-ils que la R-D n'est pas coupable des ralentissements de la productivité des années soixante-dix alors que d'autres telle les thèses de M.KALDOR (1988), de F.CHESNAIS (1990), M.BAILY (1986) ou de MELMAN considèrent que la perte de la compétitivité est dûe à l'excès des dépenses de recherches publiques consacrées au militaire et à l'absence de retombées sur les activités civiles.

76Cf permière partie de cet ouvrage ainsi que (AKRICH, 1987)

Deux autres études importantes portent sur les liens entre le taux d'innovation (et non plus de R et D) et la productivité nationale. Leurs conclusions, si elles restent très générales, méritent d'être citées. La première, menée par la NSF (1976), porte sur les 500 principales innovations industrielles introduites dans les grands pays industriels entre 1953 et 1973, elle conclut qu'il ne semble pas y avoir de liens étroits entre la capacité d'innovation d'un pays et le taux de croissance de sa productivité. La seconde étude, réalisée par le SPRU de l'Université de Sussex, porte sur 2000 innovations industrielles au Royaume-Uni au cours de la période 1945-1980, elle montre que l'économie britannique se caractérise par un niveau d'innovation élevé, mais par un faible niveau de productivité. Le principal enseignement de ce type d'études est qu'il est difficile d'isoler et de mesurer l'influence de la R et D, ou de l'innovation, en tant que telle sur les résultats et l'accélération de la croissance économique. Les enjeux de cette question sont politiques : l'argument principal utilisé pour justifier le financement public pour la recherche est que cette dernière donnera naissance à des bénéfices pour toute l'économie. Cette vision est sous-tendue par l'idée que la science est le moteur principal de la croissance économique, mais nous disposons de peu d'études détaillées sur ce point et beaucoup de questions restent posées. En définitive, on sait peu de choses sur l'importance des "effets", et sur les mécanismes à travers lesquels ils s'exercent. 1.3 - DES ETUDES QUI PORTENT NON PLUS SUR LA R ET D "EN GENERAL", MAIS SUR L'UN DE SES ASPECTS De nombreux économistes se sont intéressés à l'étude de l'efficacité non plus de la R&D dans son ensemble mais de l'un ses aspects. Ainsi ils (CUNEO, 1984, 1985) ont étudié l'impact de la R-D industrielle sur les performances économiques des firmes. Dans cette analyse micro-économique la R&D est considérée pour la firme comme un investissement, facteur de production aux côtés du capital et du travail. Ces recherches ont montré que ce n'est pas par la qualité des résultats économiques qu'elles obtiennent que les entreprises qui font de la recherche se distinguent de celles qui n'en font pas. Mais plutôt par les orientations stratégiques qu'elles retiennent. "C'est ainsi qu'une petite firme de travaux publics peut être aussi rentable qu'une entreprise d'électronique, et ceci sans faire de recherche. Par contre, à taille égale et pour la même activité, on voit se dessiner des profils dont les différences sont assez nettement accusées", commente Michel CALLON (1988c). Là, les entreprises effectuant de la recherche semblent présenter des critères spécifiques : mobilisation d’une main-d'oeuvre très qualifiée, forte intégration verticale, présence importante sur des marchés étrangers, forte capitalisation et fort degré de spécialisation dans des produits subissant la concurrence des grandes entreprises multinationales.

Parmi les études portant sur les effets de la recherche, nombreux sont celles où les économistes se sont intéressés à cette catégorie de dépenses de R et D que l'on appelle "grands programmes" et qui sont destinés soit à soutenir un secteur industriel ou a y diffuser de nouvelles technologies, soit à remplir un objectif clair comme la mise au point et le lancement d'une fusée. Deux catégories d'approches sont traditionnelles (BETA, 1980) : -l'approche macro-économique qui considère les grands programmes comme des "inputs" conduisant à des "outputs" utilise la fonction de production classique Y = F (x1, x2, x3…) où Y est l'output (mesuré en termes de PNB) et x1, x2, x3 les facteurs de production y compris les dépenses de recherche. -l'approche micro-économique qui n'envisage pas toute la complexité des conséquences économiques d'un grand programme et se concentre sur les effets observables sur un marché donné. Mais toutes deux se heurtent à un grand nombre de difficultés: les conséquences d'un grand programme sont difficiles à cerner, comment mesurer les variables de la fonction de production ? Les mesures doivent-elles être faites en termes de stocks ou de flux ? A quelles périodes arrêter les calculs : les dépenses de R et D peuvent n'avoir d'effets qu'avec un retard de plusieurs années ? Dans le cas de l'approche micro-économique, comment mesurer les courbes d'offre et de demande si l'on a affaire à un produit complètement nouveau ?… Pour pallier ces inconvénients majeurs, l'approche la plus couramment adaptée aux effets des grands programmes est celle des bénéfices indirects. Ces derniers peuvent être classés en quatre catégories (COHENDET, 1987) : - avantages technologiques (nouveaux produits, nouveaux procédés…), - avantages pour l'organisation et les méthodes, - avantages pour la main-d'oeuvre (amélioration des savoirs-faire) - avantages commerciaux. Cette méthode procède par enquêtes auprès des industriels qui ont participé au programme pour tenter de mesurer les bénéfices indirects qu'ils ont pu obtenir grâce à celui-ci. Ainsi l'étude du BETA se base sur un échantillon de 128 entreprises européeenes couvrant plus de 85 % des dépenses de l'Agence Spatiale Européenne (E.S.A) entre 1964 et 1977. Ses auteurs calculent que pendant cette période l'E.S.A. a distribué 1390 millions d'écus à ses contractants et que ces contrats ont généré un montant total de bénéfices indirects de 4014 millions d'écus. Donc une dépense de un effectuée par l'ESA s'est traduite en moyenne par un montant d'effets induits de trois bénéficiant aux contractants de l'ESA. En définitive, l'étude du BETA montre toute la complexité de l'évaluation de retombées directes et indirectes d'un grand programme, mais elle souligne aussi le rôle efficace de ce programme en tant que processus de diffusion et catalyseur des innovations.

Une étude plus courte menée par interviews auprès de responsables de trois programmes technologiques (IDHR-CPE, 1982) conclut de façon plus pessimiste que ni les grands programmes, ni les agences technologiques ne sont faits pour diffuser des produits et des procédés nouveaux en dehors des secteurs qui les concernent ou dans les petites et moyennes entreprises. 1.4- CONCLUSIONS La plupart des études montrent la faiblesse des liens directs entre la recherche et l'industrie, ces relations directes entre les centres de recherche publique et les entreprises ne semblent représenter qu'une infime part de l'effort national de R&D. Il existe cependant de nombreux types de transferts de connaissances entre industrie et université assurés par le système d'enseignement, ou encore par le fait que les résultats des travaux scientifiques sont publiés et donc accessibles à tous. Le fondement des activités de recherche est l'avancement des connaissances en général mais aussi l'accomplissement de missions diverses suivant les agences qui exécutent ou financent la R&D : l'amélioration de la santé pour l'INSERM, la "conquête" de l'espace pour le CNES, notre défense nationale pour la R-D militaire… Si la recherche peut conduire à une augmentation de la productivité et à la croissance économique principalement à travers des innovations technologiques, ces dernières sont parfois dépendantes de résultats de recherche vieux de plusieurs dizaines d'années et souvent menées dans des champs ayant à première vue peu de rapport. De plus la transformation de recherches en innovations dépend de facteurs que souvent les économistes jugent "extérieurs" au procès de recherche (le climat économique général, le degré de compétitivité de l'industrie, sa capacité à entreprendre et à prendre des risques, la politique fiscale, l'état du marché des capitaux, etc…). Cependant les raisons “non-économiques” de financer de la recherche fondamentale -la culture, le prestige- ne suffisent pas à expliquer de fortes dépenses. Le soutien doit également se justifier par des retours économiques. On peut identifier trois voies principales par lesquelles la science peut apporter des bénéfices : 1) les découvertes scientifiques peuvent amèner des applications sous la forme de nouvelles technologies. Ainsi, les technopôles et autres parcs scientifiques ont donné lieu à une abondante littérature qui en prenant l'exemple de la Silicon Valley ou de la Route 128 près de Boston décrit une forte participation des universités et centres de recherche dans la naissance des industries de haute-technologie. Différentes études montrent que si les nouvelles entreprises créées par des chercheurs existent elles demeurent, en Europe, peu nombreuses. Elles seraient ainsi relativement rares en Allemagne (ALLESH, 1982), en

Suède (UTTERBACK, 1982) et au Royaume-Uni (GIBBONS, 1974). Notre étude (MUSTAR, 1989a) sur le cas français nuance nettement cette opinion. 2) La science fournit aussi des techniques qui rendent possible ou facilitent la résolution réussie de problèmes industriels les contrats, la sous-traitance, la consultance, le détachement de chercheurs dans les entreprises sont autant de formes différentes de ces relations. 3) enfin, la recherche de base est un élément qui contribue à l'accumulation des compétences et à la formation des cadres. Ce dernier élément constitue une justification importante des dépenses nationales de R&D, en partie parce qu'il est plus difficile de faire traverser les frontières à des hommes qu'à des découvertes ou des techniques. La contribution la plus visible du rôle de la science dans l'innovation technologique est cette offre d'une main d'oeuvre plus qualifiée. Les différents travaux qui ont été analysés ont pour point commun de montrer que la mesure des effets économiques de la R et D est toujours controversée. Cela tient à la complexité du phénomène d'innovation. Il est donc difficile de tenter d'appréhender les effets de la R et D -prise dans son ensemble ou dans l'une de ses composantes : civile, militaire, publique, privée, industrielle…- en ne considérant que des inputs et des outputs et sans aller regarder de près les activités mêmes de recherche.

2ème PARTIE : Le transfert de technologie entre université et industrie La recherche considérée comme une source d'innovations et les relations entre

l'université et l'industrie sont des sujets qui sont de plus en plus présents dans la littérature consacrée à la gestion des politiques scientifiques. Deux constatations sont mises en relation dans de multiples ouvrages ou articles : d'un côté, les activités de recherche-développement demandent de plus en plus de moyens et de crédits ; de l'autre la recession en Europe qui est pour beaucoup d'observateurs liée à un degré d'innovation technologique inférieur à celui des Etats-Unis ou du Japon. Ces deux types de pressions conduisent les pouvoirs publics à chercher “un retour” plus rapide de leurs dépenses de R-D et à mettre en évidence “un chemin plus direct” du savoir académique à l'application économique que celui qui passe par les processus d'éducation et de formation ou par la mise sur le marché de jeunes diplômés détenteurs d’un savoir scientifique.

2.1 LES FORMES DE COLLABORATION ENTRE RECHERCHE ET

INDUSTRIE

Classiquement les analystes des relations industrie-université distinguent entre contributions directes et contributions indirectes des sciences à la dynamique économique.

Les contributions indirectes sont obtenues par les activités de R-D en avançant les frontières de la science, en critiquant et renouvellant systématiquement les connaissances techniques accumulées, en assurant la formation des étudiants et des chercheurs. Tous les observateurs s'accordent là pour reconnaître qu'un investissement important dans l'éducation et la recherche fondamentale est devenu une nécessité pour une nation aux ambitions industrielles.

A côté des ces liens généraux et indirects entre l'université et l'industrie il en existe d'autres plus "immédiats" et au caractère plus spécifique. Ainsi, la recherche publique peut-être considérées comme un réservoir d'expertises techniques et de créativité (un "pool of technical expertise and creativity" disent les Nord-Américains) pour être exploitée directement à travers la participation de scientifiques et d'ingénieurs au processus de l'innovation industrielle.

Ces liens directs semblent s'être intensifiés ces dernières années dans la plupart des pays de la zone OCDE. Les pouvoirs publics, les universités et les organismes de recherche, tout comme les entreprises ont développé une large gamme d'expérimentations organisationnelles destinées à renforcer les liens entre la recherche publique et son environnement industriel. Ces relations entre les universités et l’industrie sont le fruit d’une longue histoire. M.L.BABA (1987) en a dressé le tableau chronologique en repérant dans l’histoire de l’université américaine la date d’invention ou d’apparition du premier “prototype” des différentes formes de relations entre l’université et l’industrie:

1900 Consultance 1903 Service d’expansion industrielle 1906 Association industrielle 1908 Contrats 1912 Courtage technologique par des tiers 1913 Institut de recherche indépendant 1916 Institut universitaire 1929/30 Courtage technologique universitaire 1930 Action industrielle collective 1932/33 Parc scientifique 1943 Formation et recyclage industriel 1943 Institut interdisciplinaire 1943 Echange de personnel 1943 Location de matériel

1954 Formation à la petite entreprise 1949/50 Assocations industrielles 1967 Centre d’incubation 1968 Formation à l’entreprenariat 1973 Centre d’innovation 1974 Contrats en partenariat 1977 Comités technologiques 1981 Investissement direct 1982 Charte de la pratique de consultance 1982/83 Investissement indirect

D’après M.L. BABA, 1987, p. 191

En France, depuis le début des années 1980, de nombreuses mesures ont été prises

pour faciliter les liens ou les échanges entre la recherche publique et les entreprises. Il est possible aujourd’hui de dresser un premier panorama des modes opératoires du transfert.

Si les liens entre un organisme de recherche comme le CNRS77 et l’industrie passent par de multiples canaux, le plus important reste celui du contrat de recherche. En 1988, plus de 1800 contrats nouveaux de collaboration ont été passés avec des entreprises par les laboratoires propres ou associés du CNRS (contre une centaine seulement traités par l’organisme en 1982) ; le montant total de ces contrats dépasse les trois cents millions de francs. Le montant moyen des contrats traités connaît lui aussi une forte croissance : alors qu’il était en moyenne de 80 000 francs en 1982, il dépassait en 1989 180 000 francs. La comparaison du nombre de contrats par département scientifique met en évidence l’inégalité des contributions. Les deux tiers concernent les sciences physiques pour l’ingénieur (42% du nombre des contrats) et de la chimie (24%); viennent ensuite les sciences de la vie (17%), les mathématiques et la physique de base (10%). Les sciences de l’homme et de la société ne représentent dans les données officielles que un pour cent du nombre des contrats.

La collaboration entre un organisme public de recherche comme le CNRS et les industriels prend également la forme de groupements de recherche. Là aussi les modalités sont diverses, celle qui se développe aujourd’hui avec le plus de succès semble être la création de laboratoires communs avec de grandes entreprises. Plusieurs laboratoires de ce type ont été créés entre le CNRS et notamment Roussel-Uclaf, Biomérieux, Elf-Aquitaine, Rhône-Poulenc, Saint-Gobain, Matra…

La mobilité des chercheurs du public vers les entreprises est un autre lien, plus tenu, entre le laboratoire et les marchés. Ce type de transfert est relativement stable -et faible-, 77 Ce paragraphe reprend des éléments d’un court article publié par l’auteur (MUSTAR, 1989b) dans LA

RECHERCHE. Les données citées avaient été fournies par la direction de la valorisation du CNRS.

depuis 1982 avec un flux annuel de 70 personnes. En 1989, 162 agents du CNRS travaillaient à plein temps dans des entreprises ou des organismes de transfert technologique (ce qui ne représentait que 0,6% des effectifs totaux de l’organisme).

Le nombre de brevets que le CNRS dépose chaque année reste également stable. Quatre-vingt-onze, en 1988, dont cinquante-trois ont donné lieu à 583 extensions à l’étranger. Année après année, le portefeuille du CNRS s’accroît avec 920 brevets de base et 3730 brevets étrangers. Ce portefeuille a rapporté à l’organisme plus de neuf millions de francs de redevances pour l’années 1988.

A côté de modes classiques de transfert, il existe de nombreuses procédures de soutien aux jeunes chercheurs : thèses cofinancées par le CNRS et les entreprises, bourses post-doctorales également co-financées… Enfin, mais là les statistiques font défaut, de nombreux chercheurs de l’organisme assurent une activité de consultance ou d’expertise auprès du milieu socio-économique.

Les formes, les chemins, les trajectoires du transfert entre université et industrie sont au total très variés. L'OCDE (1989) les classe en quatre grandes catégories : l’information et le conseil, la recherche avec, par et pour l'industrie (c'est-à-dire principalement les contrats), la valorisation de la recherche (les brevets, et les licences), et la création d'entreprises. Sur ce dernier point une étude du Centre de Sociologie de l'Innovation a été consacrée aux entrepreneurs scientifiques, c'est-à-dire aux chercheurs qui ont quitté leurs centres de recherche (publics ou privés) pour crééer leur propre entreprise (MUSTARD, 1989b). Cette enquête n'a pas cherché à décrire les conditions idéales de réussite pour les entreprises technologiques, ni à expliquer après coup, pourquoi certaines échouent et d'autres réussissent. Nous avons plutôt tenté, au travers de ce qui a déjà fonctionné, à briser les mythes qui entourent la création d'entreprises par les chercheurs. Nombre d'idées reçues ne résistent pas à l'analyse. Ainsi au fil de l'étude nous avons pu constater que, contrairement à ce qu'avaient écrit de nombreux analystes : -les chercheurs ne sont pas à l'opposé du marché, ils sont capables de réussir en tant qu'entrepreneurs, ils savent mêler technique et commercial, -leurs entreprises ne sont pas exclusivement des sociétés de recherche sous contrat, elles réalisent également des produits industriels, -ces produits ne sont pas seulement des produits semi-finis ou intermédiaires, mais aussi des produits finis, -enfin ils participent à des marchés beaucoup plus larges que ceux de l'instrumentation scientifique, ils touchent parfois même le grand public. Ces entreprises montrent une grande variété de profils et de produits. Elles ne se laissent pas enfermer dans des schémas pré-établis et aucun critère unique n'arrive à

cerner leur diversité. Trois caractéres se retrouvent cependant dans ce mode de relations entre recherche et industrie. Le premièr est le fait qu'il n'y a que rarement rupture complète entre le chercheur et son laboratoire d'origine. La création d'une entreprise pour l'exploitation des résultats de la recherche ne peut se passer des hommes mêmes qui ont mené cette recherche. La mise au point de produits nouveaux dans les domaines de la haute technologie ne suit pas une filière linéaire de la paillasse au marché. Les aller et retour sont multiples et obligent à garder des contacts étroits avec la science en train de se faire. Ces contacts prennent des formes variées : localisation des entreprises près des lieux de recherche, détachements, mises à disposition ou congès spéciaux pour les chercheurs-créateurs, Conventions Industrielles de Formation par la Recheche (CIFRE) pour leurs thésards, contrats d'études et coopérations… Diverses procédures existent dans les universités, les écoles d'ingénieurs et les organismes de recherche pour favoriser ce type de transfert. De plus, ces nouvelles entreprises consacrent une part importante de leur chiffre d'affaires à la R-D, elles bénéficient pour cela de différentes mesures fiscales tel le crédit d'impôt recherche ou les aides à l'innovation de l'ANVAR (Agence Nationale pour la Valorisation de la Recherche).

Une autre caractéristique de l'entreprise créée par des chercheurs est un fort degré d'internationalisation soit par les marchés sur lesquels elles opérent (un tiers des sociétés que nous avons interrogées réalise plus de 25% de chiffre d'affaire à l'exportation), soit à travers les collaborations qu'elles mènent dans le domaine de la recherche (un tiers des entreprises est engagé dans des opérations de R-D internationales).

Enfin, ces entreprises ont perçu des aides directes et indirectes, notamment de la part des collectivités locales. Un nouveau partenariat entre l'industrie, la recherche et les collectivités locales se développe et une nouvelle forme d'intervention des pouvoirs publics, placée entre les mesures autoritaires et les simples accompagnements financiers, apparaît. Elle se manifeste par la compétence technique de véritables réseaux locaux d'assistance et de conseils aux chercheurs, industriels et entrepreneurs (Délégations régionales du Ministère de la Recherche et de la Technologie, de l'ANVAR, des ARIST (Agence Régionale pour l'Information Scientifique et Technique…).

Les politiques publiques de la R-D ont récemment donné naissance à une nouvelle

forme de collaboration entre recherche et industrie : les programmes technologiques. Ces programmes ont pour objectif le développement des compétences nécessaires à la réalisation de nouveaux produits (CALLON, 1990c). Ils mêlent pour une durée limitée et autour d'une thématique précise des acteurs scientifiques (universités, laboratoires publics ou privés, centres de recherche technique…) et des entreprises industrielles. Les programmes de la Commission des Communautés Européennes sont de bons exemples de cette nouvelle forme de relation entre recherche et industrie qui passe par la mise en réseau d'acteurs que rien ne prédisposaient à travailler ensemble. Ils sont d'autant plus

intéressants qu'ils sont maintenant régulièrement évalués. Leurs évaluations nous apportent une multitudes d'informations et d'éléments quantitatifs qui nous permettent de mieux comprendre les nouvelles formes d'organisation et de coordination qui se mettent en place aujourd'hui entre les mondes de la recherche et de l'industrie (CALLON, 1989b, 1990d).

2.2 LES DEBATS L'ensemble de ces expériences et de ces développements sont accompagnés par des

débats sur l'efficacité des diverses mesures proposées, aussi bien que sur les menaces potentielles qu'elles créent pour le système académique (indépendance des scientifiques, instrumentation de la R-D). Mais les analyses sont encore peu nombreuses et le terrain reste largement en friche. Une littérature se développe, elle est le fait de gestionnaires de la recherche ou de consultants (DURAND, 1986c), mais compte peu de travaux académiques, notamment en France, sur l'intensification des formes de transferts et sur leurs différentes implications pour nos systèmes de recherche régionaux, européens ou nationaux.

Quelles sont les raisons avancées pour expliquer ce renforcement de l'intérêt général

pour les relations entre l'industrie et l'université. S'agit-il d'un phénomène éphémère causé par des facteurs conjoncturels ou de changements plus fondamentaux dans le fonctionnement et la nature du système de la recherche des pays industriels (STANKIEWICZ, 1986). Si les relations entre université et industrie sont fortement affectées par les difficultés économiques actuelles (recherche de nouveaux marchés pour les entreprises, de nouvelles sources de financement pour les universitaires, de création d'emplois et de richesse pour les pouvoirs publics) peut-on les considérer comme un phénomène purement transitoire ? Est-ce qu’elles diminueront quant les économies retrouveront leur équilibre et un fort taux de croissance?

L'argument que nous voudrions avancer est que l’actuel intérêt pour les relations entre l’université et l’industrie dépasse les considérations conjoncturelles, et est lié à certains changements majeurs dans la nature de processus d’innovation lui-même. Ces changements ont peut-être démarré il y a longtemps mais leur plein impact se fait sentir maintenant. On peut voir dans cette transformation un fort degré d'irréversiblité (BABA, 1987) : les changements technologiques rapides génèrent une interpénétration des domaines académiques et industriels de moins en moins séparables. Les raisons de cette interpénétration sont de doubles :

-l'accroissement de la valeur marchande de beaucoup de produits universitaires (les diplômés dans les secteurs clés de la technologie, les résultats de recherche, les découvertes scientifiques…) (GIBSON, s.d.),

-un effondrement des frontières entre la recherche de base et la recherche appliquée dans des domaines comme les biotechnologies et la micro-électronique.

Le message des scientifiques et des décideurs de la recherche est clair : pour renforcer nos positions compétitives et pour conquérir de nouveaux marchés mobilisons toutes nos ressources scientifiques et technologiques. Dans tous les pays industrialisés, la R&D académique constitue une part très importante de l'effort de recherche national. Toute une littérature sur les politiques d'innovation (Programme des Six Nations, OCDE, NSF…) considère que cette ressource est sous-utilisée et que cette situation peut être modifiée par des politiques appropriées (MEYER-KRAHMER, 1983, 1989 ; NSF, 1989). Les universités et les organismes de recherche peuvent contribuer à la revitalisation des économies nationales en assistant les PME, en collaborant avec les grands groupes industriels, en multipliant les "spin-off" (les retombées). L’importance régionale des universités est souvent soulignée à partir des exemples de la Route 128 près de Boston ou de la Silicon Valley (DORFMAN, 1983).

La conviction que l'accroissement des interactions entre l'industrie et l'université se

traduira en terme de bénéfices économiques n'est pas limitée aux seuls responsables des politiques industrielles ou aux promotteurs du développement régional. Ce même sentiment semble être partagé par des industriels, aussi bien que par les universitaires. Les chercheurs semblent de plus en plus désireux de s’engager dans des formes variées de collaboration avec l’industrie (LAREDO, 1990).

CONCLUSION La multiplication des interactions dans des domaines aussi divers que l'électronique,

l'informatique, la science de matériaux, la recherche énergétique, les biotechnologies ou les technologies médicales, et la "scientification" de la technologie qui se manifeste dans :

-l'importance des événements qui prennent place aux frontières de la recherche fondamentale,

-le haut degré de codification intellectuelle et “d'académisation” (opposé au caractère empirique) de beaucoup de techniques traditionnelles),

-la nécessité d'une coopération croissante entre des gens aux compétences scientifiques et technologiques variées.

Ces tendances modifient la nature des transactions entre les universités ou les organismes de recherche et l'économie. De fait, ces universités ou organismes de recherches se trouvent eux-mêmes jouer un rôle important en tant qu'acteurs économiques, plus seulement en diffusant des connaissances à long terme mais aussi de manière plus quotidienne. Le savoir est devenu une marchandise (FERNE, 1988). La "scientification de la technologie" redonne un rôle nouveau aux chercheurs académiques. Grâce à leur interdisciplinarité, à leur réseau de contacts avec la

communauté internationale, à leur connaissance dans la science fondamentale, et à leur accès permanent au flux de jeunes talents scientifiques et technologiques, les universités et les organismes de recherche ont trouvé un nouveau marché. Ces changements sont en partie la cause des changements institutionnels intervenus dans le statut des institutions de recherche78. Les nouvelles organisations qui se développent entre la science et l'industrie réclament elles aussi de nouveaux ajustements (création du statut du “chercheur-créateur d'entreprise” au CNRS, développement des Directions aux relations industrielles dans les universités…). Elles sont certainement les prémisses de changements plus fondamentaux qui remettent déjà en cause la notion même de transfert lorsqu'il ne s'agit plus simplement de passer un objet d'un acteur (le chercheur) à un autre (l’industriel) mais plutôt pour l'industriel et le chercheur de co-programmer la recherche.

78Loi n°82-610 du 15 juillet 1982 d'orientation et de programmation pour la recherche et le développement

technologique de la France (LOP), Exposé des motifs. Ainsi que OCDE, 1986.

Nouveaux outils

La méthode Leximappe desmots associés : un outil pour l’analyse stratégique du

développement scientifique et technique Michel CALLON, Jean-Pierre COURTIAL, William TURNER

Gestion des programmes publics et réseaux technico-économiques

Michel CALLON, Philippe LAREDO, Vololona RABEHARISOA

Nouveaux outils, nouvelles pratiques : le cas de l’AFME François MOISAN

L’analyse socio-technique

Madeleine AKRICH

Pour une description des liens entre science et technique : des brevets aux articles scientifiques

Vololona RABEHARISOA

CANDIDE : un outil de veille technologique basé sur l’analyse des réseaux Geneviève TEIL

Une méthode nouvelle de suivi socio-technique des innovations

Le graphe socio-technique Bruno LATOUR, Philippe MAUGUIN et Geneviève TEIL

Cette troisième partie de l’ouvrage présente un ensemble d’outils originaux pour l’analyse stratégique, le suivi et l’évaluation des projets d’innovation.

La méthode Leximappe desmots associés : un outil pour l’analyse stratégique du développement

scientifique et technique Michel CALLON, Jean-Pierre COURTIAL, William TURNER

I. INTRODUCTION Le succès d'une entreprise qui s'efforce d'améliorer ses avantages compétitifs ou celui d'une nation qui entend affermir ses positions sur la scène internationale dépendent de plus en plus de leur aptitude à créer et à mobiliser de nouvelles ressouces technologiques. Mais en même temps qu'elles deviennent indispensables, les sciences et les technologies génèrent des incertitudes et des instabilités qui rendent leur maîtrise problématique. C'est ainsi qu'on assiste depuis quelques années à une prolifération de spécialités dont l'étroitesse et l'ésotérisme ne font qu'augmenter. La recherche se "babélise" et s'opacifie, des langages et des répertoires spécialisés se créent en permanence et il devient ardu de suivre leur mouvement et d'entrer dans leurs contenus. Les sciences et les techniques redistribuent les positions de force et de faiblesse sans que l'on puisse vraiment prévoir à qui iront leurs faveurs: les choix des uns et les espoirs d'applications qu'ils ouvrent sont pour les autres autant de sources d'incertitudes difficiles à cerner. Pour les entreprises ou les décideurs politiques cette double nature de la recherche a des conséquences pratiques considérables. Comment débusquer dans la multitude des pistes qu'ouvrent les chercheurs celles qui un jour conduiront à des applications utilisables? Comment identifier les acteurs qui jouent un rôle important dans la dynamique des sciences et des techniques? Comment caractériser leur stratégie et anticiper les conséquences de leur action? Dans cet environnement turbulent, dont l'évolution dépend des initiatives d'un grand nombre d'acteurs, la capacité de collecter des informations et de les traiter, avant de prendre les décisions, devient cruciale. Babélisation de la recherche, foisonnement des acteurs et de leurs stratégies, bouleversement permanent des relations entre la science, la technique et le marché. Un tel constat ne rend-il pas irréaliste tout projet visant à suivre et à interpréter le mouvement des sciences et des techniques? La réponse à cette question serait désespérément positive si ces forces centrifuges, qui conduisent à la balkanisation et à la multiplication d'initiatives locales, n'étaient pas contrebalancées par des forces centripètes, par des mécanismes de

coordination qui rendent intelligibles et anticipables des mouvements qui paraîtraient, si ce n'était le cas, aléatoires et difficiles à repérer. Cette coordination tient au fait que la recherche est avant tout une activité qui se nourrit de mises en relations. Certes les spécialités obéissent à un principe de clôture, mais en même temps elles sont largement ouvertes sur d'autres spécialités, ce qui explique leur aptitude à évoluer, à redéfinir leurs contenus et leurs frontières. Ces échanges peuvent être décrits de deux manières. D'abord comme relations de constitution: des emprunts sont opérés, des hybridations tentées; les spécialités se mélangent, fusionnent, se fertilisent mutuellement… Ensuite comme travail stratégique: une spécialité ne peut durablement se replier sur elle-même. Elle se doit de montrer que les problèmes qu'elle traite, les outils qu'elle façonne, les énoncés qu'elle élabore, les compétences qu'elle fabrique sont susceptibles d'être mobilisés, utilisés, mis en œuvre par d'autres acteurs, qui peuvent être indifféremment (et parfois simultanément) des chercheurs d'une autre spécialité, des technologues, des industriels ou des décideurs politiques. En somme la science et la technologie sont "libres" d'inventer de nouvelles voies, d'identifier de nouveaux problèmes; mais cette capacité d'invention et d'innovation a une contrepartie: elle doit faire surgir des associations, des mises en relations ou des échanges qui replacent ces activités nouvelles dans un réseau d'interactions. En d'autres termes, la science et la technologie co-produisent des connaissances, des artefacts et les milieux qui vont s'en saisir et les utiliser. La spécialisation et la différenciation ne constituent des stratégies viables que si elles sécrètent toujours plus de mises en cohérence et de coordination. Babel oui, mais Babel peuplée d'une foule de traducteurs permettant les relations entre ces communautés qui se transforment en s'influençant. Nous avons appeler réseaux de traduction ces dispositifs de coordination qui permettent à la fois la spécialisation et l'échange: ils traversent les disciplines, et valent aussi bien pour la recherche de base que pour la technologie la plus proche du marché. C'est une chose de souligner les coordinations et les échanges, c'en est une autre de les identifier, de les caractériser et d'en déduire des trajectoires d'évolution. Pour y parvenir il suffit de remarquer que les échanges et les traductions établissant des interdépendances, sont généralement inscrits dans des documents, des artefacts ou des compétences incorporées. L'information n'existe pas en dehors de supports spécifiques et de leur circulation. Pour saisir ces relations de constitution, qui font que le destin d'une spécialité dépend des relations qu'elle tisse avec d'autres secteurs d'activités, il suffit de se brancher sur ces flux, de déchiffrer les informations qui circulent, pour recomposer de proche en proche les stratégies de recherche, leurs relations et leurs fertilisations croisées, et pour identifier les acteurs qui en sont les promoteurs. Au cours des dernières années les outils et les méthodes se sont multipliés pour lire et analyser ces flux d'informations. Ceux-ci sont plus ou moins aisés à déchiffrer et à interpréter. Un article scientifique, un brevet ou un rapport sont écrits en langage naturel: il fournissent, à qui sait les lire, une masse importante d'informations sur le contenu des recherches, sur les applications possibles, sur

les acteurs engagés, sur les connexions entre domaines… Un autre avantage de ces documents est leur grande disponibilité. Certes de nombreuses notes et rapports sont confidentiels, mais une grande masse d'informations est néanmoins aisément accessible: les sciences et les techniques se doivent d'être bavardes! En traitant de manière systématique ces documents, on peut arriver désormais à répondre aux questions suivantes: quels sont les thèmes de recherche en cours? quels sont les acteurs qui les développent et les promeuvent? quels sont les relations de dépendance ou d'influence entre ces thèmes? quels sont les axes de recherche qui sont stratégiques dans un domaine donné… Peuvent être ainsi établies des cartes stratégiques de la science et de la technologie qui rendent compte du contexte dans lequel un acteur se situe et qui l'aident à prendre des décisions tenant compte de toutes les autres décisions prises par les autres acteurs… Parmi les méthodes développées au cours des années récentes, l'analyse des mots associés, par sa souplesse et par la variété des documents qu'elle permet d'analyser est une des plus prometteuses. C'est à la présentation de cette méthode et de quelques uns des résultats qu'elle permet d'obtenir -résultats qui intéressent aussi bien les entreprises que les décideurs politiques- que sont consacrées les lignes qui suivent. II. QUESTIONS DE METHODES Décrire les documents pour retrouver les réseaux Comment faire apparaître dans les différents documents qui circulent (articles scientifiques, brevets, rapports, modes d'emploi..) les mises en relation opérées par les acteurs? La réponse à cette question compliquée est d'une simplicité biblique: en identifiant les mots associés à l'intérieur de chacun de ces documents et en comptabilisant leurs associations. Soit par exemple un article scientifique écrit par un biologiste et publié dans une revue internationale consacrée à la recherche sur le cancer. Dans ce texte il est question d'expériences visant à démontrer qu'un polymère particulier (DIVEMA) est absorbé de manière sélective par le foie. Ces résultats laissent entrevoir -affirment les auteurs- l'intérêt de ce support pour la chimiothérapie et en particulier pour le traitement du cancer. En quelques mots bien choisis sont mis en relation des contenus scientifiques et techniques spécifiques, des dispositifs expérimentaux (la mesure du comportement d'un polymère lorsqu'on l'injecte dans le sang d'un rat), et des problèmes ou des enjeux qui sont extérieurs au domaine d'investigation. Ceci peut être exprimé ainsi: un texte décrit toujours le contexte dans lequel il se situe et qu'il se donne. Dans le cas évoqué, il établit par exemple des relations explicites entre l'étude de la pinocytose (mécanismes d'absorption par les cellules), l'analyse des polymères comme support de la chimiothérapie, et plus généralement la chimiothérapie considérée dans son ensemble ainsi que la lutte contre le

cancer. Un texte n' a pas un intérieur et un extérieur: sa structure est celle d'un réseau qui associe tout une série de notions, d'intérêts, de questions hétérogènes dont certaines sont scientifiques, et d'autres politiques ou socio-économiques. La traduction et sa représentation La notion de traduction évoquée précédemment permet d'expliquer cette structure particulière de l'article. Ce que le texte et ses auteurs proposent, c'est l'équivalence suivante: si vous, lecteur, êtes intéressé par la lutte contre le cancer, si vous travaillez sur la chimiothérapie, si vous vous sentez concernés par l'usage des polymères dans les applications médicales, ou bien encore si vous vous passionnez pour les mécanismes de la pinocytose, alors les recherches que nous conduisons et dont nous présentons les premiers résultats dans cet article devraient attirer votre attention et vous convaincre de l'intérêt de nos recherches et de la nécessité de tenir compte de nos résultats. Ce mécanisme fondamental est celui de la traduction: il propose une relation, toujours contestable, entre des activités, des intérêts, des problèmes, des préoccupations différentes, entre lesquels les liens ne sont ni nécessaires ni visibles. Tout scientifique, tout ingénieur passe son temps à établir de telles traductions, soit pour se lier à un collègue (et dans ce cas la traduction reste interne à la recherche) soit pour se connecter à des enjeux et à des acteurs économiques, culturels ou politiques. Dans l'univers de la recherche, la traduction prend la forme particulière de la problématisation: si vous (responsables de la politique de la santé, médecins cliniciens, sécurité sociale) voulez résoudre le problème de la lutte contre le cancer ou si vous (chimistes) désirez ouvrir de nouvelles applications à vos produits vous devez vous intéresser à nos études et considérer que le problème sur lequel nous travaillons (la pinocytose de DIVEMA dans le foie des rats) est un point de passage obligé, un préalable, un détour nécessaire et rentable. La traduction se résume dans une proposition du type suivant: la résolution des problèmes P2, P3, P4 qui sont considérés comme cruciaux par les groupes G2, G3, G4 passe par la résolution de P1 à laquelle travaille G1. Cette affirmation est bien entendu tenue par G1 qui organise ainsi tout un monde constitué de problèmes et d'acteurs liés les uns aux autres. Une telle affirmation peut à tout moment être dénoncée dans le cours de controverses, et être confrontée à d'autres affirmations-traductions: "la lutte contre le cancer devrait passer par la prévention et l'étude fondamentale de la différenciation des cellules et non par des stratégies de recherche qui relèvent du bricolage et ne font pas avancer nos connaissances"; "les études sur le rat sont sans intérêt car non transposables" etc… Une traduction, une problématisation et pour tout dire un article ne sont jamais assurés d'être repris tels quels. Ils peuvent connaître plusieurs destins. Le plus favorable est l'acceptation totale: les problématisations proposées, les résultats avancés ne soulèvent aucune objection et intéressent l'auditoire défini par le papier. A l'opposé, il peut arriver que le texte passe complètement inaperçu. Les traductions tentées ne sont reprises par personne: le contexte que le texte s'était donné ne parvient pas à exister et se transforme en fiction, en

rêve irréaliste. Entre ces deux situations extrêmes prend place toute une série de configurations intermédiaires qui correspondent à des traductions, des problématisations qui sont partiellement acceptées et partiellement transformées ("d'accord pour étudier DIVEMA, mais si on veut vraiment faire progresser la connaissance de la pinocytose, alors les procédures expérimentales doivent être transformées"; ou encore: "contrairement à ce que vous prétendez les résultats du deuxième polymère, testé conjointement avec DIVEMA, nous semblent plus prometteurs"; ou bien: "ne parlez pas de cancer, il serait plus réaliste d'évoquer d'autres applications thérapeutiques" etc…). On comprend pourquoi on utilise la notion de traduction. Sa signification linguistique traditionnelle est tout à fait pertinente. L'équivalence entre deux ou plusieurs problèmes hétérogènes introduit une grille de passage entre deux répertoires, deux langages étrangers l'un à l'autre (la lutte contre le cancer; l'absorption de DIVEMA par les cellules du foie du rat) et que rien ne destinait à être mis en relation. Mais sa signification géométrique, traduire c'est déplacer, s'applique également: traduire les projets des décideurs, du ministère de la santé ou ceux des industries pharmaceutiques, c'est les faire passer, et avec eux toutes les ressources qu'ils mobilisent (budgets, marchés…), par le laboratoire où travaillent les auteurs du texte. Comment représenter simplement ces relations établies par un document donné entre plusieurs problèmes? L'exemple précédent donne une idée de la direction dans laquelle la solution doit être recherchée. Les quatre mots: "tumeur", "chimiothérapie", "pinocytose" et "divema" sont quatre mots, présents et associés dans l'article, et qui indiquent la chaîne des traductions que les auteurs proposent d'établir entre, d'un côté, des recherches pointues sur l'utilisation des polymères pour cibler les médicaments et, de l'autre côté, la possibilité de contribuer à l'élaboration de thérapeutiques plus efficaces contre le cancer. Ceci nous a amenés à considérer comme réaliste l'hypothèse selon laquelle un texte (rapport, article, brevet,…) pouvait être réduit et simplifié sous la forme d'un réseau de quelques mots constituant un graphe connexe ou clique (Figure 1) Figure 1 Chaque point représente un mot, le lien entre les mots indiquant que les mots ainsi associés co-occurrent dans le document. Ainsi le graphe qui "représente" l'article peut-il être lu, à l'instar de l'article original, comme un réseau structuré d'équivalences affirmées, entre des problèmes de natures hétérogènes: l'analyse de la répartition des polymères dans les organes=la destruction de cellules cancéreuses=contribution à la lutte contre ce fléau social qu'est le cancer. Ces équivalences revendiquées décrivent les stratégies de traduction proposées par les auteurs. L'agrégation des traductions Tout acteur-auteur en élaborant des textes propose des traductions qui vont être contestées, redéfinies, réélaborées ou dans certains cas reprises telles quelles sans

discussions. En d'autres termes la construction collective de réseaux, plus ou moins stables, plus ou moins longs, résulte de l'entrecroisement et de la composition d'un grand nombre de traductions: entre le qualitatif (la description de la stratégie de traduction de tel ou tel acteur) et le quantitatif, se place l'agrégation qui n'est une invention ni de l'observateur ni de l'analyste mais l'enjeu même de la traduction. Qui a été traduit? Quelle chaînes de traduction ont été stabilisées? Quels problèmes ont fini par s'imposer et être reconnus? Toutes ces questions se ramènent à une seule et même interrogation: peut-on, à travers l'analyse systématique des textes, de tous les textes produits par les différents auteurs-traducteurs, faire apparaître les traductions qui s'imposent, celles qui demeurent faibles et disparaissent? etc... Le succès d'une traduction, c'est à dire sa capacité à contribuer de manière significative à la mise en forme des réseaux résultant de toutes les stratégies de traduction qui apparaissent à un moment donné, dépend de la mesure dans laquelle d'autres textes (articles, rapports, brevets) la reprennent et la mettent en oeuvre pour structurer leurs propres traductions. Chaque fois qu'une traduction est répétée, on peut dire qu'elle se trouve du même coup consolidée. A l'inverse une traduction qui reste isolée et n'est reprise par personne, laisse son auteur sans force et sans capacité d'influencer la forme des réseaux qui se mettent en place. Une manière très simple d'apprécier cette capacité pour un auteur-traducteur de participer à la mise en forme des réseaux de traduction est de comptabiliser le nombre de fois que ses propres associations de mots, qui retracent les traductions et les équivalences entre problèmes qu'il propose, apparaissent dans des textes différents: on obtient ainsi, non seulement l'état des traductions en cours, telles qu'elles résultent des stratégies et de leur composition, mais également leur degré de consolidation79. La définition de l'algorithme à mettre en place pour rendre compte de ces agrégations résulte directement de ce qui vient d'être dit. Plus des mots co-occurrent fréquemment dans des textes différents et plus les problèmes de recherche et les traductions proposés se renforcent. Si 1000 textes associent DIVEMA et pinocytose au traitement du cancer par chimiothérapie, il y a fort à parier que a) l'étude de la pinocytose de ce polymère correspond à un thème de recherche solidement constitué et que b) un accord existe pour identifier les enjeux généraux (ou si l'on préfère le contexte) liés à cette recherche. En comptabilisant toutes ces co-occurrences et en représentant les liens entre mots qu'elles tracent, il est possible de transformer en un réseau de mots associés, l'existence des liens et

79Bien entendu l'hypothèse selon laquelle chaque texte, c'est à dire chaque nouvelle présentation d'une traduction, est équivalent à tous les autres ne peut être sérieusement défendue. Elle n'est cependant pas très gênante lorsqu'on s'intéresse, comme nous le faisons, à la dynamique des réseaux et à leurs transformations au cours du temps: le poids d'un texte, son impact n'ont en effet d'autre mesure possible que le nombre de documents qui reprennent les traductions qu'il propose.

leur force dépendant du nombre des co-occurrences entre mots dans les différents documents considérés. L'importance de ces agrégations, et des méthodes quantitatives qu'elles requièrent, est d'autant plus grande qu'il s'agit de faire apparaître des connexions et des chaînes de traductions qui se raboutent les unes aux autres et qui sont dans une certaine mesure indirectes. Il est en effet très rare qu'un même acteur (ou groupe d'acteurs) établisse de lui même toutes les équivalences qui permettent de passer d'un problème scientifique fondamental à des problèmes liés à des conditions d'utilisation ou à des fonctionnalités commerciales. Ces équivalences, lorsqu'elles existent, résultent de la combinaison de traductions plus locales et plus restreintes qui ajoutées les unes aux autres finissent par composer de longues chaînes et de longs réseaux sans qu'aucun acteur particulier ne les totalise: ceci ressemble à ce que l'individualisme méthodologique définit comme l'action collective. Dans ce cas précis, l'identification de longues chaînes de médiations, qui n'existent que par la composition et l'agrégation d'un grand nombre d'actions singulières, ne peut être obtenue qu'au terme d'analyses quantitatives systématiques. Ce point est essentiel lorsqu'on s'intéresse aux interactions entre les différents domaines de recherche, mais également entre les mondes de la science, de la technique, de la politique et de l'industrie. La structuration de ces interactions, leur dynamique, leur forme, la longueur des médiations par lesquelles elles passent, voilà autant de caractéristiques qu'une simple analyse qualitative ne permet pas de livrer. Comme nous le verrons, la méthode des mots associés et les logiciels Leximappe80 qu'elle utilise, en comptabilisant les co-occurrences de mots dans les différents documents produits par les acteurs, permet de suivre la mise en place de ces interactions et de leur dynamique. Elle permet d'identifier les liens plus ou moins directs, plus ou moins immédiats qui traduisent des problèmes de recherche, non seulement entre eux, mais également en intérêts sociaux ou économiques. La longueur des détours, la dynamique de leur évolution ne peuvent être mises en évidence qu'en agrégeant les différentes stratégies de traduction: l'analyse quantitative est un point de passage obligé, le prolongement de l'analyse qualitative par d'autres moyens. Quels fichiers de documents utiliser? L'analyse des mots associés suppose tout d'abord qu'un ou plusieurs fichiers rassemblant les documents à analyser soient constitués. La délimitation de ces fichiers et de leur contenu dépend bien évidemment de la nature des questions posées. Si on s'intéresse à certaines catégories d'acteurs, on s'efforcera de retrouver toutes leurs publications et si on s'intéresse à un domaine il faudra rassembler tous les documents qui s'y rapportent. Pour y parvenir, on recourt le plus souvent à des bases, à vocation commerciale, susceptibles d'être

80Leximappe est une marque déposée. Tous les logiciels correspondant ont été mis au point par le CNRS et

l'INIST.

interrogées par mots clés, ou dotés d'un système de classification qui permet d'identifier les documents. Ces bases peuvent être très diverses: base de publications scientifiques pluridisciplinaire comme Pascal, ou spécialisée comme Biosis; base de brevets, comme celles de Derwent; base de rapports techniques comme le NTIS… Dans certains cas on peut même traiter des bases qui ont été constituées, pour des raisons spécifiques, par un organisme, voire par un individu. L'exemple d'une étude récente, réalisée par le CSI, montre la diversité et la multiplicité des fichiers et des bases qui peuvent être utilisés. Nous avons cherché dans un travail récent à étudier l'impact des programmes publics de recherche (français) sur le développement de la science et de la technologie dans le domaine des polymères. Il était essentiel, pour atteindre cet objectif: a)de retracer la dynamique de ce secteur de recherche aussi bien dans ses aspects scientifiques que technologiques; b)de la comparer avec les choix opérés par les pouvoirs publics et de caractériser les profils d'activité des laboratoires soutenus. Ceci nous a amenés à construire 9 fichiers, relatifs à des périodes de plus de vingt années, et à étudier en détail leurs interactions: -Le premier fichier rassemble la littérature internationale dans le domaine de la science des polymères, qu'il s'agisse de science de base ou de science appliquée voire de technique. Il a été construit à partir d'une interrogation systématique de la base PASCAL. -Le second fichier est constitué par l'ensemble des documents qui relèvent plus particulièrement de la recherche de base. C'est un sous-ensemble du fichier précédent, dans lequel ne sont retenus que les articles publiées dans les revues académiques, identifiées grâce à une analyse des citations entre revues. -Le troisième fichier correspond à la littérature technologique présentant la mobilisation des connaissances et des savoir faire sur les polymères en vue de leur industrialisation et de la production de biens destinés à être commercialisés. Il rassemble tous les brevets pris dans le domaine, à partir d'une interrogation de la base CAS. -Le quatrième fichier réunit tous les appels d'offre élaborés par le ministère de la recherche au cours de la période considérée. -Le cinquième fichier est constitué par toutes les déclarations d'intention rédigées par des laboratoires ou des entreprises en réponse aux divers appels d'offre. Dans ces déclarations d'intention sont présentés des projets dont une partie seulement sera sélectionnée par les comités et fera l'objet d'un financement. -Le sixième fichier rassemble tous les projets qui ont bénéficié d'un financement. C'est donc un sous ensemble du fichier précédent. -Le septième fichier est constitué des rapports remis par les contractants au ministère de la recherche à l'issue de leur travail -Le huitième fichier est constitué par la littérature scientifique (articles) produite par les laboratoires français ayant bénéficié au moins un fois d'un financement public.

-Quant au neuvième et dernier fichier il rassemble la littérature produite, dans le domaine considéré, par les laboratoires français n'ayant jamais été financés par les pouvoirs publics dans le cadre des actions incitatives sur les polymères. Les raisons du choix de ces différents fichiers sont claires. Les trois premiers donnent la possibilité d'explorer, de façon dynamique, les relations entre recherche de base, recherche appliquée et technologie. Les quatre suivants sont destinés à fournir une vue détaillée de l'action des pouvoirs publics: ils permettent notamment de caractériser les choix opérés par le ministère par rapport aux stratégies suivies par les différentes catégories d'acteurs. Quant aux deux derniers fichiers, ils rendent possible une analyse comparée de la production des laboratoires français et de celle de leurs concurrents étrangers, en établissant une distinction entre ceux qui ont été financés et ceux qui ne l'ont pas été. La définition des fichiers n'est pas toujours une entreprise aussi compliquée. Prenons le cas d'une autre étude destinée à accompagner le travail d'un groupe d'experts chargés d'élaborer le rapport de conjoncture du CNRS, dans le domaine des recherches consacrées à la terre et au système solaire. La procédure suivie comportait deux étapes. Un premier fichier global a été constitué à partir du plan de classement de la Base PASCAL: 15020 articles répartis dans 2450 revues ont été identifiés (pour l'année 1987). Puis 8 sous fichiers spécifiques ont été extraits du fichier global, en étroite concertation avec les experts: croûte terrestre, magma, manteau et noyau terrestres, planètes et météorites, précambrien, soleil et magnétosphère terrestre, tectonique globale, techniques. C'est chacun de ces sous fichiers qui a été analysé ensuite par la méthode des mots associés. Dernier exemple, celui d'une étude réalisée à la demande du gouvernement irlandais et destinée à identifier, à partir des brevets, les niches technologiques potentiellement intéressantes pour ce petit pays dans le domaine des céramiques industrielles. La base retenue a été WPI DERWENT. On été sélectionnés pour constituer le fichier tous les brevets contenant un des mots suivants (dans la liste de ses descripteurs): ceramic/, bioceramic, electroceramic/, cermet/, sialon/, vitroceramic (le "/" indicant que le mot a été troncaturé). Pour la période 82/84, 15975 brevets ont été ainsi identifiés. Comme on le voit dans cet exemple, le rôle des experts, ou plus généralement de ceux qui commandent l'étude ou qui en définissent les enjeux, peut être très important. Un des avantages de la méthode est sa souplesse: elle peut s'appliquer à n'importe quel fichier. La seule contrainte est que, de manière à délimiter les documents pertinents, les bases explorées permettent une recherche par mots clés. Le choix de la (ou des) base(s) dépend du type d'analyse qui est entrepris. S'agissant de la science, Pascal a l'avantage d'être pluridisciplinaire et d'aller au delà des publications les plus en vue, mais souvent le recours à des bases spécialisées s'avère nécessaire.

L'indexation des documents L'analyse des mots associés suppose que l'on puisse extraire d'un document donné une série de mots qui permettent d'identifier les problèmes qui sont posés et associés: par exemple sélectionner les quatre mots, divema, chimiothérapie, pinocytose, et cancer. On imagine aisément les difficultés posées. Elles sont à la fois théoriques et pratiques. Théoriques car il n'est pas évident de fournir des critères permettant d'identifier les quelques mots pertinents dans des textes qui en comportent plusieurs centaines. Pratiques, car à supposer que ces critères existent, il faut disposer d'outils rendant cette identification peu coûteuse. Pour apporter des réponses satisfaisantes à ces difficiles questions une stratégie progressive a été élaborée. Elle comporte trois étapes. Dans un premier temps nous avons travaillé à partir de bases fournissant pour chaque document une liste de mots clés. Ces listes sont généralement établies par des indexeurs professionnels. Il faut noter que cette solution, qui n'est d'une certaine manière qu'un pis aller, n'est pas contradictoire avec les objectifs poursuivis. Un indexeur professionnel, dont le rôle est de signaler l'existence des documents qu'il indexe à tous les publics potentiellement intéressés, a précisément pour fonction d'identifier ce qui, dans un document, le rattache à diverses problématiques: il traque les traductions. Ne doutons pas que face à l'article évoqué précédemment, il retiendra sans hésiter les quatre mots qui nous ont paru pertinents de manière à signaler aussi bien aux cancérologues, aux polyméristes,… que des résultats viennent d'être publiés qui peuvent les concerner. Il reste que l'indexeur dispose de marges d'appréciation et qu'il peut très bien ne retenir dans un article que ce qu'il est préparé à voir. Certains ont souligné les conséquences néfastes de ce qu'ils ont nommé l'indexer's effect: l'indexeur, même consciencieux (et ils ne le sont pas tous!) a tendance à voir la science à travers ses propres catégories, qui sont nécessairement datées et il décrit la science en train de se faire à l'aide de notions qui ont parfois plus de vingt ans d'âge. De là à dire que les mots clés, tels qu'ils sont disponibles dans les bases de données, minimisent l'innovation et renforcent la tradition, il n'y a qu'un pas que certains n'ont pas hésité à franchir! La critique étant apparemment fondée, nous avons à plusieurs reprises testé la qualité des indexations. J. Law a par exemple fait réindexer les articles par leurs propres auteurs, dans le domaine des pluies acides. Le résultat est sans ambiguïté: à 80% le choix ainsi opéré était le même que celui réalisé par les indexeurs de la base PASCAL81. De ces différents contrôles se dégage la conclusion suivante: on peut dire que le recours aux mots clés disponibles en ligne, s'il n'est pas la meilleure solution, constitue néanmoins une stratégie acceptable. Très tôt dans le développement de Leximappe, nous avons cherché à nous libérer de cette contrainte. D'abord pour tenir compte des critiques formulées à l'égard des indexeurs, mais aussi et surtout parce que de nombreuses bases, nécessaires à la conduite de certaines 81La qualité de l'indexation de certaines bases est très inférieure à celle de la base Pascal

de nos études, ne fournissent pas les mots clés sans lesquels Leximappe est inutilisable. Ceci nous a conduits a mettre au point un logiciel d'indexation semi automatique (Lexinet), dont le principe de fonctionnement est très simple. Le texte à indexer est entré en machine (lorsqu'il n'existe pas déjà sous une forme enregistrée). Le logiciel en commence la lecture; il sélectionne tous les mots non vides et les propose à l'indexeur. Celui-ci décide soit de les retenir soit de les rejeter. Se constitue progressivement un lexique (rassemblant les mots ayant été retenus) et un anti-lexique (constitué par les mots rejetés). Le système Lexinet fonctionne comme une mémoire vivante: si un mot candidat à l'indexation appartient au lexique il est retenué par l'ordinateur, s'il se trouve dans l'antilexique l'ordinateur l'ignore et s'il est nouveau l'ordinateur redonne la main à l'indexeur humain. Au fur et à mesure que l'indexation des documents progresse, le nombre des interventions de l'indexeur diminue et ce d'autant plus rapidement que les textes présentent une forte unité lexicale. Lexinet utilise le vocabulaire validé pour indexer automatiquement le fichier en cours d'analyse. Un expert a par exemple mis un peu plus de deux mois pour indexer la totalité d'un fichier de 16000 brevets dans le domaine des céramiques. Chaque jour 150 à 200 documents ont été indexés par Lexinet, accélérant considérablement le processus d'indexation, puisqu' un indexeur "humain" analyse en moyenne environ 20 documents par jour. De plus la richesse et la qualité de l'indexation sont considérablement améliorées. Pour un brevet dont le titre et l'abstract sont disponibles en ligne (toutes les bases fournissent cette possibilité), il est courant de pouvoir disposer d'une vingtaine de mots qui en décrivent le contenu et qui sont présents dans le brevet: l'indexer's effect disparaît. Subsiste éventuellement un author's effect, mais qu'il serait absurde de vouloir supprimer! La fiabilité d'un tel logiciel dépend bien évidemment de sa capacité à identifier correctement les mots, au delà de leurs différences d'orthographe, de suffixes… Ajoutons qu'il apprend, pour un fichier donné, à identifier les synonymes (deux mots étant déclarés synonymes lorsque leurs profils d'association sont semblables), ce qui rend l'indexation plus précise et l'analyse des co-occurrences plus juste. Avec Lexinet, nous disposons d'un outil qui permet de choisir entre plusieurs stratégies d'indexation. Nous pouvons bien entendu utiliser les mots clés fournis par les bases de données. Pascal, pour les publications scientifiques et techniques, Derwent, pour les brevets, produisent des indexations de bonne qualité et qui sont dans la plupart des cas largement suffisantes pour identifier les thématiques et leur évolution. S'il apparaît utile de disposer d'informations plus précises, alors une indexation par Lexinet est envisageable. Lorsque les documents à analyser sont déchargeables à partir d'une base de données, l'indexation peut porter sur les titres, sur les abstracts ou, lorsqu'ils sont disponibles, sur les textes complets. J. Whittaker a montré, sur le cas des pluies acides, que l'indexation des titres donnaient des résultats satisfaisants si on les comparait à ceux obtenus à l'aide de mots clés fournis par les bases (dans ce cas PASCAL). Selon lui, les titres insistent sur l'originalité (présumée de l'article), tandis que les mots clés attribués par les indexeurs soulignent les mises en relation et les points communs avec d'autres publications.

L'indexation des abstracts semble être à l'heure actuelle la stratégie la plus satisfaisante lorsqu'on désire obtenir une vue détaillée d'un domaine. Quand les documents à analyser n'ont pas été préalablement entrés dans une base, la seule solution consiste à les saisir soit en les scanerisant (lorsque c'est possible), soit en les entrant manuellement sur ordinateur. Définition des indices et visualisation des réseaux Dans cette section nous présentons brièvement la méthode des mots associés et les différents outils qui ont été élaborés pour analyser et visualiser la dynamique des réseaux de problèmes. Le fondement méthodologique de l’analyse des mots associés est la notion de co-occurrence de mots-clés dans les documents d’un fichier. D’un point de vue méthodologique, il s’agit de définir un (ou des) indices(s) pour mesurer l’intensité relative de ces co-occurrences et pour aboutir à des représentations simplifiées des réseaux auxquels elles donnent forme. La mesure des liens entre mots clés: l’indice d’équivalence De deux mots-clés, i et j, on dit qu’ils co-occurrent s’ils sont utilisés ensemble pour décrire un même document. Il semblerait naturel de faire l’hypothèse que deux mots sont d’autant plus étroitement liés l’un à l’autre, nous dirons associés, qu’ils co-occurrent fréquemment à l’intérieur d’un même fichier c’est à dire qu’il sont utilisés conjointement pour indexer un grand nombre de documents. Ceci n’est évidemment pas si simple. Il est clair que le simple comptage des co-occurrences (ou, ce qui revient au même, le calcul du cardinal de l’intersection des documents indexés par i ou par j) n’est pas un bon moyen d’évaluer la force des liens entre mots clés: les mots très fréquents, qui sont donc utilisés presque systématiquement pour indexer les documents du fichier étudié, seront avantagés par rapport aux mots de faibles fréquences. S’impose donc l’utilisation d’indices statistiques destinés à éviter ce biais. Une étude systématique de tous les indices envisageables, nous a amenés à retenir un indice que nous avons nommé indice d’équivalence et qui a la propriété de ne favoriser aucune zone de fréquence. Il est proche de l’ idée intuitive que l’on a de la notion de co-occurrence par rapport à laquelle il introduit une normalisation qui tient compte des fréquences des deux mots considérés. Sa définition est la suivante: Soit un fichier F constitué de n documents. L’ensemble des mots-clés i utilisés pour indexer les documents du fichier constitue un lexique L. Notons Ci le nombre d’occurrences du mot i c’est à dire le nombre de fois qu’il est utilisé pour indexer un document de F. Notons Cij le nombre des co-occurrences des mots i et j, c’est à dire le nombre de documents qui comportent l’un et l’autre mot dans la série des mots clés utilisés pour les indexer. On appellera indice d’équivalence (Ei) le coefficient dont la valeur est donnée par la formule suivante:

Cij2 Eij = ------------- Ci . Cj Cet indice mesure l’intensité de l’association réalisée entre deux mots par l’ensemble des documents du fichier F. Il vaut 1 quand la présence de i entraîne automatiquement la présence de j et vice et versa, c’est à dire quand les deux mots sont toujours ensemble; il est égal à zéro lorsque la seule présence d’un des deux mots exclut celle de l’autre (aucun document n’étant indexé simultanément par les deux mots). Le calcul de tous les coefficients entre toutes les paires de mots possibles (même si la valeur de ces coefficients est souvent égale à zéro) génère un nombre de liens considérables, qu’il serait vain de vouloir visualiser en l’état. C’est pourquoi nous avons mis au point des algorithmes visant à découper des sous-ensembles, les plus cohérents possibles, et plus faciles à visualiser et à interpréter. La construction des agrégats et des sous-réseaux L’objectif de l’analyse des mots associés est de faire apparaître les relations entre mots clés qui, à un moment donné, peuvent être considérées comme étant les plus significatives. Il s’agit de déterminer des sous-ensembles de mots fortement reliés entre eux et correspondant par conséquent à des centres d’intérêt ou à des problèmes de recherche faisant l’objet d’investissements de la part des chercheurs. En d’autres termes, si l’on considère le graphe reliant les mots associés entre eux (la force des liens étant mesurée par l’indice d’équivalence défini précédemment), il nous faut imaginer une procédure permettant d’isoler des sous-graphes de mots plus fortement liés entre eux qu’avec les mots n’appartenant pas aux sous-graphes considérés. Pour créér une telle partition du réseau des mots associés d’un fichier donné, plusieurs procédures sont envisageables. Celle qui a été retenue présente le mérite d’éviter les écueils liés au choix d’un seuil, nécessairement arbitraire: les agrégats se forment à des seuils variables et se caractérisent par la valeur du premier lien refusé qui est appelé seuil plancher (ou indice de saturation) de l’agrégat. Le choix des seuils planchers pour les différents agrégats est réalisé de manière à ce qu’aucun agrégat ne comporte plus de dix

mots82. Ce seuil de "saturation" est bien évidemment différent selon les agrégats, c’est pourquoi nous parlons d'agrégation à seuil variable. Lorsqu’un agrégat est constitué (par construction il ne contient jamais plus de dix mots et peut même en contenir moins si l’addition d’un mot nouveau entraînait la fusion de deux agrégats en voie de constitution et comptant à eux deux plus de dix mots), on commence la constitution d’un nouvel agrégat : la valeur du premier lien retenu constitue le seuil plafond de l’agrégat. Elle permet en outre de manipuler des agrégats dont la taille est raisonnable. Ce découpage en agrégats, qui ne doivent pas contenir plus de dix mots, peut conduire à des divisions arbitraires. La seconde étape de l’analyse a pour but de repérer les biais ainsi introduits puis de proposer de nouvelles classifications. Les agrégats et leurs liens externes sont examinés un à un de manière à identifier ceux d’entre eux qui ne font que prolonger des agrégats apparus antérieurement mais déjà saturés. Dans ce cas la coupure est artificielle. Tout ce passe comme si ces agrégats avaient une extension supérieure à dix mots, et il serait maladroit ne pas tenir compte des liens qui les unissent pour recomposer une nouvelle classification. Ceci nous amène à distinguer trois catégories dans la liste initiale des agrégats : - les agrégats isolés qui se caractérisent par l’absence (ou la faible intensité) des liens qu’ils entretiennent avec d’autres agrégats; la seule question qui se pose alors, est celle de leur homogénéité interne: ils peuvent rassembler plusieurs sous-agrégats qu’il convient d’identifier en examinant la morphologie des relations internes. - les agrégats secondaires dont les liens, supérieurs au seuil plancher, avec d’autres agrégats sont suffisamment intenses pour qu’il soit légitime de considérer qu’ils constituent l’extension naturelle de ces derniers. - les agrégats principaux auxquels se trouvent associés, par des liens dont l’intensité est inférieure à leur seuil plancher, un ou plusieurs autres agrégats (secondaires). Pour donner une valeur opérationnelle à ces définitions, il reste à fixer des règles générales permettant de décider de l’association de deux agrégats (dont l’un devient principal et l’autre secondaire). Nous avons choisi de considérer que deux agrégats sont associés l’un à l’autre s’ils sont unis par au moins trois liens supérieurs au seuil plancher de l’un d’entre eux. Pour chaque fichier nous disposons ainsi de deux listes: la première rassemble tous les agrégats isolés (éventuellement éclatés en sous-agrégats «élémentaires») ; la seconde est constituée de groupes contenant chacun un agrégat principal auquel sont liés (par le «bas») un ou plusieurs agrégats secondaires. Un agrégat isolé tout aussi bien que l’ensemble constitué par un agrégat principal et ses agrégats secondaires, représente ce que l’on peut considérer comme des sous-réseaux (du réseau général du fichier considéré) ayant leur

82Le choix de ne pas dépasser 10 mots est arbitraire et ne vise qu'à assurer la lisibilité des agrégats. Comme

indiqué plus loin, les relations entre agrégats sont reconstruites lorsque la limite des 1O mots apparaît comme artificielle.

propre cohérence et autonomie. Ajoutons que le nom donné à l'agrégat résulte d'un calcul qui identifie, dans l'agrégat considéré, le mot le plus central. Bien entendu, à tout moment il est possible d'obtenir une information plus détaillée sur l'agrégat en retournant à la liste des mots qui le constituent. Rendre compte de la dynamique d’un secteur revient à identifier ces sous-réseaux, à caractériser leur contenu et à suivre leur évolution. Pour simplifier l’analyse nous proposons une distinction supplémentaire qui a pour but de sélectionner les agrégats ayant un fort pouvoir de structuration du réseau général. C’est dans cette perspective que, parmi tous les agrégats principaux d’un fichier, nous identifions ceux dont dépendent au moins deux agrégats secondaires (non liés entre eux) et nous les nommons: agrégats carrefours. Les agrégats carrefours par leur caractère hybride et leur pouvoir de connexion jouent un rôle essentiel dans l'organisation et la transformation d’un réseau. Un dernier commentaire sur cette classification ( agrégat isolé, agrégat principal carrefour, agrégat principal et agrégat secondaire). On pourrait être tenté de considérer comme artificielle la distinction entre agrégat principal et agrégat secondaire puisqu’ elle est conçue pour mettre en évidence les liens entre des ensembles arbitrairement séparés. En réalité, du point de vue de l’analyse et de l’interprétation, cette distinction est très utile et doit être conservée: l’agrégat principal dessine en effet le coeur d’un sous-réseau donné dont il constitue en quelque sorte le noyau dur. De cette observation il résulte que les agrégats principaux et, parmi eux, les agrégats carrefours identifient les problèmes focaux et structurants du domaine étudié. Toute analyse doit commencer par leur étude. Caractérisation des agrégats en fonction de leur centralité et densité Identifier des agrégats, décrire les liens qui les unissent, mettre en évidence leur organisation interne constitue une première étape dans la description du réseau ( on appelle réseau l’ensemble du réseau des mots-associés dans un fichier donné). Il reste ensuite à caractériser la morphologie d’ensemble de ce réseau et la contribution de chacun des agrégats à sa structuration. C’est dans ce but que nous introduisons deux notions, celle de centralité et celle de densité, qui sont destinées à mettre en évidence la contribution des différents agrégats à la structuration du réseau général. La centralité rend compte pour un agrégat de l’intensité de ses liens avec d’autres agrégats. Plus ces liens sont nombreux et forts, et plus l’agrégat désigne un ensemble de problèmes de recherche qui sont considérés comme cruciaux par la communauté des scientifiques ou des technologues. Formulée dans le langage de la sociologie de la traduction, cette proposition signifie que l’agrégat en question est un point de passage obligé: investir dans

ce secteur est une nécessité pour tous ceux qui s’intéressent aux agrégats qui lui sont associés. Sa position est stratégique. La mesure de la centralité d’un agrégat quelconque peut être opérée suivant plusieurs méthodes: par exemple en sommant les carrés de tous les liens (mesurés par l’indice d’équivalence) qui l’unissent à d’autres agrégats; ou plus simplement, et c’est la méthode que nous avons retenue, en calculant la moyenne des six premiers liens avec les autres agrégats. Quelle que soit la mesure retenue, elle permet de ranger les différents agrégats issus d’un fichier par ordre de centralité croissante. La densité vise à caractériser l’intensité des liens qui unissent les mots qui composent un agrégat donné. Plus ces liens sont forts et plus les problèmes de recherche correspondant à l’agrégat constituent un ensemble cohérent et intégré. La densité fournit une bonne représentation de la capacité de l’agrégat à se maintenir et à se développer au cours du temps dans le domaine considéré. La valeur de la densité d’un agrégat quelconque peut être mesurée de diverses manières. Nous avons choisi de calculer tout simplement pour chaque agrégat la valeur moyenne de ses liens internes. Cette évaluation permet de ranger les agrégats par ordre de densité croissante. Les diagrammes stratégiques comme visualisation synthétique des réseaux Décrire un réseau, même d’un point de vue statique, est une entreprise difficile. Quant à rendre compte de sa dynamique, cela semble une tâche impossible. Il est donc nécessaire de simplifier les descriptions que nous en donnons, de manière à les rendre manipulables sans pour autant qu’elles soient infidèles. Notre point de départ est la liste des agrégats (qu’ils soient isolés, principaux ou secondaires). Cette liste fournit la description la plus simple du réseau. Elle peut être précisée en faisant apparaître les liens entre agrégats principaux et secondaires, ainsi qu’en mettant en évidence, parmi les agrégats principaux, ceux qui sont des agrégats carrefours. Mais une telle énumération, qui conduit à mettre en évidence les sous-réseaux autour desquels s’organise le domaine, n’est pas suffisante. Elle doit être complétée par une analyse de leur positions respectives et de leurs stabilités relatives. Les notions de centralité et de densité permettent de présenter de façon synthétique et simplifiée la morphologie du réseau et de préparer une étude dynamique. Chaque agrégat étant définissable par sa centralité et par sa densité, il est possible de tracer ce que nous appelons, pour des raisons qui s’éclaireront par la suite, un diagramme stratégique. Ce

diagramme est obtenu en rangeant les agrégats horizontalement (suivant l’axe des x ) par ordre de centralité croissante, et verticalement (suivant l’axe des y ) par ordre de densité croissante. Cette opération permet de classer tous les agrégats en quatre catégories qui correspondent aux quatre quadrants du diagramme. (figure 2). Figure 2 Les agrégats de type 1 sont à la fois centraux dans le réseau général (ils sont fortement connectés à d’autres agrégats) et parcourus par d’intenses liens internes qui manifestent leur fort degré de développement. Ces agrégats constituent en quelque sorte le centre du domaine: leur position est stratégique et ils sont probablement pris en charge de façon systématique et durable par un groupe de chercheurs bien structuré. Les agrégats de type 2 sont centraux, c’est à dire qu’ils sont fortement connectés à d’autres agrégats, mais la densité de leurs liens internes est relativement faible. De tels agrégats, bien que stratégiques dans le domaine considéré, peuvent en réalité faire l’objet d’investissements dans d’autres domaines connexes: ils correspondent dans ce cas à des points de transferts entre réseaux séparés mais liés les uns aux autres. Ils peuvent également signaler l’apparition, dans un réseau donné, de problèmes de recherche qui deviennent centraux mais qui n’ont pas encore fait l’objet d’investissements conséquents: ils sont en cours de maturation et leur importance pour le domaine est déjà signalée par leur forte centralité. Quelle que soit l’interprétation donnée (on ne peut choisir entre l’une et l’autre que sur la base d’une comparaison de réseaux ou d’une analyse dynamique d’un réseau donné), les agrégats du type 2 méritent l’attention: ils désignent des problèmes importants pour l’avenir du domaine, soit parce qu’ils constituent des interfaces avec d'autres réseaux, soit parce qu’ils sont en passe de devenir centraux et développés (et par conséquent de se déplacer vers le quadrant 1). Les agrégats de type 3 sont peu centraux - nous proposons de les qualifier de périphériques- et l’intensité de leurs liens internes (forte densité) laisse penser qu’ils correspondent à des problèmes de recherche dont l’étude est bien développée. Il peut s’agir d’agrégats qui, dans une phase antérieure, étaient centraux mais qui tout en demeurant l’objet d’investissements importants se sont progressivement marginalisés, agrégeant de moins en moins d’intérêts autour d’eux: ils apparaissent comme des spécialisations interagissant faiblement avec les autres sous-réseaux. Les agrégats de type 4 sont à la fois périphériques et peu développés. Ils représentent les marges du réseau. Seule une analyse dynamique (l’évolution du réseau sur plusieurs périodes) ou comparative (les relations du réseau avec d’autres réseaux) permettent de préciser leur contribution au domaine.

Cette classification des agrégats, visualisée sous la forme d’un diagramme stratégique dont la lecture est aisée, fournit une description plus fine de l’état d’un réseau donné, de la position et du degré de développement des agrégats qui le constituent. Le fait que deux agrégats soient proches l’un de l’autre sur le diagramme stratégique, ne signifie pas qu’ils soient liés l’un à l’autre: la seule conclusion qui puisse être tirée de cette observation est que leurs indices de centralité et de densité ont des valeurs voisines! L’analyse de la transformation des réseaux et de leurs interactions Les paragraphes précédents ont été consacrés aux méthodes de description statique des réseaux. Il reste maintenant à proposer des outils pour étudier les transformations d’un réseau au cours du temps (analyse dynamique) ainsi que les rapports, à un moment donné ou pour des périodes de temps différentes, de deux réseaux distincts (analyse des interactions). Avant de se lancer dans la présentation de l’analyse, il convient de faire une observation importante. D’un point de vue strictement méthodologique, et bien que les interrogations théoriques sous-jacentes soient très différentes, l'analyse dynamique des réseaux et l’analyse de leurs interactions peuvent être conduites de la même façon. Dans les deux cas il s’agit en effet de répondre à la question générale suivante: soient deux (ou plusieurs) réseaux: en quoi sont-ils comparables? Comment décrire leurs ressemblances et leurs différences? Qu’ont ils en commun? Pour être semblables, ces questions n’en sont pas moins redoutables. Et il serait vain de vouloir y répondre de manière exhaustive, tant est grande la complexité des réseaux à comparer. Pour aboutir à des résultats partiels mais satisfaisants, nous utiliserons comme point de départ, la description simplifiée des réseaux , telle que nous l’avons proposé précédemment. La comparaison des réseaux: analyse dynamique et analyse des interactions Soit deux réseaux R1 et R2. Comme nous l’avons déjà souligné, il peut s’agir de deux réseaux à des périodes différentes (par exemple le réseau de la science académique en 70 et 80), ou de deux réseaux distincts à la même période ( par exemple la science académique en 70 et la recherche appliquée en 70) ou encore deux réseaux distincts à des périodes différentes (par exemple la science académique en 70 et l'innovation technologique en 80). Dans tous les cas la procédure suivie sera la même car les problèmes de comparaison se posent dans des termes identiques. Les différentes étapes de la comparaison se décomposent comme suit: a) comparaison des agrégats:

Soit C1 l’ensemble des agrégats du réseau R1 et C2 l’ensemble des agrégats du réseau R2. Le degré de similitude de deux agrégats quelconques C1i et C2j sera mesuré par le nombre de mots qu’ils ont en commun (qui est la manière la plus simple de mesurer ce que l’on pourrait appeler leur indice de recouvrement). A chaque C1i de R1 il est donc possible de faire correspondre une liste d’agrégats de R2 (ayant au moins un mot en commun avec C1i ) puis de classer ces agrégats selon le nombre décroissant des mots clés qu’ils partagent avec lui. Un fois cette opération effectuée pour tous les agrégats de R1, on est en mesure d’établir un tableau de correspondances entre les deux listes faisant apparaître les agrégats entre lesquels des similitudes ont été mises en évidence. Pour simplifier ce tableau il suffira alors d’adopter une règle consistant à ne retenir que les correspondances les plus marquées (par exemple deux agrégats ne seront déclarés comparables que s’ils ont plus de trois mots en commun). Nous définirons également un indice de transformation (t), qui mesure en quelque sorte l'écart entre deux agrégats donnés: cet indice est le rapport entre le nombre total de mots utilisés pour décrire le contenu des deux agrégats (un mot n'est compté qu'une fois s'il intervient dans l'un et l'autre des agrégats) et le nombre de mots communs. Si l'agrégat Ci est défini par 7 mots et l'agrégat Cj par 4 mots, et si sur ces 11 mots, 4 sont communs aux deux agrégats, l'indice de transformation sera t = (11-4)/4 = 1,75. A un agrégat de R1 peuvent correspondre plusieurs agrégats de R2. Ces correspondances devront être examinées au cas par cas en fonction des questions posées. On verra par exemple qu’à l’agrégat "résine époxyde" issu d’un fichier d’articles de recherche académique de base correspondent plusieurs agrégats qui peuvent lui être liés dans un fichier rassemblant des articles plus proches des applications industrielles. Ceci ne doit pas surprendre: les contextes industriels d’utilisation des résines sont multiples. Et selon que l’on désirera suivre les résines époxydes elles-mêmes ou, de façon plus générale, la technique de durcissement des résines, on sélectionnera tel ou tel agrégat plutôt que tel autre en fonction des mots clés qu’ils contiennent. b) comparaison des positions sur les diagrammes stratégiques Une fois établies les éventuelles correspondances entre les agrégats de l’un et l’autre réseau, il reste, de manière à avancer dans l’étude comparée de ces réseaux, à examiner la position, sur le diagramme stratégique, des agrégats entre lesquels des similitudes ont été mises en évidence. Cet examen conduit à des interprétations mettant par exemple en évidence que tel agrégat, central et dense dans R1, occupe une position périphérique et est peu développé dans R2, ou qu’à l’inverse tel autre agrégat, qui dans R1 est central mais encore peu développé, se trouve dans R2 dans la quadrant 1. Ces analyses sont riches d’enseignements, qu’il s’agisse de comparer un même réseau à des époques différentes (analyse dynamique) ou d’examiner

les interaction entre réseaux à la même époque ou à des moments différents (analyse des interactions). Elles permettent d’aller plus loin que le seul bilan des correspondances entre agrégats, pour faire apparaître la position relative et le degré de développement des agrégats, considérés comme proches, au sein de leurs réseaux respectifs. c) La courbe du cycle de vie des agrégats L’analyse peut être affinée lorsqu’elle porte sur la dynamique d’un même réseau, c’est à dire sur ses transformations au cours du temps. Dans ce cas il est possible de figurer les déplacements des agrégats sur le même diagramme stratégique. Mais il est également envisageable d’aller plus loin dans l’étude de la dynamique en suivant, pour les agrégats qui se maintiennent au cours du temps, l’évolution des indices de centralité et de densité ainsi que la transformation progressive de leur contenu. Considérons par exemple le réseau R aux temps T0, T1, T2, T3, T4, T5. Supposons que l’analyse comparative des états du réseau à ces différents moments ait mis en évidence une série d’ agrégats liés les uns aux autres. A l’agrégat C10 (première période), correspond en seconde période l’agrégat C17. A l’agrégat C17 correspond en troisième période l’agrégat C3. A C3 correspond en quatrième période C23, puis C4, C8... On appellera “série” une telle liste d’agrégats similaires. D’autres séries peuvent être mises en évidence: C9, C21, C14, C31... ; C33, C2, C1, C6... Une série donnée peut s’interrompre à un moment, une autre ne démarrer qu’au bout d’un certain temps (par exemple en T3): on imagine sans difficulté toutes les configurations envisageables. Il est évident que plus un réseau est stable et plus nombreuses sont ces séries qui font apparaître les filiations temporelles des agrégats. L’existence de ces filiations constitue en elle-même une information précieuse. Cette analyse peut être enrichie en mettant en évidence pour chaque série: - La transformation progressive des agrégats qui se succèdent: en effet, il se peut très bien, étant donné le principe de construction de ces séries, que l’agrégat C23 de la quatrième période soit très différent de l'agrégat C10 de la première période voire même qu’il ne partage aucun mot avec lui: dans ce cas les déformations progressives aboutissent, au bout d’un certain temps, à une redéfinition radicale des problèmes de recherche, entre lesquels une filiation existe néanmoins. A l’inverse une série peut se mettre en place sans que le contenu des agrégats ne se transforme profondément. Il est assez facile de visualiser l’intensité de ces transformations à l’aide d’un graphique dans lequel l’axe des x correspond au temps, l’axe des y représentant de façon cumulée le degré de dissimilitude de deux agrégats successifs, (mesuré par l'indice de transformation). Plus la pente de la courbe retraçant cette évolution est forte et plus la transformation des agrégats est rapide; plus elle est faible et plus leur stabilité est forte. (figure 3) - L’évolution de l’indice de centralité et de l’indice de densité au cours du temps: les variations de ces deux valeurs, pour une série d’agrégats donnée, sont suivies au cours du temps et visualisées grâce à deux axes de coordonnées: l’axe des x correspond au temps;

sur l’axe des y sont portées la densité et la centralité. Sur le même graphique figurent également le nombre des documents correspondant à chaque agrégat de la série (ceci permet de suivre le volume des activités au cours du temps), ainsi que leur nombre cumulé au cours du temps. Ces courbes apportent des informations précieuses. Elles permettent de constater par exemple qu’un agrégat devient au cours du temps de plus en plus (ou de moins en moins) central et que parallèlement sa densité augmente (ou diminue). Ces observations peuvent être mises en relation avec l’importance de l’effort (en terme de nombre de documents) consenti par la communauté des spécialistes sur ces problèmes de recherche. Comme on le montrera par la suite, les formes de ces courbes peuvent être classées en quelques grandes familles qui font penser aux cycles de vie des produits, bien connus des économistes. L’ensemble de ces informations ( vitesse de transformation des agrégats d’une série, évolution de l’indice de centralité et de l’indice de densité, nombre de documents des agrégats de la série) peut être rassemblé sur un même schéma (figure 3). Figure 3 Quelques règles pratiques destinées à simplifier l’analyse comparative La procédure qui vient d’être exposée ne présente pas de difficulté particulière de mise en œuvre. Appliquée mécaniquement elle peut néanmoins conduire à des résultats dont l’abondance rend la synthèse difficile. Pour simplifier l’analyse nous avons suivi une démarche dont l’objectif est de faire apparaître les transformations les plus profondes, lorsqu’il s’agit d’étudier la dynamique d’un réseau (lié à un fichier), et les interactions les plus saillantes ( à la fois par leur permanence et par le caractère cruciale des agrégats sur lesquelles elles portent), dans le cas de l’analyse des relations entre plusieurs fichiers. Ceci n’interdit pas une analyse plus fine et plus exhaustive. Pour caractériser les évolutions lourdes ou les interactions les plus significatives, nous avons décidé de limiter les comparaisons aux agrégats qui, à un moment donné ou/et dans un réseau donné, se trouvent être des agrégats carrefours. Cela signifie que nous établissons la liste exhaustive de tous les agrégats carrefours pour les fichiers considérés et ceci pour toutes les périodes retenues. Chacun de ces agrégats est pris en considération, quels que soient le fichier et la période, et est utilisé comme point de départ pour l’analyse comparative dont le but est d’établir: a) pour un fichier donné des séries d’agrégats entre lesquels des filiations sont mises en évidence; b) pour plusieurs fichiers les correspondances entre agrégats.

Cette analyse, qui porte de manière exhaustive sur tous les agrégats carrefours pris un à un (et pour lesquels sont établies les listes d'agrégats auxquels ils correspondent dans les réseaux soumis à la comparaison), ne se limite pas strictement à ceux-ci. Il peut très bien arriver qu'à un agrégat carrefour de R2 à T3, corresponde un agrégat, isolé ou secondaire, voire principal mais sans être carrefour, de R3 en T2. Cet agrégat est bien entendu pris en considération pour l'analyse comparative, bien qu'il ne soit pas lui même carrefour. Exprimée dans des termes plus abstraits la règle est donc la suivante: dans toutes les correspondances envisageables ne sont retenues que celles qui conduisent à prendre en considération, à travers la constitution de séries ou de comparaisons en chaîne, au moins un agrégat carrefour. La signification de cette règle est claire: parmi toutes les évolutions et les interactions observables ne sont sélectionnées que celles mettant en cause les problèmes de recherche qui, à un moment donné, ont eu un fort pouvoir structurant dans les réseaux considérés. Thèmes et acteurs A chaque document du fichier sont généralement associés une série de descripteurs qui permettent d'identifier les acteurs qui ont été impliqués dans sa production et à qui il est attribuable. C'est ainsi que pour un article scientifique, on dispose du nom des auteurs et des laboratoires, mais également d'informations sur la revue, l'année de publication, le pays d'affiliation du laboratoire. Il en va de même pour les brevets. Ceci permet de retrouver derrière les thèmes, les acteurs qui les mettent en forme, les transforment et les mettent en relation. D'une analyse stratégique des thématiques on passe ainsi à une analyse stratégique des acteurs, qui sont définis par les positions qu'ils occupent dans le réseau e ainsi que par leur capacité de le (re)structurer. L'identification des acteurs n'est pas compliquée. Il suffit, pour un agrégat donné, de délimiter la population des documents qui contribuent à le créer. Pour opérer cette partition, plusieurs critères peuvent être envisagés. On considérera par exemple qu'un document, pour être attribué à un agrégat donné, doit comporter au moins deux des mots associés par cet agrégat. Si l'on est moins exigeant on retiendra tous les documents qui contiennent au moins un mot présent dans la liste de ceux qui définissent l'agrégat, rassemblantainsi non seulement ceux qui participent de manière active à la formation de l'agrégat, mais également tous ceux qui se situent dans sa mouvance. Bien entendu, quel que soit le critère retenu, il se peut qu'un document soit classé dans plusieurs agrégats: une telle éventualité n'a rien de gênant puisqu'elle découle directement des stratégies de traduction à l'œuvre dans les articles. Associer les experts

La procédure mise en place est entièrement automatisée. Les interventions humaines sont réduites au strict minimum: au tout début lorsqu'il s'agit de constituer le (ou les) fichier(s) de documents soumis à l'analyse (cette intervention est inévitable puisque le contenu des fichiers dépend évidemment des questions posées); dans les premiers moments de l'indexation par Lexinet (si cette stratégie a été choisie) pour établir le lexique et l'antilexique. L'ordinateur effectue tous les autres traitements: il fournit les agrégats (carrefours, principaux, secondaires), calcule leurs indices de centralité et densité, établit les courbes des cycles de vie, repère les similitudes entre agrégats appartenant à des fichiers différents… La question qui se pose alors est la suivante: cette délégation de l'expertise à l'ordinateur aboutit-elle à des résultats satisfaisants? Plusieurs tests au cours des dernières années ont été réalisés. Ils ont porté pour l'essentiel sur la pertinence des thèmes identifiés par Leximappe. L'étude réalisée à la demande du gouvernement irlandais sur la technologie dans le domaine des céramiques comportait par exemple une phase de discussion des résultats par des experts du domaine. Huit personnalités furent ainsi désignées par l'IIRS. Deux experts provenaient de l'industrie, deux de l'université et quatre d'instituts de recherche. A partir de l'analyse d'environ 16000 brevets, 26 macro-thèmes ont été identifiés. Pour chacun de ces thèmes il a été demandé aux experts de réagir sur sa pertinence mais également sur l'intérêt qu'il pouvait représenter pour l'Irlande, pour la technologie mondiale, pour l'établissement de coopérations entre l'université et l'industrie, et plus généralement pour les retombées économiques. Les commentaires apportés par les experts montrent la richesse des discussions provoquées par l'examen des résultats. Prenons le cas de l'agrégat: ceramic powders with controlled particle size and porosity. La présence du zirconium dans la liste des mots définissant le thème a entraîné des réactions d'étonnement et ouvert des pistes de réflexion: pourquoi cet intérêt pour le zirconium qui statistiquement dépasse les autres substances possibles? Un des experts suggéra l'explication suivante: "ses propriétés mécaniques et physiques sont bonnes; il est inerte; c'est très important pour l'avenir de l'industrie". Ce type de réactions souligne la fécondité de Leximappe: la méthode ne vient pas se substituer aux experts, elle apporte des données qui stimulent la discussion et la réflexion. Le tableau 1 fournit un exemple des diverses appréciations apportées par les experts pour le même thème. Elles montrent la pertinence de celui-ci ainsi que la richesse des commentaires suscités. Tableau 1 La même expérience a été répétée à plusieurs reprises. Peu à peu s'est imposée l'évidence suivante: les experts doivent être associés étroitement aux différentes étapes du traitement. Leur intervention au tout début de l'étude est capitale: ils fournissent de précieux conseils pour identifier les documents pertinents et constituer les fichiers. Au fur et à mesure que les résultats apparaissent, ils peuvent par les questions que ceux-ci leur

suggèrent proposer telle ou telle investigation, tel ou tel traitement. Dans le même mouvement ils s'approprient les résultats de l'étude. La situation la pire est celle dans laquelle le groupe d'experts se contente de prendre connaissance, en bout de course, des conclusions: la complexité de l'outil, qui constitue en même temps sa richesse, suppose un long apprentissage et une imprégnation qui minimisent les probabilités de rejet. L'outil doit aider les experts et non se substituer à eux! III. LES RESULTATS La structuration d'un domaine A la demande du CNRS, dans le cadre de la préparation de son rapport de conjoncture, une étude a été entreprise sur la recherche dans le domaine "terre et système solaire". En étroite concertation avec les experts désignés par le CNRS huit fichiers séparés correspondant à huit sous domaines ont été constitués. Pour chacun d'entre eux les diagrammes stratégiques ont été établis. L'observation de ces diagrammes nous a permis de distinguer trois types d'organisation des thèmes (Figure 4) -catégorie 1: une répartition des thèmes autour de la première bissectrice (quadrant 1- quadrant 2) indique que le domaine s'organise autour d'un noyau de thèmes bien structurés et bien développés, auxquels sont liés une série de thèmes périphériques et peu développés; c'est le cas du domaine "manteau et noyau terrestre" -catégorie 2: une répartition des thèmes autour de la seconde bissectrice (quadrant 2+quadrant 4) indique un domaine en voie de structuration ou de déstructuration: peu de thèmes sont en position centrale et le réseau est très polycentrique; c'est le cas des domaines suivants: précambrien, croûte terrestre, planètes et météorites, soleil et magnétosphère terrestre -catégorie 3: une répartition égale des thèmes dans les différents quadrants caractérise un domaine dont la structure est très complexe et riche puisqu'on trouve toutes les familles de thèmes: certains sont centraux d'autres périphériques, et les divers degrés de développement sont présents. Une telle configuration, qui rassemble toutes les familles possibles d'agrégats (agrégats stabilisés, en émergence ou en cours de développement), suggère une dynamique importante du domaine (c'est le cas de: tectonique globale, magma) Figure 4 Les diagrammes: acteurs et stratégies

Un des avantages de la méthode des mots associés est de faire apparaître les thématiques telles qu'elles sont définies par les chercheurs eux mêmes à travers leurs multiples interactions, et non a partir d'une classification a priori. On peut ainsi caractériser la stratégie suivie par les chercheurs d'un pays en appréciant leur contribution à la dynamique d'un domaine. Prenons le cas du domaine "tectonique globale", qui se range dans la catégorie 3. La figure 5a fournit le diagramme stratégique du domaine, chaque thème étant placé dans le quadrant qui correspond à ses indices de centralité et de densité. En gras souligné figurent les thèmes qui correspondent à une spécialisation marquée de la recherche française: les spécialisations moyennes et faibles sont également indiquées sur le diagramme83. Collectivement, dans un domaine dynamique, les scientifiques français ont bien réparti leurs activités et sont vraisemblablement prêts à s'engager dans d'éventuelles voies prometteuses. Par contraste la situation apparaît très différente dans le domaine : "Croûte terrestre" (figure 5b). Les spécialisations françaises sont absentes du premier quadrant. Ce choix collectif est sans doute justifiable puisque la France, par chance, n'est pas directement menacée par les séismes. Figures 5a et 5b Une autre manière de caractériser, de manière comparative, le contenu des recherches conduites dans différents pays est de constituer autant de fichiers distincts que de pays étudiés, chaque fichier rassemblant les publications des auteurs du pays considéré. Ceci permet d'identifier les thématiques privilégiées par une communauté nationale, indépendamment du contexte international dans lequel elle se situe, puis de comparer les choix opérés. C'est ainsi que dans les sciences de l'information, les orientations de recherche suivies par les chercheurs français et britanniques apparaissent très différentes. Deux fichiers ont été constitués à partir de la section "Sciences de l'Information" de la base Pascal: le premier rassemble les articles provenant explicitement de laboratoires français (soit 348 documents pour 1987-88), le second est constitué de publications signées par des auteurs britanniques (580 documents pour la même période). On observe que pour un nombre d'articles inférieur (348/535) les laboratoires français s'organisent autour de thèmes de recherche plus nombreux que les laboratoires anglais (7/6). De plus la densité moyenne de ces thèmes est trois fois plus élevée pour les labos français que pour les labos anglais (17/5). Autrement dit, les labos français se caractérisent par des thèmes de recherche très cohérents et spécialisés. Les laboratoires anglais établissent une intégration plus forte entre leurs différents sujets d'études. Si l'on examine le contenu des différents thèmes et leurs liens, on est amené à constater que du côté français l'absence d'intégration signifie une

83Le taux de spécialisation est calculé de manière très classique comme le rapport entre la part des

publications dans le thème et la part des publications dans le domaine considéré (supérieur à 1 il indique l'existence d'une spécialisation). Ce qui frappe c'est la bonne répartition des points forts et faibles.

dissociation forte entre sujets académiques et sujets appliqués, tandis que la recherche anglaise réalise une fusion plus complète des enjeux de la profession et de la discipline (figure 6). Figure 6 La souplesse de l'analyse des mots associés permet d'autres types de caractérisation des acteurs. A la demande des ministères de la recherche et de la coopération, nous avons comparé les thématiques des recherches françaises en sciences sociales portant sur la zone pacifique et l'océan indien, selon qu'elles étaient ou non consacrées à des DOM/TOM (Polynésie, Réunion, Nouvelle Calédonie). A partir de l'observation du diagramme stratégique, nous avons mis en évidence que les recherches consacrées à la Polynésie ou à la Nouvelle Calédonie portent majoritairement sur les rapports de ces territoires avec la métropole tandis que lorsque les chercheurs français étudient (par exemple) la Nouvelle Guinée, c'est pour s'intéresser à des questions ethnologiques et anthropologiques plus traditionnelles (mythes, structures de la parenté). Un tel réultat est d'un grand intérêt du point de vue de la politique scientifique, car il montre la faible capacité des chercheurs français d'échapper aux déterminations politiques. Une réorientation des recherches, visant à traiter de la même manière les territoires français ou non français, mérite d'être examinée. Les cycles de vie des thèmes de recherche et leurs interactions L'analyse peut être plus fine et s'appliquer à un thème particulier, en faisant apparaître les principales caractéristiques de son cycle de vie. Ceci nous a permis de tracer des courbes analogues à celles qui sont présentées sur la figure 7. On voit par exemple l'évolution du thème plastique thermostable (le fichier analysé rassemble toutes les publications relevant de la recherche appliquée dans le domaine des polymères). La courbe retraçant l'évolution de l'indice de centralité met en évidence la modification du caractère stratégique du thème: de 1972 à 1976, les recherches sur les thermostables deviennent de plus en plus centrales, c'est à dire que leur effets d'entraînement croissent de manière spectaculaire, puis la centralité diminue pour augmenter à nouveau de 82 à 86. La densité, c'est à dire le degré de développement du thème, se maintient et augmente même au cours de la période. Une autre courbe, décrivant les variations de l'indice de transformation, met en évidence les modifications du contenu du thème au cours du temps. On voit que dans ce cas le positionnement stratégique du thème en 76 s'accompagne d'une assez importante redéfinition de son contenu: pour intéresser leurs collègues les scientifiques sont parfois amenés à modifier la formulation des problèmes sur lesquels ils travaillent.

Figure 7 Ces courbes peuvent être utilisées pour comparer l'évolution de la recherche académique et de la recherche appliquée afin de répondre à des questions comme celle-ci: quels sont les sujets sur lesquels un investissement préalable dans la recherche fondamentale a permis le développement de recherches appliquées? ou à l'inverse, quelles applications technologiques ont suscité des recherches de base? Parmi les neuf fichiers que nous avons constitué pour notre analyse de l'impact des politiques publiques d'aide à la recherche dans le domaine des polymères84, un fichier rassemblait les publications académiques dans le domaine des polymères tandis qu'un autre ajoutait au précédent toutes les publications à caractère plus technique ou "appliqué". Pour chacun de ces fichiers nous avons mis en évidence les thèmes stratégiques et en particulier ceux dont, à un moment où à un autre, l'indice de centralité a atteint des valeurs élevées. Pour donner une idée de l'intérêt de la méthode des mots associés, prenons deux cas: celui du greffage et de la conductivité (figure 8). Ces deux thèmes se retrouvent à la fois dans la recherche appliquée et dans la recherche académique. Il est aisé de suivre l'évolution relative de leurs indices de centralité dans les deux fichiers. Dans la recherche académique, après avoir décru, la centralité du thème greffage se met à augmenter de manière continue; le même mouvement s'observe, mais avec un décalage, dans la recherche appliquée. Tout se passe comme si la recherche de base permettait à un axe de recherche très lié aux applications de retrouver un dynamisme qui lui manquait. Bien entendu, il ne s'agit là que de présomptions qui demandent à être étayées: l'examen des courbes de densité rend plausible cette interprétation que nous avons vérifiée en analysant finement le contenu des thèmes dans les deux fichiers. Le thème conductivité s'inscrit dans une dynamique sensiblement différente. La centralité de cet axe, au sein de la recherche appliquée, croît tout au long de la période, mais une rupture de pente importante se produit en 80. Quant à la centralité dans la recherche académique elle diminue jusqu'en 78, pour croître puis décroître brutalement. Ces courbes suggèrent que la recherche appliquée a pu jouer un rôle déclancheur et réveiller l'intérêt des chercheurs fondamentalistes pour le thème; ceux-ci, après un investissement aboutissant rapidement à des résultats suffisamment significatifs pour relancer la recherche appliquée, ont pu ensuite délaisser cet axe qui devenait du même coup moins attractif. Là encore cette analyse est soutenue par une étude plus détaillée du contenu des thèmes. Figure 8 Ces deux exemples montrent qu'il est possible d'établir l'existence de relations entre des domaines de recherche amont et aval, et de faire apparaître la pertinence de certaines 84Voir la section: quels fichiers de documents utiliser?

activités, c'est à dire leurs effets indirects sur d'autres activités. On peut ainsi répondre à des questions comme celles-ci: les thèmes scientifiques soutenus par tel programme public ont-ils amélioré au cours du temps leur position stratégique? (en d'autres termes: se sont ils fortement liés à d'autres axes de recherche dont ils ont, directement ou indirectement, stimulé le développement?); ont-ils été choisis de manière à pouvoir féconder des technologies?; l'action publique a-t-elle anticipé ces mouvements ou s'est-elle contentée de les suivre? Nous allons montré le type de réponse qu'il est envisageable d'apporter à quelques unes de ces questions. Le tableau 2 présente les résultats d'une analyse consacrée à la recherche académique sur les polymères. La colonne de gauche fournit la liste des thèmes qui ont occupé une position stratégique au cours des années 70 et 80 (indices de centralité et de densité élevés). La deuxième colonne indique la date d'apparition du thème, tandis que la troisième fournit la date à laquelle le thème est devenu stratégique. C'est ainsi que le thème thermostable est stratégique dès son apparition et le demeure tout au long de la période, tandis que le thème caractérisation transition vitreuse ,qui est présent dès le début, n'occupe une place centrale qu'au cours des années 81-83. La colonne suivante fournit une indication encore plus précise sur la date à laquelle le caractère stratégique du thème atteint son maximum. Nous avons en effet calculé, pour chaque thème, un indice de centralité qui mesure très exactement sa participation au développement d'autres thèmes: les dates auxquelles cet indice atteint son maximum figurent dans cette colonne. Les autres colonnes donnent des informations sur les soutiens apportés par la DGRST: période pendant lesquelles des subventions ont été accordées; plus ou moins grande similitude entre les thématiques des projets soutenus par la DGRST et le contenu des axes de recherche développés au même moment par la communauté scientifique. Un tel tableau permet d'apprécier la pertinence du programme: une subvention sera d'autant plus pertinente qu'elle aura contribué à soutenir au bon moment des laboratoires sur des thèmes qui se sont révélés par la suite stratégiques. Un tel outil de positionnement peut être utilisé rétrospectivement, pour apprécier une action passée, ou pro-activement pour aider à la conception de programmes à venir. Tableau 2 Le même type d'analyse peut être appliqué aux relations entre recherche scientifique et invention technologique, et à l'évaluation de leurs effets croisés. On sait qu'un indicateur d'activité technologique est le brevet. Les limites et les avantages de ce type d'indicateurs sont désormais bien connus. Dans le domaine de la chimie il permet de suivre l'invention technologique (qui est rappelons le distincte de l'innovation) et fournit par conséquent des informations sur les thématiques autour desquelles s'organisent les activités de recherche des firmes. En adoptant une démarche analogue à celle présentée précédemment, nous avons reconstitué l'évolution des secteurs technologiques (par analyse systématique des

brevets) sur lesquels les firmes ont investi une partie importante de leurs activités de RD tout au long de la période considérée. Pour chacun de ces secteurs nous avons établi leur plus ou moins grande centralité, c'est à dire leur capacité d'entraînement sur d'autres domaines techniques. Nous avons comparé ensuite le contenu de ces secteurs avec celui des thèmes de recherche soutenus par les pouvoirs publics tout au long de la même période. La figure 9 donne une idée des résultats auxquels nous sommes arrivés. La colonne de gauche fournit la liste des secteurs technologiques qui occupent en 1967 une position stratégique (quadrant 1): résine époxyde, polyester renforcé (par fibre de verre et phénol) et PVC stabilisation. La colonne de droite reproduit le thèmes, soutenus par la DGRST à un moment ou à un autre, et présentant une similitude avec les secteurs technologiques identifiés comme stratégiques en 67. Nous constatons que les pouvoirs publics ont financé de 63 à 70 des travaux sur les résines époxydes et qu'entre 72 et 76 ils interviennent dans le domaine des polyesters renforcés, qui correspond au second pôle stratégique identifié dans le fichier des brevets en 1967. Pour ces différents thèmes nous avons indiqué les contextes thématiques dans lequels ils s'inséraient (aussi bien pour la technologie que pour l'action DGRST): leur similitude est frappante. En revanche à aucun moment la DGRST ne finance des recherches sur la stabilisation du PVC. De la même manière, il serait possible de comparer les thèmes centraux des brevets de 1985 avec les interventions antérieures de la DGRST (nous n'avons pas porté cette information sur la figure 9). Les correspondances ne sont pas très nettes. Cependant trois thèmes ou groupes de thèmes se retrouvent au moins partiellement: il s'agit de copolymer blend, de polyester film et d' epoxy resin (ce dernier thème se signalant par sa présence au sein de la technologie tout au long de la période). En soutenant ces thèmes entre 72 et 76, la DGRST a fait preuve d'une attention particulière vis à vis des applications et il paraît indubitable qu'une partie non négligeable de ses interventions ont été orientées vers des thématiques dont on se rend compte après coup qu'elles étaient potentiellement importantes sur le plan technologique. Figure 9 Trajectoires et analyse prospective Les derniers exemples présentés fournissent une transition pour aborder la question plus difficile, mais aussi plus intéressante, de l'analyse prospective. La mise en évidence des thèmes de recherche ou d'activité technologique procure une information précieuse sur l'état d'un domaine et la stratégie des acteurs impliqués. Est-il possible d'avoir en outre une idée des évolutions envisageables et de leur probabilité? Cette question est redoutable: une des caractéristiques de la recherche et de l'innovation est de remettre en cause les prévisions et d'échapper aux extrapolations. Les techniques qui, comme la méthode Delphi, s'appuient sur l'identification préalable d'experts sommés d'aboutir à un accord, ont tendance à

privilégier l'orthodoxie. La méthode des mots associés permet, quant à elle, de contourner quelques unes des difficultés inhérentes à la prospective scientifique et technologique en tenant compte de manière exhaustive des stratégies et des choix de tous les acteurs, établissant ainsi un équilibre entre les tendances lourdes et celles qui sont en émergence. Revenons aux cycles de vie des thèmes. Les courbes produites rassemblent une série d'informations sur le contenu de ces thèmes, sur leur positionnement stratégique dans le réseau et sur leur aptitude à se transformer pour améliorer ou maintenir ce positionnement. Analyser un cycle de vie, ce n'est pas seulement saisir la dynamique d'un thème ou d'une spécialité, c'est rassembler et synthétiser des données sur le réseau dont il est partie prenante et à la dynamique duquel il participe. Prenons par exemple le couple indice de centralité/indice de densité. Imaginons un thème qui apparaît à une date donnée dans le quadrant 4 (thème périphérique et peu développé), puis qui se place dans le quadrant 2 (central et non développé): est-il irréaliste d'anticiper qu'il a une bonne chance de passer dans le quadrant 1 pour devenir central et développé, c'est à dire stratégique à l'intérieur du domaine considéré? A cette question une réponse empirique peut être trouvée. Une première piste est à rechercher dans les formes des courbes retraçant les cycles de vie des thèmes de recherche. Existe-t-il des évolutions typiques et lesquelles? Les différents travaux que nous avons effectués nous conduisent à penser qu'il est raisonnable de postuler trois grandes catégories d'évolutions qui correspondent à trois formes de courbe. a) La première correspond à des courbes de centralité et de densité qui passent par un seul maximum au cours de la période considérée. Le nombre (relatif ) de documents suit une évolution identique (un pic en cours de période), tandis que le nombre cumulé des documents (toujours en % du nombre total de documents) correspondant à l'agrégat suit une courbe de type logistique (Figure 10a). Un paramètre permet de distinguer, à l'intérieur de cette famille, plusieurs types d'évolution: il s'agit de l'ordre dans lequel apparaissent les deux maximums, celui de l'indice de densité et celui de l'indice de centralité, ainsi que l'intervalle de temps qui sépare ces deux pics. On observe assez fréquemment, notamment dans le cas de la science académique, une précession de la centralité sur la densité: l'agrégat commence par se lier fortement à d'autre agrégats puis s'engage dans une évolution de développement interne, comme si la recherche des débouchés et des positions stratégiques était un préliminaire aux investissements nécessaires à l'approfondissement d'une ligne de recherche. b) La seconde famille correspond à des courbes de centralité et/ou de densité à deux pics. (figure10b). Dans ce cas, on observe très fréquemment une profonde transformation du contenu de l'agrégat: la filiation existe et se maintient, mais en réalité tout se passe comme si une nouvelle série apparaissait, liée à la précédente, et s'engageait dans une

nouvelle évolution. Là encore la densité suit une évolution qui peut être plus ou moins décalée dans le temps. c) la troisième famille rassemble les courbes qui sont continuellement croissantes ou continuellement décroissantes au cours de la période considérée: centralité, densité, nombre de documents varient continument dans le même sens (Figure 10c). Figure 10 a,b,c. La classification en trois familles ne doit pas être considérée comme un résultat définitif. Il se peut par exemple que la troisième famille soit un cas particulier de la première. Notons un point important: l’analyse proposée est différente des études classiques qui suivent la seule évolution des volumes de publication. A la différence des courbes qui s’apparentent au cycle du produit des économistes, celles que nous traçons permettent de retracer la position des objets (ici des connaissances) dans des réseaux dont ils reçoivent leur définition, et de montrer l’importance des transformations qu’ils subissent. Nous pensons que cet outil devrait être utile en prospective. Si l'on est capable de caractériser la forme générale du cycle suivi par un thème donné, des anticipations, non irréalistes, peuvent être faites sur l'évolution à court et moyen terme. Le problème est celui de l'analyse de formes et de la reconnaissance des familles dans lesquelles elles se rangent. L'étude (rétrospective) des thèmes de recherche académique dans le domaine de la science de polymères, met par exemple en évidence des trajectoires privilégiées dans les mouvements sur le diagramme stratégique: tous les thèmes présents en première période dans le quadrant 2 et qui changent de localisation, rejoignent dans la période suivante le quadrant 1. De ce point de vue il est intéressant de noter que les thèmes qui se déplacent sont généralement ceux qui établissent entre eux des relations: l'accroissement du caractère stratégique semble lié à des opérations de fusion entre thèmes centraux qui augmentent leur développement en s'associant. Pour décider si, à un moment donné, l'évolution de tel ou tel indice se trouve sur une pente descendante ou montante, on pourrait imaginer un travail spécifique sur les inflexions, changements de tendances, retournements de manière à mieux les suivre: une analyse en continu des stratégies des différents chercheurs vis à vis du thème (contribuent-ils à maintenir, à améliorer, à faire décroitre sa centralité, sa densité; le transforment-ils pour obtenir un meilleur positionnement, ou au contraire s'obstinent-ils sur les mêmes problèmes sans se soucier de son évolution stratégique?) pourrait être entreprise un peu comme le font les spécialistes des marchés boursiers en utilisant des méthodes d'analyses de formes des courbes des valeurs des actions ou des obligations (chartisme) pour anticiper les mouvements de spéculation.

C'est dans cette perpective "chartiste" que nous avons entrepris d'explorer l'évolution de certains indicateurs très simples. Prenons le cas des brevets et de l'analyse dynamique de la technologie. Les économistes ont mis en évidence les phénomènes d'irréversibilisation ou de lock in: lorsqu'un secteur technologique fait l'objet d'investissements importants, la probabilité pour qu'il se renforce et rende plus coûteuses les stratégies alternatives est élevée. L'étude leximappe des brevets pris dans l'ensemble du domaine de l'agro-alimentaire confirme ce point. Nous les avons analysés en 1985 et en 1989. Pour chaque thème présent en 1989 dans le quadrant 1 (central et dense), nous avons examiné les variations de c/d entre les deux dates. Si l'évolution tend à rapprocher ce rapport de 1, cela signifie que le thème considéré améliore son positionnement stratégique dans le réseau et que les choix techniques associés se trouvent fortifiés, alors que si c/d s'éloigne de 1 le positionnement devient moins stratégique et la capacité attractive des orientations correspondantes s'affaiblit. La figure 11 confirme la thèse du renforcement: la variation de c/d dépend de la position de sa valeur initiale par rapport à 1. Si, en 1985, le c/d d'un thème est supérieur à 1, alors l'évolution qu'il a suivi jusqu'en 1989 l'a ramené vers une valeur plus proche de 1. De la même manière, si en 1985, c/d est inférieur à 1, l'évolution tend à le rapprocher de 1. Cette valeur correspond donc à un attracteur. Dans le réseau considéré, un thème qui devient central et développé, aligne progressivement sa densité et sa centralité. L'invention technologique Dans le domaine de la technologie l'analyse Leximappe permet de surmonter un certain nombre de difficultés liées aux classifications des brevets. Une classe, par exemple la classe A21 qui correspond dans la codification internationale aux pâtes alimentaires, regroupe souvent des technologies, des types de débouchés commerciaux, des contributions scientifiques très diverses. Il est par conséquent très délicat d'interpréter la variation du nombre de dépôts de brevets dans une classe donnée, car elle peut résulter de la combinaison de plusieurs évolutions simultanées très contrastées. La méthode des mots associés permet de contourner cette difficulté en faisant apparaître pour les brevets d'une classe toute la gamme des thématiques et de leur évolution. Appliquée aux titres normalisés des familles de brevets DERWENT85, l'analyse de mots associés fournit pour la seule classe A21 vingt thèmes (année 89). La figure 11 présente la répartition de ces thèmes sur un diagramme stratégique. Sa lecture est instructive. Ceux qui se trouvent dans le premier quadrant portent sur les différents stades d'élaboration des pâtes alimentaires. C'est ainsi que l'on trouve des thèmes relatifs à l'utilisation d'huiles, de sucre, d'acides gras, de bactéries lactiques pour la

85 Une famille est constituée de l'ensemble des brevets apprentés au même brevet pririotaire dont il représente

une extension dans des pays différents

préparation des pâtes alimentaires ainsi qu'au contrôle de la cuisson et à la congélation-conservation des pâtes. Autrement dit l'invention technologique est fortement structurée par les diverses opérations qui concourent à la production et à la distribution, qu'il s'agisse d'élaborer la pâte, de la pétrir, de la faire lever, de la cuire ou de la conserver et de la distribuer. Ceci met en évidence une forte intégration technologique de l'ensemble de la chaîne: il n'est plus possible de concevoir des inventions à des stades différents qui soient dissociées les unes des autres. Pour tenir le domaine, il faut coordonner ces différentes étapes et accepter la cohérence des produits qui circulent d'un bout à l'autre de la chaîne. Quant aux quadrants 2 (central et peu développé), il rassemble notamment des thèmes portant sur les produits comme "fabrication de gâteaux" et "additifs poudre pommes de terre". Le quadrant 3 comporte un grand nombre de thèmes périphériques mais développés qui portent tous sur des technologies utilisées dans la fabrication des pâtes. En réunissant ces différentes observations, l'image obtenue est très caractéristique du domaine: intégration des inventions qui portent sur les différents produits intermédiaires circulant le long de la chaîne de production et de distribution; forte orientation de ces inventions vers le marché c'est à dire vers le produit final, mais qui constitue plus une préoccupation ou un objectif qu'un domaine d'investigation en tant que tel; inventions technologiques spécifiques (et déconnectées les unes des autres) portant sur les procédés mis en œuvre aux différentes étapes de l'élaboration du produit final. figure 11 Jusqu'ici un des seuls indicateurs utilisés pour apprécier le dynamisme d'un secteur technologique était fourni par le nombre de brevets déposés: c'est ainsi par exemple que sont construits les clignotants de l'INPI (L'Institut National de la Propriété Industrielle est l'office français des brevets). L'hypothèse sous jacente est que lorsqu'une technologie évolue, les brevets déposés sont de plus en plus nombreux (et réciproquement). Cette corrélation, pour probable qu'elle soit, n'est peut être pas aussi générale qu'on le suppose. Il se peut que des inflexions technologiques se produisent, dans un secteur déjà dynamique, sans que le nombre des brevets augmente de manière significative. Prenons le cas des brevets déposés dans le domaine des pâtes alimentaires. L'analyse Leximappe met en évidence un thème "pâte à pain, congélation, fermentation" qui est central et développé (quadrant 1) aussi bien en 1985 qu'en 1989. Ce caractère stratégique est confirmé par le nombre moyen de citations recues par les brevets qui appartiennent à ce thème. Alors que les brevets de la classe A21 (pâte alimentaire) sont cités 0.6 fois (en moyenne) par d'autres brevets, ceux du thème "pâte à pain, congélation, fermentation" le sont quant à eux 0.9 fois. Leur visibilité et leur impact sont plus importants, ce qui confirme leur centralité. Les classifications internationales ne permettent pas d'identifier de tels sous-secteurs pourtant très dynamiques du point de vue de l'invention technologique.

Ce contraste entre l'analyse Leximappe et les interprétations fondées sur les codifications de brevets, est encore plus accusé si l'on considère l'ensemble des thèmes identifiés par l'analyse des mots associés pour le domaine des pâtes alimentaires. Le tableau 3 fournit la liste des agrégats en 85 et 89. Pour chaque thème sont soulignés les mots nouveaux qui apparaissent en 89 et qui indiquent par conséquent les nouveautés technologiques. Pour un d'entre eux (intitulé "High Freqency" car il s'agit de dispositifs tournant utilisant les hautes fréquences), la nouveauté est radicale puisque le thème n'était pas présent en 85; pour cinq autres thèmes, il s'agit d'innovations plus limitées (par exemple les brevets pris sur la pâte à pain portent de plus en plus sur les problèmes de fermentation et de conservation par congélation). On remarque par ailleurs que les thèmes centraux et développés correspondent généralement à de nouvelles thématiques ou configurations technologiques. Voilà donc un secteur, celui des pâtes alimentaires, qui ne semble pas manquer de dynamisme: les inventions technologiques sont nombreuses et diversifiées. Pourtant le nombre des brevets déposés ne croît pas de façon spectaculaire. Si l'on considère l'ensemble du domaine agroalimentaire, la part des brevets pour les pâtes alimentaires passe de 14,20% à 15,08%: on ne peut pas parler d'une explosion. Autrement dit, les comptages classiques, sur la base des classifications établies, dissimulent des mouvements qualitatifs plus fins que Leximappe fait clairement apparaître. Tableau 3 L'analyse se poursuit sans difficulté. Il peut être intéressant par exemple d'identifier les firmes et les pays qui, dans le domaine des pâtes alimentaitres investissent ces 6 thèmes qui sont le siège d'innovations significatives. Sur deux thèmes (parmi ceux qui se transforment le plus) les japonais ont une position de monopole; tandis que sur les autres ils la partagent avec la RFA et l'URSS. Cette analyse peut être étendue à l'ensemble des classes de l'agroalimentaire. Le tableau 4 fournit, pour chaque classe, le nombre de thèmes innovateurs dans lesquels les différents pays sont présents. Tableau 4 Les mouvements de longue période Il peut être intéressant de suivre un domaine de recherche sur la longue période. A. Cambrosio et C. Limoges ont entrepris une étude de ce type portant sur les risques biotechnologiques. Ils ont utilisé la méthode des mots associés pour analyser une base regroupant l'ensemble des publications consacrées à ce sujet sur la période 1912-1988 (Songer Safety Bibliography) . Les résultats montrent à la fois la continuité des thématiques, leur transformation et l'apparition progressive de nouveaux axes: se trouvent

ainsi conciliées les interprétations continuistes et discontinuistes qui sont souvent opposées pour rendre compte de la dynamique des connaissances. Pour illustrer ce point prenons le cas de plusieurs lignes de recherche qui émergent d'une souche commune, se différencient puis, pour certaines, fusionnent au bout d'un certain temps. Le point de départ est un thème de recherche qui apparaît en 1946 et dont le mot central est "cleaning": les termes associés laissent supposer qu'il s'agit de mettre en œuvre plusieurs types de désinfectants, probablement dans des milieux hospitaliers ou dans des laboratoires. Au cours de la période suivante (1956-66), il n'y a plus d'ambiguïté, le lien avec l'hôpital est opéré de manière explicite: il s'agit de lutter contre "Nosocomial disease". De 1946 à 1966 le thème se trouve dans le quadrant 3 (développé et périphérique). De 1966 à 1973, il joue un rôle stratégique en se plaçant dans le quadrant 1: il est alors lié à des thèmes comme: "nonionizing radiation" (inactivation des microbes grâce à des irradiations ultraviolettes), pharmacologie (problème de la résistance microbienne aux antibiotiques), water testing (problème de la contamination de l'eau par les microbes) et "animal isolation" (utilisation d'animaux stériles dans la recherche). En 72-79, le thème rejoint le quadrant 2 et en 79-88 il devient complètement isolé. La figure 12 montre comment de cette série intitulée"cleaning" s'en détache une autre "operating room" qui apparaît en 55-66 et qui couvre deux domaines distincts: le confinement physique des microorganismes et les techniques de stérilisation utilisées en chirurgie et plus particulièrement dans les salles d'opération. La trajectoire suivie est la même: d'abord le quadrant 3, puis le quadrant 1 (en 66-73 et 73-79) et la marginalisation en dernière période. Figure 12 Dans l'un et l'autre cas il s'agit de lignes de recherche qui se poursuivent sur une longue période, après s'être dédoublées, et qui arrivées à maturité se transforment en boîtes noires ne faisant plus l'objet de débats et se suffisant à elles mêmes: les techniques de stérilisation hospitalière, de confinement des microorganismes, sont devenues standardisées et routinisées et ne sont plus au centre des préoccupations de ceux qui s'intéressent aux biorisques. Mais une autre filiation peut être mise en évidence: celle qui relie le thème "cleaning" de 1946 à deux lignes de recherche la première intitulée "Bacteria survival", la seconde "Virus survival". Cette généalogie est intelligible: l'étude des désinfectants a naturellement conduit, d'un côté, à s'intéresser aux mesures de stérilisation et aux dispositifs physiques de confinement et, de l'autre côté, à étudier les responsables, c'est à dire les micro-organismes pathogènes et leur survie. La série "Bacteria survival" apparaît en 1956-66, avant la série "Virus survival" qui commence en 66-73: la virologie étant une discipline plus récente que la bactériologie, ce décalage n'est pas surprenant. En 66-73, les deux séries

sont distinctes, mais elles fusionnent au cours des deux dernières périodes. L'évolution sur le diagramme stratégique est particulièrement claire: lorsqu'ils apparaissent, les thèmes sont isolés et périphériques ; puis ils viennent se placer dans le quadrant 2 (centralité élevée mais faible développement) pour ensuite devenir stratégiques (quadrant 1). Ceci constitue une confirmation très claire de l'importance, au cours des années récentes, des problèmes de sécurité biologique liés à la manipulation dans les hopitaux aussi bien que dans les laboratoires biologiques ou cliniques. Cette même étude fournit une illustration frappante de l'usage qui peut être fait des indicateurs synthétiques destinés à qualifier l'état de plus ou moins grande intégration ou dispersion d'un domaine de recherche. La figure 13 retrace sur la longue période l'évolution des indices moyens de centralité et de densité du domaine. On voit que la densité passe par un maximum en 1946-56: ceci coïncide avec la domination exercée par un programme de recherche, celui de Fort Detrick sur le biological warfare. La discipline est alors une véritable profession: l'intégration ne s'accompagne de l'émergence d'aucune thématique particulière suffisamment centrale et développée pour organiser l'ensemble du domaine (l'indice moyen de centralité continue à décroître). La suite montre une dispersion des thèmes de recherche qui deviennent de moins en moins connectés. Ceci peut être dû au fait que dans ce domaine les thèmes sont définis par des praticiens en fonction des problèmes pratiques rencontrés: ils font appel aux ressources de telle ou telle discipline en tant que de besoin. Figure 13 La structuration d'un potentiel régional de recherche Nous avons appliqué la méthode des mots associés pour étudier le rôle joué par la politique scientifique d'une région dans la structuration du potentiel de recherche. La première étape a été la constitution de deux fichiers rassemblant les articles scientifiques publiés par des chercheurs de la région: le premier correspondant à la période 80-83, le second à la période 84-87. L'identification des publications n'a pas été aisée. Dans la base utilisée (Pascal) les affiliations ne sont pas toujours mentionnées: un recoupement opéré sur un échantillon de 32 laboratoires, pour lesquels nous disposions des listes complètes de publications a montré que nous retrouvions par cette méthode environ 35% des articles publiés. Ce pourcentage pourrait sembler insuffisant pour assurer la validité de l'analyse. Mais l'examen détaillé de ces laboratoires nous a conduit à constater que les publications retrouvées étaient les plus significatives: elles apparaissent dans les revues à fort coefficient d'impact et couvrent la totalité des thèmes abordés par les chercheurs du labo. Sur cet ensemble une analyse Leximappe a été réalisée. Trois grands domaines de

recherche ont été mis en évidence: les sciences biomédicales, la chimie et la physique. Puis chacun de ces domaines a fait l'objet d'une étude plus détaillée, toujours par la méthode des mots associés. Prenons le cas de la chimie. La comparaison des diagrammes stratégiques correspondant aux deux périodes étudiées, met en évidence des transformations profondes (figure 14). Au cours de la première période les thèmes sont organisés autour de la diagonale traversant les quadrants 2 et 4; alors que pendant la seconde période ils se répartissent majoritairement le long de l'autre diagonale. Ceci peut s'interpréter comme un gain en structuration. Figure 14 Si l'on examine le contenu des thèmes, on constate que cette évolution est essentiellement due au rôle croissant et central joué par l'utilisation des rayons X comme technique d'analyse structurale. Dans ces conditions, il est intéressant de mesurer l'importance du soutien régional aux laboratoires développant ces thèmes. Cette information figure sur les diagrammes: pour chaque quadrant et pour les thèmes correspondants nous avons indiqué le volume moyen des subventions reçues par les équipes de recherche impliquées. On voit clairement que la politique suivie par la région a puissamment contribué à la restructuration du domaine qui s'organise autour d'une compétence technique particulière (l'analyse structurale) et des équipements nécessaires à sa mise en œuvre. D'ailleurs ce soutien s'est opéré aux détriments d'autres méthodes: les techniques analytiques recourant à l'ultraviolet ou à la spectrométrie se sont vus progresivement marginaliser dans les diagrammes régionaux. En choisissant de concentrer les aides sur des équipements et des instruments, et en arbitrant en faveur des rayons X, les responsables régionaux ont eu une influence considérable dans la définition des thèmes retenus par les chercheurs de la région. Au delà du soutien apporté à des équipements qui organisent puissamment les recherches, est-il possible d'apprécier l'impact des pouvoirs régionaux sur la structuration du domaine? Pour répondre à cette question, il faut revenir aux laboratoires. Sur la figure 15 chaque rectangle représente un laboratoire financé par la région. Nous concentrons l'analyse sur 12 laboratoires repérés par les lettres allant de "A" à "L". Les thèmes sur lesquels ils publient sont identifiés à l'aide des chiffres figurant sur les diagrammes stratégiques de la figure 14; la force des liens entre les thèmes est représentée par le nombre, variable, de segments qui les unissent. C'est ainsi qu'au cours de la première période, le laboratoire "A" travaillait sur quatre thèmes, trois d'entre eux étant fortement associés dans le réseau régional (1, 2 et 4), le quatrième étant isolé. Les cartes de la figure 15 montrent la cristallisation des choix, en seconde période, autour de l'analyse structurale: le laboratoire "E" semble s'être spécialisé dans l'application des techniques de rayon X (thème 10); un nouveau groupe de labos les utilisent activement ("J", "K" et "L"); enfin, les

premiers promoteurs ("A", "B" et "D") continuent à les développer. On comprend ainsi l'impact de la politique régionale dont on a pu établir qu'elle avait soutenu "A", "B" et "D" et incité "J", "K", "L" et "E" à développer ces méthodes. Figure 15 Ce soutien ciblé et volontariste, qui produit des effets puissants (mais indirects) de structuration, contraste avec la politique de mise en p^lace volontariste de pôles régionaux. Sur les diagrammes de la figure 14, a été indiqué le degré de participation des laboratoires à un pôle régional. On constate par exemple que, en seconde période, les unités impliquées dans les thèmes du deuxième quadrant (qui vont devenir stratégiques en deuxième période) ne participent que faiblement à des structures régionales de concertation, mais recoivent des subventions importantes. Ce faible engagement se confirme au cours des années 84-87. En revanche, toujours en seconde période, les labos travaillant sur les thèmes moins stratégiques des quadrants 3 et 4 appartiennent tous à des groupements et se voient attribuer des crédits en moyenne moins élevés. Ceci met en évidence une politique à double détente: sélective et tournée vers quelques labos sur certains thèmes jugés stratégiques; plus large et qualitative sur les autres thématiques. Le pardoxe est que la structuration la plus forte est obtenue par des actions ciblées et en dehors de toute coordination formelle. Pour chacun des thèmes, on a calculé l'indice d'impact des publications: il ne présente pas de variations significatives, ce qui semble indiquer que la visibilité des chercheurs n'a pas constitué un critère discriminant pour l'octroi des subventions ou la création de structures de concertation. IV.CONCLUSION La recherche scientifique et technique fait surgir de nouveaux objets, met en relation de manière inattendue des domaines d'activité jusque là séparés, fait apparaître de nouveaux acteurs, crée des irréversibilités toujours provisoires, bouleverse l'équilibre des pouvoirs… Ces mouvements sont en grande partie inattendus. La recherche est devenue une ressource cruciale et dans le même mouvement elle multiplie les incertitudes et déjouent les prévisions. Est-on dans ces conditions condamné à l'incertitude et doit-on se résigner à subir passivement ce destin qui parfois attire le succès dans votre camp et à d'autre moment, et de manière complètement imprévisible, le fait basculer dans le camp de l'adversaire? On pourrait être tenté par ce pessimisme radical qui redonne aux aléas toute leur importance. Se laisser glisser sur cette pente, serait cependant méconnaître la réalité des sciences et des techniques et des conditions de leur mise en œuvre. De nombreux auteurs ont souligné que l'innovation ne se produisait pas de manière complètement imprévisible. Certains ont insisté sur l'importance des effets de systèmes,

l'existence de trajectoires, les localisations spatiales, industrielles. L'invention et l'innovation suivent des chemins dont la trajectoire dépend de la succession des coups qui sont joués. Un certain accord s'est formé pour reconnaître que la recherche est faite à la fois de régularités et de subversion de ces régularités. Mais il n'est pas aisé, à partir des cadres intellectuels disponibles, de penser cet étonnant mélange de déterminisme et d'aléas. Une manière originale de sortir de ce paradoxe apparent est de partir des acteurs, de leurs choix particuliers, et des effets de structuration qu'ils produisent. A cette interdépendance stratégique nous avons donné le nom de réseau de traduction. Le réseau de traduction décrit les acteurs, l'autonomie plus ou moin grande dont ils disposent, en même temps que les relations qui limitent cette autonomie. C'est parce qu'il doit se lier à d'autres, et que la nature et la solidité de ce lien dépend directement du contenu de son programme de recherche, que le chercheur ou le technologue fabriquent des contraintes pour lui et pour les autres et sécrètent des régularités. Sa liberté est directement mesurée par sa (relative) capacité à choisir les liens qu'il établit, par la combinaison qu'il introduit entre ressources scientifico-techniques et attentes socio-économiques: mais une fois que ce rapport est établi et accepté, consolidé par des faits ou des artefacts, il est prisonnier de son succès et la trajectoire suivie consolide et développe les associations initiales. Pour réussir il faut s'obstiner; et l'obstination engendre de la prévisibilité! La méthode des mots associés, par l'examen systématique qu'elle permet des stratégies de recherche et des acteurs, rend possible la reconstitution des réseaux de traduction et l'élaboration de cartes stratégiques de la science et de la technologie. Leximappe permet de suivre l'évolution de ces thèmes et de caractériser leur positionnement stratégique. La notion de cycle de vie et les courbes correspondantes fournissent en outre des indications sur les évolutions possibles et rendent réalistes certaines prévisions. De plus la méthode permet d'identifier les acteurs et de caractériser leur stratégie: développent-ils des recherches sur les thèmes les plus novateurs ou au contraire se concentrent-ils sur des secteurs consolidés? Par rapport à d'autre méthodes qui partent des documents publiés en langage naturel86, la méthode des mots associés jouit d'un avantage considérable. Elle est la seule à pouvoir analyser, sans changer de procédures, des articles, des rapports, des brevets et si nécessaire à les mettre en relation. Ceci la rend irremplacable pour analyser l'activité technologique, et les relations entre science et technique. La mise au point de logiciels d'indexation assistée par ordinateur rend la méthode encore plus puissante, puisqu'il suffit de disposer de textes complets sur support informatique, sans avoir à passer par des bases de données fournissant une indexation par mots clés.

86A titre d'exemples citons la lexicométrie (comptage des occurrences de mots), l'analyse morphosyntaxique

(telle que mise en œuvre dans des logiciels du type Spirit), la classification spatiale (KYST, MDSCAL)

Tel qu'il existe actuellement l'outil Leximappe (et sa version Candide pour Apple87) est utilisé pour répondre à une grande variété de questions et par des utilisateurs appartenant à des milieux différents. Les scientifiques sont intéressés par l'identification des tendances dans un domaine, par l'analyse des stratégies des acteurs. Les décideurs trouvent dans la méthode un complément aux points de vue émis par les experts: le dialogue entre la communauté des chercheurs et les politiques se trouve équilibré et enrichi. Les entreprises, quant à elles, obtiennent de manière peu coûteuse des informations sur la stratégie de leurs concurrents, sur les secteurs de recherche qui pourraient les intéresser ainsi que sur l'identité des laboratoires qui pourraient être mobilisés. Cet outil ouvre à lui seul un nouvel espace d'investigation et produit de nouvelles questions. Celles-ci tournent toutes autour de la morphologie des réseaux de traduction, de leur description et de l'analyse de leur dynamique. Le réseau est-il dispersé ou non? Fait-il apparaître localement, et pour quelle durée, des effets de système, des cohérences relativement stables? Met-il en évidence des positions stratégiques, c'est à dire des problèmes dont la solution est cruciale pour toute une série d'autres problèmes? La liste de ces questions pourrait être facilement allongée. Elles se ramènent toutes à une seule et même interrogation: comment mettre en relation la transformationf du réseau avec les différents stratégies dont il constitue l'agrégation? Ceci implique que l'on puisse qualifier les stratégies (de traduction) par la manière dont elles agissent sur le réseau et le déforme (une stratégie crée des points de passage obligé, met en concurrence des thèmes de recherche..), et qu'à l'inverse on puisse faire apparaître les différentes configurations stratégiques d'un réseau (réseau "capitalisé" par un point qui en contrôle une série d'autres, réseau multipliant au cours du temps la pluralité des chemins pour aller d'un point à un autre...). Cette analyse stratégique de la morphologie des réseaux, qui permettra de mieux décrire et de mieux comprendre les interactions compliquées entre science, technologie et interventions politiques, constitue un vaste domaine de recherche. Dans cette présentation, nous avons montré qu'elle est possible et qu'elle produit des résultats intéressants. Mais les outils mathématiques et informatiques nécessairesdoivent encore être développés et soutenus par d'importants investissements de recherche. Pour en savoir plus : BASTIDE, 1989 ; BAUIN, 1987, 1990 ; CALLON, 1983, 1986b, 1989c, 1990e ; CAMBROSIO, 1990 ; CHARTRON, 1989 ; COURTIAL, 1984, 1988, 1989a, b, 1990a, b ; LAW, 1988c ; LE MARC, 1990 ; MICHELET, 1985 ; RIP, 1984 ; TURNER, 1988a, b, 1989, 1990, 1991 ; WHITTAKER, 1989.

87voir le texte de G. Teil dans le même ouvrage

Gestion des programmes publics et réseaux technico-économiques

Michel CALLON, Philippe LAREDO, Vololona RABEHARISOA

1. Introduction Pendant très longtemps économistes, sociologues et historiens se sont opposés pour savoir si l'innovation obéissait au modèle du market-pull (le marché et la demande jouant le rôle moteur en tirant et en orientant la technologie: SCHMOOKLER,1966) ou à celui du technological push (la technologie de par sa dynamique propre conduit à des inventions qui finissent un jour ou l'autre par se trouver un marché: SCHUMPETER, 1939; MENSCH,1979). La distance entre ces deux thèses extrêmes a été progressivement réduite. Il existe maintenant un accord pour considérer que l'innovation naît d'un couplage étroit entre la science et la technologie, d'un côté, et le marché d'un autre côté (FREEMAN, 1982; MOWERY

& ROSENBERG, 1979; NELSON & WINTER, 1977; DOSI,1982). Bien entendu toutes les innovations n'ont pas un contenu technologique: certaines sont purement commerciales ou organisationnelles. Mais celles qui mobilisent des résultats scientifiques ou des compétences technologiques sont le fruit d'interactions nombreuses entre chercheurs, ingénieurs, commerciaux, utilisateurs. Toutes les études de cas montrent l'importance des itérations, allers retours, négociations et compromis en tous genres qui précèdent cette improbable adaptation entre la technique et le marché (cf la première partie de cet ouvrage ainsi que COHENDET, 1987 ; VON HIPPEL, 1988 ; KLINE & ROSENBERG, 1986). Dans certains cas ces itérations et interactions entre science, technologie et marché prennent place à l'intérieur d'une même organisation, par exemple une entreprise (VELTZ,1989). Certes des relations peuvent être entretenues avec des laboratoires universitaires, mais elles s'interprètent plus comme une externalisation commode d'activités que comme une nouvelle forme d'organisation ou de coordination entre recherche et industrie: les grandes entreprises en se dotant de centres de recherches propres contrôlent leurs ressources technologiques stratégiques tout en se donnant les moyens, par des contrats ou accords passés avec la recherche académique, de s'approprier les résultats obtenus par cette dernière dans les domaines liés à leurs activités industrielles. Dans d'autres cas se créent de véritables réseaux de coopération entre des laboratoires universitaires, des centres de recherche technique, des entreprises et des utilisateurs. Ces réseaux, longs et hétérogènes, introduisent des modalités d'organisation et de régulation radicalement nouvelles et très

différentes du modèle précédent centré sur la seule entreprise (CHESNAY, 1988 ; DUFOURT &

FORAY, 1988 ; GAFFARD, 1989 ; MOWERY, 1983 ; NELSON, 1989). 2. Les réseaux technico-économiques Nous appelons réseau technico-économique un ensemble coordonné d'acteurs hétérogènes: laboratoires, centres de recherche technique, entreprises, organismes financiers, usagers et ... pouvoirs publics qui participent collectivement à l'élaboration et à la diffusion des innovations et qui, à travers de nombreuses interactions, organisent les rapports entre recherche scientifico-technique et marché. Ces réseaux évoluent au cours du temps et leur géométrie varie en même temps que l'identité des acteurs qui les constituent. Un réseau ne se limite pas aux seuls acteurs (hétérogènes) qui le constituent. Entre ceux-ci circule tout un ensemble d'intermédiaires88 qui donnent un contenu matériel aux liens qui les unissent: il peut s'agir de documents écrits (articles scientifiques, rapports, brevets, ..), de compétences incorporées (chercheurs en mobilité, ingénieurs passant d'une firme à une autre…), d'argent (contrats de coopération entre un centre de recherche et une entreprise, prêts financiers, achat par un client d'un bien ou d'un service…), d'objets techniques plus ou moins élaborés (prototypes, machines, produit destiné à la consommation finale..). D'un point de vue statique, le réseau technico-économique peut être caractérisé par les acteurs qui le composent et les intermédiaires qu'ils mettent en circulation, ainsi que par les trajectoires particulières suivies par ces différents intérmédiaires; d'un point de vue dynamique la transformation du réseau coïncide avec l'évolution des acteurs et des configurations dans lesquelles ils entrent, mais aussi avec la transformation du contenu des intermédiaires en circulation. Derrière la diversité de leurs configurations, les réseaux s'organisent autour de trois pôles principaux qui se distinguent à la fois par l'identité des acteurs qui les constituent et par les types d'intermédiaires que ces acteurs mettent en circulation (ou si l'on préfère par la nature de leur production): le pôle scientifique, le pôle technique et le pôle marché. Le pôle scientifique (S) se caractérise essentiellement par la production de connaissances certifiées, qui prennent généralement la forme d'articles dans des revues: les intermédiaires qui sortent des laboratoires sont essentiellement des documents (les articles) qui ont déjà reçu un début de reconnaissance et de validation par le simple fait qu'ils ont été acceptés par des journaux. Bien entendu, des nuances et des compléments doivent être introduits. Premièrement, tous les documents mis en circulation par le pôle scientifique ne correspondent pas nécessairement à des connaissances ayant reçu un début de certification: les laboratoires produisent aussi des rapports, des notes de travail à circulation limitée voire semi-confidentielle; deuxièmement, sortent des laboratoires d'autres catégories d'intermédiaires comme par exemple des instruments (dispositifs techniques) mais 88Sur la notion d'intermédiaires voir: CALLON, 1990b.

également des compétences incorporées (chercheurs formés par la recherche et en mobilité vers l'industrie). Pour la simplicité de l'analyse, nous ne retiendrons pour caractériser le pôle scientifique que la production de connaissances certifiées sous la forme d'articles académiques89. Le pôle technique (T) quant à lui se caractérise par la conception et l'élaboration de dispositifs matériels dotés d'une cohérence propre (leur assurant durabilité et fiabilité) et capables de rendre des services spécifiques (c'est à dire de contribuer à la réalisation de certains programmes d'action)90. Etant donné le rôle central que joue ce pôle dans le processus d'innovation qui nous intéresse, il est nécessaire de prendre en considération les différentes catégories d'intermédiaires qui conduisent à l'objet technique proprement dit: les logiciels de simulation, les brevets, les pilotes, les prototypes, les stations d'essais, les normes, les règles de l'art et les méthodes. Le pôle marché (M) correspond dans la terminologie que nous adoptons à l'univers des utilisateurs ou des usagers. Il ne s'agit donc pas du marché de la théorie économique, qui est rencontre d'une offre et d'une demande, mais du marché des praticiens qui décrit essentiellement l'état de la demande: identité des consommateurs, nature des "besoins", hiérarchie des préférences (ou plus prosaïquement: critères d'achat), formes d'organisation… Les usagers mettent en circulation (soit directement lorqu'ils prélèvent sur leurs revenus, soit indirectement lorsqu'ils déclanchent un paiement effectué par un tiers) un intermédiaire privilégié qui est la monnaie et, par les arbitrages qu'ils effectuent, renvoient des informations sur l'utilité que représente pour eux tel ou tel bien ou service; mais ce n'est pas le seul: ils émettent en permanence, notamment à travers les réseaux de distribution et de commercialisation des entreprises mais également lorsqu'ils se regroupent en association d'usagers ou de consommateurs, des informations plus ou moins explicites, des signaux plus ou moins clairs pour exprimer et transmettre ce qu'ils veulent ou souhaitent, pour décrire leurs besoins, leurs désirs plus ou moins latents. Le marché, et c'est sa force en tant que mode d'organisation et de coordination, est une gigantesque machinerie produisant de l'information plus ou moins intelligible, plus ou moins explicite sur l'identité des usagers et ce qu'ils attendent91. Chacun de ces pôles ne saurait être assimilé à un ensemble totalement homogène: la dynamique scientifique, l'invention technologique et l'expression de la demande sont des processus embrouillés dans lesquels des groupes s'affrontent, des alliances se forment. La 89Le qualificatif "certifié" est essentiel. Ce que les philosophes appellent la validité des connaissances n'est

que l'autre nom donné à ce que les sociologues des sciences nomment plus justement leur robustesse: celle-ci se mesure par le degré d'acceptation qui les entoure et par leur impact sur la production de nouvelles connaissances (CALLON, 1989a ; LATOUR, 1987).

90Une telle définition inclut bien entendu des objets techniques comme des logiciels, des molécules pharmaceutiques..

91C'est à une telle vision du marché que correspondent les notions classiques de retour d'expérience ou de "lead users".

notion de réseau est elle même utile pour décrire ces arrangements internes et leurs évolutions: nous parlerons indifféremment de pôle et de sous-réseau. Entre une connaissance certifiée et un dispositif technique, entre un dispositif technique et une demande, il n'existe aucune adéquation a priori: ces cohérences sont construites pas à pas, progressivement, par essais et erreurs. S'il arrive que des résultats obtenus par un laboratoire, se transforment en objets techniques qui se diffusent sur un marché, ce n'est pas le fruit d'une rencontre miraculeuse. Ce sont les interactions créées et développées entre ces différentes activités, qui, par itérations sucessives, ont permis la progressive adaptation et complémentarité des unes et des autres. Si l'on souhaite décrire l'ensemble du réseau et des possibles interactions qu'il développe, il faut donc adjoindre à la description précédente deux activités d'intermédiation: entre la science et la technique prend place le pôle transfert (ST) (il existe très peu d'organisations exclusivement consacrées à la mise en relation de la science et de la technologie; on peut citer à titre d'exemple, et en s'en tenant au cas français: les clubs de relations industriels du CNRS, les centre de recherche collective, des sociétés de recherche sous contrat comme Bertin); entre la technique et le marché se situent les activités de production et de distribution, généralement prises en charge par les entreprises, et qui correspondent à ce que nous appelerons le pôle développement, qui se place entre la ressource technique et le marché(TM). Figure 1 ici Un réseau technico-économique est, par définition, une réalité duale: il se caractérise par les intermédiaires qui circulent, leurs trajectoires plus ou moins compliquées et enchevêtrées, mais aussi par les acteurs qui émettent, consomment, transforment ces intermédiaires. De la même manière que nous avons donné une liste simplifiée des activités, il est possible de caractériser les quelques grandes familles d'acteurs qui interviennent: les scientifiques et les chercheurs pour la science, les ingénieurs-technologues pour la technique, les usagers pour le marché, les entreprises pour l'intermédiation technique-marché (c'est là une définition très classique de l'entreprise qui mobilise des ressources techniques, mais aussi humaines, pour s'attacher des clients) et les acteurs du transfert (figure 1). Ces acteurs, et par voie de conséquence les intermédiaires qu'ils mettent en circulation, ne sont pas nécessairement assignables à une catégorie particulière d'organisation ou d'institution. En règle générale, il est vrai que les "scientifiques" se retrouvent plutôt dans les laboratoires universitaires ou d'organismes publics de recherche, les ingénieurs-technologues dans les centres techniques ou les laboratoires de firmes, les activités de production et de distribution dans l'industrie, et les usagers dans la sphère de la consommation finale. Mais si la répartition était aussi tranchée, la possibilité même d'interactions et d'innovations se trouverait singulièrement réduite. En réalité, les cartes se brouillent: des "vrais" scientifiques envahissent les firmes, des technologues s'installent à proximité des laboratoires, les usagers se confondent parfois avec les ingénieurs-

technologues ou avec les firmes, l'activité de production se marie de plus en plus souvent avec celle du laboratoire. La notion même de réseau technico-économique est là pour souligner ces imbrications, ces chevauchements. Ceci nous amène à distinguer les acteurs et leurs intermédiaires, d'un côté, et les formes organisationnelles dans lesquelles ils entrent, d'un autre côté. Pourquoi parler de réseau technico-économique? D'abord pour éviter de se laisser enfermer dans les cadres institutionnels: les relations entre institutions (ou entre organisations hétérogènes) sont plus importantes que les institutions ou les organisations elles-mêmes. Pour comprendre la position d'une firme sur un marché il faut recomposer les alliances qu'elle est capable de mobiliser du côté de la recherche et de la technologie; de même, pour expliquer le dynamisme d'un laboratoire il est de plus en plus difficile de ne pas prendre en considération les relations qu'il a su tisser avec des firmes, des centres techniques, des usagers... La notion de réseau technico-économique souligne l'émergence et la montée en puissance de ces alliances hétérogènes, l'apparition d'une "meta-coordination". Le mot réseau a un autre avantage: il met en évidence la mobilité des alliances, la flexibilité des arrangements, la volatilité des configurations, la multiplicité des modes de coordination (dans certaines parties du réseau le marché est l'instrument de la coordination, dans d'autres il s'agit de mécanismes organisationnels, ou de relations de confiance ou de reconnaissance92...). Enfin il protège du danger de simplification qui menace toute analyse de l'innovation technologique: l'idée, le projet peut naître en tout point; sa réalisation passe par toute une série d'interactions qui réarrangent le réseau, font naître de nouvelles compétences et de nouvelles connexions. En même temps que l'innovation prend progressivement corps le réseau se déforme puis se stabilise peu à peu: la dynamique du réseau technico-économique colle à celle du processus d'innovation (cf Chapitre 1)93. 3. Réseaux lacunaires ou chaînés; réseaux convergents ou dispersés; réseaux courts ou longs Une première distinction peut être faite entre les réseaux que nous appellerons lacunaires et ceux que nous appellerons chaînés. Un réseau technico-économique est lacunaire lorsqu'une ou plusieurs catégories d'acteurs ou pour le dire autrement un ou plusieurs des sous-réseaux (S, ST, T, TM, M) qui le composent sont absents ou très peu développés: des relations existent qui permettent encore de parler de réseaux, mais elles sont ténues et fragiles; il peut d'ailleurs se faire que le réseau soit déclaré lacunaire dans un espace donné, par exemple en France, en comparaison avec la situation dans d'autres espaces, par exemple les Etats Unis; ceci rend légitime le recours à la notion de réseau 92Voir sur ce point EYMARD DUVERNAY: 1989, BOLTANSKI & THEVENOT,1987. 93La notion de filière est bien évidemment inadaptée pour décrire ces situations: elle ne va jamais jusqu'à

inclure les laboratoires; et, même appliquée au seul monde de l'industrie, elle introduit des rigidités et une linéarité, aussi bien organisationnelles que technologiques, peu réalistes (DE BANDT,1989)

malgré l'absence parfois totale de relations. Si, par exemple, le pôle technique est faiblement développé, alors que le pôle scientifique et le pôle marché sont fortement constitués, le réseau sera dit lacunaire en T. Si en revanche tous les acteurs et tous les pôles sont là et fortement structurés, alors le réseau sera dit chaîné. Cette première manière de qualifier le réseau suppose que l'on sache identifier les différents groupes d'acteurs, décrire leurs différentes activités, dresser une carte de leurs forces et faiblesses. La caractérisation de chaque pôle peut être faite de manière plus ou moins exhaustive, rigoureuse et objective. On peut commencer l'analyse en se contentant de consulter des experts, puis poursuivre en recourant à des bases de données constituées ou en lançant soi-même des enquêtes: le plus important est de bien formuler les questions; les réponses seront plus ou moins précises, plus ou moins fiables en fonction des moyens dont on dispose et du degré d'exactitude que l'on recherche94. Une fois établi le degré de développement de chaque pôle, et le caractère plus ou moins lacunaire du réseau technico-économique, il reste à se demander quel est le degré d'intégration du réseau. Nous distinguerons là encore deux situations extrêmes, entre lesquelles prend place toute une série de configurations intermédiaires: celle d'un réseau dispersé et celle d'un réseau convergent. Dans un réseau fortement convergent, et par conséquent chaîné, les activités de chacun des pôles se raccordent aisément les unes aux autres, et à l'intérieur de chaque pôle prévaut également une forte intégration. Pour le formuler autrement, nous pourrions dire que dans un réseau technico-économique très convergent, tout acteur appartenant au réseau, quelle que soit sa position à l'intérieur du réseau (chercheur, ingénieur, commercial, usager…) peut mobiliser à tout moment toutes les compétences du réseau sans avoir à se lancer dans des adaptations, des traductions ou des décodages coûteux: l'ensemble du réseau est derrière n'importe lequel des acteurs qui le composent. Le commercial sait immédiatement, face à une récrimination d'un client, quel ingénieur alerter, comment formuler le problème à lui soumettre pour que ledit ingénieur se mette sans plus attendre au travail et établisse, si nécessaire, une connexion avec un fondamentaliste auquel il passe le message, reformulant à son tour la question sans pour autant la trahir; reviennent du laboratoire, via toute une série d'intermédiaires et de traductions successives, les recommandations, réponses, mesures, décisions qui vont permettre au commercial de maintenir le client dans le réseau. De façon symétrique, dans un réseau technico-économique fortement convergent, un chercheur fondamentaliste sait très bien que les problèmes sur lesquels il travaille coïncident avec un réseau d'attentes et de demandes qui sont prêtes à se saisir de ses résultats dès leur sortie du laboratoire. Le monde qui entoure le chercheur a été préparé de longue date, de sorte que la place de son laboratoire, ses sujets de

94On peut d'ailleurs montrer que, selon l'état d'irréversibilisation du réseau, il est plus ou moins légitime

d'utiliser tel ou tel type d'outils pour le décrire. Voir sur ce point fondamental: CALLON, 1990b.

recherche sont fortement liés à ce que font, veulent et attendent les autres acteurs. C'est ainsi qu'en trois mois la mise au point d'un alliage supraconducteur, recherche fondamentale s'il en est, déchaîne une mobilisation de ressources considérables dans toute l'industrie: les réseaux sont prêts de longue date qui sont capables de saisir en quelques semaines les enjeux de la découverte la plus fondamentale qui soit (HAZEN, 1989). Un bel exemple est fourni par l'étude du Beta consacrée aux nouveaux matériaux: à la demande pointue d'un utilisateur qui désire un matériau combinant plusieurs fonctionnalités (résistance thermique, collabilité, élasticité, conductivité), il est pensable de répondre, moyennant toute une série de traductions, par une recherche portant sur les structures microscopiques de la matière (COHENDET, 1987). On voit qu'une forte convergence signifie des interactions nombreuses qui se matérialisent dans la circulation d'intermédiaires et donc d'informations qui coordonnent et intègrent les activités hétérogènes qui composent le réseau. Un réseau totalement convergent, sorte de tour de Babel dans laquelle chacun parlerait sa langue que tous les autres comprendraient, et possèderait ses compétences que tous les autres sauraient mobiliser à propos, serait d'une formidable efficacité puisqu'il disposerait à la fois de la force du collectif et de la capacité de synthèse d'un individu: n'importe quel acteur singulier serait en mesure de parler au nom de tous, de mobiliser en un point toutes les compétences et toutes les alliances. Un tel réseau, capable de se ramasser en un lieu tout en se déployant simultanément à travers les multiples milieux de la science, de la technique, de l'industrie et de la consommation, est bien entendu une exception, un cas limite. Par symétrie, l'autre cas limite est celui d'un réseau dispersé. Les relations entre les acteurs (entre pôles ou à l'intérieur d'un même pôle) existent mais leur densité est faible et les traductions qui permettent de passer du registre de la science à celui de la technique et des usages ne sont pas stabilisées et sont parfois problématiques. Comment reformuler en termes techniques la demande exprimée par un usager? Comment, si les technologues ne peuvent résoudre le problème, formuler la demande aux scientifiques? Puis comment organiser le retour? Les chemins existent, mais ils ne sont ni complètement connus ni complètement prévisibles. Multiples sont les incompréhensions et nombreux les messages qui se perdent en route, non point parce que des lacunes existent dans le réseau mais parce que, à la suite de "trahisons" successives, les réponses ne correspondent pas aux questions: la mésentente et l'incompréhension se produisent fréquemment. Les occupants de logements résidentiels veulent-ils réellement plus de confort? Et si oui, que faut-il entendre exactement par cette demande de confort? Souhaitent-ils une régulation de la température? Et si oui quel est le dispositif technique à élaborer: un automatisme simple ou un logiciel calculant et intégrant toutes les variables? Si l'on opte pour ce type de logiciel, jusqu'où faut-il aller dans l'élucidation des mécanismes physiques sous-jacents? (RABEHARISOA, 1989). Dans un réseau faiblement convergent il est difficile à un acteur donné de mobiliser le reste du

réseau, même si celui-ci existe suffisamment pour que cette mobilisation, pour aussi problématique qu'elle soit, demeure néanmoins possible95. Les indicateurs permettant d'apprécier la convergence d'un réseau sont nombreux (encart 1). Mentionnons deux marqueurs importants. Le premier est linguistique: les mots et les énoncés utilisés pour décrire les axes de recherche, les résultats scientifiques, les objets techniques et les besoins des utilisateurs circulent d'un bout du réseau à l'autre: il existe une communauté linguistique qui facilite toutes les traductions et mises en relation dont nous parlions précédemment. Par exemple le mot: supraconductivité ou bien l'énoncé: "l'oxyde XYZ a une température critique de 85°K" possèdent à peu près la même signification pour un chercheur, un ingénieur, un stratège, un commercial appartenant aux réseaux technico-économiques à l'intérieur desquels ils circulent (CALLON, 1990b). La convergence peut être également inscrite dans des objets techniques dont l'espace de diffusion coïncide avec le réseau. Les formes de coordination, et c'est le deuxième marqueur, contribuent également à révéler l'existence d'une convergence: des structures organisationnelles unifiées, des conventions ou des contrats d'ententes sont autant de preuves que les activités, pour aussi hétérogènes qu'elles soient, sont en interaction profonde96. encart 1: la mesure de la convergence Comment déterminer le degré de convergence ou de dispersion d'un réseau? Cette question n'est pas différente de la mise en évidence du réseau lui-même, puisqu'il s'agit de décrire, dans l'un et l'autre cas, les relations, la stabilité des traductions qu'elles opèrent ainsi que leur morphologie d'ensemble. Là encore toute une gamme de méthodes est envisageable depuis la consultation d'experts jusqu'à l'analyse sur le terrain en passant par la construction d'indicateurs. Cette dernière éventualité est à terme la plus intéressante, même si les données nécessaires sont souvent difficiles à mobiliser. Des exemples d'indicateurs que nous nommerons relationnels (ROTHMAN, 1985) peuvent être facilement donnés dans le cas des pôles S et ST. Il est assez aisé de déterminer si des chercheurs, d'une même spécialité ou de spécialités connexes sont fortement liés en utilisant des méthodes comme celles des réseaux de citations, des co-citations ou des mots associés (RIP, 1988b). De la même manière, entre S et T, il est possible de mettre en évidence des relations éventuelles en identifiant et en analysant par exemple les citations, faites dans les

95Un réseau convergent fabrique des innovations prévisibles et programmables, alors qu'un réseau dispersé

génère des innovations imprévisibles. 96La convergence résulte de la combinaison de deux dimensions: l'alignement qui décrit en gros la connexité

du réseau; la coordination qui rend compte de l'existence de mécanismes ou de règles liant de manière plus ou moins contraignante les acteurs et les activités (par exemple: règlementations, associations volontaires, marché, intégration organisationnelle..). Sur ce point que nous ne développons pas dans ce papier, voir CALLON, 1990b

brevets, à des articles scientifiques: F. NARIN a ainsi montré l'étroitesse des liens entre l'industrie pharmaceutique et les recherches académiques en biologie97. Une autre manière de suivre les relations entre science et technique et de mesurer leur intensité est de recenser les contrats passés entre des laboratoires universitaires et des entreprises, et de calculer le pourcentage qu'ils représentent dans le financement des laboratoires.. Dans certains cas ces informations sont enregistrées et il suffit de traiter les bases de données correspondantes. Dans d'autres cas un travail spécifique d'enquête est nécessaire. Les réseaux technico-économiques peuvent être lacunaires ou chaînés, convergents ou dispersés. Une autre caractéristique intéressante des réseaux est leur longueur. Nous dirons d'un réseau qu'il est long si, quel que soit son degré d'interactivité ou de convergence, il inclut des activités qui s'échelonnent depuis la recherche de base jusqu'aux utilisateurs finaux: en le parcourant on passe sans discontinuité du laboratoire fondamental au marché. Mais, comme de nombreux travaux l'ont montré, de tels réseaux sont plus l'exception que la règle. Nombreux sont les réseaux technico-économiques qui ne remontent pas jusqu'à la science académique et qui n'incluent par exemple que des activités de recherche technique qui interagissent avec le marché: dans ce cas nous parlerons de réseaux courts. Cette distinction mérite un commentaire: ne pourrait-on pas dire d'un réseau court qu'il est un réseau lacunaire dans lesquels les maillons S et ST sont manquants? Derrière la notion de réseau lacunaire il y a l'idée qu'une action volontariste pourrait aboutir à reconstituer les maillons manquants et qu'un réseau qui ne remonte pas jusqu'à la science est un réseau incomplet. Dire d'un réseau qu'il est court, c'est au contraire faire l'hypothèse qu'aucune addition d'activités n'aboutirait à accroître les performances d'ensemble du réseau. Mais, qu'ils soient longs ou courts, les réseaux se caractérisent par l'intensité des interactions entre les acteurs qui les composent et par la multiplicité des formes de coordination qu'ils mettent en œuvre. 4. Mises en réseau: le rôle des pouvoirs publics et de leurs programmes technologiques L'existence d'interactions entre la science, la technique et le marché est un phénomène ancien. Les travaux d'économistes comme FREEMAN et d'historiens comme HUGHES, HOUNSHELL, HODDESON ont souligné le rôle joué par les labos universitaires, mais aussi par les départements industriels de recherche fondamentale dans la dynamique de l'innovation. C'est ainsi qu'au début du XXième siècle, dans des domaines comme la chimie ou l'électrotechnique, des collaborations intenses se sont développées entre la science

97Sur les difficultés d'utilisation de cet indicateur voir: VAN VIANEN, MOED & VAN RAAN: 1990; d'autres

indicateurs commencent à être testés comme l'identification des acteurs qui, simultanément, déposent des brevets et écrivent des articles scientifiques ou techniques (COURTIAL, 1990a; RABEHARISOA, 1990)

académique et le milieu industriel. Mais la situation actuelle se distingue par un certains nombre de traits caractéristiques. Tout d'abord ces relations se sont diversifiées et multipliées pour toucher un spectre de plus en plus large de secteurs industriels: ceci s'est traduit soit par la mise en place de collaborations formelles, soit le plus souvent par le transfert de compétences incorporées. Deuxièmement les relations deviennent de plus en plus symétriques: les modèles linéaires (science push et market pull) sont abndonnés au profit de modèles interactifs dans lesquels les milieux industriels et acdémiques collaborent sur un pied d'égalité. Troisièmement, les mises en relations sont mobiles et pluridirectionnelles, créant un véritable maillage: les laboratoires académiques collaborent entre eux et avec toute une population d'entreprises qui, de leur côté, développent des relations fluctuantes avec un large éventail de centres de recherche universitaires; ces combinaisons évoluent dans le temps en fonction des opportunités stratégiques rencontrées par les différents acteurs. Quatrièmement les usagers participent de manière active au processus d'innovation, ce qui transforme complètement les mécanismes de structuratiuion de marchés. Ces évolutions conduisent à modifier en profondeur les règles de la concurrence écoonomique et scientifique. La compétition ne se joue plus firme contre firme, ou laboratoire contre laboratoire mais réseau technico-économique contre réseau technico-économique. Un des ressorts de cette compétition tient à la capacité qu'ont les différents acteurs de modifier les alliances dans lesquelles ils entrent et les ressource auxquelles elles donnent accès. En même temps que s'imposait cette nouvelle forme d'organisation des rapports entre S, T et M, se sont progressivement imposées des configurations stratégiques typiques. Mentionnons à titre d'exemples: les collaborations entre universitaires et industriels pour développer la recherche scientifique stratégique; les coopérations technologiques entre firmes; la spécialisation flexible de l'appareil de production; le sur mesure de masse. Une des évolutions les plus spectaculaires est celle qui a touché les pouvoirs publics et ses modalités d'intervention dans la sphère scientifique et technique. Dans ce qui suit nous allons nous focaliser sur ces interventions destinées à soutenir, stimuler et orienter la recherche, pour, dans un premier temps, les caractériser, et, dans un second temps, proposer les outils de gestion que requièrent le rôle qu'elles jouent dans la dynamique des RTE. Les illustrations que nous fournissons sont tirées d'une étude consacrée à l'évaluation du programme français de maîtrise de l'énergie mise en œuvre par l'AFME. Pour mettre en évidence l'évolution qu'ont connue ces politiques publiques, il est commode de distinguer trois modalités d'interventions. Jusqu'à une date récente, l'Etat s'est essentiellement employé à favoriser le développement du potentiel scientifique et technique, en créant et en soutenant des organismes de recherche ou des agences chargées de financer des projets de recherche: les pouvoirs publics accompagnent le mouvement propre de la science, apportant les ressources nécessaires et laissant les spécialistes décider entre eux des priorités à instaurer (ROUBAN, 1988; PAPON, 1978). Une autre forme d'intervention correspond à ce que l'on a appelé, au moins en France, les grands programmes de

développement technologique. Dans ce cas la puissance publique fait preuve de plus de volontarisme: l'objectif est de concevoir et de coordonner l'ensemble des travaux et des opérations nécessaires à la réalisation d'un objet technique complexe et non encore maîtrisé comme une bombe, une fusée, une centrale nucléaire, un surgénérateur ou un avion moyen courrier. Peu à peu, une prise de conscience s'est cependant opérée: pour stimuler l'innovation il ne suffit pas de favoriser la dynamique interne de la recherche scientifique et technique ou de soutenir de grands programmes contribuant à la puissance ou au prestige d'une nation, voire à la constitution d'infrastructures nécessaires au développement industriel. L'innovation dépend de l'existence d'interactions étroites entre le monde de la science, de la technique et le marché. Sans que le mot de réseau soit prononcé, se sont multipliées les interventions de la puissance publique visant à favoriser l'émergence, la constitution et l'établissement durable de ces réseaux technico-économiques qui couplent le monde de la recherche à celui de l'économie (RIP, 1988a). Cette nouvelle forme d'intervention, à laquelle nous donnons le nom de programme technologique, nécessite la conception d'instruments de gestion adaptés. La science ou la technologie ne doivent plus être seulement considérées pour elles-mêmes, l'hypothèse étant faite que ce qui est bon pour elles est bon pour la collectivité; les résultats obtenus ne sont plus aussi visibles et limités qu'un objet technique, aussi complexe soit-il. Construire des réseaux, les faire évoluer, s'assurer qu'ils fonctionnent de manière satisfaisante et qu'ils font émerger les compétences et les produits visés, être capable de corriger le tir en cours de route (soit parce que les contextes ont changé soit parce que les stratégies des acteurs en présence ont évolué), interrompre une action et en définir une autre: cette simple énumération donne une idée de l'ampleur et de la difficulté de la tâche. A l'évaluation des impacts socio-économiques de la recherche, qui considère les effets comme un produit indirect, se substitue la gestion stratégique des réseaux depuis leur établissement jusqu'à leur démantèlement en passant par leur mise en forme et leur transformation. Un programme technologique se définit par des enjeux (par exemple faire progresser la maîtrise de l'énergie par la mobilisation de la science et de la technologie). De la formulation de ces enjeux se déduisent des objectifs d'élaboration, d'amélioration, de promotion de familles de produits dont la diffusion est considérée comme devant être encouragée et généralisée (par exemple mettre au point et commercialiser des échangeurs ne s'encrassant pas). La réalisation de ces objectifs passe par l'établissement de réseaux liant des ressources scientifiques, des compétences techniques et des demandes formulées par des utilisateurs (par exemple mobiliser chercheurs et technologues pour concevoir des échangeurs ne s'encrassant pas et faire en sorte que ces nouveaux produits soient pris en charge par des entreprises capables de s'assurer des avantages compétitifs et de s'attacher toujours plus de clients intéressés par ces produits). En d'autres termes les interventions d'un programme technologique ont pour vocation d'établir et mettre en convergence des réseaux conçus pour atteindre les objectifs répondant aux enjeux pré-définis. Nous noterons R2 de tels réseaux à mettre en place, et nous dirons qu'ils constituent les réseaux

escomptés. C'est à partir de la description d'un réseau escompté particulier (description en général assez sommaire voire stylisée) qu'il est possible d'identifier et de caractériser le réseau actuel R1 sur lequel le programme devra intervenir dans le but de lui faire rejoindre progressivement l'état R2 souhaité. Si le rôle d'une agence comme l'AFME est d'obtenir au bon moment la convergence maximale de réseaux technico-économiques délivrant sur un marché constitué (soit qu'il existe déjà, soit qu'il faille le faire exister) des produits qui répondent aux enjeux liés aux missions de l'agence, alors il est possible de proposer une typologie très simple des formes d'interventions, en fonction des différentes configurations dans lesquelles se trouvent les réseaux R1 à faire évoluer vers R2. a) Si le réseau R1, considéré comme le point de départ d'une évolution orientée vers l'établissement du R2 escompté, est lacunaire, l'objectif des interventions peut être de créer ou de faire monter en puissance le ou les maillons manquants: par exemple soutenir le développement de laboratoires spécialisés (pôle S) sur un thème ou encore inciter des usagers à se saisir d'un produit nouveau (pôle M). Dans ce cas nous parlerons d'une action de rupture pour indiquer l'existence d'une discontinuité par rapport à une situation existante. La rupture comme on l'aura compris peut porter sur un seul des cinq pôles ou sur plusieurs d'entre eux. Dans tous les cas, le but est de faire apparaître des combinaisons nouvelles: une technologie radicalement nouvelle, une clientèle qui n'existait pas, des entreprises… b) Si le réseau est dispersé, les interventions de l'agence doivent avoir pour objectif d'augmenter les interactions de manière à accroître son degré de convergence, en agissant sur les maillons et les acteurs qui sont responsables de ce manque d'interactivité. Par exemple, en créant à l'intérieur du pôle scientifique une coordination entre des recherches complémentaires, ou en favorisant des relations entre des scientifiques et des technologues, ou bien encore en introduisant dans les entreprises une sensibilité plus marquée à l'égard des demandes de certains clients ignorés. Nous parlerons d'actions de continuité, pour désigner des interventions visant à faire évoluer et interagir des activités déjà présentes, par réorientation des axes de recherche, des demandes, des produits et par création de nouvelles coordinations. Entre ces deux situations extrêmes prennent place toutes les interventions intermédiaires qui mettent plutôt l'accent soit sur la rupture soit sur la continuité. Bien entendu les deux modalités d'intervention sont susceptibles d'être combinées, par exemple en soutenant simultanément la création d'un pôle et l'intégration des différents éléments du réseau en cours de constitution. Une telle conception de la programmation publique de la recherche et de la technologie comporte une conséquence importante: l'Etat doit se désengager lorsque le réseau escompté (R2) se met à exister de manière durable. En d'autres termes faire émerger des réseaux, les accompagner dans leur développement, éventuellement favoriser leur perennité, tels sont les objectifs des interventions publiques.

Actions de rupture ou de continuité pour accroître la convergence: telles sont les deux finalités assignables aux interventions d'une agence. Pour être complet, il faut envisager maintenant les différentes modalités de ces interventions. Là encore nous distinguerons deux grandes familles: les interventions de structuration qui s'adressent à plusieurs acteurs en vue de les faire évoluer tout en les coordonnant et les interventions ponctuelles qui consistent à soutenir un acteur particulier, quel que soit le maillon considéré, en faisant l'hypothèse que, par effet de démonstration, les autres acteurs, industriels, usagers, scientifiques, seront entraînés dans l'évolution conduisant à R2. Pour visualiser et localiser ces actions, nous avons conçu une matrice pôles-interventions (figure 2). En lignes sont indiqués les différents maillons du réseau, auxquels s'appliquent les actions: S, ST, T, TM, M. En colonnes nous avons distingué, d'un côté, les interventions de rupture visant à promouvoir des activités et des acteurs inexistants ou faiblement développés, et de l'autre côté, les interventions s'inscrivant plutôt dans une logique de continuité, en opposant les interventions dites ponctuelles (soutien d'un acteur) et les interventions de structuration ( soutien et coordination de plusieurs acteurs). Dans l'encart 2 nous donnons un exemple d'utilisation de cette matrice dans le cas des échangeurs. figure 2 encart 2: la matrice des interventions: le cas des échangeurs Un telle matrice permet de visualiser les différentes interventions consacrées à un domaine, aussi diversifiées soient-elles, et de mettre en évidence l'éventuelle complémentarité et cohérence d'opérations qui prises individuellement peuvent paraître éparses et résulter d'un saupoudrage malsain. Pour simplifier la présentation nous nous sommes limités aux six interventions les plus exemplaires. Comme on le voit sur la figure 3, la variété de ces actions est grande: a) des opérations de rupture technologique ont été lancées avec le soutien à des projets technologiques comme ceux de conception d'échangeurs très haute température céramique (1) ou de caloducs (2); b) des interventions visant à structurer les activités scientifiques de certains laboratoires autour de thématiques liées aux échangeurs et plus particulièrement sur les transferts thermiques: a été ainsi soutenue une ARC lancée dans le cadre du PIRSEM (6); c) une importante action de structuration destinée à créer une coordination et une intégration entre les maillons ST, T et TM: cette action a pris la forme de la création et du soutien, avec le CEA (en 1983) du GRETH destiné à établir des relations de coopération entre les milieux de la recherche scientifique et technique et le tissu industriel des PMI: sont associés des équipes du CNRS (PIRSEM), des centres technique (CETIAT, CETIM, IFP), des sociétés de recherche sur contrats (Bertin..), des organismes publics de recherche appliquée (CEA,INRA), des petites

et moyennes entreprises et même des centres de recherche de grandes entreprises (EDF). Le GRETH a plusieurs domaines d'activité: la recherche collective sur des thèmes définis en concertation avec les adhérents; les essais: une plate forme "ESTHER" et une équipe spécialisées sont à la disposition des adhérents pour des essais, des tests de prototype, des qualifications; les recherches en collaboration avec des entreprises adhérentes ou non au GRETH conduite dans dans le cadre de contrats spécifiques; le développement technologique de nouveaux concepts d'échangeurs; la formation par la recherche: chaque année deux thèses (AFME ou CIFRE), 1 à 2 thèses FIRTECH sont attribuées au GRETH et leur encadrement est assuré par des chercheurs appartenant au réseau; d) l'accompagnement d'opérations de développement, de démonstration et de diffusion de nouveaux produits comme les échangeurs à gaines de plastique (Kestner) ou les échangeurs Packinox ou Saturne. figure 3 ici 5. Les résultats intermédiaires Les définitions fournies au paragraphe précédent ont l'avantage de nous permettre de qualifier les interventions de l'agence par leur impact prévisible ou observé sur l'état des réseaux concernés. Nous sommes donc en mesure d'établir une relation entre des actions et des résultats immédiats. Dans l'encart 3 nous donnons un exemple d'une telle description également emprunté au domaine des échangeurs. encart 3: quelques exemples de résultats intermédiaires dans le cas des échangeurs Trois exemples d'intervention vont nous permettre de montrer la signification et l'intérêt de la notion de résultat intermédiaire dans le cas des échangeurs thermiques. D'abord le soutien au pôle scientifique. Les interventions de l'AFME via le PIRSEM, ont-elles permis la montée en puissance des compétences stratégiques et le développement de relations avec le pôle technologique? A la première question, il est aisé de répondre. Pour les différents laboratoires nous disposons en effet des matrices programmes/compétences qui permettent d'apprécier la nature et le volume des compétences développées grâce aux interventions de l'AFME. On constate, par exemple, que l'AFME a permis au laboratoire d'énergétique et d'automatique de l'INSA de Lyon de maintenir et de développer des compétences en transfert thermique qui ont fourni la base de relations de coopération avec

l'industrie. Une synthèse de l'ensemble de ces données conduit à considérer que l'AFME a permis de développer des compétences reconnues comme utiles par les constructeurs et les utilisateurs (et par les technologues) tout en accompagnant les stratégies de mise en réseau avec les industriels. Le soutien au pôle technologique a pris la forme d'une opération de mise en relation de l'aval et de l'amont, par la création d'un groupement technique (le GRETH: groupe de recherche sur les échanges thermiques). Le GRETH est le lieu de mise en cohérence des thématiques, de rencontre et de concertation des acteurs industriels, des technologues et des ingénieurs. Il a permis par exemple des recherches coopératives sur le thème de l'encrassage et une forte sensibilisation des chercheurs sur ce sujet considéré comme prioritaire par les concepteurs, les constructeurs et les utilisateurs. De plus les opérations de qualification réalisées grâce à la plateforme ESTHER fournissent une base technique de référence aux industriels et notamment à ceux qui se sont engagés dans la production et la commercialisation des échangeurs les plus innovants. La création du GRETH correspond à une analyse stratégique pertinente: celle du caractère lacunaire du réseau qui liait (et continue à lier) très peu les pôles S, T et M. De ce point de vue l'action multiforme réalisée par ce groupement est considérée par tous les acteurs impliqués comme stratégique: de toute évidence le réseau est en train de se tisser et des productions se mettent en place et se consolident. Une dissymétrie subsiste néanmoins et semble même se renforcer. En direction de l'industrie les actions se développent en effet à la grande satisfaction de tous les protagonistes. Les indicateurs de cette réussite sont nombreux: logiciels, bulletins d'information, manuels, rapports techniques, certifications de matériels sont autant de produits intermédiaires qui se multiplient et circulent; le volume des contrats de RD s'accroît; les adhésions de nouveaux industriels se multiplient; le GRETH est le porte parole reconnu de la profession dans les structures chargées de l'établissement de normes européennes. En revanche les relations avec le pôle scientifique sont bien moins satisfaisantes: elles sont restées laches et dans certains cas se sont même dégradées, certains laboratoires se plaignant de la mauvaise volonté du GRETH et de son incapacité à formuler des problèmes scientifiques dignes de ce nom. Il n'est pas douteux que l'existence de compétences scientifiques au sein même du GRETH a fortement dissuadé les chercheurs du CEA de s'ouvrir sur le monde académique. Enfin les interventions auprès des industriels ont permis l'émergence de nouvelles technologies qui ont démontré leur important potentiel commercial; parallèlement les subventions accordées aux utilisateurs ont facilité le démarrage de ces nouveaux marchés dont notre étude a montré que le développement prévisible était particulièrement important pour l'avenir.. Ces trois exemples montrent que les interventions de l'AFME dans leur diversité et leur hétérogénéité, que d'aucuns estiment suspectes, correspondent assez bien à l'objectif de mise en convergence du réseau.Les actions entreprises par l'AFME dans le domaine des échangeurs ont puissamment contribué à une mise en convergence, encore insuffisante, du

réseau. Cette action doit être poursuivie dans l'avenir sous des formes qui doivent s'adapter à la configuration actuelle. L'exemple présenté dans l'encart 3, qui souligne la diversité des actions limitée et ciblées qui composent un programme, met en évidence une notion capitale, celle de résultat intermédiaire. Très souvent lorsqu'on s'engage dans une opération d'évaluation, on court au but final qui peut être indifféremment: la production de connaissances scientifiques de qualité, la croissance du cash flow, des innovations, des augmentations de part de marché… C'est ignorer qu'avant d'atteindre ces objectifs, qui se situent en général sur le long terme, il y a toute une série de résultats intermédiaires qui permettent de baliser la trajectoire. Le cadre d'analyse que nous proposons permet de suivre empiriquement cette trajectoire. Par rapport à la situation d'arrivée, qui est la convergence maximale du réseau escompté, il est possible d'apprécier toute configuration intermédiaire et de la caractériser par l'état du réseau: degré de développement des pôles, importance des interactions entre pôles. L'évaluation consiste à décrire les actions entreprises, une par une, et à apprécier dans quelle mesure, localement et individuellement, elles ont fait avancer la convergence d'ensemble. Autrement dit au lieu de considérer les seuls inputs (interventions) et outputs (les résultats) on suit et analyse toutes les interactions, c'est à dire le processus par lequel des inputs se transforment en outputs. Ceci nous conduit à proposer un outil d'évaluation (mais aussi de gestion) original: le portefeuille des résultats intermédiaires. Pour des raisons de simplicité, nous avons établi ce portefeuille, non pas à partir de l'ensemble des interventions de l'agence, mais en nous limitant à quarante d'entre elles jugées significatives par les experts de l'AFME qui ont accompagné notre travail. Ces interventions représentent tant du point de vue financier que du point de vue de la nature des opérations, le noyau dur de l'action de l'agence sur la période 1983-1987. Pour chacune de ces interventions, qui consiste en un ensemble d'opérations plus ou moins nombreuses ou diversifiées (actions concertées, subventions individuelles…), il n'était pas question de réaliser une exploration comparable à celle effectuée pour les échangeurs. Nous nous sommes contentés de longs entretiens avec les ingénieurs de l'agence et avec des experts du domaine. Le but de ces entretiens était de caractériser l'identité des acteurs soutenus, les types de résultats intermédiaires recherchés et/ou obtenus. Par exemple le projet ARBS98 était centré sur la création d'une compétence scientifique n'existant pas, et les actions en direction du photovoltaïque avaient pour objectif de faire émerger un marché encore quasi-inexistant pour une technologie arrivé à un certain degré de maturité. D'autres actions comme celles liées au programme H2E8599 avaient pour justification et pour objectif

98Association pour la recherche biologique solaire 99Habitat économe en énergie pour 1985

l'établissement de connexions entre les technologies disponibles et leur industrialisation-commercialisation. Le positionnement de ces différents types d'actions et des résultats intermédiaires escomptés ou obtenus permet de visualiser de manière globale l'action de l'agence (figure 4). A la lecture de cette matrice plusieurs constatations s'imposent. La première est que les interventions de l'AFME ont principalement porté sur la structuration des réseaux, structuration bien répartie sur le différentes lignes de la matrice c'est à dire qu'elle s'est appliquée aussi bien aux connaissances scientifiques qu'à la technologie ou au marché, au transfert science-technique qu'au développement industriel. Deuxièmement, dans leur grande majorité, ces interventions et leurs résultats "immédiats" sont situés vers l'aval des réseaux et tout particulièrement sur TM et M. Enfin le nombre des opérations de rupture n'est pas négligeable, ce qui pose la question de ce type d'intervention. figure 5 ici En 1988 nombreux étaient les résultats situés dans les dernières lignes de la matrice. Nous sommes convaincus que la situation était très différente il y a cinq ou six ans: les interventions devaient alors être beaucoup plus concentrées sur l'amont. Ceci peut être considéré comme encourageant et la preuve d'un grand réalisme industriel. Il resterait à se demander néanmoins si un rééquilibrage amont ne permettrait pas une régénérescence des programmes et ne constituerait pas une bonne garantie pour préparer l'avenir. Le suivi du portefeuille des résultats intermédiaires est un révélateur des glissements temporels opérés et peut ainsi s'avérer être un outil puissant d'analyse stratégique. 6. Un outil de suivi et de programmation des interventions L'utilisation de la matrice ne se limite pas à des présentations statiques. Elle permet également de suivre le déplacement d'un projet, d'un groupe de projets voire d'un programme au cours du temps. Deux exemples illustrent cette utilisation. Penons le cas de la géothermie (figure 5). Les premières interventions (1981-1983) ont pour objectifs de faire émerger un marché et des utilisateurs: des forages sont mis en exploitation et alimentent des groupes d'immeubles. Ces interventions sont fondées sur l'hypothèse que la technique est mûre et qu'il s'agit dans un premier temps de montrer la faisabilité et l'existence d'une demande solvable, pour, dans un second temps, faire émerger un secteur industriel et des entreprises intéressées. Assez rapidement les difficultés se multiplient et les problèmes se posent: le plus important est celui provoqué par la corrosion des installations et notamment par la tenue des pompes (encrassage, corrosion). Ceci amène à revoir les analyses sur l'état du réseau escompté. Alors qu'au départ on pensait pouvoir s'appuyer sur des compétences techniques facilement mobilisables, les premières

réalisations montrent la nécessité de structurer le réseau en "remontant" vers l'amont. Deux stratégies sont alors définies qui partagent le même postulat: celui de l'existence de compétences et de savoir faire qu'il suffit de développer et de mettre en relation avec le marché. La première se donne pour objectif de structurer des acteurs et des compétences afin de déveloper les savoir faire tout en les orientant vers le marché. C'est ainsi qu'est créé l'institut mixte de recherche géothermique dont l'essentiel de l'activité va être consacré à l'étude de la corrosion (1983). La seconde conduit à lancer un programme d'adaptation des pompes Guinard. Cette ligne aboutira à une impasse. En revanche, l'institut mixte va générer toute une série d'activités qui se développent en parallèle à partir de 1984. Une première piste est explorée, très en amont et dans un domaine scientifique qui n'existe pas et qui doit être créé de toute pièce. L'objectif est de tester la possibilité de recourir à la biotechnologie et plus particulièrement aux microorganismes pour apporter une solution aux problèmes d'encrassage: ces investigations se soldent rapidement par un constat d'impossibilité. Plusieurs autres opérations, cette fois de développement, sont entreprises. La première est le lancement d'un important programme de réhabilitation des puits existants: diagnostic des installations; interventions ponctuelles de remise en état sur la quasi-totalité des sites installés en 1980-1984. La seconde consiste en un soutien apporté à toutes les entreprises actives dans le domaine de la maintenance. Enfin a été lancée une opération de télémesures sur 47 sites qui a apporté des données qui se sont avérées fort utiles aussi bien aux chercheurs, aux entreprises de maintenance, aux exploitants, aux maîtres d'ouvrage100. La matrice permet de suivre le chemin suivi par une innovation, les allers retours entre les différents pôles du réseau en fonction des difficultés rencontrées, la multiplicité des lignes de recherche ou de développement poursuivies. Se trouvent ainsi visualisés les actions entreprises, les résultats obtenus et les décisions de (ré)orientations prises: à l'impression de dispersion, d'incohérence est substitué un cheminement qui fait apparaître la dynamique d'un domaine et des interventions décidées et qui laisse place à l'appréciation et à la discussion (a-t-on été assez loin dans les recherches biotechnologiques? les résultats étaient-ils vraiment négatifs?…). Les trajectoires qui se dessinent sur la matrice font également surgir "en négatif" les analyses successives du réseau. Au début, le réseau est supposé fortement convergent: l'intervention ne vise qu'à l'étendre et à faire monter en puissance le pôle marché. Puis, en même temps que des opérations sont soutenues, des lacunes se révèlent plus en amont, et peu à peu par itérations successives le réseau est sondé dans son entier, ce qui permet progressivement de mieux cibler les interventions. Si l'on voulait aller plus loin dans l'évaluation, il faudrait apprécier le bien fondé des analyses et des décisions qu'elles inspirent, à chaque bifurcation, en reconstruisant de façon plus systématique l'état du réseau. Ce travail plus fin ne saurait être entrepris qu'à partir de l'exploration que nous venons de conduire et qui met en évidence les trajectoires suivies.

100Pour plus de détails, voir: La filière géothermie: premier bilan, 1986, AFME.

figure 5 ici La matrice est bien adaptée au suivi de projets d'innovation qui, par définition, parcourent des trajectoires compliquées, sont pris dans des allers-retours et des itérations, s'engagent dans plusieurs directions. Elle constitue une sorte de tableau de bord qui permet de reconstruire la série des problèmes rencontrés et de conserver la mémoire des interventions: identité des maillons touchés , nature des opérations. C'est une première manière de reconstituer la dynamique des réseaux concernés, chaque expérience fournissant des informations sur leur configuration. C'est très naturellement que l'outil devient un instrument de programmation, puisqu'il permet de penser les actions futures comme des prolongements stratégiques des actions passées et des résultats provisoires et partiels qu'elles ont permis d'obtenir. 7. Conclusion Les analyses récentes de l'innovation ont insisté sur la montée en puissance d'une nouvelle forme d'organisation qui fait coopérer pour des périodes de temps limitées et de manière flexible, des laboratoires universitaires, des centres de recherche technique, des entreprises, des usagers qui interviennent de manière de plus en plus active, des financiers qui prennent le risque de favoriser certaines collaborations (FORAY, 1989). A ces réseaux hétérogènes nous avons choisi de donner le nom de réseaux technico-économiques. Un RTE se caractérise de deux manières: par l'identité et les stratégies des acteurs qui le composent; par les produits et les intermédiaires de toutes sortes que les acteurs mettent en circulation, échangent et qui les lient les uns aux autres de manière plus ou moins compliquée, plus ou moins irréversible. Les mises en réseau résultent de procédures d'essais et d'erreurs, car personne ne peut de but en blanc identifier les "bons" acteurs ni formuler avec précision les innombrables problèmes qui empêchent la convergence. Dans l'établissement de ces réseaux et dans leur montée en puissance l'Etat joue un rôle important, notamment à travers ce que nous avons appelé les programmes technologiques flexibles. Etant donné le rôle stratégique de ces interventions publiques, qui prédéterminent les conditions de l'innovation industrielle et les avantages économiques qui y sont attachés, il est crucial de développer des outils pour concevoir ces programmes, les gérer et les évaluer de manière à les réorienter ou à les interrompre à temps. Partant d'un travail réalisé en étroite collaboration avec les responsables de l'AFME, nous avons présenté dans ce chapitre un cadre d'analyse et des méthodes permettant de mieux cibler les interventions et de suivre en continu leurs effets tout en tenant compte de l'évolution des contextes dans lesquels elles s'insèrent. C'est ainsi qu'une fois identifiées les

gammes de produits à développer, il est possible, famille par famille, de décrire les réseaux à mettre en place pour rendre possible ce développement puis de partir des réseaux tels qu'ils existent pour définir les actions à conduire et pour les faire évoluer dans la bonne direction. Ces instruments (caractérisation des RTE, matrice des interventions, portefeuille des résultats intermédiaires), même s'ils ne sont utilisés que comme un cadre commode de discussion et de préparation des décisions101, concourent à préserver la nécessaire complexité des interventions qui caractérisent un programme technologique flexible, tout en restituant leur cohérence ou éventuelle incohérence. La diversité est une richesse et une exigence et non la preuve d'une absence de stratégie ou de réflexion. Comment accompagner, stimuler les acteurs sans les encadrer et les stériliser? Le défi est d'imaginer et de fabriquer des nouvelles formes d'organisation et des nouveaux outils de gestion. Le XXième siècle a inventé les grandes organisations; le XXIième siècle sera celui des réseaux hétérogènes. Notre étude est une modeste contribution à la conception d'outils et de cadres d'analyse permettant l'essor de ces réseaux. Etre aussi mobile que les acteurs-innovateurs soutenus; les suivre lorsqu'ils traversent les frontières institutionnelles et passent d'une organisation à une autre; les attendre lorsqu'ils mettent au point des procédés expérimentaux; ne pas les lacher lorsqu'ils contruisent des prototypes; être encore à leurs côtés lorsqu'ils négocient avec un "lead user" pour lui faire dire ce qu'il veut ou lorsqu'ils s'efforcent de convaincre un financier sceptique; être capable de cette mobilité et de cette tolérance, aller jusqu'à susciter avec opiniatreté de tels comportement et sans se substituer aux acteurs: la tâche des pouvoirs publics n'a jamais été aussi difficile, aussi délicate et en même temps aussi irremplaçable!

101Il y a toute une littérature sur le rôle de ces instruments. De nombreux analystes ont souligné que, au delà

de leurs utilité immédiate, de tels outils ont une fonction essentielle: rendre explicite un certain nombre de préoccupations, amener les acteurs à discuter de manière organisée de sujets qui ne sont bien souvent abordés que par quelques uns et sans préparation.

Nouveaux outils, nouvelles pratiques le cas de l’AFME

François MOISAN

Texte manquant Annexe : une base de données pour la préparation stratégique et le suivi des

intervention de recherche L'AFME a construit une base de données dont la conception a été inspirée par les

travaux présentés, dans cet ouvrage, par les textes, de M.Callon "Les réseaux technico-économiques" et de F.Moisan "Nouveaux outils, Nouvelles pratiques". Les pages qui suivent décrivent la méthode qui a présidé à la construction de cette base de données destinée à assister la réflexion stratégique et le suivi des interventions de recherche de l'AFME.

1. LES TROIS ETAPES DE L'ANALYSE STRATEGIQUE L'analyse stratégique vise à rassembler les informations permettant de décrire les

projets de recherche, leurs enjeux énergétiques et économiques et le domaine d'activité (scientifique technique et industrielle) les concernant. Ces informations conduisent à la sélection des projets (vis-à-vis des enjeux), à l'identification des résultats attendus et à la programmation des actions à entreprendre.

La première étape consiste à définir le domaine dans lequel s'inscrit le projet de recherche c'est-à-dire le réseau d'acteurs concernés par le projet et par ses impacts industriels (acteurs de R et D, entreprises susceptibles d'industrialiser les techniques, "clients"). La seconde étape identifie les enjeux dans chacun des domaines : enjeux énergétiques, enjeux économiques.

Ces deux étapes débouchent sur une programmation stratégique qui consiste à sélectionner les projets (les uns par rapport aux autres en fonction de leur "coûts" rapporté aux enjeux respectifs), à identifier la nature et à préciser l'impact des interventions appropriées enfin à traduire les résultats escomptés (ces résultats ne sont pas toujours exprimables en terme de marché mais bien souvent en terme de structuration des réseaux d'acteurs).

1.1. La description du domaine Le domaine d'un projet de recherche est identifié par l'ensemble des acteurs

scientifiques, techniques, industriels, commerciaux et usagers impliqués dans le développement des technologies que sous-tend le projet ainsi que l'ensemble des produits et connaissances qu'ils s'échangent entre eux (cf. M. Callon, "Les réseaux technico-économiques" dans cet ouvrage).

L'objectif consiste donc à décrire l'état du réseau en évaluant un certain nombre de critères qui rendent compte des stratégies des acteurs.

Les maillons aval du réseau TM et M concernent respectivement l'offre de technique et les clients. Il s'agit alors de décrire le marché et la dynamique concurrentielle des entreprises impliquées.

En amont les maillons S et T décrivent la structure de la recherche et du développement technologique ainsi que du transfert entre ces deux maillons (ST) ; on s'efforce de caractériser la dynamique de ces maillons.

1.2. Les critères d'enjeux Si la description des domaines est essentielle à la programmation des actions à

entreprendre elle présuppose une sélection des domaines et donc des projets. Cette sélection se fait en positionnant les projets proposés vis-à-vis d'un certain nombre de critères d'enjeux.

Bien évidemment il s'agit d'une démarche itérative puisqu'il faut évaluer au travers de la description des domaines les actions à entreprendre et les moyens qui doivent être consacrés ; in fine la sélection s'opère entre les enjeux, les moyens à mobiliser et les résultats attendus.

On retient essentiellement cinq familles de critères pour qualifier les projets. 1.2.1. Les critères énergétiques vis à vis de la ressource, qui traduisent pour l'essentiel

des enjeux globaux concernant les équilibres géopolitiques. Ce sont : - la contribution au bilan énergétique (ou l'économie de devise) à l'horizon 2010,

- la dépendance vis à vis de la ressource, - la dépendance vis à vis de la technologie - l'impact sur la gestion temporelle de la disponibilité de l'énergie (stockage, lissage

des pointes) 1.2.2. Les critères d'enjeux vis-à-vis des rejets sur l'environnement apparaissent de

façon stratégique dans cette analyse. Ils sont évalués vis-à-vis de trois "effets" majeurs : - la qualité de l'air : émissions de SO2 , de NOx... ; les pollutions visées sont du type

des pluies acides, les risques sont locaux ou régionaux, et éventuellement réversibles. - la qualité de l'eau : rejets de polluant augmentant la dco ou la dbo (respectivement

demande chimique en oxygène et demande biologique en oxygène). Les risques sont relativement localisés.

- les risques d'atteinte globale et irréversible à l'écosystème planétaire appelés risques vis-à-vis des générations futures ; parmi ces risques on retiendra l'augmentation de l'effet de serre, l'augmentation de la probabilité d'accidents énergétiques graves par l'extension de filières présentant des risques majeurs.

1.2.3. Les enjeux de marché rendent compte de l'intérêt du domaine en terme

d'activité industrielle : ce volet des enjeux est nécessaire dès qu'il s'agit de promouvoir une offre française de produits et d'équipements de maîtrise de l'énergie par une politique de R et D. Il s'agit donc là de répondre aussi précisément que possible à la question : Quel enjeu pour les industriels ou professionnels qui seront présents sur ces marchés ? Ces enjeux sont mesurés à partir de la description du réseau en appréciant l'évolution dynamique potentielle des maillons TM et M. Ils intègrent également la rentabilité pour l'utilisateur.

1.2.4 Les enjeux vis-à-vis des déterminants structurels concernant, par exemple,

certaines infrastructures collectives prennent une importance croissante du point de vue de la consommation d'énergie, notamment dans le domaine des transports. Une série de critères décrit cet aspect que le marché ne peut justifier directement.

1.2.5 Enfin, sont pris en compte les enjeux liés à l'ouverture des options

technologiques à long terme ; projets pour lesquels il existe un rique d'échec technologique important, ou une absence de rentabilité économique dans les conditions actuelles, mais qui représentent une garantie vis à vis d'éventuelles évolutions à long-terme.

1.3. Les choix stratégiques

Ils résultent de la comparaison entre la description des domaines et la quantification des enjeux (pondérés par les priorités accordées aux cinq principaux critères) :

Pour chaque domaine on décrit la démarche de l'intervention (actions à entreprendre) et des résultats attendus (objectifs vis-à-vis de l'évolution du réseau). On évalue alors les moyens à mobiliser en terme de moyens financiers et humains. Ces choix stratégiques au sein de chaque domaine permettent ultérieurement de sélectionner les projets (et les domaines concernés) qui seront retenus dans l'enveloppe budgétaire globale.

1.4. Les outils de traitement L'ensemble des critères retenus pour l'analyse stratégique, est rassemblé dans une base

de données attachée aux domaines de recherche. Le contenu de cette base de données est présenté ci-après sous la forme d'une fiche en deux volets, l'un concernant la description du domaine et l'autre les enjeux ainsi que les choix stratégiques, et est détaillée dans la suite du chapitre.

Les aspects opérationnels (suivi des actions en cours) sont réunis dans une autre base de données, compatible avec la précédente.

L'ensemble des informations recueillies, pour la cinquantaine de domaines analysés ont été traitées afin de mettre en regard l'allocation des moyens financiers et les priorités affectées à chaque critères.

Par ailleurs, la disponibilité d'une information structurée a permis de générer automatiquement (avec toutes les limites que cela comporte) des fiches de présentation des domaines qui sont présentées dans le chapître 6 de cette partie.

(insérer ici les fiches 1 et 2) 2. LES DESCRIPTEURS DU RESEAU La description des réseaux est réalisée par la description des pôles (S, T, M) et des

maillons de transfert (ST, TM) qui le constituent. Des éléments descriptifs sont communs à tous les maillons, d'autres sont spécifiques à chacun.

2.1. Les descripteurs communs sont : - L'existence : Un réseau peut être incomplètement constitué, si un ou plusieurs

maillons manquent, le domaine est dit en rupture. Codification : 0 - maillon inexistant

1 - maillon en création 2 - maillon existant - La structuration : A l'intérieur d'un maillon, chaque acteur agit individuellement où

il existe des mécanismes de coordination formalisés. Codification : 0 - structuration faible 1 - structuration moyenne 2 - structuration forte - Le positionnement international : Un maillon rattaché à un domaine peut avoir une

importance au niveau international (équipe de recherche reconnue, avance technologique, entreprise détentrice de l'exclusivité d'un brevet "incontournable"...). Codification :

0 - pas d'implication internationale 1 - positionnement international moyen 2 - positionnement international fort - Le niveau de collaboration au sein de la CEE : Le maillon est intégré dans une

dynamique européenne de collaboration. Codification : 0 - faible collaboration CEE 1 - collaboration CEE significative 2 - forte collaboration CEE - L'évaluation de l'action de l'AFME : Ce critère qualifie le rôle et le poids de

l'Agence (qualité des résultats, action, influence, ...) sur le maillon. Codification : 0 - rôle faible 1 - rôle significatif 3 - rôle décisif - Les acteurs : Dans chaque maillon existant il y a des acteurs (partenaires de

l'AFME, structures, ...) qui sont identifiés. Codification : Liste des acteurs. 2.2. Les descripteurs spécifiques à chaque élément du réseau : Pour le maillon S (science, recherche de base) : - Nombre de chercheurs : Caractérise la mobilisation en terme de recherche amont sur

le domaine. Codification : un nombre - Structures de recherche : Quelles sont les structures créées, ou existantes, dans

lesquelles se fait la recherche, ou les actions visant à créer ces structures (Action Thématique Programmée, Action de Recherche Concertée, Groupe d'Etudes et de Recherche, Institut...). Codification : Liste des structures

- Indicateurs de qualité : Il peut s'agir du nombre de thèses, de publications dans des revues ou des colloques scientifiques, ou d'autres indicateurs issus d'études bibliométriques par exemple. Codification : ouverte

- Pluridisciplinarité : Les équipes de recherche impliquées sont elles complémentaires ou d'une même spécialité ? Codification : OUI (pluridisciplinaire), NON (monodisciplinaire)

- Disciplines de base mobilisées : Il s'agit d'identifier quelles sont les spécialités des équipes de recherche. Codification : thermique, thermodynamique, mécanique des fluides, automatique...

Pour le maillon ST (transfert des connaissances) : - Contrats industriels : Les contrats industriels obtenus par des équipes de recherche

sont significatifs du transfert des connaissances vers les applications technologiques. Codification : Nombre de contrats industriels

- Structures de transferts : Identification dans le maillon de la présence de structures dont l'objet est l'orientation des recherches de base en fonction des besoins de l'aval ou de structures dans lesquelless agissent ensemble des chercheurs et ingénieurs ou des technologues (Comité d'ARC, Comité d'Experts, CRITT, GER, ...). Codification : Liste des structures.

- Bourses cofinancées : Existe t'il des allocations de recherche financées à la fois par les pouvoirs publics et par les industriels intéressés par les résultats de la recherche ? Codification : si oui, un nombre de bourses.

Pour le maillon T (développement technologique) : - Nature de la technologie : La technologie développée est-elle l'amélioration d'une

technologie existante ou s'agit-il d'une rupture technologique (les savoir-faire, matériaux, méthodes de conception et de fabrication sont nouveaux). Codification : I - incrémentation ; R - rupture

- Orientation : Le développement technologique vise un produit, un procédé (process) ou une méthode (cas des progiciels ou de méthodes de gestion). Codification : produit, procédé, méthode, prod et méth,prod et proc, proc et méth.

- Taux de R et D : Ce critère qualifie l'importance de la R et D dans le développement technologique. On peut l'exprimer comme le rapport du montant de la R et D dans le domaine au Chiffre d'Affaire du domaine. Codification : Taux R et D = R et D/CA

- Brevets : Le dépôt de brevet est un indicateur de l'activité technologique, des études sont en cours à l'AFME pour utiliser au mieux cet indicateur aussi bien pour son contenu

quantitatif que qualitatif (citations croisées, brevets les plus cités, ...). Codification : nombre de brevets déposés par les acteurs.

- Structures de coordination : Quelles sont les structures permettant de coordonner les actions concernant le développement technologique et de faciliter l'innovation dans les entreprises (centre d'essais de mise au point, association, ...). Codification : Liste des structures

- Prestations de service auprès des fabricants : Existe-t-il des contrats ou des structures fonctionnelles qui associent développement et production. Codification : OUI, NON

Pour le maillon TM (développement industriel) : - Tissu industriel : Caractérisation de la nature du tissu industriel (concentré ou

atomisé). Si 80 % du Chiffre d'Affaire est réalisé par moins de 20 % des entreprises le tissu est dit concentré, il est atomisé dans le cas contraire. Codification : concentré, atomisé

- Type d'entreprises : Quel est le type (grande entreprise ou PME) des entreprises qui font 80 % du CA. Codification :

GE - grandes entreprises PME - petites ou moyennes entreprises GE/PME - la règle du 80/20 ne s'applique pas - Autonomie stratégique : Les décisions stratégiques en matière de développement

dans les entreprises sont elles le fait d'un groupe auquel appartient l'entreprise ou sont elles prises dans l'entreprise (on applique la règle du 80/20). Codification :

G - groupe I - indépendant G/I - la règle du 80/20 ne s'applique pas - Stratégie d'accès à la technologie : Les entreprises peuvent obtenir la maîtrise d'une

technologie en la développant (ou en la faisant développer) ou en l'achetant (acquisition de licences ou achat de sociétés). Codification :

D - développer A - acquérir D/A - pas de stratégie dominante - Stratégie de production : Les entreprises font elles plutôt du volume (abaissement

des coûts, recherche de gain productivité) ou de la différenciation (adaptation à des créneaux du marché, qualité, service). Codification :

V - volume D - différenciation V/D - la règle du 80/20 ne s'applique pas

- Chiffre d'affaire : CA réalisé par les entreprises appartenant au réseau. Codification : montant (MF)

- Export : part du CA réalisé à l'exportation. Codification : taux d'export (%) - Sensibilité à la sévèrisation des normes : Les entreprises peuvent elles être

fragilisées par des normes contraignantes qui s'imposeraient à leurs productions. Codification : 0 - faible sensibilité

1 - moyenne sensibilité 2 - forte sensibilité - Sensibilité aux clients : Les entreprises sont elles très dépendantes de leur clientèle,

ou celle-ci est elle "captive". Codification : 0 - faible sensibilité au client 1 - moyenne sensibilité au client 2 - forte sensibilité au client - Sensibilité aux fournisseurs : Les entreprises sont elles sous la dépendance de leur

fournisseur ou ont elles une grande latitude de ce point vue. Codification : 0 - faible sensibilité aux fournisseurs 1 - moyenne sensibilité aux fournisseurs 2 - forte sensibilité aux fournisseurs

- Sensibilité aux nouveaux produits : Il existe (ou il peut exister) des produits susceptibles de se substituer à ceux que fabrique l'entreprise. Codification :

0 - faible sensibilité 1 - moyenne sensibilité 2 - forte sensibilité - Sensibilité aux nouveaux entrants : Des entreprises "étrangères" qui n'appartiennent

pas au "groupe concurrentiel" peuvent s'imposer au détriment des entreprises actuelles. Codification :

0 - faible sensibilité 1 - moyenne sensibilité 2 - forte sensibilité - Intensité de la concurrence : Quelle est l'intensité de la concurrence dans le

domaine. Codification : 0 - secteur faiblement concurrentiel 1 - secteur moyennement concurrentiel 2 - secteur fortement concurrentiel - Structure de coordination : Existe-t-il des structures permettant de structurer la

profession (comité de normalisation), de mettre en relation la technologie et le marché

(centre d'essais de labellisation, assistance aux utilisateurs). Codification : liste des structures.

Pour le mailon M (les utilisateurs, les clients) - Nature : Quelle est la nature du marché, celui-ci est-il émergeant (nouveau), en

croissance (jeune), mature ou déjà en déclin. Codification : émergeant, croissant, mature, déclin.

- Type de bien : Le marché concerne-t-il des biens d'équipement des ménages, des biens d'équipement des entreprises, des biens intermédiaires, des biens de consommation des biens d'équipement des collectivités. Codification : ménage, entreprise, intermédiaire, consommation, collectivité.

- Marché national : Marché annuel en France. Codification : montant (MF) - Taux d'importation : Quelle est la part du marché national couverte par des

entreprises étangères. Codification : taux d'import (%) - Marché international : Codification : montant (MF) - Dimension géographique : Le marché est-il national, européen ou mondial.

Codification : N - national E - européen M - mondial - Motivation spécifique de la demande : La demande est-elle sensible à un critère

particulier tel que le confort, la sécurité, la qualité, ... Codification : confort, qualité, sécurité, ...

- Structure de la demande : la demande est elle diffuse (de nombreux utilisateurs potentiels) ou concentrée (un petit nombre d'utilisateurs). Codification : D - diffuse ; C - concentrée.

- Régulation de la demande : la demande peut être "motivée" par les prix ou par la réglementation. Codification : P - prix ; R - réglementation.

3. LES CRITERES D'ENJEUX Les enjeux sont regroupés selon cinq objectifs, les enjeux vis à vis de la ressource, les

enjeux vis à vis de l'environnement, les enjeux de marché, les enjeux structurels et les enjeux pour le long terme.

3.1. Les enjeux vis-à-vis de la ressource

Les critères qualifient l'impact potentiel sur le bilan énergétique de la France ou sur la balance du commerce extérieur des matières premières et sur les conditions d'approvisionnement ou d'utilisation. Ces critères sont :

. L'enjeu à l'horizon 2010 ; il s'agit d'apprécier la réduction (ou dans certains cas la substitution) dans la consommation d'énergie ou de matière première permise par le développement du domaine. Cet enjeu s'exprime en tep (économisée ou substituée) pour l'énergie et en francs de devises économisées pour les matières premières. Codification : nombre de tep ou MF

. La dépendance géopolitique des ressources ; ce critère permet de qualifier des domaines qui peuvent jouer un rôle dans la limitation des risques liés à des ruptures d'approvisionnement ou à des renchèrissements marqués du pétrole ou des matières premières stratégiques. Codification :

0 - faible effet sur la limitation des risques 1 - effet moyen sur la limitation des risques 2 - effet important sur la limitation des risques . La dépendance géopolitique de la technologie ; des technologies qui impliquent la

maîtrise de l'énergie sont "verrouillées" par des brevets étrangers. Ce critère a pour objet d'identifier les domaines qui contribuent à acquérir une indépendance. Codification :

0 - faible contribution à l'indépendance techno. 1 - moyenne contribution à l'indépendance techno. 2 - forte contribution à l'indépendance techno. . L'impact sur la gestion temporelle ; ce critère qualifie la contribution du domaine à

l'adaptation temporelle des consommations, il s'applique essentiellement aux techniques d'effacement de la pointe d'électricité et au stockage de l'énergie. Codification :

0 - faible impact sur la gestion temporelle 1 - impact moyen sur la gestion temporelle 2 - fort impact sur la gestion temporelle 3.2. Les enjeux vis-à-vis de l'environnement Dans la plupart des cas il existe une relation directe entre consommation d'énergie et

production d'effluents nocifs pour l'environnement. Cependant, certaines filières énergétiques sont particulièrement innofensives ou peuvent même avoir un rôle positif dans le maintien des équilibres. Les critères suivants qualifient l'impact des domaines de maîtrise de l'énergie et des matières premières sur l'environnement :

. Impact sur la qualité de l'air ; ce critère qualifie l'importance du domaine sur la diminution des rejets de polluants affectant la qualité de l'air. On y trouve pour l'essentiel

les émanations liées aux combustions (SO2, NOx, hydrocarbures imbrulés, ...).

Codification : 0 - faible impact sur la diminution des rejets sur l'air 1 - moyen impact sur la diminution des rejets sur l'air 2 - fort impact sur la diminution des rejets sur l'air . Impact sur la qualité de l'eau ; les critères couramment utilisés pour qualifier la

qualité de l'eau sont la dbo (demande biologique en oxygène) et la dco (demande chimique en oxygène). Des filières énergétiques telles que la méthanisation des déchets urbains ou industriels contribuent à diminuer la quantité de polluants infiltrant la nappe phréatique. Codification :

0 - faible impact sur la diminution des rejets sur l'eau 1 - impact moyen sur la diminution des rejets sur l'eau 2 - fort impact sur la diminution des rejets sur l'eau . Impact sur les générations futures : les atteintes à la qualité de l'eau et de l'air aussi

graves soient elles sont localisées et ont des conséquences réversibles, il n'en est pas de même pour celles consécutives, par exemple, à l'augmentation de l'effet de serre. Parmi ces risques irréversibles il faut également prendre en considération les conséquences d'un éventuel accident nucléaire ou les problèmes liés à la gestion des déchets hautement toxiques. Codification :

0 - faible impact sur la diminution des risques majeurs 1 - impact moyen sur la diminution des risques majeurs 2 - fort impact sur la diminution des risques majeurs 3.3. Les enjeux de marché 3.3.1 Les enjeux vis-à-vis de l'activité industrielle : La qualification de ces enjeux impose de faire des hypothèses sur le développement du

marché. Nous avons choisi de paramétrer la croissance du marché d'une technologie donnée par le coût du pétrole. Un coût élevé de celui-ci favorise sa substitution par des technologies alternatives. Les critères qualifiants auront une valeur selon que le coût du pétrole sera inférieur ou supérieur à 25 $/bl. Ces critères, pour la plupart représentation dynamique des critères descriptifs du secteur industriel, sont :

- Evolution du chiffre d'affaire : on indique la croissance, sur le moyen terme, du CA des industriels et équipementiers du domaine, selon les hypothèses sur le prix du pétrole. Codification :

Pétrole < 25 $/bl : 0 - stabilité ou décroissance

1 - croissance modérée 2 - croissance forte Pétrole > 25 $/bl : 0 - stabilité ou décroissance 1 - croissance modérée 2 - croissance forte - évolution de l'internationalisation de la concurrence : en particulier l'ouverture des

frontières européennes va-t-elle fortement modifier le contexte concurentiel. Codification : Pétrole < 25 $/bl : 0 - internationalisation faible 1 - internationalisation moyenne 2 - internationalisation importante Pétrole > 25 $/bl : 0 - internationalisation faible 1 - internationalisation moyenne 2 - internationalisation importante - maîtrise technologique : caractérisation de l'avance technologique et du

renforcement des positions des entreprises. Codification : 0 - faible contribution à l'avance technologique 1 - contribution à l'avance technologique moyenne 2 - forte contribution à l'avance technologique - nature de la demande : les enjeux de marché doivent intégrer l'évolution probable du

comportement des utilisateurs. Ceux-ci seront ils demandeur d'une production de masse et de bas prix ou d'un service différencié. Codification : volume, différenciation

3.3.2 les enjeux vis-à-vis des utilisateurs - La rentabilité économique pour l'utilisateur : ce critère a pour objet de préciser si

une technique (ou un service énergétique) est rentable pour l'utilisateur dans un contexte du prix de l'énergie donné. Pour les matières premières il rend compte du temps de retour de l'investissement permettant l'économie. Codification :

Energie : 0 - technique rentable pour pétrole ≥ 25 $/bl 1 - technique rentable pour pétrole < 25 $/bl Matière première : 0 - temps de retour ≥ 7 ans 1 - temps de retour < 7 ans 3.4. Les enjeux vis-à-vis des déterminants structurels - Le service hors réseaux : ces enjeux concernent essentiellement les usages

décentralisés ou autonomes de l'électricité. Les critères en sont : d'ici 2025, 3 milliards

d'individus en zone rurale seront concernés dans des pays où ne pourront se développer les réseaux centralisés et les centrales de grande puissance. Les énergies renouvelables peuvent trouver là un débouché très important et contribuer à la stabilité politique mondiale. Codification :

0 - faible enjeu vis-à-vis du hors réseaux 1 - enjeu moyen vis-à-vis du hors réseaux 2 - fort enjeu vis-à-vis du hors réseaux - L'organisation des infrastructures collectives : ce critère concerne les aspects dont la

valeur d'usage est souvent difficile à évaluer comme l'organisation de l'espace, les infrastructures nécessaires aux déplacements ou l'utilisation du milieu naturel. Codification : 0 - impact négatif sur les infrastructures collectives

1 - pas ou peu d'impact sur les infrastructures collectives 2 - impact positif sur les infrastructures collectives 3.5. Les enjeux vis-à-vis de la diversification à long terme - Ouverture des options à long terme : Le domaine peut représenter une assurance sur

les évolutions à long terme ou faire partie d'un "portefeuille" d'options technologiques qui doit être entretenu afin d'en acquérir ou d'en conserver la maîtrise. Codification :

0 - n'est pas une option à long terme 1 - est moyennement une option à long terme 2 - est fortement une option à long terme 4. LES CHOIX STRATEGIQUES A partir de la description du réseau et des enjeux rattachés au domaine il s'agit de fixer

des orientation en matière de programmation des actions de recherche et d'établir les résultats attendus sur le domaine à l'horizon du programme.

- La démarche : liste des actions à entreprendre afin d'amener le domaine dans l'état souhaité. Codification : recommandations sur les actions à mener.

- Résultats attendus : décrit l'état souhaité du réseau (les acteurs et les produits, procédés ou méthodes qu'ils s'échangent) à l'horizon du programme sous la forme des résultats (ou des impacts) attendus à cette échéance. Codification : liste de résultats

5. LES ASPECTS FINANCIERS

Cette dernière partie fait également partie du choix stratégique, elle fixe les moyens financiers nécessaires à la réalisation des objectifs et répertorie les possibilités extérieures de financement des opérations à engager sur le domaine. Les critères en sont :

- Coût global sur 5 ans : estimation du coût global (français) sur la période 90-94. Codification : montant (MF)

- Financement AFME sur 5 ans : estimation du financement cumulé sur la période 90-94. Codification : montant (MF)

- Autres financements publics : identification d'autres sources de financement public éventuelles ou potentielles. Codification : montant (MF)

- Caractère incitatif des financements apportés : il s'agit d'évaluer dans quelle mesure l'aide de l'AFME est indispensable à l'existence d'un programme de recherche dans le domaine. Codification :

0 - caractère incitatif faible 1 - caractère incitatif significatif 2 - caractère incitatif décisif 6. EXEMPLES DE FICHES DESCRIPTIVES DES DOMAINES Les trois fiches présentées ci-après illustrent une démarche qui concilie l'automatisation

des tâches concernant un grand nombre d'informations (environ 10 000 pour la seule base de données sur les domaines de recherche de l'AFME) et la lisibilité de ces informations en proposant une alternative au listage de codes sous forme de tableaux de chiffres.

(insérer ici les fiches 3, 4 et 5)

L’analyse socio-technique Madeleine AKRICH

L'analyse socio-technique dans le processus d'innovation Tout innovateur ou "animateur" d'un projet d'innovation est confronté presque

quotidiennement aux problèmes posés par la prise de décision en situation d'incertitude. Certes, celle-ci est le lot commun d'un certain nombre d'acteurs, des financiers aux politiques, mais, étant en quelque sorte constitutive du processus d'innovation, elle y prend un relief particulier. Pour ne citer qu’un exemple, choisir pour un nouvel ordinateur une puce aux performances prometteuses, mais qui n’est pas encore sur le marché, représente un pari, qui peut rapporter gros, mais qui comporte des risques importants (KIDDER, 1982) : nul ne sait si le fournisseur va bien tenir ses délais, si la puce ne sera pas rapidement rendue obsolète par une nouvelle génération de composants, si en situation d’utilisation elle aura bien les performances annoncées etc. etc.

Heureusement pour les innovateurs, chaque décision ne prend pas systématiquement des allures mélodramatiques: bien souvent, le travail accumulé précédemment a permis d'isoler une question portant sur un point précis du projet, et dont la réponse dépend d'une liste finie de paramètres; il suffit alors de "monter une expérimentation" (celle-ci peut-être technique, scientifique, sociale, économique etc.102) pour être en mesure de faire un choix qui paraisse à peu près pertinent.

Mais dans d'autres cas, ce n'est pas aussi simple, soit que l'on cherche rétrospectivement à comprendre les raisons d’une décision qui, deux mois plus tard, s'avère à l'évidence catastrophique, soit que l'on se trouve devant un choix qui ne se laisse pas facilement emprisonner dans une alternative simple: les "experts" ont des avis complètement divergents quant à l'avenir des techniques, du marché, des modes de vie etc. . - on se trouve alors dans une situation de controverse ouverte103 -. Ou, plus banalement, il y a "du pour et du contre" dans chaque possibilité et on voit mal comment, en l'état d'avancement du projet, on pourrait les départager: par exemple, bien malin celui

102 Pour prendre quelques exemples, cela peut être simplement de téléphoner à différents fabricants de

matériels pour connaître les prix et les performances de tel ou tel composant que l'on envisage d'incorporer dans le dispositif; cela peut être aussi de tester une idée, un dispositif auprès d'un porte-parole de la distribution, syndicat professionnel ou autre; cela peut être encore de mesurer la conformité aux normes d'un matériel etc.

103 Pour l'analyse d'une controverse de ce type, on peut voir : (CALLON, 1981a)

qui, aujourd'hui, pourrait dire en toute certitude si la télévision haute définition (TVHD) est destinée à remplacer la télévision actuelle ou si elle constituera un nouveau média audiovisuel, réservé à des types particuliers de programmes. Et pourtant, de la réponse à cette question, dépendent un certain nombre de choix techniques et industriels qui, dans la situation de concurrence acharnée dont la TVHD est l’objet, ne peuvent attendre indéfiniment.

En bref, lorsqu’il est dans ce genre de position, l’innovateur a-t-il quelque chose de mieux à faire que de tirer à pile ou face? Certes, nous l'avons vu dans la première partie de ce livre, il ne faut guère espérer réduire à zéro les incertitudes qui pèsent sur le devenir d'une innovation: celle-ci ne peut réussir que si elle parvient à créer des liens inédits entre différents "acteurs", humains ou non-humains confondus, dont rien ne garantit a priori qu’il vont se plier au scenario imaginé par l’innovateur. Pour parvenir à les enrôler, celui-ci doit construire, au travers de l'objet lui-même, les différents dispositifs d'intéressement 104 qui permettront à l’objet d'être en prise sur ce qui a été défini comme son environnement futur.

C'est ici que gît l'une des principales difficultés de l'innovation: cet "environnement" - c'est-à-dire le réseau des acteurs associés, décrit in fine par la circulation de l'objet - est le résultat du processus d’innovation et non son commencement. Or, les choix techniques effectués tout au long de ce processus impliquent que l'on fasse un certain nombre d'hypothèses sur la nature et l’organisation de cet environnement: le cas d’Eatsman105, qui n’aboutit à l’Instamatic Kodak qu’au bout d’une longue série d’avatars où produits et publics se modifient constamment, est significatif des difficultés que l’on a à ajuster “l’offre” à la “demande”, alors que la “demande” reste indéterminée tant qu’elle n’a pas été confrontée à une “offre”. Les innovateurs qui refusent de s'en remettre totalement au hasard ou à l'inspiration106 pour casser ce genre de cercles visieux cherchent à s'entourer de ce qu'ils espèrent être de bons porte-parole 107 des acteurs qu'ils souhaitent intéresser: mais, comme cela a été vu dans le premier chapitre de ce livre, le choix de ces porte-parole est à la source d'une incertitude irréductible... sauf à supposer que l'on vive dans un monde totalitaire.

104 voir la première partie de cet ouvrage 105 voir la première partie de cet ouvrage concernant la présentation du travail de (JENKINS, 1976) 106 Un innovateur qui estimerait avoir des dons de visionnaire - le concours Lépine est sans doute l'un des

endroits propices à ce genre de personnages - se passe de porte-parole, au moins humains, puisqu'il se considère lui-même comme porte-parole inspiré de ses semblables. Dans certains cas, cependant, le fait d'avoir été isolé pendant un certain temps peut s'avérer payant: si, par exemple, le milieu technique ou professionnel dont relèverait à première vue l'innovation est très structuré, il peut n'être plus porte-parole que de lui-même et être incapable de porter un projet qui suppose une réorganisation du réseau auquel il appartient. Le cas de l'invention du téléphone, analysé par David A. HOUNSHELL (1983), est assez parlant à cet égard.

107 voir la première partie de cet ouvrage. On trouvera une description complète de ces mécanismes, tant sur le cas des porte-parole humains que sur celui des non-humains dans l'article de (CALLON, 1986a)

Nous n'avons pas la prétention de proposer une méthode-miracle qui débusque à coup sûr les bons porte-parole; notre propos se situe en fait en amont de ces questions: il s'agit ici de fournir quelques éléments de méthode et quelques concepts analytiques aboutissant à une description opératoire des objets techniques, c'est-à-dire qui permette une formulation plus complète des épreuves ou expérimentations auxquelles il serait utile de soumettre le dispositif à tel ou tel moment de son développement, et, lié à ce premier point108, un repérage plus fin des types des porte-parole qu'il serait judicieux de consulter, d'éprouver, de mobiliser ou d'impliquer.

De la décision: inscription et script Ayant situé notre démarche à l'intérieur dans le cadre de cet ouvrage, entrons dans

l'analyse de ce qu'est le processus d'innovation. Nous poursuivrons ici la ligne d'analyse proposée dans la première partie de cet ouvrage : nous poserons que toute décision en matière d'innovation peut se décrire comme un partage effectué entre ce qui doit être délégué à l'objet technique, et à l'intérieur de cet objet à tel composant plutôt qu'à tel autre, et ce qui peut être confié à "l'environnement" au sens large de l'objet. Par exemple, à propos du kit d'éclairage photovoltaïque109: faut-il supposer que les utilisateurs sont des êtres "raisonnables", capables de modérer leurs désirs ou, faut-il donner à l'objet, par le biais de prises non standard et/ou de système de régulation, le pouvoir de les "raisonner" malgré eux en limitant la réalisation de leurs désirs? Toute décision, traduite par une inscription particulière dans le dispositif technique (prises non-standard/ prises standard, type de régulation etc.), installe donc une géographie des compétences. Celles-ci sont attribuées différentiellement à ce que nous appelerons des actants110 qui, eux-mêmes, émergent comme entités autonomes de l'ensemble de ces partages et attributions.

108 Une expérimentation ou une épreuve peut toujours se décrire comme le test (et la construction) d'un

rapport de forces: dans l'état actuel des réseaux, le dispositif d'intéressement construit fonctionne-t-il effectivement? C'est-à-dire, par exemple, les collecteurs jetés dans la baie de Saint-Brieuc "intéressent"-ils les larves de coquilles Saint Jacques vraiment plus que les courants et vont-ils réussir à les distraire de l'action des prédateurs (CALLON, 1986a)? Les ménagères nicaraguéennes vont-elles vraiment préférer, pour leurs fourneaux, les briquettes de coton au bois? (AKRICH, 1989a) Dans tous les cas, ces expérimentations supposent l'identification de porte-parole qui vont être soumis au test de l'intéressement: le problème est alors de savoir si les 30 utilisatrices recrutées par les promoteurs du projet "briquettes de coton" sont bien représentatives de l'ensemble potentiel des utilisatrices, et si les coquilles Saint Jacques lâchées en 1973 parlent bien pour leurs éventuelles descendantes - en l'occurence, la réussite de cette première expérience ne sera jamais renouvelée -. Nous voyons donc que les résultats de l'expérimentation, en termes d'efficacité des dispositifs d'intéressement, sont inséparables du choix des porte-parole.

109 voir première partie de cet ouvrage. 110 Nous utilisons ce terme d'actant au sens de celui qui est défini, par l'objet technique, comme agissant; le

passage à l'acteur suppose une condition supplémentaire, qui est la promotion de l'actant au rang de "cause" : il n'y a donc pas systématiquement confusion entre un actant et un acteur et cela est susceptible de dépendre des circonstances. Par exemple, une horloge pointeuse peut être "agie" par les impulsions du courant alternatif délivré par le secteur, qui est donc défini comme "actant" par le système; mais, en cas de décalage entre l'heure des horloges pointeuses et l'heure "officielle", ce n'est pas l'électricité qui

Ce qui revient à dire, si nous nous plaçons maintenant du point de vue de l'objet, que son contenu technique définit un script ou scénario, à partir duquel les utilisateurs, au sens large (commerçants, réparateurs, utilisateurs proprement dit etc.), sont invités à imaginer la mise en scène particulière qui qualifiera leur interaction personnelle avec l'objet. Ainsi, par exemple, nul n’avait imaginé que le kit d’éclairage puisse être placé dans une mosquée, et sa configuration n’est que partiellement compatible avec cette utilisation: rallonger les fils de connexion, c’est en quelque sorte modifier le scénario prévu de manière à l’adapter à la mise en scène des villageois.

En simplifiant à l'extrème notre propos, on pourrait dire que le problème essentiel de l'innovateur est d'arriver à proposer un script "réaliste", c'est-à-dire pour lequel l'écart entre l'environnement supposé, inscrit dans le dispositif, et l'environnement décrit par son déplacement ne soit pas rédhibitoire. Autrement dit, il faut qu'il se trouve des acteurs prêts à tenir les rôles, à assumer les compétences prévues par le dispositif. Ces acteurs peuvent être humains ou non-humains: que le vent sur les îles polynésiennes soit, compte-tenu des normes de fabrication, insuffisant pour assurer le fonctionnement correct d'une éolienne, ou que les habitants de Bora-Bora préfèrent les emplois touristiques, plus lucratifs, au ramassage de la bourre de coco, indispensable pour faire tourner le gazogène, le résultat est le même: le gazogène comme l'éolienne seront inutilisables, à moins de les redéfinir et/ ou de redéfinir leur environnement. La différence entre humains et non-humains n'est donc pas pertinente pour les problèmes qui nous concernent; cependant, dans la mesure où la gestion des humains semble poser davantage de problèmes - du moins c'est ce que certains croient, en France en particulier, où l'on entend souvent dire "La technique, on maîtrise", ou "on ne sait pas vendre nos produits" - , nous nous concentrerons dans la suite sur des exemples qui mettent en scène, parmi d'autres, ce type d'acteur.

Mais, pour rendre opératoire notre description, il reste encore deux problèmes à résoudre, l'un de méthode, l'autre de vocabulaire: de quelle manière peut-on avoir accès au script, et comment effectuer le passage du script à la prise de décision?

Problèmes de de-scription

En suivant l'innovateur Concernant la première question, une réponse vient immédiatement à l'esprit: suivons

l'innovateur, écoutons-le, et il nous livrera sa "vision du monde" ou plus modestement ses hypothèses de travail. Ainsi, par exemple, de cet innovateur concevant un téléviseur photovoltaïque pour les pays en développement et qui, en même temps qu'il nous décrit son dispositif, déploie une "géographie socio-technique" de l'Afrique.

sera mise en "cause", elle n'est alors qu'un intermédiaire passif, mais la compagnie d'électricité, les syndicats etc. qui seront alors désignés comme acteurs.

Après un certain nombre de contacts avec des représentants politiques africains,

X. décide de se lancer dans l'élaboration d'un téléviseur à usage communautaire qui doit pouvoir fonctionner dans des villages non électrifiés. S'agissant d'un marché "public", - les gouvernements souhaitent installer eux-mêmes ce nouveau vecteur de communication -, il ne s'embarasse pas de considérations "marketing"; en revanche, tous les autres aspects, fabrication, maintenance, fonctionnement doivent être soigneusement étudiés dès le départ: dans son petit laboratoire parisien, deux employés africains, un technicien et un ingénieur, servent à distance de porte-parole de l'Afrique. Le choix de l'utilisateur, un collectif de villageois, conduit à définir un téléviseur d'emblée très différent de ceux habituellement commercialisés: l'écran est beaucoup plus grand et la puissance de l'ampli plus importante.

Les transformations ne s'arrêtent pas là: l'analyse des conditions de transport, sur piste cahotante et poussiéreuse, entraîne la définition d'un boîtier rustique très solide, ainsi que la mise en place de grilles très fines venant protéger les composants électroniques. Nous avons ici l'inscription dans le dispositif technique du paysage africain: les routes et les véhicules peuvent bien être dans l'état qu'ils voudront, le téléviseur leur résistera grâce aux "compétences" qui lui ont été accordées.

De même, les conditions de maintenance possibles dans les pays en développement amènent à une conception révolutionnaire du téléviseur. Assurer un service après vente de type européen est soit irréaliste, soit d'un coût prohibitif: les distances sont importantes, les moyens de transport difficiles, les compétences techniques plus rares, la disponibilité des composants plus compliquée à assurer; en conséquence, il apparaît à X. qu'on ne peut dépêcher, à chaque panne, un technicien capable de réparer sur place le téléviseur; les réparations devront être assurées par un atelier central qui disposera de toutes les pièces, l'outillage et des compétences nécessaires. Mais comment satisfaire les usagers en les privant le moins possible de leur téléviseur tout en minimisant les déplacements coûteux? "Simplement" en séparant la maintenance, prise en charge par une équipe mobile, des réparations au sens strict. Pour cela, toute l'électronique du téléviseur est réunie dans une demi-douzaine de boîtiers étanches situés en dessous de l'écran et dont la mise en place ou l'enlèvement s'effectuent aussi simplement que l'ouverture ou la fermeture d'un tiroir. Chaque boîtier est muni d'une pastille de couleur différente qui correspond à celle du support sur lequel il vient s'emboîter, tout risque d'inversion des boîtiers étant par ailleurs supprimé: la forme de la fiche d'enclenchement boîtier/support est spécifique de chaque boîtier. Le technicien de maintenance circule avec un ensemble de boîtiers de rechange: la détection des pannes et la remise en marche est immédiate, il suffit d'échanger un à un les quelques boîtiers qui constituent tout l'appareillage technique du téléviseur. Les boîtiers identifiés comme défectueux sont ensuite ramenés à l'atelier central pour réparation.

Cet exemple, particulièrement simple, nous montre: - 1) comment, en faisant tel ou tel choix technique, l'innovateur décide en fait

d'allouer telle ou telle compétence, nécessaire au fonctionnement de son installation, au dispositif lui-même ou à des instances extérieures,

- 2) que cette allocation de compétences se traduit par une inscription dans le dispositif, laquelle se veut une prédétermination des relations entretenues entre les différents acteurs et le dispositif: ainsi, par exemple, la disposition en boîtiers de l'électronique permet de créer une différenciation entre deux professions, dès lors séparées, celle de dépanneur et celle de réparateur, et encadre le travail du premier dans un faisceau étroit de possibilités qui mobilise un ensemble minimal de compétences.

De l'innovateur à l'utilisateur Ceci étant, en produisant cette description, nous ne faisons ici que reprendre le point

de vue de l’innovateur, qui, bien entendu, a toujours une représentation sociale, économique, technique, etc. du monde dans lequel son objet doit s’insérer. Le téléviseur photovoltaïque est-il une chimère ou au contraire un produit d’avenir? Rien, dans ce que nous avons dit précédemment, ne nous autorise à en décider, car aussi bien les éléments techniques qu'humains peuvent s'avérer "défectueux" en situation de fonctionnement réel: les pièces de rechange ou l'outillage peuvent manquer, la société de maintenance tomber en faillite, les panneaux photovoltaïques qui alimentent le téléviseur lâcher plus tôt que prévu etc. De manière similaire, entre la description donnée par les industriels du kit d'éclairage photovoltaïque et celle qui apparaissait à l'épreuve de l'Afrique, il y avait bien plus que quelques milliers de kilomètres de distance111.

Si nous nous intéressons aux objets techniques et non aux chimères, nous ne pouvons donc nous contenter du seul point de vue de l'innovateur: l'innovation réussie est le résultat d'un travail de traduction 112 éminemment collectif, du laboratoire à l'utilisateur final. L'exemple, devenu "canonique", d'Edison (HUGHES, 1983b) ou celui tout aussi démonstratif de l'invention du répéteur électronique par les laboratoires Bell (HOUNSHELL, 1983), le démontre sans ambiguïté: dans les deux cas, le travail du chercheur n'a de sens et ne débouche que parce qu'il est pris dans une chaîne continue de médiations techniques, économiques, financières, commerciales etc., qui permettent d'effectuer le passage du laboratoire à l'industrie et au marché.

Il n'est pas jusqu'aux utilisateurs finaux qui ne soient impliqués dans ce travail d'élaboration collective, comme le montre le cas des briquettes de coton au Nicaragua (AKRICH, 89a) pour lequel l'expérimentation menée auprès d'utilisateurs revêt une importance particulière. Le rôle joué par ceux-ci peut être décliné selon trois modes principaux: ils spécifient par rapport à leur propre environnement les qualités, au sens 111 voir première partie. 112 voir première partie.

presque physique du terme, des briquettes: à l'issue de quelques semaines d'utilisation, leurs principales caractéristiques, pertinentes à l'usage, sont qualifiées - du point de vue des utilisateurs, elles ne dégagent pas de fumée à la différence du bois trop vert qui est couramment utilisé, elles sont rapides à chauffer, et pratiques à manipuler et à stocker alors que, pour les innovateurs, leur coût était a priori leur meilleur argument de vente - ; ils développent un savoir pratique qui permet de routiniser l'utilisation du produit et enfin, ils expérimentent la mise en place de réseaux qui permettront ultérieurement de diffuser et de commercialiser les briquettes. Leur travail peut être décrit comme une série d'expériences qui visent à produire l'alignement entre un objet et le contexte dans lequel il doit s'intégrer: leur position est rigoureusement symétrique de celle des innovateurs, dans la mesure où ils partent d'un objet relativement figé, qu'ils ne peuvent eux-mêmes modifier, et redéfinissent l'environnement (leurs propres comportements, habitudes, relations avec les autres) jusqu'à ce qu'il colle à l'objet, spécifiant du même coup la description de ce dernier. Rendre compte du succès ou de l'échec des briquettes suppose donc d'effectuer cet aller et retour entre les innovateurs et les utilisateurs, chacun d'entre eux participant à l'entredéfinition du couple indissociable objet-environnement dont le script est l'expression.

Suivre l'objet: la méthode socio-technique On pourrait objecter que la restitution de l'ensemble de ces interactions qui finissent

par produire la trajectoire de l'innovation n'est possible qu'a posteriori ou du moins à un stade avancé du projet. Comment donc tirer parti de l'analyse socio-technique en cours de projet, à un moment où l'implication des acteurs est encore restreinte? L'analyse socio-technique ne présente d'intérêt pour les "gestionnaires" de l'innovation que lorsque se pose un problème, quelle que soit sa gravité: il peut s'agir simplement d'une prise de décision un peu délicate jusqu'à la gestion des conflits et leur résolution éventuelle dans le cas d'une innovation controversée.

Ce dernier cas est d'ailleurs le plus simple à aborder: que l'on réunisse autour d'une table l'ensemble des acteurs impliqués dans un tel projet et l'on se retrouvera avec pléthore d'hypothèses de travail qui, dans un premier temps, prennent la forme d'accusations tous azimuths. Ainsi par exemple d'une discussion collective autour d'un brûleur à charbon pulvérisé qui n'arrivait pas à percer: pour le directeur des recherches, on n'avait pas eu le temps de faire suffisamment de recherche fondamentale, et cela était de la faute des instances politiques qui changeaient tout le temps d'avis sur l'avenir du charbon en France; le responsable de la station d'essais incriminait les installateurs de brûleur qui avaient introduit des modifications dans le schéma de départ, modifications qui, d'après lui, avaient entraîné des problèmes techniques inexistants sur le prototype; pour les industriels, le coupable était l'organisme de recherche qui n'avait pas développé un produit adapté aux exigences de la clientèle, ni pensé l'intégration du brûleur dans un dispositif réel de production; le chef de produit, lui, pensait que les circuits de

distribution du charbon étaient en cause, car ils délivraient un charbon dont les caractéristiques physico-chimiques variaient sans cesse etc. Si l'on excepte les arguments "généraux", comme celui sur la politique charbonnière, dont l'existence ne fait que traduire l'impossibilité de résoudre le conflit et la nécessité d'en appeler à des causes "supérieures" (BOLTANSKI, 1987), tout le problème est ici de savoir ce que doivent être les compétences intrinsèques de l'installation (être capable ou non de s'adapter à des conditions d'exploitation variables, supporter des charbons inégaux etc.) et/ou ce qui doit être délégué à l'environnement (réorganiser la distribution du charbon et le normaliser, permettre ou non aux industriels d'intervenir sur l'installation). A partir de là, la méthode socio-technique consiste à prendre complètement au sérieux ces accusations, qui sont autant d'hypothèses lancées sur les causes de l'écart observé entre le scenario prévu par les promoteurs du projet et sa réalisation effective, et à gérer une forme de "procès" dans lequel accusés et accusateurs se retrouvent face à face, sommés de faire la preuve de ce qu'ils avancent et pour cela, obligés de recruter des alliés, de construire des expérimentations, de mettre en scène des rapports de force. Ce n'est qu'à l'issue d'un tel débat que l'on peut commencer à appréhender le "script" actuel du brûleur et son script souhaitable; en d'autres termes, on construit par la négociation un consensus sur la répartition des compétences entre les différents actants participant du couple objet-environnement, consensus que la ré-élaboration conjointe de l'objet doit permettre de stabiliser.

Dans les situations plus "ordinaires", c'est-à-dire qui ne font pas l'objet de controverses mais seulement d'interrogations sur la marche à suivre, la démarche est en fait tout-à-fait similaire bien qu'allant en sens inverse: elle consiste à transformer en débat contradictoire toute question dont la réponse paraît indécise; l'on part ici de ce qui est à la racine de l'hésitation sur la décision à prendre, et qui peut pratiquement toujours se ramener à une hésitation sur ce que pourra être l'environnement futur du dispositif, et par une épreuve, qui peut consister simplement dans le recrutement de certains porte-parole, l'on somme l'environnement de se déterminer. En d'autres termes, dans les situations de controverse, l'on cherche d'abord à savoir ce qu'est ou ce que fait l'objet technique, ce qui débouche en deuxième instance sur une description de l'environnement de cet objet, alors qu'ici, il s'agit en premier lieu de la détermination (au double sens de description et de volonté) de l'environnement en vue de celle de l'objet.

Dans tous les cas, "procès" d'accusation, controverse ou gestion ordinaire, le "matériau" produit par ces interactions entre les différents acteurs réquisitionnés consiste en un ou plusieurs scenarios décrivant les relations imaginables entre le dispositif technique et son environnement. Le problème est alors de parvenir à une formulation opératoire des scenarios ou scripts, c'est-à-dire qui permette de mettre en place une démarche conduisant à la décision. C'est vers ce dernier point que nous allons maintenant nous tourner, en nous appuyant pour cela sur le cas du coffret d'abonné des réseaux de vidéocommunications de 1ère génération (AKRICH, 1989b) : pour situer très rapidement

ce coffret, nous dirons simplement qu'il représente l'interface entre le réseau de fibres optiques et le téléviseur de l'usager. Etant donné l’espace qui nous est imparti, nous allons nous appuyer essentiellement sur un exemple qui nous permettra de d’introduire, “in vivo”, un certain nombre de notions et de montrer la dynamique de l’analyse socio-technique (AKRICH, 1987 ; LATOUR, 1990a).

Eléments d'analyse socio-technique

Toute la difficulté de la description est, nous l'avons dit, de tenir en permanence

l'articulation entre contenu et contexte, entre objet et environnement: un premier terme de vocabulaire décrit l'effectuation par l'innovateur de ce lien entre intérieur et extérieur, c'est celui d'inscription, que nous avons déjà utilisé, et qui qualifie le fait d'incorporer dans le contenu même de l'objet une définition des relations entre l'objet et son environnement, et par là une répartition des compétences entre les différents composants de ces deux entités.

De manière symétrique, l'innovateur peut considérer que l'environnement futur de

son objet est déjà porteur d'un certain nombre d'inscriptions qui, par avance, définissent ses relations avec un certain nombre de dispositifs techniques: ce sont en quelque sorte des conditions préalables qui, la plupart du temps "vont sans dire". Nous les appelerons des souscriptions: en adhérant au scenario qui lui est proposé par le dispositif, l'utilisateur, au sens large, souscrit à un certain nombre de conditions préalables qui ressortissent de son unique responsabilité. Pour prendre un exemple, il est clair que, dans le cas du coffret d'abonné dit CA, les concepteurs font l'hypothèse que les usagers disposent de 220V et d'un téléviseur. Il n'existe pas de principe de méthode permettant de faire la liste exhaustive de toutes les souscriptions qui sont incluses dans tel ou tel dispositif technique: elles n'apparaissent et ne présentent d'intérêt pour l'analyse que lorsqu'il existe un décalage virtuel ou réel entre ce qui est supposé de l'environnement et ce qui s'en manifeste. Sous une forme dénonciatrice, ce sont toutes les accusations de discrimination qui installent une relation, intentionnelle ou non, de cause à effet entre la conception du dispositif et l'exclusion de certains types d'utilisateurs.

Pour revenir à notre exemple du CA, si le 220V ou le téléviseur ne suscitent aucune controverse, la question de savoir dans quelle proportion ces téléviseurs disposent d'une prise péritel et la manière dont il faut intégrer cette donnée dans la conception du produit a fait l'objet de discussions étendues: il faut savoir que le réseau câblé diffuse des signaux SECAM qui, lorsque le téléviseur dispose d'une prise péritel, peuvent y être injectés sans transformation; dans le cas contraire, il faut moduler les signaux SECAM avant leur introduction par le biais de la prise d'antenne dans le téléviseur où ils seront démodulés, ces diverses opérations conduisant à une dégradation des signaux de haute qualité délivrés par le réseau; on comprend donc le caractère stratégique de la prise

péritel puisqu'elle conditionne la réalisation effective d'un des atouts techniques du réseau câblé. Toute une gamme de solutions a été envisagée:

- 1) le désintérêt vis à vis de la question qui équivaut ici à une prescription "achetez-vous un téléviseur avec prise péritel": en d’autres termes, on demande à l’usager d’effectuer une pré-inscription dans son environnement de manière à permettre l’insertion du CA; on remarque ici que la pré-inscription est ce par quoi l’on passe de la prescription portée par le dispositif à la souscription de l’utilisateur au programme qui lui est prescrit. Si la pré-inscription suppose toujours un travail de mise en ligne de l’environnement, elle ne préjuge en rien des actants auxquels sera déléguée une telle tâche: en théorie, on pourrait imaginer que les promoteurs du réseau câblé interviennent, par techniciens interposés, pour modifier les téléviseurs existants et y installer systématiquement des prises péritel. La constatation d’un écart entre prescription et souscription ouvre donc pour l’innovateur un nouveau champ d’action, extra-technique, et peut demander la mise en place de dispositifs organisationnels qui viennent soutenir l’objet technique et lui permettre de perdurer (on pourra appeler conscription (Latour, à paraître) le travail d’alignement des acteurs nécessaires au fonctionnement d’un tel dispositif). - 2) l'inscription dans le CA lui-même de cette double possibilité, en le dotant d'une sortie péritel et d'une sortie "prise d'antenne": le premier cahier des charges se plaçait dans cette optique; - 3) jusqu'à la solution, finalement adoptée, d'un coffret en option destiné aux téléviseurs non équipés de prise péritel, qui établit par le même coup une norme par rapport à laquelle se mesurent les autres états du système et qui suppose un travail préalable de description de l'environnement de l'usager.

Cette simple décision engage en fait la stratégie commerciale du réseau câblé: choisit-on de privilégier d'emblée un marché aussi large que possible quitte à compter sur d'autres atouts que la qualité des images pour motiver les usagers potentiels (solution 2))? Réserve-t-on le câble dans un premier temps à une "élite" définie par la possession d'un téléviseur récent (obligatoirement équipé d'une prise péritel) et alors de quelle manière peut-on financer le différé dans la réalisation de l'audience (solution 1))? Ou recherche-t-on une solution de compromis, qui se donne à voir comme compromis, et qui permet d'obtenir à la fois le marché le plus large dès le départ, tout en "imposant" la haute qualité des images aux possesseurs de téléviseurs avec péritel (solution 3))?

Répondre complètement à ces interrogations, autrement qu'en choisissant d'emblée une solution plutôt qu'une autre, suppose en fait de résoudre tout un ensemble d'autres questions telles que: quel est le prix attaché par les téléspectateurs à la qualité des images? Dans combien de temps peut-on espérer un renouvellement total du parc de téléviseurs? Quel forme de public les annonceurs publicitaires souhaitent-ils toucher et quelle influence cela a-t-il sur les programmes à produire? Quelle peut être l'offre de programmes à court et moyen terme? Etc. Ce qui nécessite le recours à un certain

nombre de porte-parole, nous y revenons, qui sont à même, parce qu'ils sont partie prenante dans sa construction, de donner des indications sur l'avenir du réseau socio-technique auquel ils participent. Ainsi, dans le cas qui nous occupe, on peut imaginer au minimum de solliciter l'opinion des constructeurs de téléviseurs, en tant que porte-parole des téléviseurs, de leur marché et des utilisateurs-amateurs (ou pas)- de-belles-images, les producteurs de programmes et les régies publicitaires. Partis d'une question technique "simple", l'analyse socio-technique nous amène à un programme d'action qui consiste en la mise à l'épreuve, par le recrutement de certains porte-parole, de certaines hypothèses, mise à l'épreuve qui s'analyse elle-même comme le test de la possibilité de certaines traductions: peut-on, par exemple, passer continuement de la prise péritel à une catégorie d'auditeurs sensibles à tel ou tel type de programmes, eux-mêmes définissant des cibles publicitaires particulières? Ou, autrement dit, s'éprouve ici la capacité du dispositif technique à créer et à tenir une série de liens inédits entre usagers du câble, fournisseurs de programmes, publicitaires, qui conditionnent la viabilité socio-économique du projet "réseau câblé". La mise à l’épreuve des associations dont le dispositif technique est constitué et la construction du réseau socio-technique dans lequel l’objet technique va circuler sont donc indissociables l’une de l’autre: l’analyse socio-technique n’a pas d’autres ambitions que de rendre visible et directement opératoire, grâce aux outils de description qu’elle propose, cette constatation qui est au fondement même de toute innovation. Nous verrons dans un chapitre suivant, comment cette analyse peut être complétée, soutenue par un autre outil : le graphe socio-technique.

Pour une description des liens entre science et technique : des brevets aux articles scientifiques

Vololona RABEHARISOA

Introduction En matière de gestion et d'évaluation des programmes de R&D, l'élucidation des rapports entre science et technique occupe une place importante. Une des dimensions de ce problème se formule de la manière suivante: quels sont les "contenus" scientifiques des techniques innovantes? De notre point de vue, répondre à cette question consiste à identifier, dans le même mouvement, les modes d'interactions entre scientifiques et technologues, et les savoirs et savoir-faire qui circulent des uns aux autres. Les articulations entre science et technique se réalisent de différentes manières, et partant, les "intermédiaires" mis en jeu sont, eux aussi, multiples. A titre d'exemples, au cours d'un contrat de coopération entre une firme et un laboratoire universitaire, les compétences incorporées par les ingénieurs et les chercheurs sont mobilisées; au cours d'un colloque réunissant des scientifiques et des technologues, des "papiers"113 circulent des uns aux autres; au sein d'un laboratoire industriel d'une entreprise, des ingénieurs peuvent travailler à la mise au point de nouveaux dispositifs techniques, breveter leurs inventions, et publier des articles à propos de leurs résultats114... Le gradient allant de la science à la technique n'est donc ni unique ni donné une fois pour toutes; il se décline différemment, selon les "frontières" que les acteurs instituent entre leurs activités. De ce fait, rendre compte des liens entre "science" et "technique" revient à décrire les "partages" et les "pontages" effectués par les acteurs entre ces deux entités. Nous allons nous intéresser ici à un "partage-pontage" particulier, réalisé par les chercheurs et les ingénieurs à travers deux de leurs productions: les brevets et les articles scientifiques. Depuis quelques années, des sociétés de service informatique se spécialisent dans le rangement de ces documents dans des bases de données, et dans la production d'informations de plus en plus élaborées les concernant. A titre d'exemples, grâce à l'indexation des articles saisis dans la base PASCAL115, il est désormais possible de dénombrer ceux qui parlent des anticorps monoclonaux; WPI(L)116 fournit en ligne le 113Ces "papiers", ainsi que les rapports d'étude et de recherche, constituent ce qu'il est maintenant convenu

d'appeler "littérature grise". 114Bien entendu, ces différentes modalités ne sont pas toujours exclusives les unes des autres. 115PASCAL est une base multidisciplinaire d'articles scientifiques, propriété de l'InIST, Institut pour

l'Information Scientifique et Technique, du CNRS. 116WPI(L), propriété de la firme anglaise DERWENT, est une base internationale et multidisciplinaire de

brevets.

nombre d'articles scientifiques cités par une famille de brevets117; la base SCISEARCH118 classe les revues par catégories scientifiques. Ces mises en ordre des écrits scientifiques et techniques accélèrent le développement d'une discipline particulière, appelée "scientométrie", qui s'intéresse aux études quantitatives (mais aussi qualitatives, au sens des études de "contenu") des documents produits par les chercheurs et les ingénieurs119. En particulier, certains scientomètres se focalisent sur les rapports entre articles et brevets, au travers, par exemple, des citations des premiers par les seconds (CARPENTER, 1980; CARPENTER, 1983; NARIN, 1985; COLLINS, 1988; VAN VIANEN, 1989). Ce papier se situe dans cet axe de recherche, qui s'intéresse aux liens entre articles et brevets. Dans un premier temps, nous déclinerons quelques spécificités de ces deux types de documents, et passerons en revue les principales informations fournies par quelques bases de données à leur propos. Nous décrirons ensuite une articulation particulière entre articles et brevets, articulation que nous avons repérée lors d'une étude du domaine des piles à combustibles en France: celle dûe à une double activité de certains inventeurs, qui déposent des brevets et publient aussi des articles scientifiques. Nous verrons dans quelle mesure cette articulation définit des liens spécifiques entre "science" et "technique", en circonscrivant ce qui, dans les productions des chercheurs et des ingénieurs, relève de l'une ou l'autre activité. Auparavant, nous aurons mentionné un lien possible entre science et technique: celui désigné par les citations d'articles par les brevets. Les scientomètres à la rencontre des articles et des brevets Les articles et les brevets comme indicateurs de résultats et de structuration de la R&D Une des spécificités de la scientométrie réside dans les "objets" étudiés: les documents écrits par les chercheurs et les ingénieurs, et saisis dans des bases de données120. Parmi ces documents, les articles scientifiques et les brevets occupent une place privilégiée, du fait de leur saisie de plus en plus systématique. Leur disponibilité contribue donc, en partie, à multiplier les études les concernant. Cependant, ce "principe d'économie" n'est pas le seul motif qui préside à leur choix comme "points d'entrée" dans un domaine scientifico-technique particulier. Un de leurs principaux intérêts résulte des modalités mêmes de leur production: la publication d'articles et le dépôt de brevets sont des pratiques relativement bien institutionnalisées, par l'intermédiaire desquelles les chercheurs et les ingénieurs établissent et renforcent leur statut121, énoncent

117WPI(L) crée un document par famille de brevets: si un brevet a donné lieu à des dépôts dans différents

pays, toutes ces versions sont regroupées en un seul document. Nous préciserons, par la suite, quelques spécificités de la base WPI(L).

118SCISEARCH est une base multidisciplinaire d'articles scientifiques, appartenant à une société américaine: l'ISI, Institute for Scientific Information.

119Pour une synthèse des principales méthodes scientométriques, voir notamment KING, 1987; COURTIAL, 1990a. Voir également la revue "Scientometrics", qui se focalise sur les études quantitatives des articles et des brevets.

120Articles scientifiques, brevets, notes techniques, rapports, livres... 121La publication d'articles est une des procédures d'attribution du statut de "chercheur", et de désignation de

la catégorie "science". Voir à ce propos, LATOUR, 1987.

leur programme (BASTIDE, 1989), "objectivent" leurs résultats... Bien entendu, ce ne sont pas les seuls modes d'existence de la science et de la technique: de nombreux auteurs rappellent, à ce propos, qu'une entreprise peut mettre au point un prototype sans breveter son invention (BASBERG, 1987); d'autres soulignent que les publications ne sont pas les seuls "produits" des chercheurs122. Cependant, la publication d'articles et le dépôt de brevets partagent une particularité: ils sont régis par des règles qui dessinent une certaine organisation de la science et de la technique. Présentons tout d'abord quelques règles en matière de brevetage. Le système de brevetage est avant tout un système juridique national de la propriété industrielle: en brevetant tout ou partie d'un dispositif technique particulier, le déposant rend publique son invention et bénéficie d'une protection temporaire légale de la part du pays où le brevet est à la fois déposé et l'objet d'une contrefaçon. Pour breveter un produit ou un procédé, l'inventeur doit adresser une demande à l'Office des Brevets du pays de son choix. Cette demande est examiné par des experts, qui vérifient le caractère original de l'invention. Sans entrer dans les détails, soulignons que le travail de ces experts consiste à rendre compte de la priorité de la revendication du déposant; pour ce faire, ces examinateurs recherchent les brevets déjà déposés, ou les articles déjà publiés, qui présentent des parentés avec la revendication en question, et à l'aune desquels ils jaugent la nouveauté de la demande. Si cet examen s'avère positif, le brevet est délivré au demandeur. Notons qu'un procédé ou un produit n'a pas besoin d'être mis en oeuvre ou fabriqué pour être breveté. De ce fait, un brevet ne sanctionne pas toujours la construction d'un prototype ou la mise au point d'un procédé; il qualifie avant tout le caractère inventif de la proposition du demandeur. Courtial rapporte que selon l'homme de l'art, un brevet présente un caractère d'invention s'il fait état d'un produit ou d'un procédé, dont la technique de fabrication ou de mise en oeuvre est irréductible à ce qui se faisait jusque-là (Courtial, 1990a). Le brevetage véhicule et légalise donc une certaine définition de l'invention technique. Ceci n'est pas sans conséquence sur la manière dont les économistes du changement technique formulent le problème de la description du processus de R&D: de nombreux auteurs proposent des modèles qui situent, dans le temps, le brevetage par rapport à d'autres activités conduisant à une innovation123. Notons enfin l'existence de différents systèmes de classification des brevets: USPOC (U.S. Patent Office Classification) est basé sur "l'état de l'art"; IPC (International Patent Classification) effectue un découpage par thèmes techniques; SIC (Standard Industrial Classification) classe les brevets en fonction de leurs applications industrielles. Ces différentes classifications sont autant de principes de qualification et de rangement des inventions techniques. La pratique de publication, quant à elle, ne fait pas l'objet d'une juridiction particulière. Il n'en reste pas moins qu'elle est soumise à des règles précises. Ainsi, dans une revue à "referees", tout article soumis à publication est examiné par un comité de lecture. Ce comité évalue le "professionalisme" de l'auteur, l'"adéquation" de son article au public des lecteurs de la revue; il peut demander à l'auteur d'apporter des modifications à son article, voire de le réviser complètement. Le système des revues lui-même fixe une certaine organisation de l'activité scientifique: à côté des revues généralistes prestigieuses telles que "Science" ou "Nature", des revues spécialisées différencient, en partie, les disciplines et les

122En particulier, sur la multiplicité des productions écrites des scientifiques, voir LATOUR, 1979b. 123Pour un panorama de ces modèles, voir BASBERG, 1987.

communautés: Journal of the American Chemical Society, Physics Today, Acta Mathematica, The Journal of the American Medical Association... Le principe des colloques spécialisés vient, par ailleurs, renforcer ce découpage du monde scientifique. Sans nous étendre davantage, ces quelques spécificités de la publication d'articles et du dépôt de brevets font de ces deux types de documents non seulement des "outputs" de l'activité scientifique et technique, "outputs" reconnus comme tels par les chercheurs, les ingénieurs, les juristes des offices de brevets, mais de plus, ils en font des marqueurs d'une certaine mise en ordre de la science et de la technique. Ceci offre une double possibilité au scientomètre: le compte rendu des résultats de la recherche scientifique et technique, et l'évaluation de son degré de structuration (par l'identification de nouvelles revues, l'analyse de la "proximité" de certaines techniques, via les brevets "parents" mentionnés par les examinateurs...). Les bases de données d'articles et de brevets: l'art de montrer et d'ordonner Les articles et les brevets définissent donc un ensemble particulier d'informations scientifiques et techniques, disponibles sur certaines bases de données. Ces dernières, cependant, ne sont pas que des moyens élégants pour accéder aux articles et aux brevets. Ce sont aussi de véritables agences de production et d'ordonnancement de renseignements. Pour étayer ce point, effectuons des incursions dans quelques bases de données. Zoom sur WPI(L) Soulignons tout d'abord qu'aucune base de brevets n'offre l'accès en ligne à la totalité du document écrit. Une base de brevets n'est donc pas un substitut commode de l'Office des Brevets! Ce que permet de visualiser une base, c'est le "front page" d'un document. Ce "front page" est, en quelque sorte, la fiche signalitique du brevet : elle comporte les noms des firmes déposantes, les noms des inventeurs, le pays d'invention, la date de demande et/ou d'octroi du brevet, le titre du document... La manière dont ce "front page" est montré diffère selon les bases. Plus précisément, chaque base ordonne et/ou crée des informations selon un format qui lui est propre, à partir de la première page du document officiel. Ce sont ces arrangements qui différencient les bases, et qui dictent à l'analyste le choix de certaines préférentiellement à d'autres, selon les questions auxquelles il cherche à répondre. Entre sa demande et sa reconnaissance juridique, un brevet suit un parcours (en anglais, "application") qui diffère selon les pays. Aux Etats-Unis, un brevet est délivré (en anglais, "granted") ou non 18 mois après la demande. Il fait alors l'objet d'une publication. En France, c'est la demande de brevet qui fait l'objet d'une publication au bout de 18 mois. Afin de rendre compte de ces différences, les bases de données précisent, par un code informatique, la nature du "document-brevet" qu'elles saisissent (demande de brevet/brevet accordé). Comme nous l'avons mentionné précédemment, chaque pays a son propre système juridique de la propriété industrielle. La couverture géographique est donc une première caractéristique des bases de brevets. WPI(L) répertorie tous les brevets déposés dans les trente principaux pays industrialisés, alors qu'une base comme EPAT ne s'intéresse qu'aux demandes de dépôts adressés aux pays européens. La deuxième caractéristique des bases de brevets concerne leur couverture thématique. WPI(L) est une base multidisciplinaire, alors qu'une base comme CAS (Chemical

Abstracts) ne saisit que des brevets (mais aussi des articles) qui se rapportent à la chimie124. Il paraît donc plus judicieux de se placer sous WPI(L) pour analyser les liens entre les techniques. Un inventeur qui désire se protéger dans différents pays doit déposer une demande auprès de chacun d'eux. Généralement, la première demande de l'inventeur s'adresse au pays où se trouve son laboratoire. Ce brevet est appelé "brevet prioritaire". WPI(L) regroupe, sous le même enregistrement informatique, l'ensemble des brevets d'une même famille, c'est-à-dire des brevets relevant du même brevet prioritaire. Ceci permet à l'analyste de saisir rapidement la "présence" des déposants au niveau international. Par contre, cette structure par famille de brevets rend malaisées les études comparatives entre plusieurs pays. En fait, en organisant les brevets par famille, WPI(L) privilégie l'invention comme unité cohérente, alors qu'une base comme CAS, qui crée un document par brevet, renforce le caractère individuel de chacun d'eux, caractère que lui confère, en partie, les systèmes juridiques de brevetage. Autre particularité de WPI(L): elle rédige un titre pour chaque famille de brevets. Par ailleurs, elle crée, pour chaque enregistrement, un champ particulier appelé "titre normalisé": du titre du document, la base retire les conjonctions, les pronoms... Ainsi "nettoyé", le titre constitue un ensemble de mots-clés qui caractérisent la famille de brevets. L'analyse de contenu du document peut, de plus, être enrichie, par une lecture du résumé et des principales revendications du déposant; en particulier, WPI(L) crée, pour chaque document, un champ appelé "use/advantage", qui résume les principaux intérêts de l'invention. Par cette gestion des titres et des résumés, WPI(L) tente, en quelque sorte, de restituer les spécificités de chaque famille de brevets. En cela, elle diffère d'une base comme CAS, pour laquelle l'attribution de mots-clés se fait en fonction d'un lexique contrôlé qui joue le rôle de dictionnaire commun à tous les documents. Dans tous les cas, ces pratiques d'indexation mettent en exergue le caractère tout à fait actif des bases de données dans la création et la mise en ordre des informations scientifiques et techniques. Notons enfin que depuis 1978, WPI(L) fait figurer les citations faites par les examinateurs à d'autres brevets et à des articles scientifiques. Nous reviendrons, par la suite, sur ces citations. Retenons pour l'instant que les scientomètres les considèrent comme des indicateurs des liens entre différentes entités techniques et scientifiques. Zooms sur PASCAL et SCISEARCH De même que WPI(L), EPAT, et CAS ne sont pas des substituts des Offices de Brevets, les bases d'articles scientifiques ne sont pas des substituts des bibliothèques. Ce sont des services de renseignements scientifiques, qui donnent à voir un certain nombre d'informations relatives à des articles publiés. Si la plupart des bases mentionnent les principales données bibliographiques (noms des auteurs, date de publication de l'article...), chacune d'elles présente, de plus, des caractéristiques qui lui sont propres. Parlons tout d'abord de leur couverture thématique: des bases comme SCISEARCH et PASCAL se veulent multidisciplinaires, alors qu'une base comme MEDLINE se focalise sur la recherche médicale. Intéressons nous ensuite à leurs options en matière de choix des articles. SCISEARCH construit son panel de revues selon le principe suivant: seules sont retenues celles qui se

124Au sens de la classification IPC.

désignent mutuellement, au travers des citations données et reçues par leurs articles125 (GARFIELD, 1972). Un tel choix repose, en fait, sur des bases théoriques que nous ne ferons qu'évoquées ici: tout se passe comme s'il existait un réseau de chercheurs connectés entre eux au travers de leurs citations; ce réseau regrouperait les "meilleurs" chercheurs, au sens où ceux-ci se réclameraient d'une communauté de notoriété internationale et agiraient en conséquence. D'une certaine manière, SCISEARCH revendique donc le statut de "base-de-données-sur-ce-qui-se-fait-de-mieux-en-matière-de-recherche-scientifique". Un certain nombre de griefs lui sont cependant adressés par des scientomètres; en particulier, ils lui reprochent sa "sous-représentation" des articles provenant des pays en voie de développement, et des articles publiés dans des revues nationales, qui ont leur importance bien qu'elles ne fassent pas partie du panel de SCISEARCH (MARTIN, 1987). De telles controverses rappellent le caractère construit et médiatisé de toute étude scientométrique: SCISEARCH offre déjà une certaine description de l'activité scientifique, et le scientomètre qui décide de passer par cette base devra composer avec cet ordonnancement. Quant à PASCAL, il recense actuellement 7800 revues qu'il juge importantes. Le critère de choix des revues n'est pas aussi explicite que pour SCISEARCH; cependant, PASCAL retient, en principe, la plupart des revues "théoriques". Par ailleurs, PASCAL est particulièrement pertinente pour une étude des revues françaises, dont la grande majorité fait partie de son panel. PASCAL, contrairement à SCISEARCH, s'est doté d'un système d'indexation; grâce à son lexique contrôlé et aux résumés des articles, l'interrogation par mots et l'analyse de contenu se trouvent grandement facilitées. Enfin, PASCAL ne fournit pas les citations faites et reçues par les articles; actuellement, seule SCISEARCH offre ces informations. Arrêtons nos zooms ici. Le lecteur se demandera peut être ce qui nous incite à exposer ces "détails" techniques. Par ce "voyage" dans les Offices de Brevets, les comités de lecture des revues, les bases de données, nous voulons montrer le gigantesque travail de construction, de validation, d'ordonnancement, de restitution, des résultats de la recherche scientifique et technique. La rencontre entre le scientomètre, les articles, et les brevets, n'est pas immédiate. En particulier, les bases de données constituent des "entre-metteurs" très actifs: en saisissant, recomposant, classant les documents, elles élaborent des informations singulières et les désignent à l'analyste. Dès lors, nous ne pouvons que nous réjouir des préoccupations de certains scientomètres, qui s'attachent à décrire ce que leur offrent les bases de données (SCHMOCH, 1990). Lorsque "science" et "technique" s'emmêlent: le cas du domaine des piles à combustibles en France Revenons maintenant à notre question de départ: quels sont les "contenus" scientifiques des techniques innovantes? Pour donner rapidement chair à cette interrogation, nous allons la présenter dans le cadre d'une étude que nous avons effectuée pour le compte de l'AFME126.

125Actuellement, le panel de SCISEARCH comporte environ 3000 revues. 126Agence Française pour la Maîtrise de l'Energie.

Le Service de la Programmation de la Recherche de l'AFME, reprenant le constat des experts selon lequel le domaine des piles à combustibles en France serait "morose", s'interroge sur ce qu'il devrait faire en la matière. Ce n'est pas, ici, le lieu de détailler la mission et les moyens d'action de l'agence127; disons tout simplement qu'elle est chargée de mettre en oeuvre la politique française de maîtrise de l'énergie, et qu'elle dispose, pour cela, de moyens financiers et techniques lui permettant de soutenir, tout au long du processus de R&D, des produits et des procédés susceptibles de faire faire des économies d'énergie aux différents secteurs de la vie économique. Les piles à combustibles font partie de ces produits. Pour décider d'une éventuelle action en leur faveur, l'AFME nous demande donc de rendre compte de l'évolution de ce domaine durant ces dernières années. En particulier, l'agence est intéressée par la recherche scientifique qui sous-tend ce domaine, d'une part, et les "applications commerciales" des piles à combustibles, d'autre part. Nous allons nous focaliser sur la question des "bases scientifiques" des piles à combustibles128. Nous tâcherons de décrire simultanément notre démarche et les principales conclusions auxquelles nous avons abouti. Le "test scientométrique": des brevets... Nous partirons des brevets déposés en France sur les piles à combustibles. En effet, la demande de l'AFME mentionne explicitement ces piles comme objets de l'étude. Dès lors, le brevet, document qui désigne et décrypte le dispositif technique, nous paraît être un point d'entrée intéressant. Nous choisissons de nous placer sous la base de données WPI(L). Nos principaux arguments en faveur de cette base résultent: - d'une part, de son caractère multidisciplinaire: dans la mesure où nous cherchons à repérer les brevets qui parlent des piles à combustibles, de quelque manière que ce soit, nous ne voulons pas nous restreindre a priori à des bases thématiques; - d'autre part, de son principe d'indexation: en faisant du titre d'un document un ensemble de mots-clés qui le spécifient, WPI(L) rend particulièrement pertinente une interrogation par mots. Notre liste de brevets est composée de tous les documents comportant le mot "fuel cell" ou "fuel cells" en "front page", et dont le brevet prioritaire a été déposé en France129. Notons B cette liste. ... à la "science" qu'ils désignent En partant de B, comment identifier et décrire une recherche scientifique relative aux piles à combustibles? En suivant les firmes, les inventeurs, les documents que nous désignent B.

127Pour plus d'informations, nous renvoyons le lecteur à l'article de MOISAN, dans le présent volume. 128Pour plus de précisions sur l'ensemble de l'étude, voir RABEHARISOA, 1990. 129La nationalité d'un brevet n'est pas une information disponible en tant que telle dans les bases de données.

Nous nous sommes donc référés au pays où le brevet a été déposé en priorité. Comme conséquences de cette approximation, notre liste comprendra les brevets déposés en priorité en France par des firmes étrangères, mais excluera les brevets déposés en priorité dans des pays étrangers par des firmes françaises. En fait, ceci amène à considérer un pays comme un lieu stratégique, auquel les firmes accordent leur priorité pour certains brevets.

En effet, le "front page"130 d'un brevet fournit un ensemble D de descripteurs des entités agrégés par le document : D = { - date de dépôt du brevet prioritaire - pays de dépôt du brevet prioritaire - liste des pays où le brevet est déposé - noms des inventeurs - organismes d'affiliation des inventeurs - mots du titre du document - mots du résumé du document - liste des brevets cités par le document - nombre d'articles scientifiques cités par le document}. L'analyse des valeurs prises par ces descripteurs sur l'ensemble B devrait nous permettre de décrire la morphologie du domaine des piles à combustibles, telle que la dessinent les brevets. En particulier, deux de ces descripteurs nous donneraient accès à la "science" désignée par les brevets: - les noms des inventeurs, qui nous permettront de recueillir les articles qu'ils publient, s'ils en publient; - le nombre d'articles scientifiques cités par les brevets, s'ils en citent. A ce stade, nous voudrions apporter une précision à la fois "méthodologique" et "théorique". Nous limiterons notre "jeu de piste" aux bases de données d'articles et de brevets. Ceci signifie que nous ne nous déplacerons pas physiquement pour visiter des firmes et des laboratoires. Cette dimension "économique" n'est pas le seul motif de notre restriction. Comme nous l'avons souligné précédemment, les articles et les brevets fixent une certaine organisation de la science et de la technique. Et c'est cette configuration scientifico-technique particulière que nous voulons décrire, pour le domaine des piles à combustibles en France. Bien entendu, il se pourrait que nos inventeurs ne citent pas et ne publient pas d'articles. Si tel est le cas, ce ne serait pas tant le signe d'une impossibilité de "remonter vers la science" à partir des brevets, qu'un indicateur local qualifiant les liens entre science et technique, à savoir que pour le domaine des piles à combustibles en France, les brevets n'établissent pas de liens avec la recherche scientifique. C'est en sens que nous parlons de "test scientométrique": la question qui nous intéresse est de savoir si les brevets déposés en France sur les piles à combustibles font appel à de la "science", et si oui, à quelle science. Que chiffrent et racontent les brevets de B? Sans entrer dans les détails, nous allons résumer les principales conclusions auxquelles nous a conduits l'analyse des documents-brevets. Tout d'abord, le comptage annuel des brevets montre une "rupture de dépôt" en 1975131. De 1960 à 1987, B comporte 200 documents. Les six années les plus productrices sont: 1967

130Un "front page" d'une famille de brevets appartenant à B se trouve en Annexe 1 de ce document. 131La courbe donnant le nombre de brevets déposés par année de priorité se trouve en Annexe 2. Une

précision à propos de ce comptage: il arrive qu'un même brevet ait fait l'objet de plusieurs demandes prioritaires. Ainsi, sur nos 200 documents, environ 20 ont plusieurs numéros juridiques de priorité. Cependant, nous avons remarqué que ceci n'a qu'une faible incidence sur le comptage annuel. Prenons, à titre d'exemple, l'année 1967: si nous comptons les documents dont l'année de priorité la plus ancienne

(14 documents), 1968 (27 documents), 1969 (32 documents), 1970 (20 documents), 1973 (12 documents), 1975 (17 documents). Ces six années totalisent, à elles seules, 61% de la production. Ensuite, le profil des firmes déposantes se modifie vers 1975. Avant cette date, les déposants les plus actifs sont des grandes entreprises françaises, telles que la CGE, ALSTHOM, l'IFP. Après 1975, ces trois firmes ne sont plus présentes que de manière marginale. Par contre, apparaissent des firmes étrangères (Occidental Chemical Corporation), et surtout, des sociétés françaises de recherche sous contrat, telles que SORAPEC Société de Recherche et SRTI (Société de Recherche Technique Industrielle). Enfin, une analyse détaillée des titres et des résumés des brevets nous a conduits à la conclusion selon laquelle la rupture de 75 s'est accompagnée d'un changement de registre dans les revendications des inventeurs. Avant cette date, les brevets sont assez "finalisés": les inventeurs font état de performances technico-économiques satisfaisantes des piles à combustibles, et prévoient des applications commerciales prometteuses, pour le véhicule électrique notamment. Vers la fin des années 70, les espoirs s'émoussent: les brevets parlent de problèmes techniques et économiques non résolus; les piles à combustibles perdent un peu de leur "réalité", et les inventeurs qui s'y intéressent encore se replient sur des objets, certes utilisables dans les piles, mais également dans d'autres dispositifs techniques (exemple: fibres renforcées pour la fabrication d'électrodes pour les piles à combustibles, mais aussi, pour d'autres générateurs électrochimiques). En somme, il résulte de l'analyse de B que les piles à combustibles, telles qu'elles sont données à voir par les brevets, sont quasimment aux portes du "marché" jusqu'en 1975, puis, échouant aux épreuves techniques et économiques, deviennent évanescentes vers la fin des années 70. Ce constat sera renforcé par l'analyse des articles publiés par les inventeurs. Auparavant, nous allons décrire la "science" désignée par les articles cités par les brevets de B. Les articles cités en "front page" par B: il existe une recherche sur les piles à combustibles Sur le "front page" d'un brevet figurent des citations faites par le document à d'autres brevets et à des articles scientifiques. L'hypothèse selon laquelle ces citations seraient des indicateurs de liens entre l'invention décrite par le document et d'autres thèmes techniques et scientifiques, est largement abordée par la littérature scientométrique. Tout d'abord, il convient de noter que ces articles et brevets cités en "front page" sont ceux retenus par les examinateurs pour rendre compte de la priorité de la revendication. De ce fait, ils ne recouvrent pas toujours ceux que les inventeurs mentionnent dans le corps du document. Ceci conduit certains scientomètres à s'interroger sur la signification de ces citations en "front page": leur rôle certain d'arbitrage coïncide-t-il avec celui présumé de traceur de liens entre différentes entités techniques et scientifiques? La suspicion est particulièrement forte à l'égard des articles scientifiques cités par les examinateurs. Certains scientomètres avancent l'argument selon lequel ces articles cités n'ont qu'exceptionnellement une valeur juridique132, et que de ce fait, leur choix ne jouit

est 1967, nous trouvons 15 brevets; si nous comptons les documents dont l'année de priorité la plus récente est 1967, nous trouvons 14 documents; la différence n'est donc que de 1 document! Pour les autres années, nous avons noté le même ordre de grandeur.

132Les Etats-unis est le seul pays où un inventeur peut prouver l'antériorité de son brevet en citant un article scientifique qu'il a publié au sujet de son invention.

pas toujours de la même "rigueur" que celui des citations de brevets133. D'autres s'interrogent sur les compétences des examinateurs; ainsi, COLLINS et WYATT soulignent que les inventeurs ont beaucoup plus tendance à citer la littérature scientifique que les examinateurs: non seulement, ces derniers citent peu, mais de plus, selon les auteurs, ils citent peut-être "mal"134. Nous ne nous étendrons pas davantage sur ces valses hésitations autour des articles cités en "front page". Notons simplement que ces incertitudes rappellent avec force le double caractère juridique et technique du brevetage. Dès lors, il est difficile, en toute généralité, de confirmer ou d'infirmer le rôle des citations d'articles en "front page" comme indicateurs de liens entre science et technique. De notre point de vue, seule une épreuve locale permettrait d'apporter des éléments de réponse cette question. C'est précisément ce que nous allons faire sur le cas des piles à combustibles. Avant d'exposer les résultats de ce test, il convient d'apporter quelques précisions relatives à la base WPI(L). Comme nous l'avons souligné précédemment, cette base ne fournit les citations en ligne que depuis 1978. Deux conséquences à ceci: 1) les citations faites par les brevets déposés avant 1978 ne sont pas disponibles; 2) les citations reçues par les brevets déposés avant 1978 ne sont que partiellement disponibles: en effet, seules les citations reçues de la part de brevets déposés après 1978 sont mentionnées. Pour mesurer la "perte d'informations" occasionnée par cette spécificité de WPI(L), nous avons interrogé la base CLAIMSCITATIONS. Cette base signale les brevets et les articles cités par les brevets déposés aux Etats-Unis. Sur nos 200 brevets, seul le tiers a fait l'objet d'un dépôt aux Etats-Unis. Par ailleurs, si nous nous focalisons sur la période après 1978, nous remarquons que le nombre de citations mentionnées par CLAIMSCITATIONS excède largement celui fourni par WPI(L). Qu'est-ce-à-dire? Rappelons que les citations en question sont celles attribuées par les examinateurs. Dans CLAIMSCITATIONS, nous avons donc accès aux citations retenues par les experts de l'Office Américain des Brevets. Théoriquement, pour une famille de brevets contenant une version américaine, WPI(L) devrait fournir au moins le même nombre de citations que CLAIMSCITATIONS. Or, ce n'est pas le cas ici. WPI(L) ne retiendrait-il que les citations faites par l'Office des Brevets du pays de dépôt prioritaire? Faute d'investigation à ce propos, nous ne pouvons répondre à cette question. A cela, il faut ajouter que WPI(L) ne fournit que le nombre d'articles cités par les brevets. Pour recueillir les données bibliographiques concernant ces articles (titre, auteurs...), il faut "basculer" sur la base EPAT. Or, EPAT ne mentionne que les articles qui figurent dans l'European Research Report. Ici encore, il conviendrait d'évaluer le nombre d'articles "perdus" au cours d'une telle manipulation. Finalement, l'étude des citations sous WPI(L) s'avère plutôt délicate. Cependant, les rares articles cités par les brevets déposés après 1978, les articles cités par les brevets citant B et

133CAMPBELL, NIEVES, 1979, cités par COLLINS, WYATT, 1988. 134Par une analyse des citations d’articles en “front page”, COLLINS ET WYATT (COLLINS, WYATT, 1988) en

arrivent à la conclusion que les examinateurs sont peu familiers avec la littérature scientifique, et qu’ils ne lisent peut être que les résumés des articles!

les brevets cités par B135, affirment l'existence d'une "recherche technique" sur la conception des piles à combustibles, mais aussi, d'une recherche plus "fondamentale" sur des thèmes connexes à ces piles:

Ross P.N. Jr., 1982, "Engineering analysis of an NH3-air fuel cell system for vehicles" in Extended Abstracts. Tuller H.L. et al, 1975, "Doped ceria as a solid oxide electrolyte" in Journal of the Electrochemical Society. El Adham K. et al., 1983, "Grain boundary effect on ceria based solid solutions", in Solid State Ionics.

A ce stade, nous ne pouvons rien dire de plus sur les “contenus” de cette “science désignée” par les brevets136. Nous allons donc explorer une autre voie, préconisée par certains scientomètres (VAN VIANEN, 1989): l’analyse des articles publiés par les inventeurs eux-mêmes. Comme nous le verrons, ces articles ne sont pas tant des “compléments” aux articles cités par les brevets, que des indicateurs d’un autre type d’articulation entre science et technique. Les articles publiés par les inventeurs: une programmation simultanée de la science et de la technique Nous nous sommes donc intéressés aux inventeurs de B, mais aussi à certains inventeurs que nous avons trouvés dans la base CAS. Notons I l'ensemble de ces inventeurs. Notons A l'ensemble des articles qu'ils publient dans la base PASCAL. Pour définir A, nous avons adopté la procédure suivante: 1) pour chaque firme propriétaire d'un brevet appartenant à B, nous avons cherché les articles publiés par ses inventeurs dans la base PASCAL137; 2) lorsque nous n'avons trouvé aucun article, nous avons cherché les brevets déposés par la firme sur les piles à combustibles dans la base CAS; nous avons repéré, par ce moyen, d'autres inventeurs de la même firme; 3) puis, nous avons de nouveau cherché les articles publiés par ces inventeurs "supplémentaires" dans la base PASCAL; 135Nous avons repéré, en tout et pour tout, 11 articles. Seuls 6 d'entre eux figurent dans l'European Research

Report. 136COLLINS et WYATT, peu satisfaits des citations en "front page", ont analysé les citations données par les

inventeurs eux-mêmes (Collins, Wyatt, 1988). Malheureusement, à l'heure actuelle, ces citations ne sont pas disponibles sous format informatique. De ce fait, la généralisation de leur analyse est difficilement concevable.

137Le choix de la base PASCAL a été motivé par deux raisons: - PASCAL regroupe un grand nombre de revues, notamment la plupart des revues scientifiques françaises;

ceci nous permet de "ratisser large", puisqu'il n'y a aucune raison a priori pour que les inventeurs de I ne publient que dans les revues "importantes" de SCISEARCH;

- PASCAL indexe chaque article par une série de mots-clés, ce qui nous permettra d'effectuer des analyses de mots associés.

4) notons enfin que pour les "gros" déposants (CGE, ALSTHOM, IFP), nous nous sommes intéressés aux inventeurs présents dans la base WPI(L) et dans la base CAS. Pour notre étude, nous avons délimité une sous-population de I, en prenant soin de retenir des inventeurs de grandes et de petites firmes tout au long de la période 1960-1987. Notre sous-population est composé des inventeurs suivants: {Feuillade G. (CGE) - Jacquelin J. (CGE) - Hespel C. (ALSTHOM) - Bono P. (ALSTHOM) - Tissier A. (ALSTHOM) - Cheron J. (IFP) - Grehier A. (IFP) - Breele Y. (IFP) - Croset M. (THOMSON) - Chapiro A. (ANVAR) - Vignaud R. (Les Piles WONDER) - Laurent F.J. - Ruch J. - Brenet J. - Wiart A. (Jeumont-Schneider) - Blain J. (Terreau) - Pineri M. (CEA) - Bidan G. (CEA) - Genies E.M. (CEA) - Fauvel P. (Occidental Chemical Corporation/Fauvel) - Nenner T. (SRTI) - Roux M. (SRTI) - Bouthors P. (Régie Renault)}. Tout d'abord, nous notons une relative spécialisation138 de certains d'entre eux, en tant qu'auteurs d'articles scientifiques: Brenet J. et Ruch J., chercheurs du Laboratoire d'Electrochimie de l'Université Louis Pasteur de Strasbourg, s'intéressent aux oxydes de manganèse; Croset M., inventeur de THOMSON, est un microélectronicien des couches minces diélectriques; Feuillade G., inventeur de la CGE, est spécialisé dans certaines membranes macromoléculaires; Chapiro A., chercheur-CNRS du Laboratoire de chimie macromoléculaire sous rayonnement de Thiais, investit dans des techniques de polymérisation par greffage radiochimique. Ensuite, certains de ces inventeurs ont (ou ont eu) une affiliation universitaire139: il en est ainsi de Roux M., inventeur de SRTI, qui publie des articles en tant que chercheur du Département des Etudes et Recherches en Technologie Spatiale de l'ONERA; Blain J., inventeur de Terreau, publie en tant que chercheur de l'Institut de Génie des Matériaux du CNR du Canada. Cependant, qu'ils soient spécialisés ou non, qu'ils aient (ou aient eu) des "aventures" universitaires ou non, ces 23 auteurs ont été amenés à se pencher sur les piles à combustibles (et/ou certains de leurs éléments constitutifs). Pour décrire l'ensemble des articles qu'ils publient, nous avons procédé à une étude de leurs titres et résumés. De cette étude, il s'est avéré que la "place" occupée par les piles dans leurs publications connaît une inflexion remarquable vers 1976-1977, à tel point que nous pourrions parler de deux périodes de publication. Avant 76-77: une recherche technique sur les piles à combustibles Jusqu'à la mi-70, les piles à combustibles et/ou leurs éléments constitutifs, occupent une place centrale dans la plupart des publications. Pour preuve, laissons parler quelques titres et résumés d'articles. Feuillade G., chercheur-inventeur au Laboratoire Marcoussis de la CGE, travaille à la mise au point de membranes macromoléculaires pour des batteries solides, un des thèmes "techniques" sur lesquels portent les brevets de la CGE: 138Nous entendons, ici, par "auteur spécialisé", un inventeur qui publie des articles dont les titres et les

résumés font état de connaissances scientifiques portant sur des sujets autres que les piles à combustibles.

139Dans PASCAL, seule l'affiliation du premier auteur est disponible. Il convient donc d'apporter une attention particulière aux co-publications.

Feuillade G., 1973, "Elaboration de séparateurs ioniques à usage électrochimique" in Rapport DGRST - Action Concertée "Chimie macromoléculaire, Membrane". (extrait du résumé: ... préparation de membranes à base d'alcool polyvinylique, et étude comparative de l'influence des paramètres de préparation sur les propriétés finales...).

Il est intéressant de noter que les autres articles de Feuillade, mais aussi ceux des autres auteurs "spécialisés", formulent des problèmes proches de ceux dont font état certains brevets déposés avant 1975:

Feuillade G., 1975, "Rôle et utilisation des membranes en électrochimie et en électrotechnique" in Entropie. (extrait du résumé: ... contrôle et régulation des échanges de matières; applications: génération de courant, électrodialyse...). Croset M., 1973, "Anodic oxidation of silicon in organic baths containing fluorine" in Journal of the Electrochemical Society. Brenet J., 1975, "Comportement électrochimique d'une électrode LA: : (2) NiO: : (4) en milieu alcalin" in Compte-rendus de l'Académie des Sciences.

Ces articles se focalisent sur la caractérisation de quelques éléments des piles à combustibles et/ou sur quelques techniques nécessaires à leur conception. Ils prolongent, en quelque sorte, le "découpage" de la pile effectué par certains brevets déposés avant 1975. C'est à ce titre que nous pouvons parler de "recherche technique": ces articles font état de connaissances portant sur des objets techniques précis, et sont publiés dans des revues scientifiques "importantes": Journal of the Electrochemical Society140, Entropie... Par ailleurs, les auteurs sus-cités collaborent avec des chercheurs "fondamentalistes" (Croset M. publie avec des chercheurs du Laboraoitre de Physique des Solides de l'Ecole Normale Supérieure), et sont relativement bien "visibles" dans SCISEARCH (Feuillade G. est cité 52 fois, par des électrochimistes français, mais aussi étrangers - Croset M. participe à un "research front"141: "study of oxygen tracer diffusion using nuclear microanalysis"). Bref, ces auteurs sont des "spécialistes" qui, jusqu'en 1976-77, exercent en partie leurs compétences sur certains éléments des piles à combustibles. Les autres auteurs, quant à eux, se consacrent à la caractérisation technico-économique de certaines piles. Une place importante est accordée à la définition des marchés possibles de ces piles, comme l'ont fait certains brevets déposés avant 1975: 140Cette revue est dans le panel de SCISEARCH. 141Dans SCISEARCH, un "research front" désigne un ensemble d'articles (et de chercheurs) connectés entre

eux au travers de leurs co-citations (citations communes).

Hespel C., 1975, "Piles à combustibles à fort puissance pour applications sous-marines" in International 9th Intersociety Energy Conversion. (extrait du résumé: ... description des piles à combustible, à hydrazine comme combustible et peroxyde d'hydrogène comme réducteur; modules produits par ALSTHOM; performances...). Jacquelin J., 1974, "Une pile à combustible hydrogène-air de 500W avec reformage du méthanol" in 4th International Symposium on Fuel Cells. (extrait du résumé: ... description détaillée de la pile et de ses accessoires mis au point par la CGE...).

L'équipe de l'IFP est particulièrement active en ce qui concerne l'analyse des applications possibles des piles à combustibles:

Breele Y., Cheron J., GrehierA., 1974, "Problèmes liés à la commercialisation d'un véhicule urbain à pile à combustible hydrogène-air" in 4th international Symposium on Fuel Cells. (extrait du résumé: ... pour atteindre un important marché, les deux principaux problèmes à résoudre sont le coût de l'unité de propulsion et l'utilisation de l'hydrogène à bord du véhicule; ces problèmes sont analysés en détail après une revue rapide d'une étude actuelle concernant une Renault 4L équipée d'une cellule hydrogène-air de 11 kW; conclusions favorables...). Breele Y., Cheron J., Degobert P., Grehier A., 1977, "Les piles à combustibles. Les piles à hydrogène" in Revue Générale d'Electricité. Résumé: Après avoir exposé les principes de la pile hydrogène-air et ses caractéristiques techniques de construction et de fonctionnement, on illustre les progrès accomplis dans ce domaine depuis une dizaine d'années par les réalisations de l'Institut Français du Pétrole: performances accrues des électrodes, progrès dans la construction des assemblages de piles, dans la construction des accessoires des batteries. On expose ensuite l'intérêt présenté par les piles à hydrogène: perspectives énergétiques de l'hydrogène avec l'avènement des centrales nucléaires, domaines d'application de ces types de piles comme groupes autonomes de fourniture d'énergie (capacité énergétique supérieure à 400 WH/KG) et en traction automobile électrique.

Ces articles sont, en quelque sorte, des documents technico-économiques de synthèse, dont certains sont présentés par les auteurs au cours de colloques internationaux. Les piles à combustibles y sont soumises à la question économique. Une fois encore, nous notons une grande proximité entre ces articles et certains brevets des années 70, dont une des préoccupations était l'impératif commercial. En particulier, le véhicule électrique, comme application potentielle, est largement mentionné: son développement est présenté comme

une solution envisageable contre un certain nombre de problèmes posés par les transports en zones urbaines.

Bouthors P., 1973, "L'électricité dans les transports. Le véhicule électrique urbain. Stratégie de développement du petit véhicule urbain à la Régie Renault" in Revue Générale d'Electricité. Breele Y., 1974, (avec Sale B.) "Les nouveaux systèmes de propulsion envisageables pour les véhicules urbains" in Revue de l'Institut Français du Pétrole. Résumé: On demande de plus en plus aux véhicules particuliers utilisés en zone urbaine de répondre à un certain nombre de contraintes (pollution, bruit, économie d'énergie). Examen des différents modes de propulsion pouvant être retenus en les classant en: systèmes thermodynamiques, systèmes électrochimiques. Réduction de la pollution des moteurs à explosion, recherche sur le moteur de Stirling. Problème de stockage de l'énergie électrique. Recherche dans le domaine des nouveaux générateurs électrochimiques: accumulateur sodium-soufre, pile zinc-air et pile hydrogène-air.

Le caractère structurant du véhicule électrique est d'ailleurs renforcé par une étude des articles publiés entre 1969 et 1975 dans la Revue Générale d'Electricité. Cette revue technique est une sorte de "dénominateur commun" entre les 23 auteurs, puisqu'y publient aussi bien les spécialistes que les "non spécialistes". Afin de déterminer les thèmes abordés par cette revue au début des années 70, nous avons effectué une étude LEXIMAPPE©142 de ses publications. Il s'est avéré que la "traction électrique"143, bien que peu centrale, est un thème particulièrement dense durant cette période. Que conclure sur les articles publiés par les inventeurs avant 1976-1977? Tout d'abord, nous notons deux "catégories" de publications: la première regroupe des articles publiés par des auteurs qui mettent leurs connaissances "spécialisées" au service de certains éléments des piles à combustibles; la seconde est constituée d'articles plutôt orientés vers les usages de ces piles. Ensuite, les préoccupations affichées par ces articles sont comparables aux revendications des brevets déposés avant 1975. C'est la raison pour laquelle nous dirions volontiers que les piles de cette période sont des "piles-maison": des inventeurs se proposent de mettre au point des piles commercialisables; pour cela, ils entreprennent eux-mêmes des recherches techniques (voire technico-économiques) sur ces piles. Enfin, les inventeurs-auteurs considèrent qu'en termes d'applications, les piles à combustibles sont assez prometteuses, notamment en ce qui concerne le véhicule électrique. Nous verrons par la suite que, comme les brevets déposés après 1975, les articles publiés après 1977 seront un peu moins enthousiastes! 142LEXIMAPPE© est une méthode d'analyse des mots-associés, qui repose sur un calcul de co-occurences

des mots dans un ensemble de documents. Pour plus de précision, voir COURTIAL, 1989a. 143Les mots associés à ce thème sont: transport ferroviaire - automobile - machine linéaire- vitesse élevée -

véhicule électrique - moteur électrique - moteur antipolluant - conception - caractéristique fonctionnement (soulignés par nous).

Après 1977: un certain retour à la recherche en électrochimie Comme les brevets déposés après 1975, les articles publiés après 1977 se diversifient. Ils se partagent quatre types de préoccupations: - certains articles s'intéressent à d'autres dispositifs techniques, tels que les pompes à chaleur ou les systèmes de stockage de l'énergie; - d'autres se concentrent sur des problèmes plus généraux de l'électrochimie, tel que celui de l'équilibre versus non-équilibre; - quelques articles s'attaquent à des thèmes très spécifiques de la chimie ou de la physique; - d'autres, enfin, soulèvent des problèmes non encore résolus concernant les piles à combustibles. Les auteurs "lâchent" la pile-à-combustible-objet-compact Des piles à combustibles à forte puissance pour applications sous-marines, Hespel C., inventeur de ALSTHOM, est passé aux pompes à chaleur. Jacquelin J. et Feuillade G., tous deux inventeurs de la CGE, exercent en partie leurs compétences sur les systèmes de stockage de l'énergie. A côté des piles à combustibles, d'autres dispositifs techniques apparaissent, qui retiennent l'attention des inventeurs. Par ailleurs, ceux qui parlent des piles à combustibles se focalisent sur des problèmes scientifico-techniques qui se mettent en travers de leurs industrialisation:

Bono P., 1977, "Les piles à combustibles. Pile à combustible méthanol-air à électrolyte tampon" in Revue Générale d'Electricité. (extrait du résumé: ... pour industrialiser la pile à méthanol-air fonctionnant en milieu tampon, la puissance de 4,5 W/DM**2 est nécessaire; cette puissance na pas été atteinte à 90**(0)C en tampon autocarburant, où les problèmes de diffusance et d'activité des électrodes sont importants; outre la sensibilité de l'anode à l'empoisonnement, l'activité de la cathode est faible; pour améliorer celle-ci, on doit utiliser des platinoïdes qui favorisent alors la perte en CH: :(3)OH par oxydation chimique et électrochimique; le problème essentiel de la pile CHOH en milieu tampon reste l'activité de électrodes qui n'a pu être améliorée à 150**(0)C dans les électrolytes concernés...).

Ainsi, l'enthousiasme d'avant 77 fait place à une certaine prudence: des problèmes demeurent, aussi bien au niveau des électrodes, que des électrolytes. L'heure est aux bilans, et ceux-ci font état de difficultés techniques et économiques:

Breele Y., Choffe B., Grehier A., 1980, "Incidence économique des piles à hydrogène" in Hydrogen as an energy vector - International seminar. (Résumé: Trois filières sont surout utilisées: la filière basse température à électrolyte basique, la filière moyenne température à acide phosphorique et la filière haute température à carbonate fondu. L'analyse technique montre que les filières basique

et carbonate offrent le plus d'avantages. Il faudra atteindre des objectifs contraignants sur les prix (200F/KW à 1000F/KW) et les durées de vie (20000 à 40000 heures)).

Ainsi donc, il n'y a pas de miracle commercial! Pour "tenir" l'industrie et le marché, les auteurs-inventeurs doivent "lâcher" la pile-objet-compact pour se pencher sur les problèmes de prix et se plonger dans les "mécanismes électrochimiques fondamentaux". Sur ce dernier point, les articles publiés par les "auteurs spécialisés" que nous avons désignés précédemment, vont, eux aussi, dans le sens de ce déplacement vers des préoccupations scientifico-techniques.

"Les "articles spécialisés": vers une "recherche fondamentale" A partir de 1976-77, les auteurs spécialisés s'investissent de manière plus exclusive dans leurs domaines de prédilection: Croset M. se consacre aux techniques de la microélectronique des capteurs, à la cristallisation laser des couches minces de silicium amorphe; Blain J. s'investit résolumment dans l'étude des propriétés chimiques et thermiques des alliages d'aluminium-zinc. Ceux qui continuent, par ailleurs, à s'intéresser aux piles, se placent désormais sur le terrain de la recherche en électrochimie. C'est le cas de Brenet J. qui, s'inspirant des travaux de l'électrochimiste P. van Rysselberghe, mène une recherche sur:

"Equilibre et non-équilibre en électrochimie" in Journal de Chimie Physique Physicochimie Biologie, 1978. (extrait du résumé: ... applications aux électrodes multiples et à un aspect macroscopique du mécanisme des processus de transfert d'électrons...).

C'est également le cas de Feuillade G., qui fait une:

"Study of SO: electrocatalytic oxydation during the sulphur cycle" in Rapport CEE - Enegie, 1980. (extrait du résumé: ... élucider l'étape électrochimique du cycle thermoélectrochimique de SO pour la production d'hydrogène...).

et une recherche sur:

"Le stockage chimique de l'énergie: IV - Utilisation de nouveaux vecteurs d'hydrogène dans les moteurs thermiques. Elaboration d'un programme prospectif général" in Entropie. (extrait du résumé: ... on examine en détail l'aptitude de l'ammoniac et du méthanol à l'utilisation en combustible (surtout moteurs)...; il reste toutefois un effort important à fournir en dehors de la mécanique: recherche de catalyseurs favorisant la dissociation de l'ammoniac et l'élimination des imbrûlés, recherche d'additifs facilitant l'allumage et la combustion, choix de matériaux résistant à la corrosion...).

En fait, ces auteurs, d'une part, se "replient" sur leurs spécialités, d'autre part, mènent parfois des recherches en électrochimie, recherches dans lesquelles la pile à combustible cède la place à une réaction d'oxydation ou de réduction particulière, à un combustible particulier. Sans revenir sur les détails de l'analyse précédente, nous pouvons parler d'un certain "isomorphisme" entre l'ensemble B des brevets, et l'ensemble A des articles publiés par les inventeurs. Avant 75, les inventeurs tentaient de fixer, dans leurs brevets, les caractéristiques technico-économiques des piles à combustibles, en déclinant, notamment, différentes configurations de marché. A peu près à la même époque, ces inventeurs publiaient des articles enthousiastes sur les performances techniques de ces piles, et faisaient état de perspectives commerciales prometteuses. Après 76-77, les inventeurs

publient des articles présentant un profil proche des brevets déposés après 75: ils recensent les "entraves" techniques et économiques à l'industrialisation des piles à combustibles, et listent quelques travaux de recherche fondamentale à mener en électrochimie (recherche sur les catalyseurs, par exemple). Il semblerait donc que la rupture de la fin des années 70 se soit accompagnée d'un déplacement vers la "science", maillon du réseau français des piles à combustibles pour lequel il reste, apparemment, quelques lacunes à combler. Conclusion Sans revenir sur les développements précédents, nous voudrions, pour conclure, résumer les principaux éléments de notre description, et discuter de la "généralisation" possible de notre grille de qualification des liens entre science et technique. Notre démarche consistait à suivre les articles désignés par les brevets. Le premier résultat de ce jeu de piste concerne l'existence ou non de brevets. Bien qu'évident à première vue, ce résultat n'est pas trivial. En effet, l'existence ou non de brevets signe une certaine structuration du domaine étudié. Ainsi, ce qu'indique le nombre de brevets déposés en France sur les piles à combustibles, c'est que ces dispositifs techniques réalisent une agrégation des intérêts de certaines firmes, traduite, en termes de brevets, par le "label" piles à combustibles. Bien entendu, ces dernières peuvent exister en dehors des brevets. Pour autant, cela n'invaliderait pas notre exercice; ce serait plutôt le signe que les piles à combustible se réalisent aussi en d'autres lieux. La même remarque vaut pour les articles désignés par les brevets: l'existence ou non de ces articles indiquent, pour le domaine étudié, certaines articulations entre science et technique. Quelles sont ces articulations? La première est le fait des citations d'articles en "front page" des brevets. La principale critique que leur adressent les scientomètres porte sur leur caractère hybride: ces citations sont-elles plutôt des preuves du zèle des examinateurs, ou plutôt des marqueurs de filiation entre science et technique? La variété des réponses montre le caractère globalement indécidable de cette question. Les "croyants", chiffres à l'appui, s'enthousiasment pour la pertinence de ces citations comme indicateurs du caractère "science-based" des techniques, pour peu que l'analyste choisisse les brevets adéquats144. Les "sceptiques" montrent, sur des domaines particuliers, que les citations d'articles en "front page" sont trop aléatoires pour en tirer une conclusion positive quant à leur rôle d'indicateurs de liens entre science et technique (VAN VIANEN, 1989). En somme, la situation est la suivante: tout dépend du domaine choisi, de la base de données interrogée...! De notre point de vue, plus q'un handicap, ceci est une recommandation: les résultats sont sépcifiques à chaque cas étudié. Dès lors, l'analyse des citations d'articles en "front page" n'est pas tant une méthode conduisant systématiquement à la science, qu'un test à l'issue duquel les brevets questionnés désigneront ou non de la science. Le test sur l'ensemble B des brevets déposés en France sur les piles à combustibles nous a fourni les résultats suivants:

144Les brevets déposés auprès de l'Office Américain des Brevets sont, selon les auteurs, particulièrement

pertinents. Voir NARIN, 1989.

1) les articles cités par B, les articles cités par les brevets citant B et les brevets cités par B, font état d'une recherche technique sur la construction des piles à combustibles, et d'une recherche plus "fondamentale" sur des thèmes connexes à ces piles; 2) la base de données WPI(L) ne fournissant pas toutes les citations, nous n'avons pas pu effectuer une analyse précise des contenus des articles cités. Quoi qu'il en soit, le test des citations d'articles en "front page" nous a permis de conclure à l'existence de chercheurs nommés par les brevets sur les piles à combustibles (Ross P.N. Jr., Tuller H.L. et al., El Adham K. et al.), de thèmes de recherche mobilisés par ces brevets (NH3-air fuel cell, solid oxide electrolyte), de revues désignées par ces brevets (Journal of the Electrochemical Society). Ces noms et ces mots sont autant de marqueurs du réseau piles à combustibles circonscrit par les brevets (CALLON, 1990b). La deuxième articulation entre science et technique résulte des articles publiés par les inventeurs eux-mêmes. Ces articles montrent que le domaine des piles à combustibles en France, entre 1960 et 1987, a été le lieu d'un développement simultanné de la science et de la technique: les inventeurs construisaient leurs piles et produisaient, dans le même mouvement, des connaissances scientifiques, techniques, voire économiques, à leur propos. Ainsi, il est remarquable qu'à l'époque de gloire des piles à combustibles, lorsque celles-ci faisaient l'objet de spéculations enthousiastes en termes de marché, les articles publiés par les inventeurs s'attachaient, en partie, à montrer les conditions technico-économiques favorables à leur développement. De la même façon, vers la fin des années 70, lorsque les piles à combustibles se sont avérés peu fiables (empoisonnement des électrodes, faible durée de vie...), les inventeurs ont fait état de problèmes scientifico-techniques non résolus (quels catalyseurs utilisés? quelles sont les avantages offerts par le méthanol comme combustible?...). Cette proximité, à la fois temporelle et thématique, des brevets déposés et des articles publiés par les inventeurs, nous montre une dynamique de développement des piles à combustibles en France, dynamique que nous qualifierons de "learning by doing", au sens propre du terme. En somme, nous pourrions dire que les firmes concernées n'ont pas programmé la science et la technique comme deux entités différentes145. Telles sont donc les deux articulations entre science et technique que nous avons repérées pour le domaine des piles à combustibles en France. De notre point de vue, ces deux articulations ne se confirment et ne s'infirment pas l'une l'autre. Elles désignent deux modes de liaison différents entre science et technique. Les articles cités par les brevets marquent les "emprunts" faits par les inventeurs à la recherche scientifique. Les articles publiés par les inventeurs, quant à eux, montrent de quelle manière la R&D a été conduite au sein des firmes déposantes. Les uns et les autres font exister le domaine étudié comme réseau, associant de différentes manières, des chercheurs, des technologues, des objets, et des stratégies.

145Ceci ne préjuge en rien de leur succès ou de leur échec. Ce que nous pouvons dire sur les piles à

combustibles en France, c'est qu'actuellement, elles se dé-réalisent comme objets immédiatement commercialisables, pour exister comme sujets de recherche scientifico-technique.

CANDIDE™ : un outil de veille technologique basé sur l’analyse des

réseaux146 Geneviève TEIL

Les outils traditionnels de gestion de la recherche Depuis la fin de la seconde guerre mondiale, la recherche est apparue - de manière

plus ou moins évidente - comme un enjeu stratégique de la gestion d'entreprise. Des centaines d'outils de gestion et d'évaluation de la recherche ont été mis au point, tout particulièrement pendant les années 50-60. Après une période d'incertitude et une relative stagnation du rythme de production de ces outils pendant les années 1970, les travaux ont repris pendant les années 1980. Ils intègrent les connaissances acquises sur le déroulement du processus d'innovation et les derniers développements de l'économie du changement technique et tout particulièrement ceux de M. PORTER ou C. FREEMAN. Malheureusement, la plupart des outils proposés dans la littérature ne semblent guère utilisés dans les entreprises et aucun d'entre eux ne semble s'imposer147.

L’éventail de ces outils est très large, il va d'une simple estimation de retours d'investissement à deux paramètres, à des méthodes complexes de formation de consensus au sein d'un communauté d'experts. Régulièrement des ouvrages dressent des états de l'art ou des panopolies de l'existant. Cette très grande variété est sans doute un symptôme de la difficulté d'une quelconque “mesure de la recherche”. En effet, quand la recherche innove, il est impossible de savoir avant que l'innovation soit terminée où elle va avoir lieu; quel va être son impact; ce qu’elle va transformer; ce qu’elle va éventuellement modifier dans notre appareillage de mesure des grandeurs sociales, économiques ou techniques.

La variété de notre panoplie d’outils d’évaluation est le reflet de l’expérience acquise et donc de la multiplicité des études de cas réalisées. Toutes mettent en avant la particularité de chacun des cas d’innovation. En fin de compte, ces outils débouchent sur des méthodes très pragmatiques de construction de consensus au sein de panels d'experts qui mettent surtout en évidence l'incertitude inhérente au processus d'innovation.

146 Ce travail n’aurait pu aboutir sans l’aide précieuse du réseau Novelect de l’EDF qui nous a permis

d’expérimenter et de valider les performances de CANDIDE™. Contrat de Recherche NOVELECT 890009 BK 1110.

147 Dans sont étude, DANILA (1985) montre le très faible taux d’utilisation des outils d’évaluation de la recherche en France et compare ce taux aux Etats Unis.

Nous faisons dans cet article un bref bilan des divers types d'outils existant; leurs inconvénients sont connus et largement explicités dans la littérature : trop mathématisés, requérant des informations non disponibles, simplistes et incomplets, … Ces reproches nous semblent dans une certaine mesure justifiés. Toutefois, nous essayerons de nous situer à la marge de ce débat. Nous n’insisterons pas sur les lacunes de ces outils, mais sur le décallage qui existe entre ce qu’ils veulent mesurer, circonscrire et prévoir et ce que les recherches et innovations en cours ont de mesurable. Ceci nous conduira à mettre en évidence un moment du processus d’innovation que ne traitent pas les outils traditionnels.

La seconde partie est consacrée à la présentation de CANDIDE™, un nouvel outil de veille technologique, qui a pour but de permettre le suivi de processus innovant incertain. Il propose une approche différente du problème grâce à l'analyse des réseaux technico-économiques (cf le texte de M.CALLON dans un chapître précédent). CANDIDE™ s’appuie sur le programme Leximappe™ de calcul des réseaux de mots associés dans sa version implémentée sur Macintosh148. Cette approche à le mérite à nos yeux de ne plus essayer de définir en toute généralité le processus d'innovation pour ensuite le mesurer, mais de décrire d'abord le cas à étudier, d'en suivre précisement le déroulement pour l'analyser au moyen de quelques indicateurs d'une très grande simplicité. Enfin il cède la main aux outils traditionnels, quand le processus devient moins incertain et rentre dans leurs domaines de compétence.

Des outils d'analyse économique

Les 36 manières de mesurer la recherche Des outils de gestion et d'évaluation de la recherche tentent de fournir la meilleure

réponse possible à la question majeure du gestionnaire de la recherche : comment sélectionner les bons projets, ceux qui ont des chances d'aboutir ? La réponse sera assez aisée si l'on est capable de mesurer les performances escomptées du projet de recherche. Chacun des outils que nous allons passer brièvement en revue définit une panoplie des critères de performance d'un projet de recherche qui délimite un univers de la recherche bien spécifique.

Outils financiers Un premier ensemble d'outils financiers utilise un calcul simple à partir de

paramètres connus et mesurables par la gestion classique, comme l'investissement et les

148 Les principes et conséquences théoriques du fonctionnement de CANDIDE™ et du programme

Leximappe™ sont exposés en détail dans les deux articles suivants : (AKRICH, 1989c ; TEIL, 1989). Pour une dissection du fonctionnement du programme Leximappe™ de calcul des réseaux : (MICHELET, 1988).

dépenses occasionnées par le programme de recherche. Citons entre autres le “Return On Investment” (ROI)149 ou les ratios “Dépense/Investissement”. Ces outils ont l'avantage d'utiliser des paramètres de gestion connus mais constituent un univers très restreint du projet de recherche en particulier, sans dimension temporelle.

D'autres pallient cet inconvénient en estimant des recettes avec la Valeur Actuelle Nette (VAN)150, des volumes annuels de vente et des probabilités de réussite pour la numérotation de projet (PACIFICO, 1964), des revenus d'investissement, une durée de vie du nouveau produit, des investissements futurs… , bref tout un ensemble d'estimations financières sur un produit qui souvent n'a pas encore de marché, ni de consommateurs, ni de fabriquant; sur un produit dont les fonctions, les capacités et les performances vont évoluer tout au long de sa mise au point.

L'analyse de réseaux Le type de réseaux utilisé par les méthodes PERT (ANDERSON, 1976) (Program

Evaluation and Review Technique) et celles du chemin critique (KAUFMAN, 1969) sont très éloignés des réseaux technico-économiques étudiés dans la seconde partie de cet article. Il s’agit d’un instrument mathématique qui représente les étapes d'un projet de recherche et les classer selon des critères définis. Le PERT et la méthode du chemin critique élisent le projet qui minimise le coût et la prise de risque. Celle-ci est supposée croissante avec la durée du projet ou le nombre des étapes du développement. Outre la définition conservatrice du “bon projet de recherche” qu’il induit, le PERT exige l’éclatement du projet de recherche en tâches sucessives. Il en fragmente la réalisation dans le temps alors que nul ne sait encore quels seront les clients, constructeurs, matériaux ou conditions d’emploi auxquels il faudra progressivement adapter le produit en gestation.

Les grilles multicritères d'analyse et les check lists La plupart des grilles multicritères (DANILA, 1983) semblent propices à la gestion de

projet tant qu’il ne s’agit pas de projet de recherche. En effet les critères qu’elles utilisent requièrent une parfaite connaissance du projet fini — que ne possédait pas Edison par exemple, lorsqu'il projeta d’électrifier New York. Le multicritère permet des évaluations qualitatives et fournit plutôt des profils de projet que des scores. Il est moins contraignant que les méthodes financières qui demandent en outre une unité d’évaluation homogène, la monnaie.

149 Le ROI admet des formules plus ou moins sophistiquées autour de “ROI = Bénéfice de

l’investissement/Investissement” (MECHLIN, 1980 ; AUGOOD, 1973). 150 Comme pour le ROI, le VAN admet plusieurs formules autour de “VAN = ∑ (Recettes de l’année t - Dépenses de l’année t - Investissements de l’année t)” durée du projet (1 + taux d’actualisation de l’année t)t

Les grilles multicritères mêlent des indicateurs qui ne seront plus exclusivement financiers, le “degré d'évolution technique” ou “l'existence d'un savoir faire en R&D”. Mais il est frappant de constater le grand nombre de critères de production, stratégie d'entreprise, vente, commercialisation et surtout de critères financiers par rapport au petit nombre de critères d'évaluation de la phase développement et au nombre plus faible encore des critères d’évaluation de la phase de recherche. Tous ces instruments sont conçus pour l'industrialisation d'un produit éventuellement nouveau, ils sont inadaptés à l'évaluation des activités innovantes de la firme et plus encore à la programmation de la recherche.

Une exception cependant : la méthode dite des “classements comparés” semble plus particulièrement tournée vers la gestion de la recherche. Ses critères, très différents des autres méthodes, sont plus centrés sur l’“existence d'une équipe de chercheurs compétents” et l’“état des recherches en cours” que sur le “délai de récupération de l'investissement en recherche” ou le “degré d'utilisation des techniques existantes”.

Gestion de portefeuilles de projets et d'ensemble de projets technologiques Comme en bourse où il serait risqué de ne détenir qu'un seul type d'action, une

entreprise peut soutenir un ensemble de projets de recherche qui s'épaulent mutuellement. Les analyses de portefeuille (ALDRICH, 1975 et WATTERS, 1967 pour la gestion de portefeuille et la programmation non-linéaire) et certaines méthodes sytémiques (Analyse factorielle des correspondances, Analyse structurelle prévisionelle) permettent de choisir le meilleur ensemble de projets et prennent en compte certaines interactions entre les projets et l'environnement stratégique de l'entreprise.

Les méthodes matricielles s'engouffrent dans la brèche ouverte par l'analyse de portefeuille et multiplient les critères d’optimisation du portefeuille, comme le font les méthodes multicritères. Selon la méthode utilisée, on utilisera la matrice des rapports entre Science et Technologie; entre Recherche et Industrie; ou encore l'impact Sociopolitique, Technique et Economique du projet.

Des outils aveugles à la recherche L’utilisation de cette première liste d’outils, des méthodes financières à la gestion de

portefeuille implique une réduction considérable de l’incertitude attachée au nouveau produit.

Le nouveau produit a un marché défini et un consommateur type qui sait avoir besoin du produit; l’entreprise a pressenti des concurrents; le service après vente peut prendre en charge les défaillances techniques; la fiabilité technique du produit permet d’escompter un certain taux de pénétration du marché; ce même produit s’inscrit également dans un système de normalisation adéquat ou dans une politique stratégique de l'entreprise définie; les “Achats” ont identifié des fournisseurs dotés des compétences

technologiques requises; le niveau de formation des ingénieurs et techniciens aux nouvelles technologies est suffisant; etc.

Pour atteindre un tel degré de précision, il faut donc que le produit soit “sur le point de sortir” et par conséquent que les incertitudes inhérentes à l'innovation soient réduites151 — et cela n'empêchera pas le produit nouveau de “ne pas marcher” ou plus exactement “de ne plus marcher” car le produit a déjà passablement duré et fait son chemin depuis l'idée de M. X jusqu'à cet ingénieux machin qui ne se vend pas.

Tous ces outils établissent une frontière opaque entre ce qui se passe avant et après que le projet/produit soit acheté par un nombre déterminé de clients. Au mieux, ils utilisent un paramètre global qui qualifie la sortie de la boîte noire : la “probabilité de succès technique” ou le “risque de l'étape de recherche appliquée”. Or, ce lieu d'où “sort” le projet pour devenir produit n'est-il pas déterminant pour estimer les qualités d'un projet de recherche ?

Si ces outils ont le mérite d’essayer d’attacher le plus tôt possible des contraintes économiques152 au projet, au prix parfois d’un excès de sophistication, ils ne répondent pas ou très tard à la question du gestionnaire : quels sont les “bons projets” à soutenir : le proto de Z, l’idée de X ?

Une seconde génération : le management de la recherche, Delphi, le scoring

La faible utilisation des outils d’analyse économique précédemment cités,

notamment dans leur version la plus mathématisée, a suscité le développement de nouveaux types de méthodes qui abandonnent le principe des grilles de critères a priori, sensées régler le développement de innovation en toute généralité.

Les nouveaux outils s’attaquent à deux caractéristiques du processus d’innovation. L’innovation est un phénomène local, et la grille multicritère est conçue pour une entreprise particulière et un programme donné; l’innovation est un phénomène scientifique et technique incertain, et des méthodes de réduction de l'incertitude technologique et des méthodes de consensus permettent d’évaluer l'environnement technologique et scientifique des entreprises.

151 Pour une synthèse de toutes les incertitudes attachées au processus d'innovation, voir la première partie de

cet ouvrage. 152 Edison a lié très rapidement le coût du cuivre et la loi de Joule pour développer son système d'éclairage

(HUGHES, 1983b).

Les méthodes de consensus153 Les méthodes de consensus consistent à interroger des experts ou des chercheurs et

employés de l'entreprise pour déterminer le déroulement le plus problable de tel ou tel projet. La méthode DELPHI (GORDON, 1964) utilisée auparavant pour la prospective, reste l'une des plus connues.

Ces méthodes permettent un déplacement considérable des investigations du gestionnaire qui s’intéresse désoramis à la recherche scientifique ou technique. Pour être incertaines, les informations sur l'environnement de la recherche n'en constituent pas moins des informations. Et les experts, s'ils peuvent se tromper (GODET, 1985), permettent de connaître l'environnement scientifique et technologique d'une entreprise pour décider d'une stratégie.

Les stratégies technologiques d'entreprise Il n’existe pas une seule stratégie technologique pour l’entreprise. Bien au contraire

suivant l’évaluation des compétences, de l’environnement, des points forts ou de la tactique d’évolution de l’entreprise, on peut adopter l’une des nombreuses stratégies d’innovation existantes. Un des promoteurs majeurs des stratégies technologiques de l’entreprise, M. PORTER (1986) insiste sur la largeur de la gamme des stratégies : aucune n'est a priori préférable à l'autre, toutes sont susceptibles de s'adapter préférentiellement à telle situation, telle ambition ou telles anticipations particulières. On peut être innovant, suiveur, ou conservateur, tout est affaire de choix stratégique.

Or, la grille multicritère Becker propose à travers ses critères de fabrication une stratégie technologique bien déterminée. Elle s’intéresse en effet :

• aux économies de coût • à la capacité de fabriquer le produit • à la disponibilité des équipements et facilités nécessaires • à la disponibilité des matières premières • à la sécurité de fabrication Un tel tableau stratégique semble peu dynamique s’il ne s'appuie sur un avantage

concurrentiel précis. Selon les cas, il peut être préférable de rejeter ces critères, de délaisser des économies de coût au profit d’une concurrence interne dynamisante (PETERS, 1985)154. De même, le monopole de matières premières difficiles à se procurer ou une faible sécurité de fabrication qui produiront une forte barrière à l'entrée,

153 Nous renvoyons pour un exposé détaillé de ces méthodes au chapître “Préparer : analyse stratégique et

prospective” de cet ouvrage. 154 L’auteur montre comment Procter et Gamble favorisent une forte concurrence interne entre les différentes

marques de l’entreprise qui dynamise les équipes de recherche aux dépends des économies d’échelle et autres économies de coût que laisse espérer une rationalisation de l’organisation. Les économies de coût ne sont donc pas a priori un meilleur critère que l’augmentation des coûts.

l'acquisition de nouvelles capacités de fabrication peuvent constituer un des ingrédients de la réussite.

Les méthodes multicritères definies par l'entreprise Face à des méthodes multicritères traditionnelles, trop centrées sur les seuls points

de vue de l'industrialisation du produit, inadaptées à une situation ou une stratégie particulière, l'entreprise a trouvé un remède : elle crée elle-même sa grille de critères, ne retient que ce qui lui semble pertinent, et adapte réciproquement sa propre stratégie au déroulement des recherches.

Toutefois le moment délicat de cette nouvelle utilisation des méthodes multicritères reste la pondération des critères155 : comment mesurer la force d’une position, comment apprécier la qualité d’un critère ? Une innovation peut retourner des positions que l’on pensait solidement établies — qui n’aurait pas misé sur Elisha Gray (HOUNSHELL, 1983) pour le développement des télécommunications : excellent gestionnaire, attentif à la localisation des ressources et aux développement scientifiques, expérimentateur à succès avec le télégraphe multiplex! Pourtant, il s'est fait détrôner par un amateur, A. G. Bell pour la mise au point du téléphone.

Les situations maîtresses ne le sont jamais définitivement; leur force n'est que le résultat hic et nunc d'une position qui peut évoluer rapidement. Dans les situations d'innovation, caractérisées par des retournements imprévisibles, la force d’une position doit être en permanence réexaminée, entretenue et consolidée. L’innovation qui peut changer les critères d’appréciation d’une position peut transformer de ce fait une situation maîtresse en situation de faiblesse — le “jetable-à faible prix-disponible partout”, renverse une position que l’on aurait crue indétrônable, celle de la “qualité-fiabilité-robustesse-durée d’utilisation” qui caractérisait à un moment donné les points forts du rasoir.

Finalement, une entreprise qui définit elle-même les critères de sa propre stratégie se rapproche des spécificités de son domaine d’activités, mais n’élude pas pour autant le problème de l’instabilité des critère d’appréciation, de la difficulté de leur mesure.

Le management de la recherche Le management de la recherche (PETERS, 1985 ; ALLEN, 1977) insiste tout

particulièrement sur la gestion de l'information, sa circulation. Ce n'est pas à proprement parler un outil d'évaluation de la recherche, mais il a le mérite de mettre l'accent sur le fait que la recherche et le développement se gèrent au jour le jour. On insiste sur le suivi de projet, la mise en sommeil surveillé de projets stagnants, la valorisation des échecs et surtout l'organisation d'une circulation judicieuse de l'information. L’entreprise sort de 155 Pour les difficultés que l'on peut éprouver à rassembler un consensus sur les poids des différents critères

cf : WILLIMAS, 1969 ; SOUDER, 1978.

ses murs, elle intègre ses clients, ses fournisseurs, … tous les acteurs qui peuplent sa vie quotidienne. Il convient de tout savoir sans trop savoir ni pas assez. Un projet de recherche est l'affaire de tous, et son évaluation ne doit pas être le fait de seuls experts, équipe de projet ou de management de l'entreprise; elle implique l'ensemble de l'entreprise. C'est dans ce sens que s'oriente les BDA (Behavioral Decision Aids) (SOUDER, 1980, 1983) et les DHM (Decentralized Hierarchical Modelling) (MANDAKOVIC ; KOKAOGLU, 1983 ; GEOFFRION, 1972) qui prônent l'utilisation de tous les outils existants; celle-ci multiplie les informations recueillies et permet en effet de mieux connaître le projet, de mettre à plat les difficultés, de faire circuler très largement l'information et de recueillir les avis de tous. La multiplication des critères et des avis, permet d’intégrer un peu plus le projet de recherche dans l'entreprise - et l'entreprise dans le projet.

Cerner l'incertitude technologique, adapter réciproquement l'entreprise et le

projet Cette deuxième série d’outils semble plus particulièrement destinée à l'établissement

de stratégies d'entreprises. Ils prennent en compte un nombre accru mais encore limité de critères non strictement commerciaux et l'évaluation de la recherche - fondamentale ou non - par des experts.

Si la gamme des critères s'est élargie, il reste quelquepart une rupture entre le projet et son environnement technologique. La stratégie permet d'aligner le projet, l'entreprise, la situation économique et commerciale sur une même ligne d'action. Mais la science reste encore un acquis extérieur156 et le projet est écartelé entre d’un côté son appréciation de plus en plus précise par l'entreprise et d’un autre, celle des experts technologues.

Changer de problématique avec l'analyse des réseaux S’il n’existe pas de cas prototypique d’innovation dont on déduirait les paramètres et

le déroulement de tous les cas réels d’innovation, les bons critères d’évaluation ne sont pas définissables une fois pour toutes. Aussi, le management de la recherche tend à multiplier les critères d'évaluation et les avis à recuellir. Il montre de ce fait que les critères sont une réunion ou une synthèse chaque fois renouvelée de l’ensemble des critères utilisés par les acteurs concernés par le projet. Toutefois, de nombreuses questions n’ont reçu qu’une réponse partielle : comment les critères varient-ils dans le

156 La science apparaît non seulement comme un acquis extérieur, mais aussi en progrès constant. Il est assez

étonnant de voir que la plupart des auteurs considère qu'un savoir faire technique ou scientifique ne peut se perdre, la science ne régresse jamais; au sein de l'entreprise, par contre, il n'est question que de mise à jour des savoir faire périmés ou au contaire de recentrage sur les capacités traditionnelles de la firme. Pourtant les acquis scientifiques non entretenus se dissipent comme en témoignait récemment la NASA qui dit ne plus être capable d'envoyer des vols habités dans l'espace.

temps ? comment suivre leur évolution ? comment les mesurer ? existe-t-il une liste complète de tous les critères à prendre en compte ?

Des critères d'évaluation enferment un projet tout autant qu'ils l'ouvrent en

fournissant des informations. Mesurer un ROI plutôt qu'un VAN, c'est affirmer que la valeur du projet n'est pas

mesurable dans sa dimension temporelle mais c'est aussi l'associer à des impératifs de gestion d'investissement tout en délaissant l'aspect “part de marché du futur produit”. Une liste de critères a donc un double rôle : elle intègre dans un projet des critères qui interviendront au fil de sa réalisation; elle en évacue aussi d’autres, jugés incompatibles ou non pertinents. Ainsi elle définit en quelque sorte l’univers du projet, les valeurs qu’il devra satisfaire, les acteurs qui interviendront dans sa réalisation.

Comme l’univers des projets innovants est changeant et incertain, il ne peut exister de bonne liste a priori des critères à prendre en compte; est seule satisfaisante celle qui s’attache au projet et le façonne tout au long de sa réalisation, celle que se donne l’ensemble des participants au projet, agents157 directs ou conviés par un porte parole : les achats, la qualité, la stratégie, le marché, le client, la technique, la sécurité ou la température moyenne extérieure par exemple.

Si les utilisateurs de listes multicritères tendent à forger eux-mêmes leur liste en

l’adaptant à la statégie de leur entreprise, ce procédé ne touche pourtant que l'"intérieur" de l'entreprise. La liste des critères reflète généralement cette fermeture et consacre la rupture avec l'environnement scientifique en particulier. Ajoutons que la liste doit évoluer dans le temps, puisque les critères doivent suivre la dynamique du projet.

Une liste de critères qui consitue un jugement sur la valeur d’un produit peut être

considérée comme une liste associant des agents à un produit. Reprenons, pour exemple, le début de la liste multicritère BECKER : • Cohérence avec les objectifs et la statégie de l'organisation • Image de marque de l'organisation • Taille du marché potentiel • Capacité de vendre le produit • Acceptation par les consommateurs • Relation avec les marchés actuels • Parts de marché

157 Nous employons préférentiellement dans ce texte le mot “agent” au terme sociologique consacré “acteur”.

En effet, “agent” a l’avantage pour notre propos de ne pas faire de différence entre des acteurs humains et des objets ou acteurs non humains.

• Risque du marché pendant le dévelopement • Tendances des prix • Effet sur les produits existants, … Avec plus ou moins de force ou de controverse, chacun de ces critères associe le

projet avec en premier lieu les objectifs et les stratégies de l'organisation, ensuite l'image de marque de l'organisation, avec un consommateur potentiel tel qu'il est représenté par le marketing avancé, avec un consommateur non potentiel tel qu'il est représenté par le service après vente ou le marketing, avec un certaine somme d'argent, avec le risque ou l'incertitude attachée au portrait du consommateur potentiel…

L’association d’un critère conduit à intégrer au projet des impératifs - plus ou moins forts, qui finalement contribuent à sa construction.

Chaque critère est donc aussi un agent que la liste de critères associe au projet. La mesure du critère revient ensuite à évaluer la force qui lie le projet à l’agent.

Les critères donnent son profil au projet. Selon le degré d'incertitude qui entoure un projet, ces critères ou agents associés

seront plus ou moins stables ou changeants, flous ou mesurables. La seule issue consiste alors à suivre le projet en recueillant la manière dont lui sont associés ces critères.

CANDIDE™ que nous présentons maintenant, a pour principe de fonctionnement le suivi de l'ensemble des éléments qui s'associent à projet, l'ensemble des critères et agents qui lui sont liés.

Les listes successives de critères établies par les acteurs du projet

Nous avons vu plus haut qu’il y avait une correspondance possible entre les agents

associés et les critères de description et d’évaluation d’un projet. Notre démarche va donc consister à recueillir l’ensemble des agents associés au projet, que ce soit au fil de textes, dans des discours, des rapports et comptes rendus ou au cours d’entretiens. Tous les textes réunis et tous les propos retranscrits sur un projet forment le corpus qui le décrit et donc le matériel de base de notre analyse.

Dès lors, notre liste de critères n'est pas déterminée a priori puisqu'elle n'est autre que celle fournie par nos données. Les critères de jugement se construisent simultanément au projet puisqu’ils sont le résultat dynamique des différentes descriptions et spécifications du projet. Nous pouvons donc suivre au plus près tous les changements opérés dans l’univers du projet innovant et tout particulièrement l’ensemble fluctuant des critères selon lesquels il est perçu. En échelonnant nos analyses dans le temps, nous allons pouvoir suivre le déroulement du projet et l'évolution de ses critères de jugement.

Qu'Edison associe sans embages “Prix du Cuivre” et “Loi de Joule” montre combien il peut être difficile de tracer des frontières précises entre ce qui est scientifique et ce qui est économique, et délicat de dessiner un chemin de la science au marché qui passe par les différents stades du développement.

En recueillant sans a priori tous les éléments associés par les acteurs au projet nous évite de filtrer et de circonscrire le projet. Il nous est alors possible de suivre la manière dont notre projet modifie nos “sphères” immuables, dont il rend parfois l'économique technique et la science profitable.

Des niveaux d'indicateurs de suivi : notre capacité à mesurer dépend de l'état

du réseau

CANDIDE™ permet donc, ce qui est un premier avantage, de traquer les critères les plus controversés et les moins mesurables; il fixe lui-même, autre avantage, ses propres limites : quand les critères se stabilisent, quand ils ne sont plus controversés, un appareil des mesures du projet devient possible. En effet, pour gagner en réalité, un projet doit s’associer un nombre toujours plus grand de supporters. Quand un grand nombre de supporters comptent sur le courant alternatif pour l’éclairage public et le prennent en comptent dans leur propre stratégie, l’association devient tellement forte qu’elle renverse Edison lui-même; le réseau se stabilise; l’association devient de plus en plus difficile à défaire; une irréversibilité naît et le projet se solidifie.

Ce n’est que lorsque l’incertitude diminue, que de nouveaux acteurs intéressés par le projet se greffent sur le réseau. Des appareils de mesure peuvent être construits qui permettront de calculer le coût en cuivre, la desserte du réseau électrique… Comme une sauce qui prend, le réseau dans lequel s'inscrit le projet devient stable, il devient possible de construire des indicateurs pour juger du projet, de ses capacités, de son impact, de ses futurs clients, de la formation nécessaire, de la qualité technique ou du retours sur investissement. Ce n’est donc qu’en fin de course que la plupart des critères exigés par les outils traditionnels de gestion de la recherche sont disponibles. Dès que l'environnement du projet est moins incertain que des batteries d’indicateurs existent, nous délèguons le suivi du projet aux outils traditionnels plus perfectionnés, plus habiles à produire des jugements.

CANDIDE™ est quant à lui particulièrement adapté aux situations incertaines, au suivi de projet et à la veille technologique, dans la phase transitoire ou tous les autres outils sont inexistants ou inadaptés.

L'exemple EDF

Nous avons réalisé une étude, toujours en cours avec Novelect, service de l’EDF qui utilise l'analyse de réseaux pour suivre d'année en année l'évolution des applications des nouvelles technologies électriques dans les différentes régions françaises.

Cette étude utilise les textes et les fiches techniques d'opération des rapports annuels de chacun des 21 conseillers technologiques régionaux du réseau Novelect où ils rendent compte de leur activité de promotion de ces technologies.

Ces rapports et fiches techniques sont analysés par les programmes que nous décrivons ci-après. Ces programmes calculent et représentent les réseaux technico-économiques tissés autour de tous les agents apparaissant au fil du texte. Premier avantage, la méthode réduit considérablement le volume des documents à étudier. En effet, de 15 cm de rapports en format A4 on est passé à 40 feuillets A4 pour l'ensemble des régions, soit en moyenne deux pages de réseaux par région.

Nous avons choisi de nous limiter aux seuls documents fournis par les conseillers Novelect, mais il serait tout à fait possible d'étendre les informations de départ aux rapports de l'ANVAR158 par exemple. Les réseaux obtenus n'en seraient que plus fiables et plus complets.

Descriptif du mode de fonctionnement de la machine Première étape, les textes sont tapés directement sur un Macintosh grâce à une

interface de saisie de données ou transférés de n'importe quel programme de traitement de textes dans cette première structure de saisie. Tout type de document textuel peut être traité, qu'il se présente sous forme de base de données ou de texte libre.

Les encadrés ci-dessous figurent les différentes étapes du traitement.

Figure 1 : écran de saisie des données

Deuxième étape, le texte est découpé en unités de sens159 à l’aide d’un simple

“retours charriot” et les pronoms suceptibles de relier ces unités entre elles remplacés quand c'est possible par leur antécédant. C’est à l'intérieur de ces unités que seront ensuite repérés les acteurs déterminants. Quand la saisie se fait directement dans l’interface de saisie des données, le découpage et le remplacement des données se font en même temps que la frappe du texte, comme ce fut le cas dans l’exemple ci-dessus.

158 Agence Nationale pour la VAlorisation de la Recherche 159 Les unités de sens pertinentes le plus souvent retenues sont les phrases.

Troisième étape : indexation assistée par ordinateur des acteurs déterminants, étant entendu que deux acteurs intervenant dans une unité de découpage identique seront considérés comme constituant une association élémentaire. Chaque unité de découpage est alors remplacée par un mini-réseau élémentaire des acteurs qui y sont associés.

Fugure 2 : indexation

Dans le champ en bas à gauche le dictionnaire propose une liste des acteurs

intervenant dans l’extrait de texte. L’indexeur modifie à son gré cette liste, compléte le vocabulaire du dictionnaire, lui désigne des écritures différentes du même agent.

Figure 3 : dictionnaire Tous ces mini-réseaux sont alors “ajoutés” selon un coefficient adéquat (MICHELET,

1988) dit d’“équivalence” de manière à constituer un grand réseau valué de toutes les associations entre les agents.

La dernière étape du processus permet de visualiser les réseaux technico-économiques. Il est impossible de représenter directement sur un écran de Macintosh™ un réseau de 3000 acteurs, dès lors qu'il comporte un nombre important de relations. Le réseau est donc découpé en clustères ou ensembles de points localement plus fortement associés les uns aux autres. Ces clustères sont dotés automatiquement d'un nom qui correspond au point - éventuellement aux points - les plus représentatifs du groupe. La visualisation globale du réseau se fait en remplaçant chacun des précédents clustères par leur nom.

Ce type de visualisation permet de mettre en évidence les pôles attracteurs du réseau et de suivre leur évolution dans le temps.

Figure 4 : clustère

Dans cet exemple, le mot “formation” a été élu pour donner son nom au clustère, car

son profil d’association (i.e. l’ensemble des points auxquels il est directement associé) représente la quasi-totalité des associations du clustère.

Tous les mots reliés par des lignes grasses (relation “formation”-”rayonnement”) appartiennent au clustère “formation”; ce sont les “relations internes”. Les mots d’un même clustère sont tous reliés par des relations internes d’un même niveau de force. Un clustère désigne donc un ensemble de points reliés de manière homogène.

Afin de pouvoir resituer ce clustère dans son environnement global, sont figurés d’autres mots reliés par des lignes plus fines (relation “formation”-“Université du Havre”), les “relations externes”.

Figure 5 : carte des clustères, vision générale du réseau, chaque mot ponctualise un clustère du même nom

Certe carte représente l’ensemble du réseau : on retrouve au centre le clustère

“formation”. Chaque mot ne représente plus un agent comme dans le cas précédent, mais un sous-réseau qu’il ponctualise : le clustère qui porte son nom.

Comparaison avec une expertise classique Dans le cas de l'étude entreprise avec Novelect, l'analyse par les réseaux a été

doublée d'une expertise classique par des énergéticiens ce qui a permis de mettre en évidence les forces et faiblesses de la méthode.

CANDIDE™ permet de tenir compte de tous les facteurs sans se limiter aux seules

technologies Cette double analyse a notamment montré que les experts ôtaient systématiquement

du corpus de départ toutes les informations qui n'avaient pas directement trait à la technique, introduisant ainsi une délimitation précise entre la technique ( du ressort de technologues ) et les facteurs économiques, la situation géographique, le rôle local de l'administration, le tissu d'entreprise, … Tous ces facteurs peuvent pourtant s'avérer déterminants pour le transfert ou le développement d'une technologie.

En moyenne, 50% des clustères restitués par CANDIDE™ ( qui n’opère pas une telle discrimination entre information pertinente ou non ) concernaient exclusivement des acteurs non techniques : l’administration, le système éducatif, le tissu économique…

Figure 6 : la “stérilisation” intervient dans trois situations différentes

Ce clustère indique que la stérilisation intervient dans deux applications, l’une pour la stérilisation des sols avec M. Cadiou et l’autre pour la stérilisation des substrats de

serre. Mais apparaissent également les acteurs non strictement technologiques qui participent au développement du réseau autour d’une technique. Dans ce cas, la stérilisation fait l’objet d’un soutien de l’Etat au travers d’un contrat de Plan et de la création d’un GER.

Analyse des technologies sans grille prédéterminée Par ailleurs, les experts ont tamisé l'ensemble de l'information technique au moyen

d'une liste préétablie des technologies électriques innovantes, ne retenant que les données strictement techniques, soit le nombre de cas d’utilisation de chaque technologie électrique.

Mais si l’on élargit le champ des données considérées, si l’on ne se restreint pas aux seules données techniques, cette grille des technologies éclate. L’utilisation des infrarouges pour le traitement des pâtes laitières dans l’agroalimentaire est-elle comparable à celle des infrarouges pour le séchage des peintures dans l’industrie automobile ? Peut-on agréger ces deux types d’utilisation ? Au contraire, les infrarouges sont presque toujours associés au micro-ondes ou ultraviolets pour des opérations de séchage. Ceci remet alors en cause la grille de technologies, puisque certaines sont susceptibles de fusionner dans des conditions spécifiques.

CANDIDE™ ne considère pas la technique comme un élément autonome, il ne s’appuie pas sur des grilles a priori d'analyse des technologies, mais bien au contraire il les consitue a posteriori d’après les informations qui lui sont fournies. Les groupes technologiques qu'il identifie sont donc largement fluctuants d'une région à l'autre.

Utilisations spécifiques de technologies Dans ce premier exemple, les micro-ondes sont associées à la stérilisation de boues

thermales; dans le second, au séchage de bouchons. Est-il justifié d’agréger ces deux utilisations des micro-ondes ? Rencontrent-elles les mêmes types de clients potentiels ? Les appareils de mise en œuvre ont-ils les mêmes contraintes ?

Il n’y a a priori guère de raison, dans l’état actuel de nos informations, de regrouper ces deux utilisations en une seule catégorie, l’“application des micro-ondes”.

Figure 7 : deux utilisations différentes des micro-ondes Mise en évidence d’agrégats technologiques Dans cet autre exemple illustré par les deux cartes suivantes, les clustères constitués

autour des ultraviolets, mettent en évidence une utilisation particulière des ultraviolets, les tunnels. Il semble même que ces tunnels soient tout particulièrement utilisés pour le séchage des vernis dans le traitement des résines. Le réseau permet de mettre en évidence une utilisation répandue et bien spécifique des ultraviolets.

Figure 8 : dans les tunnels l’utilisation des ultraviolets se double parfois de celle

des infra rouges En revanche, la connaissance technologique des experts leur permet d’évaluer la

qualité du suivi d’une opération L'expertise fait intervenir tout le savoir technologique des experts160 sur le sujet

traité et constitue un supplément considérable d'information que n’apporte pas CANDIDE™. Il peut cependant surmonter partiellement cette limite grâce à une augmentation du volume du corpus traité et une diversification des sources d'information.

Les experts émettent également des jugements sur la pertinence des opérations, sur la qualité du suivi, ou peuvent mettre en cause le volontarisme apparent d’une entreprise. CANDIDE™ ne pratique pas, nous l’avons vu, ce type de jugement de valeur.

Indicateurs de veille technologique, de suivi ou d'évaluation Seules des propriétés intrinsèques du processus d’innovation permettraient de mettre

sur pieds une planification de projet solide. Une telle propriété n’existant pas, il ne nous reste qu'à observer et accumuler les informations décrivant l'évolution du projet.

Les indicateurs d’analyse de nos réseaux ne font pas exception à cette règle et seront par conséquent d’une extrême simplicité : la centralité d'un acteur ou d'un groupe d'acteurs mesure la capacité - toujours réversible - d’un acteur de s’associer un ensemble croissant d'autres acteurs intéressés; la densité d'un groupe d'acteurs témoigne de l'intensité de la structuration interne du groupe, son caractère hautement communicant ou au contraire lacunaire.

160 Des études menées sur le biais des évaluations par les pairs ont notamment montré que l'expertise

renforçait les idées les mieux partagées par une communauté scientifique au détriment d'idées nouvelles (CHAPMAN, 1983 ; COLE, 1981).

Nos indicateurs sont nécessairement “simples” car plus ils se sophistiquent, plus le consensus doit être grand autour de leurs méthodes de mesure, de la pertinence des jugements de valeurs, des objectifs et buts fixés; or, c'est dans les situations d'incertitude qu'il est le plus difficile de créer un consensus consensus.

Figure 9 : réseau général calculé sur l’ensemble des régions françaises

Centralité Le réseau ci-contre rassemble l’ensemble des informations pour toutes les régions de

France traitées. C’est une carte des clustères qui visualise par conséquent le réseau global. Nous cherchons ainsi à mettre en évidence l’existence de pôles de développement communs à l’ensemble des régions traitées. Nous voyons émerger un pôle très central : l’agroalimentaire, qui est associé à un grand nombre de régions françaises. C’est, pour l’année considérée, un secteur d’application particulièrement prisé des nouvelles technologies électriques. Le rayonnement ressort également mais l’éventail des régions concernées est moins important. On notera également la convergence existant entre certaines régions, comme la Bretagne, le Poitou-Charentes ou l'Alsace.

Figure 10 : clustère “dense”

Densité Dans le premier exemple ci-dessus, une ligne d’abbattage de porcs, tous les

intervenants sont étroitement associés les uns aux autres. C’est l’indice d’une grande communication et d’une étroite participation de chacun d’eux, qu’il soit une licence indispensable ( la “licence Aubert”), un slogan mobilisateur ( les “économies d’énergie” ) ou des Sociétés intéressées.

Figure 11 : caractère peu dense ou lacunaire du clustère

Dans ce second exemple qui décrit l’utilisation des infrarouges, ceux-ci apparaissent

comme le seul point commun d’expériences dispersées, sans inter-relations. Il n’y a donc pas de convergence entre les différentes applications en cours.

Les indicateurs que nous utilisons sont donc effectivement très simples : la centralité d’un clustère indique que le thème est partagé ou repris par un grand nombre d’autres

acteurs; la densité dénote une structuration interne du thème mis en évidence par le clustère.

Conclusion L’ensemble des outils examinés peut se diviser en quatre catégories : les outils

économiques qui intègrent presque exclusivement les contraintes économiques; les outils interactifs qui s’adaptent à chaque cas particulier; les outils scientifiques et techniques qui intègrent la recherche dans le processus d’innovation; et enfin les outils d’information qui multiplient les sources d’information pour prendre la meilleure décision dans les situations incertaines.

Aucun des outils existants ne nous a semblé particulièrement adapté à la gestion de la recherche, soit qu’il la confine dans un lieu trop étroit, soit qu’il cherche une règle de décision universelle aussi pragmatique soit-elle161.

Quel que soit le processus innovant que l’on étudie, il existe un moment, au moins au début du projet, pendant lequel il est impossible de dire si l’on a affaire à une “bonne” ou une “mauvaise” innovation.

Même si l’on ne peut maintenir tous les fers au feu, il faut pouvoir au moins maintenir l’information sur ce qui se passe, garder les fers tièdes et décider le plus tard possible de la bonne voie à suivre.

CANDIDE™ nous semble adéquat pour faire ce que les outils traditionnels ne peuvent faire : suivre le précaire, l'incertain et le controversé. Ce n’est pas un outil de plus dans l'immense panoplie de la sélection et de l'évaluation de projet de recherche : il remplit une place vacante dans le suivi de projet ou la veille technologique et il est d’autant plus efficace que l'environnement est instable. Il cède ensuite la main, lorque ses compétences ne sont plus de mise, lorsque la mesure est opérationnelle, lorsque les outils traditionnels peuvent déployer toute leur efficacité et leur économie de temps grâce à l'organisation des flux d'informations et le recueil des données que l'on sait maintenant être pertinentes.

161 : Les limites des outils que nous avons passé en revue sont aussi le reflet des relations entre la science et

l’économie vues par l’économie du changement technique. Michel CALLON et John LAW résument ce dualisme entre science et économie dans La protohistoire d’un laboratoire, § Comment lier la science à l’économie pp 66-73, in (CALLON, 1989a).

Une méthode nouvelle de suivi socio-technique des innovations

Le graphe socio-technique162 Bruno LATOUR, Philippe MAUGUIN et Geneviève TEIL

Comment suivre une innovation alors que, par définition, on ne la dit telle que parce que les méthodes habituelles de suivi, de prévision, de prédiction font défaut? En inventant des méthodes qui soient adaptées à la dérive nécessaire des projets de recherche ou des parcours d’innovation. Depuis une dizaine d’années un ensemble de travaux ont été réalisé que l’on peut regrouper sous le nom global de “description des réseaux socio- techniques”. La critique souvent faite à ces études est de remplacer les concepts, les partitions, les divisions et les outils de l’économie, de l’histoire et de la sociologie, par des réseaux hétérogènes indifférenciés. Pour contrer cette objection, les analystes des réseaux socio-techniques se sont donnés les moyens informatiques et quantitatifs de traiter des masses importantes d’information sur la dynamique des réseaux (CALLON, 1986b, 1989c). La forme, la déformation, la transformation des réseaux, permet de redifférencier les données empiriques sur les réseaux et de formuler des hypothèses précises sur les entités désignées par les mots “Etat”, “marché”, “science”, “firme”, “politique”, “stratégie”, etc. C’est sur ces travaux, et en particulier sur les cartes stratégiques de la recherche offertes par les méthodes Leximappes™ pour le traitement de base de données et CANDIDE™ pour le traitement des textes plains, que nous nous appuyons. Pour résumer ces méthodes on peut dire qu’elles sont “quali-quantitatives”; elles tiennent, en effet, le milieu entre les aggrégats statistiques des méthodes quantitatives usuelles en économie et en sociologie, et la narration des études de cas habituelles à l’anthropologie, l’histoire et l’étude de terrain. La méthode que nous proposons ici voudrait améliorer la lisibilité d’une part et la mise en discours des analyses de réseaux. Son avantage principal est qu’elle n’est pas dépendante des sources et qu’elle peut construire d’une façon réglée des graphiques précis dotés de sens soit à partir d’un récit d’historien ou d’anthropologue,

162Depuis plusieurs années que nous travaillons sur ces principes de cartographie nous avons bénéficié des

remarques -et de l’incrédulité- de nombreuses personnes. Nous remercions particulièrement Michel Callon, Jean-Pierre Courtial, Madeleine Akrich, Vololona Rabeharisoa pour leur aide. L’environnement informatique ici proposé est un complément au travail de Genevière Teil et de son système CANDIDE™ dont il suppose l’existence. Cette recherche a été réalisée en partie grâce à une subvention du Ministère de la Recherche et de la Technologie, commune à la section Innovation de Rhône-Poulenc et au CSI. Nous remercions Georges Rivier de Rhône-Poulenc de son aide.

soit à partir d’un traitement Leximappe™, Lexinet™ ou CANDIDE™ préalable163. Elle permet donc de résoudre deux des plus irritants problèmes du suivi des innovations, qu’il s’agisse d’histoire des techniques ou de prospective, à savoir l’impossibilité de comparer des études de cas différentes et l’impossibilité d’obtenir des formes de quantification adaptées au caractère local, contingent, circonstanciel des réseaux. Tant que des méthodes réglées de cartographie ne seront pas en place on pourra toujours reprocher aux études de cas leur caractère parcellaire. Notre ambition, au contraire, est de pouvoir comparer, par cette méthode nouvelle et d’autres en cours d’élaboration, des études venant de l’histoire des sciences ou des techniques, de la sociologie, de la prospective ou de l’économie. Dans une première partie nous donnerons à partir d’un exemple très simple les principes de cette cartographie; puis, dans une deuxième, nous justifierons la forme géométrique donnée à ces cartes; dans une troisième partie nous appliquerons la méthode à un cas réel plus complexe, celui d’Eastman; dans une quatrième partie nous montrerons comment elle permet de résoudre certaines limites des études habituelles sur l’innovation; enfin, dans une cinquième partie nous discuterons en détail les différentes informations sur les réseaux socio-techniques qui doivent être croisées dans un tel système de visualisation. 1°) D’une narration à son enregistrement socio-technique Soit une innovation minuscule, celle qui consiste à ajouter aux clefs des hôtels un énorme poids qui a pour fonction de rappeler aux clients qu'il doivent rapporter la clef à la réception au lieu de l'emporter Dieu sait où. L'énoncé à l'impératif “rapportez vos clefs à la réception SVP” écrit sur un panonceau ne semble pas suffisant pour imposer aux clients un comportement conforme aux souhaits du locuteur. Les clients, volages, semblent avoir d'autres soucis. Les clefs se perdent dans la nature. Mais si l'innovateur, appelé à la rescousse, déplace l'énoncé pour le remplacer par une grosse pomme de fonte, l'hôtelier n'a plus à compter sur le sens moral ou sur la discipline de ses clients car ceux-ci ne pensent plus qu'à se débarasser de cette masse qui gonfle les poches de leur veste ou alourdit leur sac à main et ils viennent d'eux-mêmes à la réception pour s'en délivrer. Ce que le panonceau, l'énoncé, l'impératif, la discipline ou la morale ne pouvaient imposer, l'hôtelier, l'innovateur et la pomme de fonte le réalisent. Pourtant, ce conformisme a son prix: il a fallu que l'hôtelier fasse alliance avec un innovateur et que l'innovateur fasse alliance avec divers poids et procédés de fabrication. Cette innovation mineure illustre bien le principe fondamental de toutes les études sur les sciences et les techniques: la force164 avec laquelle un locuteur envoie un énoncé n'est

163 Nous renvoyons pour l’analyse de ces méthodes à TEIL, 1989 ; TEIL, AKRICH, MICHELET, LATOUR

(soumis pour publication). 164 Le mot force est emprunté à AUSTIN mais ne suppose encore aucune distinction entre force locutoire,

illocutoire ou perlocutoire.

jamais suffisante, au début, pour prédire le parcours de cet énoncé, puisque ce parcours dépend de ce que les allocutaires successifs vont en faire. Si l'allocutaire -ici le client de l'hôtel- oublie l'ordre inscrit sur le panonceau ou s'il ignore le français, l'énoncé se trouve réduit à de la peinture sur du carton; si le client scrupuleux obéit à l'ordre il accomplit l'impératif et lui ajoute de la réalité. La force de l'énoncé dépend donc en partie de ce qui est inscrit sur le panneau et en partie de ce que chacun des allocutaires fait de l'inscription. Mille clients différents feront exécuter au même ordre mille parcours distincts. Pour rendre prévisible le parcours il faut soit rendre les clients tous semblables -qu'ils sachent tous lire le français et qu'ils sachent tous qu'aller à l'hôtel suppose que l'on ait une chambre fermée dont il faut rendre la clef en sortant- soit charger l'énoncé de telle sorte qu'il impose aux différents clients le même comportement, quelle que soient leur langue et leur habitude des hôtels. L'impératif de la grammaire française est une première charge -“rapportez vos clefs”-; l'inscription sur le panonceau en est une seconde; la formule de politesse “SVP” ajoutée à l'impératif pour essayer de se concilier les bonnes grâces du lecteur en est une troisième; le poids de la fonte en est une quatrième. Le nombre de charges qu'il faut attacher à l'énoncé dépend à la fois de la résistance, de l'insouciance, de la sauvagerie, de la mauvaise humeur des clients, de la volonté de l'hôtelier pour les contrôler et, enfin, des astuces de l'innovateur. Les programmes du locuteur se compliquent en réponse aux anti-programmes de l'allocutaire. Si un client mal luné peut briser l'anneau qui attache la clef légère et le poids -ce qui compose pour l'hôtelier un anti-programme-, il faut que l'innovateur ajoute un anneau soudé qui rende impossible cette rupture -il s'agit alors d'un anti-anti-programme. Si un hôtelier paranoïaque veut éviter toute perte de clef, il peut par exemple ajouter à chaque porte un garde qui fouille toutes les poches et tous les sacs -mais aura-t-il encore des clients? C'est seulement lorsque la plupart des anti-programmes seront contrés que le parcours de l'énoncé deviendra prévisible. L'ordre sera obéi par les clients -à quelques clefs perdues près que l'hôtelier acceptera de passer par pertes et profits. Mais l'ordre qui est obéi n'est plus le même ordre que celui du départ. Il a été traduit et non transmis. En le suivant, nous ne suivons pas une phrase à travers son contexte d'application, nous ne passons pas de la linguistique à la pragmatique. Le programme “rapporter les clefs à la réception” qui est maintenant exécuté scrupuleusement par la plupart des clients n'est plus celui dont nous étions partis. En le transportant, on l’a transformé. Les clients ne rapportent plus la clef de leur chambre; ils se défont d'un truc encombrant qui déforme leur poche. S'ils obéissent aux désirs de l'hôtelier ce n'est pas qu'ils aient lu le panonceau ou qu'ils soient particulièrement bien élevés. Ils ne peuvent plus faire autrement. Ils n'y pensent même pas. Ce n'est plus le même énoncé, ce ne sont plus les mêmes clients, ce n'est plus la même clef, et ce n'est plus tout à fait le même hôtel165.

165 Pour la description c’est à dire la paraphrase verbale des dispositifs techniques voir : (AKRICH, 1988,

1990a), (AKRICH et LATOUR, 1990b) ainsi que (LATOUR, 1988).

Ce petit exemple illustre le “premier principe” de toute étude des innovations: le sort d’un énoncé est dans la main des autres166 et toute méthode de suivi d’une innovation n’a pas d’autre but que de reconstituer à la fois la succession des mains qui trans-portent l’énoncé et la succession des trans-formations qu’il subit. Impossible d’avoir l’un sans l’autre. Le mot énoncé lui-même doit être précisé pour tenir compte de ces transformations successives. Nous entendons par énoncé conformément à l’étymologie tout ce qui est lancé, envoyé, délégué, par l’énonciateur167. Le sens du mot peut donc varier au cours du parcours en fonction du “chargement” opéré par l’énonciateur; il peut donc désigner tantôt un mot, tantôt, une phrase, tantôt un objet, tantôt un dispositif, tantôt une institution. Dans notre exemple l’énoncé peut renvoyer à une phrase prononcée par l’hôtelier, mais aussi à un dispositif matériel complexe qui force les clients à rapporter leurs clefs. Le mot énoncé renvoie donc non pas à la linguistique mais au gradient qui va des mots aux choses et des choses aux mots168. Même avec un exemple aussi simple nous comprenons déjà que dans les études sur les sciences et les techniques nous n'avons jamais à suivre un énoncé donné à travers un contexte. Nous avons à suivre la production simultanée d'un “texte” et d'un “contexte”. Autrement dit, la distinction entre la société d'un côté et les contenus scientifiques ou techniques de l'autre est une division arbitraire. La seule division qui ne soit pas arbitraire c'est la succession des distinctions successives entre des énoncés “nus” et des énoncés chargés. Ce sont ces distinctions et ces successions et elles seules qui composent notre monde -ce sont elles qu'il nous faut apprendre à documenter et à enregistrer et elles seules. Essayons maintenant de proposer une cartographie de notre petit exemple. Nous voulons être capables de suivre, d'une part, l'enchaînement des locuteurs et de leurs énoncés, et, d'autre part, la transformation des locuteurs et de leurs énoncés. Nous définirons deux dimensions, l'association (qui ressemble au syntagme des linguistes) et la substitution (le paradigme) ou plus simplement encore la dimension ET -qui jouera le rôle de la latitude- et la dimension OU - qui sera notre longitude. Toute innovation est répérable d'une part grâce à sa situation le long des dimensions ET et OU et, d'autre part, grâce à son historique, c'est à dire à l'enregistrement des positions ET et OU qui l'ont successivement définie. Si nous remplaçons les acteurs différents par des lettres différentes nous pouvons toujours tracer un parcours d’innovation par une forme du type: A ABC BCDEFG

166 Sur ce premier principe et son importance pour étudier la science et la technique, voir (LATOUR, 1987). 167 Le sens est différent de celui des linguistes ou des pragmaticiens -voir les travaux de Récanati, Ducrot,

Kerbrat en France. 168 Sur ce gradient et cette continuité voir (LATOUR, 1990).

BCDEFGH FG G dans lequel la dimension verticale correspond à l’exploration des substitutions et la dimension horizontale à l’attachement d’un nombre plus ou moins grand et plus ou moins durable d’acteurs. Pour constuire notre diagramme nous choisirons comme origine le point de vue de l'hôtelier -c'est lui le locuteur ou l'énonciateur c'est à dire étymologiquement celui qui envoie l'énoncé-; appelons programme d'action ce que l'hôtelier souhaite voir accomplir aux clients -les allocutaires; nous numérotons par des chiffres entre parenthèses les versions successives du programme d'action -sans changer de point de vue. Convenons de placer toujours à gauche les programmes et toujours à droite les anti-programmes -relativement au point de vue choisi.

Figure 1,1

Légende: L’hôtelier ajoute successivement des clefs, des avis par oraux, des avis par écrit, et enfin des poids de fonte; à chaque fois il modifie l’attitude d’une partie du groupe “clients d’hôtel”. Dans la version (4) l'hôtelier et presque tous ses clients sont d'accord alors que dans la version (1) l'hôtelier est tout seul à souhaiter le retour de ses clefs volages. Le syntagme ou l'association ou la dimension ET -du point de vue bien sûr de l'hôtelier- se sont durablement étendus: les hôteliers et leurs clients s'entendent. Mais cette extension vers la droite a un prix. Il a fallu descendre le long de la dimension OU en enrichissant le programme d'action

par une série de subtiles traductions: aux souhaits se sont ajoutés des propos à l'impératif, puis des panonceaux écrits, puis des poids de fonte. Les clients ont été grignotés peu à peu -ils ont abandonné l'anti-programme pour se “rendre” au programme- mais les finances, l'énergie, l'intelligence de l'hôtelier ont été grignotées peu à peu! Au début le souhait était nu, à la fin -fin toujours provisoire puisque d'autres anti-programmes peuvent toujours se manifester- il est habillé ou chargé. Au début il était irréel; à la fin il a gagné en réalité. Un tel diagramme ne retrace pas le déplacement d'un énoncé -immuable- à travers un contexte d'usage ou d'application; il ne retrace pas non plus le déplacement d'un objet technique -ici la clef lestée de plomb- à travers un contexte d'usage ou d'application. Il retrace un mouvement qui n'est ni linguistique, ni social, ni technique, ni pragmatique. Il garde trace des modifications successives des clients, des clefs, des hôtels et des hôteliers en enregistrant comment un déplacement dans les associations (syntagmatique) est “payé par” un déplacement dans les substitutions (paradigmatiques). Ce qui est impossible dans un tel diagramme c'est d'aller vers la droite sans aller vers le bas -par convention il est impossible de remonter dans la dimension OU qui enregistre simplement les versions successives d'un programme. Enlevons maintenant les figures de l’hôtelier et de ses clients ainsi que les signes concrets des objets qu’ils mobilisent dans leur controverses. Donnons provisoirement à chaque acteur une case et un nom. Les degrés d'attachement d'un actant à un programme d'action varient de version en version. Les mots ‘actants’ et ‘degrés d'attachement’ sont symétriques, c'est à dire qu'ils s'appliquent indifféremment aux humains et aux non-humains; la clef est fortement attachée au poids par un anneau de même que l'hôtelier est très attaché à ses clefs. Peu importe ici que le premier lien soit dit ‘physique’ et l'autre ‘affectif’ ou ‘financier’ puisque le problème est justement pour l'hôtelier d'attacher durablement les clefs au tableau de la réception quand les clients sont sortis, en attachant les clients à la réception de façon plus durable et solide, que les clefs à la poche ou au sac à main de ses clients ! Convenons également de numéroter par des chiffres sans parenthèses les segments des programmes d'action. Convenons enfin de tracer par un trait en gras la ligne de partage entre les programmes et les anti-programmes -ce qui correspond donc au front de la minuscule controverse que nous suivons ici.

Figure 1, 2

Légende: aux actants on ajoute ici les degrés d’attachement marqués par les signes ++, +, -, --, ≠ (pour indifférent) et ? (pour ne sait pas) 169 Nous nous apercevons que le groupe social des clients de l'hôtel se trouve peu à peu transformé; l'accumulation des éléments -la volonté de l'hôtelier, la dureté de ses propos, la multiplicité de ses panneaux, le poids de ses clefs- tout cela finit par lasser la patience de certains clients qui acceptent de conspirer avec l'hôtelier et à rendre fidèlement leur clef. Le groupe de clients (noté ‘Client IV-’) qui n'est pas enrôlé par la version (4) est constitué, d'après l'hôtelier, d'irréductibles mauvais coucheurs ou de savants Cosinus particulièrement distraits. Mais cette transformation progressive n’est pas vraie que du groupe social “clients d’hôtel”, elle s’applique aussi aux clefs. Voilà que les clefs indifférentes et indifférenciées deviennent “clefs d’hôtel”, objet très spécifiques qu’il faut maintenant distinguer et isoler aussi soigneusement que les “clients mauvais coucheurs” ou “distraits”. C’est là tout l’intérêt de suivre les innovations. Elles nous montrent que l’on ne travaille jamais dans un monde remplis d’acteurs à contours fixes. Non seulement leur degré d’attachement à un énoncé varie, mais leur compétence, leur définition peut être également transformée. Ces transformations d’acteurs sont d’une importance capitale pour le suivi des innovations puisqu’elles révèlent que l’acteur unifié —ici le client-d’hôtel-qui-oublie-ses-clefs— est lui-même une association dont les éléments peuvent être redistribués. C’est l’ouverture et la fermeture de ces boîtes noires qui ont rendu jusqu’ici le suivi d’innovations tellement délicat.

169 Le caractère rudimentaire de ces notations est sans importance puisque, dans l'implémentation

informatique des cartes, il est toujours possible de cliquer sur la case correspondante pour avoir les détails et les documents correspondant aux abbréviations. La force de l'association est obtenue soit par les documents, soit, lorsqu'il s'agit de masses importantes de documents, par un traitement de type Leximappe™, CANDIDE™ ou Machine de Hume. Toutes les cartes qui suivent prennent pour acquise qu’une méthode informatique ou narrative quelconque leur fournit le nom des acteurs et leur degré d’attachements.

(1)(2)(3)(4)

OU

ET1 2 3 4 5

Hôtelier ++ Clients Clefs ≠≠-Hôtelier ++Hôtelier ++Hôtelier ++

Impératif +Panneaux +

Poids ++Impératif +Impératif + Panneaux +

Clients I + Clefs ≠Clients III +≠ Clefs ≠

Clefs ++ Clients I, IIIII +

6

Clients II -≠

Clients I , II +Clients IV-

Notons que dans le cas de figure présenté ici le succès de l'innovation -c'est à dire l'extension vers la droite et d'après le point de vue de l'hôtelier- n'est rendu possible que par le maintien de tous les moyens essayés successivement. C'est seulement parce que l'hôtelier continue de vouloir ses clefs, de rappeler les consignes à haute voix, de rédiger des panneaux et de lester ses clefs, qu'il obtient en fin de compte un peu de discipline. C’est cette accumulation qui donne l’impression dans la figure 1,2, que nous gagnons en réalité. Mais un autre cas de figure est possible:

Figure 1,3

Légende: on assiste ici à la déréalisation de l’association malgré la mobilsiation des poids de fonte pour attacher les clefs L'hôtelier demande bien à ses clients de rapporter leurs clefs, mais lorsqu'il se met à rédiger des panneaux il pense que cela suffit et qu'il n'a plus rien à dire; du coup, ses clients sont toujours aussi nombreux à ne pas suivre soit les consignes orales soit les consignes écrites. Devenu techniciste dans l'âme, notre brave homme délègue alors tout à l'objet et leste ses clefs de fonte sans plus mettre aucun panneau ni rappeler aucune consigne. Quelques clients de plus conspirent avec ses désirs, mais bientôt c'est lui qui, dégoûté, abandonne son programme. Que reste-t-il à la version (5)? Des clefs et des poids fortement attachés par un bel anneau, et des clients qui emportent l'ensemble clefs-poids n'importe où. Quant à l'hôtelier nul ne sait plus ce qu'il veut. L'énoncé (5) est moins réel, c'est à dire qu'il associe moins d'éléments du point de vue du locuteur de départ, que le (4). Mais pour nous qui souhaitons observer l'innovation la seule réalité intéressante est la forme de la ligne de front -en gras-. Alors que toutes les études sur l'innovation sont dominées par l'asymétrie entre ce qui est réalisable et ce qui ne l'est pas, réel ou rêvé, réaliste ou utopique, notre cartographie ne reconnaît que des variétés de réalisation et de déréalisation progressive. C'est cette courbe en effet qui enregistre les compatibilités et les incompatibilités des humains et des non-humains, c'est à dire la socio-logique des mondes dans lesquels nous vivons.

(1)(2)(3)(4)

OU

ET1 2 3 4 5

Hôtelier ++ Clients Clefs ≠≠-Hôtelier ++Hôtelier ++Hôtelier ++

Impératif +

Panneaux +

Poids ++

Clients I + Clefs ≠

Clefs ≠

Clefs ++

6

Clients I , II +Poids ++ Clefs ++

Clients I +

Clients≠-

Clients III ≠-

Clients II ≠-

(5)

On voit la philosophie empirique qui inspire une telle visualisation. Au lieu d’imposer des hypothèses fortes aux associations interdites ou permises aux acteurs, nous laissons les réseaux déployer leurs associations aussi particulières, aussi contingentes, aussi régulières que les acteurs le voudront. Ce n’est pas que nous croyions à un enregistrement passif du parcours et de la volonté des acteurs mais nous avons simplement fait glisser le point d’application de la force des hypothèses. Nous faisons peser maintenant toute la force sur la construction du cadre vide où les données doivent être recueillies. De même qu’un cartographe fera des hypothèses fortes sur le calcul de la longitude, la projection de Mercator, la définition des angles, mais aucune sur le tracé des côtes que lui rapportent les navigateurs, de même nous ne faisons aucune hypothèse sur la forme d’un réseau particulier, mais beaucoup d’hypothèses sur l’espace intellectuel et graphique qui permet de les enregistrer. Cette stratégie est exactement l’inverse de beaucoup de sciences humaines s’appliquant à l’étude de l’innovation: elles imposent aux données des formes normatives très contraignantes sur ce que devraient faire les ingénieurs, les industriels et les savants, mais sont du plus grand laxisme dès qu’il s’agit de faire la théorie de l’innovation. 2°) Le graphe socio-technique et ses indicateurs Une cartographie ne se justifie que si elle permet d’utiliser la distribution géométrique des points sur le papier de telle sorte que chaque point veuille dire quelque chose. C’est ce qui différencie les diagrammes ou les schémas, dont la lecture est toujours subjective, des cartes lesquelles, une fois connues les conventions de lecture, établissent des relations stables entre la forme graphique et le sens. Un coup d’oeil à la littérature sur les innovations révèle une extrème multiplicité de dessins et de desseins. En dehors des diagrammes quantitatifs qui lient ensemble deux variables quantitatives ou plus mais qui disent très peu de choses sur les contingences particulières d’une innovation, sur le réseau spécifique et circonstanciel qui seul nous intéresse, aucun des graphiques ne plonge l’innovation dans un espace géométriquement cohérent. Pourtant cette cohérence est facile à obtenir si nous poussons jusqu’au bout le traitement des deux dimensions ET et OU que nous venons de définir. a) le graphe socio-technique La table des acteurs, de leurs associations (ET) et de leur substitutions (OU) peut être en effet utilisée, à un degré supérieur de simplification et d’aggrégation, pour donner des informations encore plus synthétiques et plus chiffrées sur le parcours d’une innovation. Remplaçons le nom des acteurs par des lettres de l’alphabet; éliminons, pour simplifier, les acteurs qui font partie des anti-programmes. Le diagramme de base devient de la forme:

Figure 2,1

Légende: Diagramme “ET-OU” sur un exemple fictif

Sur un tel diagramme il est maintenant possible de calculer un certain nombre d’indicateurs qui sont autant de signatures particulières d’un parcours d’énoncé. Quels sont les indicateurs les plus intéressants pour le suivi d’une innovation? Le premier est évidemment l’indicateur T pour Taille qui donne pour chaque version successive le nombre d’éléments associés; le deuxième indicateur est celui qui compare le nombre d’éléments qui sont maintenus d’une version à la suivante; nous appellerons cet indicateur A pour Alliés; les acteurs nouveaux recrutés lors du passage d’une version à l’autre seront appelés N pour Nouveaux acteurs. Pour chaque version -noté petit n- nous aurons donc :

T(n)=A(n)+N(n). Notons que l’”ancienneté” et la “nouveauté” des acteurs sont pour l’instant uniquement relatives aux transformations de version à version -de ce fait un acteur “perdu” qui se trouverait à nouveau recruté compte comme un nouvel acteur. Grâce à ces premiers indicateurs nous pouvons définir un Indice de Negociation IN :

IN(n)=N(n)/T(n)

Plus cet indice est petit moins l’innovateur doit négocier son projet pour le maintenir en existence. Inversement, une valeur élevée de cet indice signifie que le projet est en grande partie renégocié. Dans le cas fictif que nous avons choisi nous obtenons les chiffres suivants :

Figure 2,2

Légende: calcul sur l’exemple fictif de l’indicateur de négociation IN

Si nous dessinons maintenant le graphe des trois premiers indicateurs nous obtenons une courbe qui est spécifique à l’innovation étudiée:

Figure 2,3

Légende: Taille, Alliés, Nouveaux et Indice de négociation de l’exemple fictif ci-dessus

En utilisant maintenant l’indice IN de négociation et l’indice T de taille ou d’association, nous pouvons maintenant dresser la carte complète du parcours d’une innovation, carte que nous appellerons le graphe socio-technique d’une innovation et nous réserverons cette expression pour cette forme de visualisation:

Figure 2,4

Légende: Principe d’écriture du graphe socio-technique d’une innovation

L’avantage d’une telle représentation est d’être à la fois géométriquement cohérente, tout en restant très proche de graphismes plus subjectifs et plus intuitifs tels que ceux que l’on a pu développé pour le suivi des controverses scientifiques 170. Mais l’avantage principal d’une telle réduction c’est d’offrir un sommaire aux documents rassemblés dans une étude, sommaire qui permet de comparer des cas d’origine complètement différents. Le graphe socio-technique est à la fois un survol de l’innovation, une caractérisation chiffrée de ses succès et de ses échecs, et une plaque tournante permettant ensuite de naviguer à travers les statistiques, les archives, les entretiens, les plans, les récits etc. b) autres tests et autres indicateurs permettant de comparer des innovations différentes En plus du graphe socio-technique, il est possible, en allant plus loin dans la définition des indicateurs, de caractériser de façon synthétique des parcours d’innovation. Jusqu’ici nous n’avons fait que comparer une par une les versions. Toutefois il est clair que des acteurs nouveaux peuvent être mobilisés par une version (n) qui l’ont été déjà lors de versions antérieures. Le cumul sur une période donnée des nouveaux acteurs pris de version en version peut donc être différent de l’ensemble des acteurs qui ont associés au projet pendant cette même période. Nous distinguons donc les Acteurs Nouveaux Cumulés, ANC, et

170 Voir les suivis de modalisation dans (LATOUR, 1987, 1988).

l’exploration E du projet. ANC signale la variabilité du degré d’attachement des acteurs, alors que E indique la dimension de la population d’acteurs mobilisés par le projet. Dans les exemples choisis on obtient E en considérant le rang des lettres dans l’ordre alphabétique. E est un indicateur synthétique qui permet de distinguer les innovations qui explorent un grand nombre d’acteurs nouveaux, de celles qui recombinent dans des configurations variées un petit nombre d’alliés potentiels. Soit pour l’exemple choisi:

Figure 2, 5

Légende: Acteurs Nouveaux Cumulés et Exploration du projet

Figure 2, 6

Légende Différence entre le cumul des acteurs nouveaux (ANC) et l’exploration (E)

Certains projets sont fortement attracteurs, tous les nouveaux acteurs qui ont un jour participé au projet dans une version (n) se sont retrouvés associés dans la version suivante (n+1). Ces acteurs constituent les nouveaux acteurs agrégés; ce sont ceux qui passent de la catégorie N(n) à la catégorie A(n+1). A l’inverse, certains de ces nouveaux acteurs ont disparu dans la version (n-1), ce sont les nouveaux acteurs perdus. Pour prendre la mesure de notre innovation, nous calculons son Indice de Rendement. Cet indice est calculé en divisant [(le nombre cumulé de nouveaux acteurs agrégés) - (le nombre cumulé des nouveaux acteurs perdus)] par l’exploration du monde. Nous obtenons ainsi un indicateur qui mesure la capacité du projet à s’attacher la plupart des nouveaux acteurs qu’il mobilise ou au contraire à visiter un grand nombre de nouveaux acteurs sans jamais se fixer.

IR(n)= (∑ NAA)-(∑ NAP)/E (n)

avec NAA = nouveaux acteurs agrégés et NAP = nouveaux acteurs perdus Cet indice est compris entre “1” et “-1” et ses variations seront caractérisées plus bas par deux cas extrêmes. Un dernier indice synthétique est obtenu en divisant le nombre d’éléments associés A qui demeurent stables à une version (n) par la taille T de la version précédente (n-1). Cet indice que nous appelons S définit la “solidité” du projet, sa “résistance” nécessaire pour passer d’une version à l’autre sans remettre en cause les acquis précédents :

IS(n) = A(n)/T(n-1)

Tous ses indicateurs permettent de comparer des trajectoires dont l’ampleur et le contenu sont complètement dissemblables. Pour trois indicateurs de négociation, IN, de solidité, IS et de rendement, IR, nous obtenons les profils suivants:

Figure 2,7

Légende: Indices de Négociation (IN), de Solidité (IS) et de Rendement(IR) pour l’exemple fictif.

Prenons maintenant deux exemples extrèmes afin de voir comment les différents indicateurs permettent de calibrer une innovation. Soit le cas suivant: T A ANC

(1) 2 - 2 A B

(2) 3 2 3 A B C

(3) 4 3 4 A B C D

(4) 5 4 5 A B C D E

(5) 6 5 6 A B C D E F

(6) 7 6 7 A B C D E F G

(7) 8 7 8 A B C D E F G H

(8) 9 8 9 A B C D E F G H I

Dans ce tableau, à chaque fois qu’un acteur nouveau est recruté il demeure fidèlement à l’intérieur du syntagme et n’exige la disparition ou le renvoi d’aucun autre. Pour ces valeurs nous obtiendrons donc les signatures suivantes:

Figure 2,8

Légende: Cas extrême 1, Indices de Solidité, de Rendement et de Négociation

Nous obtenons avec un tel diagramme la claire signature d’un point de passage obligé: tout acteur passant dans le voisinage de l’innovation se trouve recruté. Ce cas extrême nous permet de comprendre comment synthétiser l’irréversibilité ou la mise en boîte noire d’un syntagme. La stabilité de l’association A-G par exemple est telle qu’il est possible dorénavant de la considérer comme un seul élément dont le nom sera, par exemple, A, devenu alors un macro-terme. Mais pour rappeler qu’il s’agit d’une boîte noire, c’est à dire d’un ensemble d’acteurs qui ont été des médiateurs indépendants avant de devenir des intermédiaires fidèles à l’intérieur d’un syntagme, nous noterons l’acteur en gras en indiquant en exposant le “nombre” d’acteurs qu’il représente et en indice le numéro de code de la carte qui contient sa construction -ou sa déconstruction- ce qui donne par exemple sur ce cas fictif A7xx. Cette information est capitale puisque toute renégociation

d’un énoncé passe par la réouverture ou la redistribution des boîtes noires qui forment pour ainsi dire la réserve de toutes les innovations.171

Carte XX

T A ANC (1) 2 0 2 A B

(2) 3 2 3 A B C

(3) 4 3 4 A B C D

(4) 5 4 5 A B C D E

(5) 6 5 6 A B C D E F

(6) 7 6 7 A B C D E F G

(7) 8 7 8 A B C D E F G H

(8) 9 8 9 A B C D E F G H I

Carte X1

ET OU ANC (1) 9 0 9 A7xx P Q Prenons maintenant l’autre extrème dans lequel le même acteur renégocie chaque version successive sans jamais pouvoir durablement recruter aucun allié et encore moins constituer une boîte noire:

(1) A B C D

(2) A E F G

(3) A H I J

(4) A K L M

(5) A N O P

(6) A Q R S

(7) A T U V

(8) A W X Y

171 La désignation du nom de l’acteur qui résume une boîte noire et du nombre d’acteurs qui lui est associé

est maintenant obtenue automatiquement par l’analyse Leximappe des clustères. La différence entre un médiateur et un intermédiaire est également définie automatiquement en regardant le profil d’association -de fidélité- d’un acteur. Voir (TEIL, 1989 ; MICHELET, 1988).

Figure 2,8

Légende: Cas extrême 2, Indices de Solidité, de Rendement et de Négociation

Dans ce cas nous avons un IR très faible qui nous indique en un seul chiffre que nous avons affaire à une exploration importante de l’univers socio-technique pour un rendement final très faible.

Comparaison entre les Indices de Rendement des deux cas extrêmes 1 et 2

On remarquera que cette signature d’un point de passage “complètement facultatif” donne deux courbes qui sont superposables à l’exemple précédent mais inverses puisqu’ils échangent leurs positions. On comprend que les innovations réelles que nous allons maintenant cartographier se répartiront entre ces deux extrêmes et seront caractérisées de façon synthétiques à la fois par leur graphe socio-technique et par leurs indicateurs. 172 3°) Application sur un cas réel, le Kodak d’Eastman Maintenant que nous avons défini sur des exemples simples ou fictifs les principes de notre cartographie, il convient de l’essayer sur des exemples plus riches et plus réalistes. Nous allons le faire progressivement en éclaircissant quelques unes des difficultés philosophiques qui ont jusqu’ici limité les études sur l’innovation scientifique ou technique. En effet, ces difficultés étaient liées pour une large part à l’impossibilité où nous étions de visualiser ces parcours de projet. Soit le récit que fait Jenkins de l’invention simultanée du boîtier Kodak et du marché de masse pour la photographie amateur.173 Abrégeons ce récit en distinguant à chaque fois les programmes et les anti-programmes et en enregistrant successivement tous les acteurs nouveaux, humains ou non-humains, singuliers ou collectifs.

172 Dans l’implémentation Hypercard™ en cours il est possible de rester toujours prêt des données de base en

cliquant sur le nom de l’acteur correspondant. C’est la possibilité de disposer des hypertextes qui permet de résoudre des problèmes de cartographie insolubles avant eux puisque l’hypertexte permet à la fois d’agréger et de désagréger les données. On peut considérer un graphe socio-technique comme la carte “home” d’un Hypercard™ ou comme le tableau central de dispatching d’un centre de contrôle.

173 Nous partons évidemment de ce texte (JENKINS, 1983) sans nous demander s’il est lui-même soutenu par des archives et des documents.

Script abrégé d’un parcours socio-technique 174 (1) professionnel-amateur (A) /daguerréotype (B) (2) professionel amateur (A) / collodion humide (C) 1850/fabrication papier (D)-//- tout faire soi même au moment même (3) professionnel amateur (A) /fabrication papier (D) /plaques sèches collodion faites d’avance (E) 1860-1870 -//- (4) professionnel amateur/fabrication papier/plaques sèches gélatine plus sensibles1870-1880 /compagnies fabricants plaques d’avance-//- (5) professionel amateur/fabrication papier/plaques sèches gélatine /compagnies fabricants plaques d’avance/machine de couchage en continu des plaques/ Eastman-//- (6) (5)/capitaux Strong /EASTMAN DRY PLATE C° 1881-1883 -//-prix d’entrée bas/concurrences faciles (7)(6) Consortium des fabricants de plaques -//- marché toujours réduit/plaques fragiles (8) film Walker souple- /Walker’s Pocket Camera 1884-//- (9) pellicule en rouleau et non plus en plaques/ appareil utilisant les films-//- aucun appareil n’existe sur le marché en dehors des lours boîtiers à plaques (10) appareil utilisant les films/ propotype en 1870 de Warnerke en Angleterre bobine non brevetée/ porte bobine/ deux rouleaux papier enduit de collodion-//- trop cher/déchargement difficile/repères incertains/déformation entrainant photo floue floue/peu fiable/ toujours pour professionnel (11) Eastman/walker/compagnie réputée/réseau commercial/porte bobine/pellicule souple rouleaux/machine à fabriquer en continu-//- (12) (11) 1884 gélatine couches plus collodion -//-fragiles (13) (12) papier /collodion-//- fragiles (14) (13) papier/gélatine-//-fragiles (15) (14) papier/gélatine soluble/ gélatine photosensible moins soluble “film pelliculable”-//-déformation (16) (15)/ gélatine au dos pour éviter déformation/ épaisse couche de gélatine-//- (17) (16)/chassis porte bobines/ressort contre déformation/amovibles contre charger et décharger/ tambour de mesure /déclic pour avancement film/pointeur repère exact-//- (18) (17) /début 1884 machine à papier continue pour tirage en série-//- (19) (18)/ brevets-//-1885 empiètement brevets de Houston inventant poinçon dans le film pelliculaire pour repère exact évitant surimpression (20) (19)/ Houston printemps 89 vend le brevet-//-brevet très cher (21) (20) nouvelle société commerciale EASTAMN DRY PLATE AND FILM C°/ Strong/Walker/8 actionnaires//sous-traitant fabrique porte bobines-//-film craque (22) (21)/ fin 85 film disponible en longues bandes-//- (23) (22) /séduit leaders photographie/ mondiale récompense juin 85 Londres-//- (24) (23) /Warnerke dit ‘c’est meilleur que le mien et différent à cause de fabrication en série’-//-film trop délicat à tirer/ ne plaît pas aux professionnels qualité moindre que plaques (25) papier Eastman à tirer très bon/ marché professionnel intéressé/société Eastman fait fixage et tirage en série/1887 6000 tiragesjour-//-marché toujours limité à tirage

174 La fidélité du script à la narration de Jenkins n’est pas en question ici. Nous savons en effet que le script

peut nous être fournie par le traitement CANDIDE™ de texte plain. Seule la cartographie nous importe pour l’instant, que le script soit fourni automatiquement ou manuellement. Les dates sont marquées en italiques; leur emplacement, leur proximité et leur succession est variable; seul compte l’ordre des versions numérotés (1) à (n); sur le problème du temps voir la fin de cette partie. Le signe -//- indique que le texte qui suit décrit le ou les anti-programmes; lorsque l’anti-programme n’est pas connu le signe est maintenu pour indiquer l’existence nécessaire d’un front de controverse. Afin de simplifier et d’alléger l’écriture toute version qui se trouve reprise dans son intégralité à l’intérieur de la suivante est résumée par son numéro. C’est une boîte noire. Il va de soi que le comptage final pour les indicateurs tient compte de la valeur de la version développée. L’arithmétique particulière des boîtes noires est ainsi respectée: elles valent tantôt un dans le syntagme qui les incorpore, tantôt le nombre d’acteurs qui les composent.

(26) film pas bon pour professionnel bon pour amateurs-//-abandon des amateurs professionnels [ouverture de boîte noire (2) à (6)] (27) bon pour amateur/marché de masse -//-pas d’appareil de prise de vue été 87 (28) marché de masse/film souple (16) /boîtiers existants/tirage fixage par la C° Eastman-//-amateurs pas intéressés parce que boîtiers existants difficiles à utiliser (29) marché de masse/film souple/ tirage fixage par C) Eastman/rien à faire pour l’utilisateur-//-tout le travail est pour la compagnie Eastman (30) marché de masse/boîtier Eastman/film souple/1887 nom Kodak / 25 dollars/100 poses/réseau commercial Eastman/notice d’explication/publicité-//- (31) (30) accueil triomphal-//-film toujours fragile (32) (31) puis remplacement support papier nitrocellulose déplacement des rouleaux à l’avant et non plus à l’arrière du plan focal-//- (33) (32)monde entier/récompenses/marché de masse vérifié-//-difficultés celluloides ventes baissent 1892 1893 (34) (33)/nouveau support film/marché s’envole-//- concurrents potentiels et brevets (35) (34)/ rachète tous les brevets -//- (36) (35)/1899 grande industrie/ fabrication en série/marché de masse élargi aux amateurs de 7 à 77 ans/centaines de milliers d’appareils vendus-//- Codons maintenant ce récit en négligeant les anti-programmes et en donnant un nom abrégé à chaque acteur nouveau -c’est à dire une lettre d’alphabet dont la position correspond à l’ordre d’entrée en scène des acteurs. Dans cet essai nous n’essayons évidemment pas de peser le poids respectif des acteurs mais seulement le nombre d’acteurs nouveaux arrivant et partant du récit ou y revenant.

(1) AB (2) ACD (3) ADE (4) ADEFG (5) ADGHIJ (6) ADGHIJKL (7) ADGHIJKLM (8) NO (9) OQ (10) QRST (11) JOLUVPI (12) JOLUVPIW (13) JOLUVPIXY (14) JOLUVPIZ (15) JOLUYPIZ AA AB (16) JOLUVPIZ AA AB AC AD (17) JOLUVPIZ AA AB AC AD AE AF AG AH AI AJ (18) JOLUVPIZ AA AB AC AD AE AF AG AH AI AJ AK (19) JOLUVPIZ AA AB AC AD AE AF AG AH AI AJ AK AL (20) JOLUVPIZ AA AB AC AD AE AF AG AH AI AJ AK AL AM (21) JOLUVPIZ AA AB AC AD AE AF AG AH AI AJ AK AL AM AN AO AP AQ (22) JOLUVPIZ AA AB AC AD AE AF AG AH AI AJ AK AL AM AN AO AP AQ AR (23) JOLUVPIZ AA AB AC AD AE AF AG AH AI AJ AK AL AM AN AO AP AQ AR AS AT (24) JOLUVPIZ AA AB AC AD AE AF AG AH AI AJ AK AL AM AN AO AP AQ AR AS AT R++ (25) AU A++ AV AW (26) AX (27) AX AY (28) AY [JOLUVPIZ AA AB AC AD] AZ AW (29) AO [JOLUVPIZ AA AB AC AD] AZ AW BA (30) AO [JOLUVPIZ AA AB AC AD] AZ AW BA BB BC BD BE BF BG (31) AO [JOLUVPIZ AA AB AC AD] AZ AW BA BB BC BD BE BF BG BH (32) AO [JOLUVPIZ AA AB AC AD] AZ AW BA BB BC BD BE BF BG BH BI BJ (33) AO [JOLUVPIZ AA AB AC AD] AZ AW BA BB BC BD BE BF BG BH BI BJ BK BL BM (34) AO [JOLUVPIZ AA AB AC AD] AZ AW BA BB BC BD BE BF BG BH BI BJ BK BL BM BN BO (35) AO [JOLUVPIZ AA AB AC AD] AZ AW BA BB BC BD BE BF BG BH BI BJ BK BL BM BN BO BP (36) AO [JOLUVPIZ AA AB AC AD] AZ AW BA BB BC BD BE BF BG BH BI BJ BK BL BM BO BP BQ BR BS BT Ce codage nous permet de dresser les deux diagrammes d’indicateurs qui nous intéressent.

Figure 3, 1

Légende: Taille, Alliés et Nouveaux de l’exemple “Kodak”

Figure 3,2

Légende: Exemple du “Kodak”,ANC et Exploration

On reconnaît clairement dans le diagramme les trois traductions différentes qui correspondent à la fois à des objets et à des intérêts distincts. Les variations de la traduction sont plus claires encore dans le diagramme des trois indicateurs synthétiques.

Figure 3,3

Légende: Exemple du “Kodak”, Indices de Solidité, Rendement et Négociation Que deviennent les indicateurs et tout particulièrement l’Indice de Rendement quand le “Kodak arrive sur le marché”? Souvenons-nous que, dans la codification, l’acteur “marché de 100.000 personnes” compte pour un, au même titre que l’acteur “collodion” ou

“8 actionnaires”. Pour partie il s’agit là d’un artefact de la codification, mais pour partie, il s’agit là justement de la différence entre la cartographie et les outils économiques. Qu’est-ce en effet qu’une vente sur un marché en expansion? C’est, pour notre cartographie, l’addition d’un nombre très grand d’acteurs qui ne demandent pas la renégociation de l’objet lui-même dans tous ses détails. En d’autres termes c’est un déplacement ET qui n’est payé que par un déplacement OU infinitésimal. Le déplacement OU n’est jamais égal à 0 car l’achat, la livraison, l’usage d’un appareil Kodak sont encore des traductions mais qui ne réagencent plus la position des bobines, le grain des sels d’argent, ou l’obturateur. Dés que l’on enregistre de telles pentes, il est inutile de recourir à la cartographie des innovations puisque les statistiques sur les parts de marché, les taux de profit, les stocks suffisent amplement. La chromatographie passe le relai aux outils économiques dès que le réseau est devenu assez stable pour produire des masses de chiffres à partir de valorimètres étalonnés. Mais il reprend l’avantage dès que le marché s’effondre et qu’il faut recruter un à un des acteurs nouveaux en redessinant profondément l’objet chargé de tenir son monde. La preuve qu’il est difficile d’avoir les deux en même temps nous serait fournie si nous remplaçions dans les versions (21) à (23) et (33) à (36) les acteurs comptant pour un par les chiffres de vente fournies par Jenkins. Les négociations et le travail de la traduction seraient complètement écrasées par le marché stabilisé. Les outils de suivi de réseau et ceux de l’économie sont donc à la fois complémentaires et incompatibles. Les seconds commencent à être utilisables quand les premiers sont inapplicables. Nous pouvons maintenant tracer le graphe socio-technique du récit de Jenkins sur Eastman:

Figure 3,4

Légende: Graphe socio-technique du “Kodak” d’après le récit de Jenkins En supposant que ce sommaire de l’histoire de Jenkins soit la carte mère d’un Hypertexte et que l’on peut cliquer à tout endroit du diagramme pour obtenir des informations visuelles sur la forme de l’appareil photo, le nom des acteurs, des interviews, des statistiques sur les parts de marché ou des séquences de récit, on obtient une réduction satisfaisante de l’historique tout en conservant les contingences, les circonstances et les renversements d’alliance propres à toute innovation. Grâce aux nouveaux programmes d’ordinateurs, il

ET

OU

(1)

(2)(3)(4)(5)(6)(7)

(8)

(9)

(10)

(11)(12)(13)(14)(15)(16)

(21)(22)(23)(24)

(25)

(26)

(27)

(28)(29-30)(31)(32)

(36)

Des plaques humides fabriquées par desamateurs professionnels aux plaques sèchesfabriquées par des compagnies dont la compagnieEastman

Des plaques sèches au film pelliculaireavec boîtier repris aux procédés deWarnerke

Petit marché du papier avec fixage et tirage à l'usine

Abandon du marché des seuls professionnels

Définition d'un marché amateur de masse pour utiliser les filmspelliculaires et le tirage fixage

La création duKodak pourmarché amateuravec boîtiersimple et réseauEastman faisantle reste

Echelle: IN 1

10 20 30

Daguerréotype

1850

1880

1884

(17-18) 1884

1885

1887

1887

1899

n’est plus nécessaire pour une quantification de réduire irréversiblement les données. Il suffit qu’elles permettent la navigation à travers des données maintenues dans des états de codage, d’aggrégation et d’abstraction qui peuvent rester aussi souples que l’on voudra. 4°) Autre cartographie, autre philosophie de l’innovation Nous allons maintenant nous servir de cet exemple d’Eastman et de Jenkins pour résoudre un certain nombre d’énigmes sur le suivi des innovations, énigmes qui perturbent à la fois la compréhension des mécanismes d’innovation et, par suite, leur gestion. a) trajectoire ou traduction? La première de ces énigmes est la notion de trajectoire. Par exemple, sous prétexte que la dureté des boîtiers d'appareil photo leur permettent de se conserver, la tentation est grande, pour un conservateur de musée technique, de relier entre eux dans une vitrine les versions successives des appareils photos. L'existence du “reste”, c'est à dire de tout ce qui entourait les boîtiers, de tous les photographes, de tous les sujets, de tous les marchés, de toutes les industries, n'est certes pas nié par le conservateur de musée mais est transformé en un contexte à l'intérieur duquel l'objet technique a circulé, a grandi, s'est transformé ou compliqué. Or, si nous comparons par exemple l’invention de Warnerke et celle du premier boîtier d’Eastman, nous nous apercevons qu’elles sont exactement aussi dissemblables que la version (10) de Warnerke l’est de la version (24) -épisode au cours duquel Warnerke, fort courtoisement, reconnaît lui-même l’originalité d’Eastman. (10) QRST

...

(24) JOLUVPIZ AA AB AC AD AE AF AG AH AI AJ AK AL AM AN AO AP AQ AR AS AT R++

Du point de vue de la trajectoire d’un objet de bois et de verre circulant à travers la société, elles n’ont aucun rapport et ne doivent pas plus être liés dans une vitrine de musée de la photographie qu’une machine à coudre et une table d’opération. La notion de trajectoire, en coupant à travers les traductions, invente des “cadavres exquis”. En revanche, du point de vue de la coulée des associations et des substitutions, il y a bien un rapport établi par Eastman et par Warnerke eux-mêmes, mais ce rapport n’a plus le bois, les bobines, et le verre pour support. Aucun non-humain n’est commun aux deux, sinon rétrospectivement. Seul le travail d’exploration d’Eastman établit un lien ténu entre le porte bobine conçu pour les amateurs professionnels en Angleterre et le boîtier pour film produits en série en Amérique. Ou bien ce travail est rendu présent et alors le lien n’est pas fortuit, ou il ne l’est

pas et le lien entre les deux inventions n’est qu’un artefact de l’histoire technique des techniques. b) questions de forme ou questions de fonds? Ce que la chromatographie permet de suivre c’est le degré de ressemblance ou de dissemblance socio-technique. Au lieu de confondre le mécanisme secondaire d’attribution et le mécanisme primaire de mobilisation, elle s’en tient au second. Pour elle, une innovation est une ligne syntagmatique (ET) qui tient autant d'humains et autant de non-humains qu'il a fallu en recruter pour contrer les anti-programmes. Si un seul segment est différent d'une version à l'autre ce n'est tout simplement pas la même innovation dont il s'agit, et si tous les segments sauf un seul sont distincts il n'y a aucune raison de les accoupler dans la même vitrine. Nous avons toujours la mauvaise habitude diffusioniste175 de considérer un segment parmi d'autres d'un programme d'action comme étant l'essence d'une innovation et à considérer les autres comme étant du contexte, de l'emballage, de l'histoire, du développement. Le schéma nous force à prendre l'existence totale d'un projet comme sa seule essence. Si l’on veut parler philosophie, c’est de l’existentialisme étendue aux choses mêmes... Cet existentialisme et sa visualisation permet de donner un contenu précis à la distinction entre les questions d’emballage et les questions de fonds. On a beaucoup reproché aux analyses en terme de réseau de transformer les scientifiques en “vendeurs de savonnettes” toujours occupé à soigner la rhétorique de leurs enrôlements et fort peu le contenu des découvertes qu’ils faisaient. Or, une telle objection est doublement injuste. Elle l’est d’abord pour les vendeurs de savonnettes qui doivent être autrement subtils qu’on ne le croit généralement (HENNION, 1988), mais elle l’est aussi pour les innovateurs. L’invention du mot Kodak est-il important ou non? Suffit-il à décider de la construction du marché? Est-il superflu? Est-ce un simple problème de marketing? Toutes ces questions prennent maintenant de la forme: l’acteur “nom Kodak” entraîne-t-il une modification dans la durabilité du syntagme et de combien est cette modification? Dans le récit de Jenkins l’acteur BB dans la version (30) est un acteur parmi 23 autres et ne permet le recrutement que d’un seul acteur nouveau à la version (31). Voilà exactement, dans ce cas précis, le poids de l’emballage rhétorique. (30) AO [JOLUVPIZ AA AB AC AD] AZ AW BA BB BC BD BE BF BG

(31) AO [JOLUVPIZ AA AB AC AD] AZ AW BA BB BC BD BE BF BG BH

175 Le modèle diffusioniste est le contraire du modèle de traduction lequel prend au sérieux le premir principe

défini plus haut: le sort des énoncés est dans la main des autres. Sur ce point comme sur la différence entre mécanisme primaire et mécanisme secondaire voir (LATOUR, 1987).

En revanche lorsque dans LE PETIT PRINCE de Saint-Exupéry l'astronome turc démontre la présence de l'astéroïde XC 5890 en costume national, et n'est accueilli que par des ricanements, et qu’il refait “la même” démonstration le lendemain en costume trois-pièces et qu'il est cru par ses collègues, la seule différence étant l’emballage de l’astronome, nous avons bien là un cas où le poids de la seule rhétorique est essentiel. Qu'il manque à sa démonstration une cravate n'est source de ridicule que pour un diffusioniste, un essentialiste, un épistémologue. Ceux qui suivent les innovations savent bien qu'une cravate peut faire la différence et que rien ne permet de dire que le syntagme “démonstration+costume turc+rire des collègues” est le même que le syntagme “démonstration+costume trois pièces+certitude des collègues”. Mais nous n’avons pas nécessairement à tirer la conclusion que le poids des cravates et des costumes trois pièces est essentiel en mathématiques. Le poids de ce qui compte et de ce qui ne compte pas, de ce qui est rhétorique et de ce qui est essentiel, de ce qui dépend du nez de Cléopatre et de ce qui résiste à toute contingence, ne doit pas être décidé à l’avance par l’analyste. Le poids des facteurs doit être lu dans le diagramme en fonction du mouvement des syntagmes. c) contexte social ou contenu technique? L'illusion de la trajectoire qui traverserait un contexte à son symétrique dans l'illusion d'un contexte qui serait traversé par des innovations. Le graphe socio-technique permet aussi de dissoudre cet autre fantôme sociologique. Peut-on dire que les amateurs-professionnels du début de la photographie se sont fermés au progrès technique à partir de 1886 et que le grand public s’est ouvert au progrès à partir de 1892? Peut-on expliquer la diffusion de la photographie en regardant la nature des groupes sociaux chargés de s’y intéresser? Non, puisque les groupes sociaux sont eux-mêmes profondément transformés par les innovations. Les amateurs-professionnels s’intéressent aux plaques sèches d’Eastman -version (5) et (6)-, sont extrèmement déçus par le film pelliculaire -version (24)- dont la qualité est très inférieure aux plaques, sont intéressés par le tirage et fixage sur papier photographique Eastman (25) et se désintéressent tout à fait du Kodak. Ils trient fort activement les innovations proposées, mais ils changent également, modifiant leurs laboratoires, déléguant aux compagnies industrielles la tâche de préparer leurs plaques puis leur papier. Ce que nous observons c’est un groupe à géométrie variable entrant en relation avec un objet à géométrie variable. Les deux se transforment. Il y a traduction et non accueil, refus, résistance ou acceptation. Il en est de même pour les amateurs. L’amateur de la version (36) qui n’a plus rien à faire qu’à cliquer sur le boîtier Kodak, qui imite des millions d’autres amateurs, et qui n’a besoin d’aucun laboratoire puisqu’il envoie le boîtier avec les films à développer aux usines d’Eastman, n’est pas le même que celui qui achetait à la version (24) des boîtiers intimidants dont le film cloquait donnant des photos floues. Le marché amateur a été

exploré, extrait, construit, à partir de groupes sociaux hétérogènes qui ne préexistaient pas à Eastman. Les nouveaux amateurs et le boîtier d’Eastman se co-produisent. Il n’y a là ni résistance, ni ouverture, ni acceptation, ni refus du progrès technique. Nous avons devant nous des millions de gens tenus par une innovation qu’ils tiennent. Et Eastman? Est-il un acteur fixe? Pas du tout. Le contour de ce que veut et de ce que peut Eastman, l’ampleur et le dessin de sa compagnie varient également au cours de cette histoire -même si le point de vue de ce graphe socio-technique prend toujours Eastman pour point de départ176. Contrairement à ce que prétendent ceux qui veulent maintenir fixe soit l’état des techniques soit l’état de la société, il est possible de considérer le parcours d’une innovation dans lequel tous les acteurs co-évoluent. L’unité de l’innovation n’est pas donnée par quelque chose qui se maintiendrait à travers le temps mais par la traduction mouvante de ce que nous appelons avec Serres un quasi-objet. d) réaliste ou irréaliste? En dissolvant la différence entre ce qui se meut et le milieu à l'intérieur duquel l'innovation se meut, notre principe de cartographie dissipe une autre difficulté, celle de l'assymétrie de principe entre le réalisable et l'irréalisable. En lisant le graphe socio-technique d’Eastman nous comprenons bien que la version (36) n'est pas la “réalisation” de la version (1) de départ puisque aucun actant du début ne se trouve à la fin -provisoire- de la controverse. Pourtant, il s'agit bien d'une histoire progressive de construction de la réalité. La continuité de cette histoire n'est pas celle d'une idée un peu folle qui se réalise enfin, mais celle d'une traduction qui transforme complètement ce qui est transporté. Le réel n'est pas différent du possible, de l'irréaliste, du réalisable, du souhaitable, de l'utopique, de l'absurde, du raisonnable, du coûteux. Tous ces adjectifs ne sont que des façons de qualifier des positions successives de la courbe. La version (24) n'apparaît comme irréalisable que par comparaison avec l'évènement violent de la version (26); la version (10) n'est pas l'incarnation de la version (9) puisqu'elle n'a qu'un seul élément commun avec celle-ci. Le diagramme permet donc de traiter avec les mêmes outils toutes les étapes successives sans jamais avoir à juger le caractère “intrinsèquement” réaliste ou irréaliste d'une association. La seule réalité qu'il enregistre est socio/logique 177: si Q s'allie à O dans la version (9) alors O se retire à la version (10); si Z est recruté à la version (14) alors AA et AB s'allient durablement.

176 On verra dans la partie suivante comment transformer le point d’origine des diagrammes et comparer

donc le degré de convergences des récits d’acteurs différents. 177 Le mot socio-logique n'a rien à voir avec les mots de logique ou de sociologie; il déploie seulement

l'ensemble des associations permises et interdites entre humains et entre non-humains.

Conséquence capitale de cette façon d'enregistrer les socio-logiques: “la réalité” n'est pas un état final et définitif qui ne demanderait plus aucun effort. Est plus réelle toute chaîne d'association plus longue que la précédente -toujours du point de vue de l'énonciateur choisi comme point de départ. Le maintien en réalité se paie donc par une extension continuelle du syntagme (ET). Grâce à ce diagramme, “la force d'inertie” des innovations -ce fameux état où elles seraient irréversibles et coureraient de leur propre force “à travers” le social- est tout simplement dissoute, ainsi que son symétrique “la force d'inertie” des groupes incapables “d'accepter” une innovation. On ne passe jamais à la réalité au point de ne pas avoir un réseau à entretenir. La seule chose possible est de diminuer la marge de négociation nécessaire (l’indice de négociation IN) ou de transformer en boîte noire les alliés les plus fidèles (l’indice de Réalité IR). La seule chose absolument impossible est de vouloir diminuer le nombre d’acteurs associés et de prétendre en même temps à la continuation d’une existence plus “réelle”. e) local ou global? Notre diagramme explique un autre petit mystère celui du passage progressif de l’échelle microscopique, à l’échelle macroscopique. On a beaucoup reproché aux études de réseaux et aux travaux de terrain de donner des illustrations intéressantes des contingences locales mais de ne pas être capable de prendre en compte les “structures sociales” qui influencent le developpement des histoires locales. Or comme l’a montré Hughes dans un travail remarquable sur les réseaux électriques (HUGHES, 1983b), la macro-structure sociale n’est pas faite d’un bois différent de la microstructure, surtout lorsqu’il s’agit d’innovations qui commencent dans un garage et finissent comme un monde dans lequel se trouvent inclus tous les garages -ou inversement de systèmes techniques qui commencent comme un monde et finissent dans un dépotoir. Le changement d’échelle du micro au macro et du macro au micro est précisément ce que permet de suivre et de documenter la chromatographie. Soit une chaîne:

(1) ABCDEFGH (2) A7 IFJKLMNO

(3) A7 F8 PQRSTUV

(4) A7 F8 U7 WXYZ

(5) A7 U7 IFJKL

(6) U7 IF ABCD

(7) PRIBC

(8) IC

Figure 4,1 Légende: dés qu’un syntagme est stable il peut être résumé par une boîte noire -il compte donc pour un- mais on indique par un chiffre en indice le nombre d’acteurs qui composaient l’association avant la mise en boîte noire. Si dans la version (4) nous avons bien un changement progressif d’échelle du micro au macro avec l’inclusion d’un nombre de plus en plus grand de boîtes noires dont chacune compte “pour un”, nous pouvons aussi documenter, sans changer d’instrument, la réouverture progressive, puis la dispersion et enfin la débandade des acteurs qui passent du macro au micro. Le monde socio-technique n’a pas d’échelle donnée une fois pour toutes et ce n’est pas à l’observateur d’y remédier. La même innovation peut nous conduire d’un laboratoire à un monde et d’un monde à un laboratoire. Respecter les variations d’échelle effectuée par les acteurs eux-mêmes est aussi important que de respecter le déplacement de la traduction. Vouloir donner une dimension aux acteurs aussi bien qu’une forme fixe n’est pas simplement dangereux c’est tout simplement superflu dés que nous disposons d’outils adaptés au suivi de réseau. f) lent ou rapide? Une dernière conséquence de cette substitution de la socio-logique aux notions asymétriques de réel et de possible vaut d’être notée. Le passage du temps devient la conséquence des alliances et non plus le cadre ferme et régulier à l’intérieur duquel l’observateur doit plonger ses récits. Pas plus qu’il n’a besoin d’acteurs à contour fixe et d’échelle prédéterminée, l’observateur n’a besoin d’un temps réglé. Comme le relativiste en physique, le relativiste (ou relationiste) en socio-technique se satisfait de ce qu’Einstein appelle du beau mot de “mollusque de référence”. De même que nous laissons les acteurs créer leurs relations, leurs transformations et leur tailles respectives, nous les laissons scander leur temporalité et même décider de ce qui est avant et après. C’est que la dimension OU enregistre l'ordre de succession des versions 178 -selon le point de vue de l'observateur choisi comme point de départ- mais elle ne mesure pas régulièrement le temps. Dans l’exemple d’Eastman trente années séparent la version (1) de la version (5) alors qu'il ne faut que quelques mois pour passer de la (25) à la (30). Dira-t-on que l'innovation “traine pendant trente ans” et “s'accélère brusquement” en 87 ? On peut le dire, certes, mais ces mots comme ceux de réalisable, d'utopique, et de réel, ou comme ceux de groupes ouverts ou rétifs, ne font que flotter à la surface des mouvements de traduction sans rien expliquer. La quantité d'évènements, la vitesse ou la lenteur, dépendent 178 Cette succession peut n'être pas temporelle, il peut s'agir par exemple des versions offertes du même

projet par des interviewés successifs. Voir plus loin.

entièrement du mouvement d'alliance et de rupture des actants: si vous pouvez reconstituer ces mouvements vous obtenez par surcroît la temporalité, si vous ne pouvez la reconstituer le passage régulier du temps ne vous apporte aucune information. Ce que le graphe socio-technique reconstruit c'est l'historicité des innovations toujours dépendantes de la socio-logique des actants. Conséquence importante de ce déplacement du temps pour la lecture des cartes: si aucun acteur nouveau n’est recruté il ne se passe littéralement rien et, par conséquent, le syntagme, attaqué par les anti-programmes va probablement se défaire. Le temps comme tout le reste doit se construire et se produire. Il n’est pas donné. Pour l’innovateur il n’y a jamais de septième jour. 5°) De la description à l’explication En admettant que nous soyons maintenant capables de déployer les variations fines d’une exploration socio-technique, en quoi cela nous avance-t-il pour expliquer la forme contingente que prend telle ou telle trajectoire? Les trois Grâces de la Vérité, de l’Efficacité et de la Rentabilité, qui servent en science, en technique et en économie à offrir des causes, sont évidemment inutilisables, puisqu’elles sont la conséquence et non la cause de ces déploiements.179 Le boîtier d’Eastman dans les versions (8) à (29) du graphe socio-technique ne sont ni rentables ni efficaces. Elles le deviendront, aux alentours de la version (36). Il est donc impossible d’utiliser la fin de l’histoire pour expliquer son début et son déroulement. Pas plus que le Darwinisme, l’étude des innovations n’est téléologique. Mais il n’est pas question non plus de substituer aux trois Grâces, l’intérêt sociologique comme moteur de l’histoire. L’intérêt, comme l’efficacité et comme la rentabilité, a besoin d’instruments de mesures et de réseaux stabilisés, pour commencer à dire quelque chose de prévisible. Les amateurs ne savent pas qu’ils ont besoin de photographie avant la version (36); les actionnaires d’Eastman attendent une vingtaine d’années avant de savoir si leur intérêt est mieux servi par les plaques, par les films ou par les appareils Kodak; quant à Eastman, il dessine peu à peu ses intérêts en fonction du tâtonnement de ses recherches. La sociologie stable de même que l’économie arrivent après les moments décisifs de la bataille, c’est à dire après les moments où de grandes variations ET sont payées par de grands déplacements OU, pour s’occuper principalement des états où de grandes accumulations ET ne sont plus payées que par de minuscules déplacements OU.180 Une explication du parcours d’une innovation ne pouvant être rétrospective, elle ne peut être donc être tirée, de moment en moment, que de la socio-logique des programmes et des anti-programmes. Les acteurs des anti-programmes peuvent-ils être soit recrutés, soit ignorés, soit repoussés? Les acteurs des programmes peuvent-ils être maintenus associés si tel ou tel acteur nouveau est recruté, ignoré ou repoussé? A tout moment le front de la

179 Sur ce renversement des causes et des conséquences, renversement qui fonde la sociologie des sciences et

des techniques, voir (LATOUR, 1987). 180 La raison de ce partage des tâches n’est pas une faiblesse de l’économie ou de la sociologie, mais elle est

tout simplement liée au problème du contrôle des grands nombres: la capacité à recruter en grand -masses ou marchés- et de façon prévisible dépend de la stabilité de l’objet et de son réseau.

controverse en cours pose des questions de ce type. C’est la réponse à ces questions particulières qui fait ou défait l’innovation. Or, toutes ces réponses dépendent de la résistance des acteurs à l’épreuve proposée: si j’ajoute l’acteur D dans le syntagme ABC, que va faire A? que vont faire B et C? Pour comprendre le parcours d’une innovation il faut maintenant apprécier la résistance des acteurs successifs qu’elle mobilise ou rejette. On voit que l’explication ne succède pas à la description, mais qu’elle est une description poussée plus loin. Nous ne considérons pas la description stabilisée pour ensuite en proposer une explication, nous allons au contraire utiliser la cartographie des innovations pour explorer maintenant les acteurs et c’est d’eux et d’eux seuls que nous tirerons toutes les “causes” dont nous aurons besoin. a) définition des acteurs par la liste de leurs épreuves Un acteur ou un actant n’est défini pour nous que par son sens étymologique. Si une innovation se définit par un diagramme dans lequel son essence est co-extensive à son existence, c'est à dire à l'ensemble -toujours provisoire- de ses versions et de leurs transformations, ces versions et ces transformations sont, à leur tour, complètement définies par les actants qui les composent. Mais ces actants eux-mêmes d'où les sortons nous? D'où vient le client d'hôtel, l'hôtelier, la clef, le panonceau, etc.? A quoi servirait-il de déployer sans réduction les innovations si nous nous servions d'une définition elle-même réductrice des actants? Heureusement pour nous le diagramme nous fait voir qu'un actant se définit exactement comme une innovation; il suffit de basculer le point de vue et de prendre comme point de départ du diagramme non plus une innovation qui passe d'acteur en acteur, mais l'un de ces acteurs dans “les mains” duquel passent des successions d’innovation. La métaphore linguistique peut nous aider là encore. Pour un linguiste il est possible d’étudier soit un syntagme, c’est à dire l’ensemble des éléments qui s’associent dans une phrase dotée de sens, soit l’élément lui-même en considérant toutes les phrases dotées de sens dans lesquelles il intervient. C’est passer de:

Le pêcheur /va /à /la /pêche /au /phoque

Le boucher / /la /chasse /au /snark

Le peintre / /la /

à Le peintre/ peint / des /tableaux

Le peintre/ peint /des /maisons

Le peintre/ est / un / substantif

Le peintre/ est / /hyperréaliste.

Ce qui change c’est le point que l’on choisit de garder fixe. Dans un cas c’est la longueur du syntagme que l’on prend pour objet, ainsi que l’ensemble des paradigmes qui peuvent se substituer en chaque articulation, dans l’autre c’est une articulation particulière que l’on prend pour objet et c’est l’ensemble des syntagmes où elle intervient que l’on souhaite reconstituer. Que nous définissions l'essence des innovations par l'existence de leurs actant successifs et simultanés, et que nous définissions en retour ces mêmes actants par l'existence des innovations successives dans lesquels ils entrent, n'est pas plus circulaire ou contradictoire ici qu'en linguistique.

Comment visualiser un actant? Comme une liste de réponses à des épreuves, liste qui, une fois stabilisée, est accrochée à un nom de chose et à un substrat auquel on va confier le rôle de sujet de tous les prédicats, c’est à dire d’origine des actions181. L'hôtelier de notre histoire de clef, comment le définir? Il “est” certes le locuteur obstiné qui rappelle aux clients de rapporter leurs clefs, mais il n'est pas que cela. Il “est” aussi celui qui fait payer les clients, qui commande les draps propres, qui se paye une publicité dans l'annuaire, qui convoque les peintres, etc. La clef, elle aussi, peut se définir non plus par son intervention dans notre histoire d'innovation mais par la liste de ce qu'on lui fait subir dans toutes les histoires d'innovation où elle intervient. Elle ne fait pas que revenir à la réception, elle ouvre aussi les serrures, elle se brise dans les verrous aux mains des clients ivres, elle s'imite par un passe-partout, etc. Quant à la fonte elle n'intervient pas que dans ce rôle modeste de clef d'hôtel; elle subit bien d'autres épreuves qui la définissent plus complètement, elle fond à 1800° dans les hauts fourneaux, elle est composée de fer et de carbone, elle incorpore du silicium jusqu'à 4%, elle devient grise ou blanche à la cassure, etc.

Comment définir cette liste d’actions à partir des cartographies d’innovation? Prenons l’exemple fictif suivant :

Figure 5,1

181 Cette attribution de rôle peut être lui-même objet d’une dispute, certains autres acteurs déniant le nom

d’acteurs à d’autres. Sur ce point voir (CALLON, 1989) et la fin de cette partie.

(1)(6)

(12)(2)(7)(4)

1 2 3 4 5N°2 A+ B+

A- C+

A≠ D+ F+

A++ K+ L-

A-- U≠ Z+

N°5

A3 X

A-≠ L + M-- X

N°9N°9

N°8N°12N°15N°17

(18)(19)

Légende: on compare ici toute les versions de toute la base de données où apparaît un acteur particulier. Cette liste est la définition de son activité et partant de son être. Pour construire ce tableau nous allons chercher dans tous les tableaux de la base de données —numéros en gras- celui où intervient l’actant que nous avons choisi de suivre -ici A- et nous écrivons la version -numéros maigres entre parenthèses- qui correspond à ce qu'il y fait -par convention nous le déplaçons afin qu'il occupe toujours le premier segment. Quelle est l’essence de A d’après cette liste? C’est un actant allié à B dans la version (1) de la carte N°6; qui est opposé à C dans la version (6) de la carte N°18; qui est indifférent à l’association DF dans la version (2) la carte N°4, qui entraine l’attachement de K et le détachement de L dans la version (7) de la carte N°8, et qui est fortement opposé à Z et qui rend U indifférent, dans la version (4) de la carte N°22. Nous apprenons de plus que dans les versions (18) et (19) de la carte N°9, l’acteur A subit une épreuve assez forte pour le faire éclater en trois éléments dont le sort est distinct. Plus la liste verticale est longue plus l’acteur est actif -à l’intérieur de la base de données- plus il y a de variations entre les actants auxquels il est successivement lié, plus il est polymorphe. Plus il apparaît de versions en versions comme composés d’éléments différents moins son essence est stable. Inversement, moins la liste est longue, moins l’acteur est important. Moins il y a de diversité dans les acteurs qu’il rencontre ou plus il est difficile d’ouvrir la boîte noire qui le compose, plus il est cohérent et ferme. La liste des épreuves d’un acteur donné définit son historicité, de la même façon qu’un graphe socio-technique définit l’historicité d’une innovation. De même qu’une innovation peut devenir de plus en plus stable en mettant en boîte noire des chaînes de plus en plus longues, de même un acteur peut gagner en cohérence au point de devenir presque prévisible. Si A est toujours associé à B ou toujours dissocié de D dans la succession des cartes, la présomption est forte que, lorsque A entrera de nouveau en relation avec B dans une nouvelle carte, il s’alliera à B et se déliera de D. Des performances de l’acteur, commence à se déduire des compétences. De son existence une essence commence à émerger -qui peut se dissoudre plus tard. Son histoire devient une nature, avant, peut-être de redevenir une histoire. De Nom d’Action l’acteur devient Nom d’Objet.182 L’historique conjoint des innovations et des acteurs permet, en dressant les listes, de faire varier continûment l’isotopie, c’est à dire la stabilité à travers le temps, d’un acteur. Son comportement devient de plus en plus ou de moins en moins prévisible et la liste nous permet d’aller de la très faible certitude à la nécessité, ou de la nécessité à l’incertitude. La force de l’habitude -ou de l’habitus- s’exercera ou non en fonction de l’historique de l’acteur dont la liste gardera trace.

182 Cette distinction est capitale pour comprendre l’émergence des nouveaux objets: de liste de réponses à des

épreuves, l’objet devient chose qui subit des épreuves. Sur ce point voir (LATOUR, 1987) ch.II.

b) suivi des variations relativistes des opérations de traduction Nous sommes maintenant capables de décrire une innovation par l’ensemble des acteurs qui s’y agrègent ou s’en séparent -graphe socio-technique-, et de prendre connaissance à tous moments de la “nature” des acteurs ainsi agrégés ou substitués -liste des épreuves. Reste que nous sommes encore loin d’une explication puisque nous ne pouvons prévoir si l’association va durer ou non lorsqu’une innovation saisit un acteur ou un acteur se saisit d’une innovation. Plus exactement nous ne pouvons prévoir de telles réactions que dans les cas qui nous intéressent moins, c’est à dire ceux où l’innovation est déjà une boîte noire et où les acteurs commencent à avoir une histoire si stable qu’elle est presque devenue une seconde nature. Comment parvenir à anticiper les réactions dans les autres cas? Pour cela nous devons apprivoiser une troisième source de variations. Puisque nous sommes capables d'entre-définir, sans plus aucun essentialisme, les actants et les innovations, nous pouvons cartographier l'opération essentielle de la traduction, opération qui permet l'établissement -toujours local et provisoire- du lien social. Au lieu de partir d'actants à bord fixes et à intérêts assignables, la traduction permet de suivre l'attribution de bords fixes à un actant A par un actant B, l'assignation des intérêts ou des buts de A par B, la définition de bords et de buts communs à A et à B, enfin la répartition des responsabilités de A et de B dans l'action commune 183. Dans un univers d'innovations définies uniquement par l'association et la substitution d'actants, et d'actants définis uniquement par la multiplicité des innovations dans lesquelles ils conspirent, l'opération de traduction devient le principe essentiel de composition, de liaison, de recrutement ou d'enrôlement. Mais pour établir l’échec ou le succès de l’opération, il faut être capable de faire glisser le point de vue de l’observation. Soit un exemple particulièrement élégant d'une opération de traduction :

“Au ministre de l'Instruction Publique

Paris le 1° aout 1864 Monsieur le Ministre Le vin constitue l'une des plus grandes richesses agricoles de la France. La valeur de ce produit de notre sol s'est accrue par le traité de commerce avec l'Angleterre. Aussi de toutes parts dans les contrées viticoles on se préoccupe d'améliorations ultérieures dans l'espoir d'augmenter le nombre et la qualité des vins qui peuvent être exportés avec profit. Malheureusement, nos connaissances en ce qui concerne cette précieuse boisson laissent beaucoup à désirer. Les études sur sa composition sont tellement incomplètes que deux de ses principes essentiels, la glycérine et l'acide succinique, sont connus depuis deux ans seulement. Malgré les progrès de la chimie moderne on ne saurait indiquer un traité sur les vins plus savant et plus exact que celui que nous devons à Chaptal, lequel a paru il y a plus de soixante ans. C'est dire assez tout ce qui reste à faire.

183 Terme de Michel SERRES introduit en sociologie par Michel CALLON. Pour une présentation canonique

voir (LATOUR, 1990).

Je me livre depuis cinq ans à des études sur les fermentations. La fermentation alcoolique sur laquelle repose toute la fabrication des vins m'a occupé particulièrement. Or le progrès même de me mes recherches me conduit à désirer de les poursuivre par l'examen sur place, et dans les contrées classiques de la production des vins les plus estimées de la France, des procédés de la fermentation et notamment du végétal microscopique qui est l'unique cause de ce grand et mystérieux phénomène. J'ai l'intention de consacrer à ce travail mes prochaines vacances. Ce serait six semaines environ de voyages et d'études, avec un aide et quelques appareils et produits chimiques indispensables. J'en évalue la dépense à 2500F.. Le but de cette lettre est de soumettre à votre Excellence l'appréciation de l'utilité de mon projet ainsi que la demande d'une allocation qui couvrirait les frais de son éxécution. Je ne me bornerais pas à cette première série de travaux. Je les poursuivrais les années suivantes, aux mêmes époques, dans la même direction. Du reste je suis le premier à ne pas avoir d'illusion sur les conséquences immédiates de mes études. L'application aux arts industriels des résultats de la science est toujours lente à se produire. Mes prétentions actuelles sont très modestes. Je veux arriver à mieux connaître la plante cryptogamique qui seule est la cause de la fermentation du jus de raisin.” (Correspondance, tome II, p.88).

Des couches successives d'actants -le Ministre, la chimie, mes recherches, mon voyage en Arbois- se voient attribuées des bords et des buts. Chacune de ces couches se caractérise par un vocabulaire incompatible: 2500 F, le traité de commerce avec l'Angleterre, l'acide succinique, la plante cryptogamique. A chacun de ces programmes d'action se trouve attribué un anti-programme: on voudrait bien vendre du vin à l'Angleterre, mais ils ont des maladies; on voudrait bien savoir l'origine de ces maladies, mais la chimie du vin a 60 ans d'âge; je voudrais bien poursuivre mes recherches mais il me manque de l'argent et des aides. L'opération de traduction consiste d'une part à définir les couches successives de vocabulaire, à attribuer des buts, à définir des impossibilités, et d'autre part à traduire -d'où son nom- les programmes d'action les uns dans les autres. Le mouvement global de la traduction est défini par un détour et par un retour. Le Ministre en donnant 2500 F à Pasteur redresse, en fin de compte, la balance des paiements et réalise donc son but. Mais l’opération de traduction est toujours risquée. Rien ne prouve en effet que le détour sera payé, en fin de compte, d'un retour. Pasteur, fine mouche, l'indique d'ailleurs fort bien dans son dernier paragraphe: le seul but à atteindre est celui de la connaissance pure de la plante cryptogamique car les applications, c'est à dire le retour, est toujours problématique. On peut imaginer bien d'autres “fuites”: Le Ministre se désintéresse du commerce des vins, les maladies des vins ne sont dus qu'à des phénomènes chimiques, les 2500 F n'arrivent jamais, Pasteur change de projets de recherche. Ce que l'opération de traduction composait et reliait peut se disperser comme une volée de moineaux. C’est justement cette possibilité qu’il faut prévoir. Et comment le faire sans éprouver la version que Pasteur donne des buts et des désirs de tous les acteurs humains et non-humains en les comparant aux buts et désirs qu’ils se donnent ou qu’ils attribuent à Pasteur? Rien ne prouve en effet que l'opération proposée par Pasteur coresponde à la version qu'en ont les actants nommés Ministre, chimie, plante cryptogamique, Angleterre ou ferment. Pour mesurer l'échec ou le sucès possible des opérations de traduction -toujours relativement à un énonciateur et à un

observateur- il est nécessaire de vérifier s’ils occupent ou non la position que Pasteur attend d’eux.

Figure 5,2

Légende: on compare ici la version qu’un acteur se fait de ceux qu’il enrôle avec l’idée que les acteurs enrôlés se font d’eux-mêmes et de lui. Dans la figure 5,2 par exemple, la version offerte par Pasteur est comparée à la version (6) de la carte du Ministre, (2) des chimistes et (7) des ferments (l'exemple est partiellement fictif). Nous nous apercevons que le Ministre, interrogé, ne pense nullement que le problème de la balance des paiements soit le vin et ses maladies. Son problème est celui de la soie dont le commerce se trouve géné par le Japon. Quant aux chimistes, ils n'occupent pas du tout la position prévue pour eux par la version (4). Leur drame ne semble nullement l'archaïsme de leur discipline mais au contraire le retour en force du vitalisme qui ralentit les progrès de la chimie. Ils ont, eux, dans leurs anti-programmes Pasteur et ses ferments ! Quant aux ferments, ils commencent à mourir en l’absence d’air annihilant les efforts de Pasteur pour les cultiver. On conçoit facilement, en jetant un coup d'oeil au tableau, que Pasteur va avoir quelques difficultés à obtenir ses fonds puisque ceux qu'ils mobilisent dans sa version n'occupent pas -du moins pas encore- la position qu'il leur a prescrite. Un tel diagramme donne une idée de l'état d'alignement ou de dispersion des actants et permet de prévoir la complexité des négociations à venir. Cet exemple nous montre que ce ne sont pas seulement les énoncés qui varient en fonction des acteurs et les acteurs en fonction des innovations; les deux varient également en fonction du point de vue de l’observateur ou de l’informant. Jusqu’ici nous avions maintenu stable le point de départ de tous nos récits, diagrammes ou graphe socio-techniques. Nous avons relaté l’histoire des clefs d’hôtel du point de vue de l’hôtelier, et celui du Kodak du point de vue d’Eastman et de Jenkins. Or, la capacité d’un programme à contrer un anti-programme dépend évidemment de la correspondance entre l’idée que se fait un acteur des autres et l’idée que les autres ont d’eux-mêmes ou de

Commerce Japon

Ferment! Culture!!!!Air!!!!!!!Mort

Maladies

Ministre Commerce Maladies Chimie Fermentation 2500F et aide

Ministre Commerce Maladies Chimie Fermentation 2500F et aide

Ministre Commerce Maladies Chimie Fermentation 2500F et aide (4)

OU

ET1 2 3 4 5

--

6X1X2 (6)

X3 (2)

Ministre Soie

Chimie Vitalisme Pasteur(4)X1

(4)X1X8 (7)

l’acteur qui se fait des idées à son sujet. Si cette convergence est faible l’acteur va peupler son monde d’autres êtres, mais ces êtres vont se comporter de façon imprévisible, s’attachant ou se détachant de version en version. Si cette convergence est forte, au contraire, l’acteur commence à prévoir ou, en tous cas, à garantir un comportement continu aux êtres qui constituent son monde. Or nous pouvons utiliser nos diagrammes et nos graphe socio-techniques, non plus pour suivre la succession des évènements d’une innovation mais pour comparer les versions différentes que des informateurs successifs donnent du “même” syntagme. Plus précisément, nous pouvons utiliser la succession de la dimension OU pour comparer le degré d’accord ou de désaccord des informateurs interrogés par la base de donnée sur ce qui est le même et sur ce qui est différent dans un énoncé particulier. Les diagrammes sont construits exactement comme ceux de la première et deuxième partie à ceci près qu’ils éprouvent maintenant le degré de cohérence d’un énoncé avec l’ensemble des énoncés produits par les acteurs dont il parle. Il suffit de remplacer la série des versions successives par la succession des épreuves que des informateurs variés -notés de X1 à Xn- font subir à la même version -ici (1) en italique. Voyons d’abord sur un exemple canonique comment nous pouvons procéder. Soit la phrase aimée des linguistes: “l’actuel roi de France est chauve”, phrase qui a déclanché les grandes orgues de la philosophie du langage car elle est à la fois bien formée et dénuée de signification puisqu’il n’y a pas d’état de choses lui “correspondant”. Elle a un signifié, dit-on, mais pas de référent. Or, si nous construisons notre diagramme de convergence, nous pouvons donner un contenu graphique précis à la signification et à l’absence de sens de cet énoncé -sans pour autant bien sûr recourir à la notion de “référent”184. (1) ACTUEL ROI FRANCE CHAUVE

(2)X1 CHARLES CHAUVE ROI HISTOIRE FRANCE

(1) ACTUEL ROI FRANCE CHAUVE

(3)X2 CHAUVE LOTION COIFFEUR CUIR POMMADES

(1) ACTUEL ROI FRANCE CHAUVE

(4)X3 ACTUEL BERLIN THATCHER ROI SIHANOUK LIBAN

(1) ACTUEL ROI FRANCE CHAUVE

(5)X4 FRANCE PRESIDENT MITTERAND CHAPEAU NIEVRE

(1) ACTUEL ROI FRANCE CHAUVE

184 La correspondance avec un état de chose joue le même rôle d’obstacle épistémologique en science que

l’efficacité ou la rentabilité en technique. Les mêmes diagrammes et cartographies s’appliquent d’ailleurs aux controverses scientifiques comme aux controverses techniques. La seule différence entre sciences et techniques, mais elle est capitale, est à rechercher dans la façon de stabiliser les boîtes noires.

(6)X5 ACTUEL ROI FRANCE CHAUVE RUSSELL STRAWSON LINGUISTES

Les historiens connaissent Charles le Chauve mais pas d’actuel roi de France; les coiffeurs connaissent des chauves, mais pas du tout de rois, et encore moins de roi de France, bien qu’ils aient à coeur les pommades, les lotions et le cuir chevelu; ils se passent actuellement beaucoup de choses, à Berlin et au Cambodge, mais aucune ne concerne le roi de France; il y a bien en France des gens qui la dirigent mais ils se disent Président et non roi et portent des chapeaux dans la Nièvre. Le seul endroit où la phrase est prise en considération, c’est chez les linguistes et les philosophes du langage qui l’utilisent comme un lieu commun! Sur ce script nous pouvons calculer nos indicateurs habituels qui vont maintenant signifier le degré de convergence ou de divergence entre les acteurs mobilisés par la version (1) et ce que les acteurs interrogés disent d’eux-mêmes.

Taille, Nouveaux et Alliés pour chaque version comparée à la version 1

C’est le degré de convergence que signale ce diagramme. Dans le cas présent aucun des acteurs mobilisés ne peut reprendre l’énoncé sans en ajouter d’autres qui n’ont rien à voir, Il y a donc très peu d’alliés et beaucoup de nouveaux, sauf dans la dernière version. Car la seule version qui reprend la version (1) est celle des linguistes qui le stabilisent sous la forme d’une énigme classique de philosophie du langage. Si nous nous tournons vers les deux indices de Négociation et de Solidité, nous retrouvons la même signature frappante:

Indices de Négociation et de Solidité de chaque version en référence à la version 1

L’indice de solidité ne vaut “1” que dans la dernière version, ce qui indique que les linguistes sont les seuls à reprendre pleinement cet énoncé. Dans la dernière version, l’indice de négociation est assez faible mais ne vaut pas “0” car on ne trouve jamais l’énoncé “le roi de France est chauve” complètement isolé. En dehors du milieu des linguistes chaque informateur démembre l’énoncé en n’en gardant qu’un ou deux éléments et l’indice de négociation IN reste voisin de 0,75. Conclusion Ces diagrammes de convergence et cet exemple canonique nous permettent de boucler sur elle-même l’analyse de réseaux. Il n’y a jamais à sortir des réseaux même lorsqu’il s’agit de définir la vérité, l’exactitude, la cohérence, l’absurdité, ou la réalité d’un énoncé. Le jugement de vérité est immanent aux parcours de l’énoncé et non pas transcendant. Pour le dire à l’envers, s’interdire de sortir des réseaux n’est pas s’interdire de juger; nous pouvons, dans cet exemple, juger exactement du degré de vérité de l’énoncé “l’actuel roi de France est chauve” sans faire appel à aucun moment à la notion de référent, notion qui est la seule chose mythique dans cette histoire de roi chauve. Tous les énoncés en effet ont une réalité, cette réalité peut être évaluée précisément en comparant à chaque fois ce qu’un acteur dit d’un autre avec ce que cet autre dit de lui-même. Cette comparaison trace un réseau qui est à la fois l’existence et l’essence de l’énoncé. Les licornes, les rois de France Chauve, les trous noirs, les soucoupes volantes, les apparitions de la Ste Vierge, les chromosomes, les atomes, Roger Rabitt, Hamlet, les projets techniques utopiques, possèdent, sans excès ni résidu, le degré de réalisme que tracent les réseaux. Ce point n’est pas relativiste en ce sens que tous les énoncés se vaudraient. Il est relationiste en ce sens que la mise en relation des points de vue des acteurs mobilisés et des acteurs mobilisants redonne une précision aussi fine que l’on voudra à des jugements que la philosophie du langage, des sciences ou des techniques ne sait pas reconstruire ou calculer finement, se contentant de jugements à

00,10,20,30,40,50,60,70,80,9

1

version 2version 3version 4version 5 version 6

I S

IN

l’emporte pièce sur l’absurdité manifeste ou la vérité nécessaire de tels ou tels énoncés ou projet185. Quelles que soient les conventions choisies pour dresser de tel diagramme, et quelques que soient les réalisations informatiques de ces outils de suivi de réseaux, la conclusion provisoire que nous pouvons en tirer sera d'ordre méthodologique. On oppose souvent la description de réseaux socio-techniques à l'explication qu'il faudrait ensuite en donner. A entendre de nombreux critiques de la sociologie des sciences et des techniques jamais une description d'une étude de cas aussi méticuleuse que l'on voudra ne suffira à fournir une explication de son développement. Une telle critique emprunte à l'épistémologie la différence entre l'empirique et le théorique, entre le comment et le pourquoi, entre la collection de timbres-postes -méprisables- et la recherche de causalité -seule digne d'attention. Or, rien ne prouve que cette ressource intellectuelle soit nécessaire. Si l'on déploie un réseau socio-technique -nous entendons par ce mot à la fois les innovations, leurs actants et les opérations de traduction, c'est à dire les trois types de diagrammes définis jusqu’ici- il n'y a pas de cause supplémentaire à rechercher. L'explication est donnée avec la saturation de la description. On peut certes continuer à suivre des actants, des innovations et des opérations de traduction à travers d'autres réseaux, mais jamais on ne quittera la tâche de description pour passer à celle d'explication. L’impression que l’on peut parfois offrir une explication en sciences exactes comme en sciences humaines, est dûe à la stabilisation même des réseaux, stabilisation que la notion d’explication “n’explique” justement pas! L'explication, entre nos mains, retrouve ainsi son sens étymologique de “dépliement”. Il ne s'agit plus d'aller rechercher en dehors des réseaux des causes mystérieuses et globales qui manqueraient à leur développement. S'il manque quelque chose c'est que la description n'est pas complète. Point. Inversement, si l’on est capable d’expliquer des effets par des causes c’est qu’un réseau stabilisé est maintenant en place. Nous espérons que la cartographie des réseaux socio-techniques permettra d'aider à cette description, à ce dépliement, à cette ex-plication qui nous font, pour l'instant, si cruellement défaut. La deuxième conclusion porte sur le relativisme et l’hétérogénéité des réseaux. Les critiques des études de controverses insistent sur le caractère local, mou, inconsistant des résultats. Ils ont l’impression que l’analyse des réseaux recrèe “cette nuit où toutes les vaches sont grises” que ridiculisait Hegel. Or, la tendance des analyses de réseaux est exactement inverse. Une fois éliminés les grands partages entre science/société, technique/science, micro/macro, économie/recherche, humains/non-humains, rationnel/irrationnel, nous ne plongeons pas dans le relativisme et l’indifférenciation. Les réseaux ne sont pas amorphes. Ils sont hautement différenciés, mais ces différences sont

185 On lira dans Thomas PAVEL (198-) Univers de la Fiction, Le Seuil, Paris, le meilleur exposé sur les

variétés ontologiques des êtres de fiction.

fines, circonstancielles, petites et elles requièrent donc afin de les répérer et de les analyser, des outils nouveaux. Au lieu de “sombrer dans le relativisme” on peut flotter sur lui. Enfin, une accusation d’immoralisme, d’apolitisme, de relativisme moral, demeure toujours porté contre la description socio-technique. Cette accusation n’a pas plus de sens que les deux autres. Dire qu’on s’interdit d’expliquer la clôture des controverses par ses conséquences n’est pas dire qu’on est indifférent au jugement mais seulement qu’on refuse un jugement transcendant à la situation. Pas plus que l’analyse de réseau n’empêche de différencier elle n’empêche de juger. L’efficacité, la vérité, la rentabilité, l’intérêt, sont simplement des propriétés des réseaux, pas des énoncés. De façon à poser un diagnostic ou à décider de l’absurdité, du danger, de l’irréalisme d’une innovation, il faut d’abord décrire le réseau et ne s’appuyer que sur cette description pour en répérer les contradictions socio-logiques. En pratiquant cette exercice on s’apercevra que la capacité de jugement, si elle perd ses vains appels à la transcendance, ne perd rien de son acuité.

Ressources et expériences

Les stratégies d'alliance : une voie nouvelle d'accès à la technologie

Nicolas KANDEL et Thomas DURAND

Le métier de directeur de recherche Bruno LATOUR

La gestion d'un laboratoire de recherche universitaire

José REMACLE

Les stratégies d’alliance une voie nouvelle d’accès à la technologie

Thomas DURAND et Nicolas KANDEL

Texte manquant

Le métier de directeur de recherche186 Bruno LATOUR

Le métier de directeur de recherche est l'un des plus difficiles, intéressants et méconnus

de l'industrie française. Aux incertitudes habituelles (politiques, financières, économiques, sociales) s'y ajoute une incertitude encore plus grande, inhérente à la recherche et au développement. Responsable d'une activité prestigieuse dont chacun affirme qu'elle est indispensable pour l'avenir de la firme, le directeur de recherche doit néammoins lutter constamment pour la faire respecter et lorsqu'on lui demande des plans précis, des comptes-rendus détaillés, des évaluations assurées, il doit avouer qu'il n'en possède pas, qu'il faut prendre des risques. Alors que toutes les autres activités peuvent démontrer rapidement leur efficacité ou leur inefficacité, il dirige, par définition, un service dépensier dont l'horizon s'étend sur 5, 10 ou 15 ans. Lorsqu'il doit justifier de l'efficacité de la recherche, c'est à travers des calculs complexes, dont les bases économétriques sont si peu probantes que beaucoup d'autres services peuvent s'attribuer le mérite de ses réussites. Ne coûtant souvent pas plus que les frais financiers, la formation interne, ou les campagnes de sécurité, la recherche occupe pourtant une fonction stratégique sans commune mesure avec l'argent qu'on lui consacre. Un rien sépare l'échec de la réussite, mais ce petit rien, propre à la stratégie, se mesure mal si on le compare aux énormes masses de données que tous les autres secteurs de l'entreprise sont capables de fournir. Fonction indispensable et difficile à intégrer, elle est aujourd'hui en pleine mutation. C'est pour mesurer les difficultés du métier et ses rapides transformations que nous avons effectué une série d'entretiens avec des directeurs de recherches dans des secteurs techniques et des organisations très divers qui représentent la quasi totalité de l'effort français de RD industrielle. Les résultats de ces entretiens sont ici présentés, pour des raisons de place et de confidentialité, sous la forme la plus synthétique possible.

Un métier qui n'en est pas un

S'il existe si peu d'études portant sur le métier de directeur de recherche c'est que, de

toutes les fonctions de la firme, c'est celle qui dépend le plus des particularités techniques. On peut séparer des secteurs techniques précis auxquels elles s'appliquent, les fonctions de

186 Texte précédemment publié dans Culture Technique, n° 18, mars 1988 et reproduit avec l’autorisation de

l’auteur.

responsable des ressources humaines, de marketing, de chartiste, de responsable des stocks et même de PDG. Impossible d'en faire autant pour la direction des recherches pour laquelle il n'existe ni fonction, ni rôle prédéterminés. Les particularités techniques sont plus importantes que tous les rapports superficiels de rôle ou de fonction. On ne se prépare à la direction des recherches ni dans les écoles d'ingénieur, ni dans les écoles de management. La variation des métiers en fonction des secteurs techniques est bien indiquée par les noms très divers qui les recouvrent et par les positions très diverses (et très changeantes) que les directions de recherche occupent dans les organigrammes. L'intégration de la direction dans une entreprise comme la Société Européenne de Propulsion —où elle s'appelle Direction Technique — qui ne fait aucune différence entre développement et production puisqu'elle ne sort que des quasi-prototypes est sans commune mesure avec celle de CDF-Chimie où la R ne fait que 2% à 15 % selon les secteurs. La fonction dépend aussi beaucoup du degré de maturité des secteurs techniques envisagés. Peu de travail commun entre la direction des recherches dans le verre plat (3 % du CA et quelques concurrents mondiaux), et dans celle de la pharmacie. La fonction de directeur est également fort différente en fonction de la taille de l'entreprise; peu de rapport entre le travail à la japonaise du directeur de recherche d' Essilor —lequel s'intitule d'ailleurs Direction de l’Innovation — qui dépense 120 millions sur quelques secteurs techniques et celui du directeur de recherche de Thomson qui pèse 6 milliards de F réparties sur des dizaines de secteurs techniques. Le métier varie aussi énormément selon qu'il s'agit de diriger la recherche d'une activité (opérationnel) ou celle d'un groupe (fonctionnel). Il y a peu de rapport entre le travail de directeur de recherche d'une filiale pharmaceutique de Rhône-Poulenc qui dépense plusieurs centaines de millions et emploie des centaines de chercheurs et celui de directeur de recherche au niveau du groupe qui ne dépense que quelques millions et n'est composée que de quelques personnes. Elle varie également beaucoup selon qu'il s'agit de la partie française d'une recherche internationale (comme chez Hoetsh ou Kodak) ou du potentiel de recherche d'une activité française indépendante. Enfin, la fonction est profondément altérée selon la provenance de ceux qui la remplissent. Chercheurs ou managers, innovateurs ou corpsards, universitaires ou gestionnaires, animateurs ou “serreurs de boulon”, n'aboutissent pas à la même définition du rôle.

Cette fonction sans homogénéité ne s'assure un minimum d'unité que par les méthodes de gestion du personnel de recherche, de choix et d'évaluation des projets. Ces méthodes qui sont relativement indépendantes des particularités techniques font l'objet de contacts et d'échanges de vue (à travers l'EIRMA par exemple) bien que beaucoup de directeurs de recherche avouent les avoir improvisées eux-mêmes en fonction de leur expérience. Fonction hybride, sans cahier des charges précisés d'avance, variable selon la trajectoire, l'expérience, le flair et la personnalité, la fonction de directeur de recherche dépend beaucoup plus que les autres, de son titulaire qui en redécoupe, à chaque fois, le titre, la place dans l'organigramme, le budget, l'ampleur, les méthodes et le rôle précis. Cette extrème variation et cette grande dépendance à l'individu rendrait une étude de la direction

des recherches d'autant plus difficile qu'elle est peu prévisible et peu bureaucratisée. De plus si l'on comprenait vraiment en détail le métier de tel directeur cela reviendrait à comprendre en détail non seulement la firme dans lequel il opère mais encore la stratégie qu'elle s'est donnée —du moins si l'intégration de la recherche est aussi poussée que le disent de nombreux directeurs de recherche. “C'est toute la stratégie de la société que je vous donne là” dit un interlocuteur qui définit ses tâches avec un peu plus de précision. Voilà qui explique pourquoi les secrets de la direction des recherches sont en général difficiles à percer —même à l'intérieur des firmes. La direction des recherches est l'un de ces métiers médiateurs, pour reprendre le terme d'Antoine HENNION (1988) qui sont révélateurs aussi bien de leurs produits que de leurs sociétés.

Du tonneau des Danaïdes à la stratégie de l'entreprise

Si l'on ne peut s'en remettre aux définitions habituelles pour repérer le métier de

directeur de recherche et ses mutations actuelles, il devrait être possible toutefois de l'approcher de biais. Une première approche consiste à définir ce que le directeur de recherche ne veut pas ou ne veut plus être. Beaucoup d'entretiens utilisent comme repoussoir une fonction que j'intitulerai, pour faire vite, celui de “gardien du Tonneau des Danaïdes”: on investit dans la recherche “à fonds perdu” même si cela ne sert à rien, surtout si cela ne sert à rien, parce que, à force, il finira bien par en sortir quelque chose. La direction de recherche s'assimile alors à du mécénat. Le directeur doit se faire l'avocat de dépenses somptuaires dont les effets indirects ne sont pas quantifiables mais dont l'utilité globale à long terme n'est pourtant pas discutable. Les entreprises qui ont eu dans le passé cette attitude entretiennent la recherche comme les barons du siècle dernier entretenaient des danseuses. La recherche est “tolérée” à condition qu'elle n'embête pas trop les dirigeants suprèmes au milieu desquels le directeur de recherche brille par son absence. Quant aux chercheurs il s'agit d'un mal nécessaire; ce sont des gens difficiles, peu mobilisables, qui sont, dans leurs vastes laboratoires centraux comme des universitaires (mais mieux payés et moins tenus de publier). L'incertitude de la recherche s'est transformée en autonomie des chercheurs. Nous avons même rencontré un directeur d'activité qui préférait payer la recherche centrale de son groupe “pour avoir la paix” et faisait refaire toutes les recherches à l'extérieur “pour avoir des résultats”. Bien que les statistiques globales (BARRE, 1988) laissent penser que cette caricature est encore présente, tous les directeurs de recherche interrogés la récusent vivement. La recherche est pour eux intégrée profondément et essentiellement dans la stratégie des firmes et cela jusqu'au sein du gouvernement d'entreprise. Si je pouvais d'une phrase résumer l'impression globale des entretiens ce serait sans nulle doute: recherche = stratégie, direction de recherche = fonction stratégique.

Toutefois cette unanimité pour marquer le lien entre la recherche et la stratégie des firmes cache de grandes disparités. Plus le groupe est grand et divers avec une recherche

longtemps centralisée, plus les directeurs de recherche insistent sur la nécessité de “resserrer les liens avec la stratégie”. L'ampleur de la volonté de réforme indique assez par contraste l'ampleur des dégats: la recherche industrielle s'était profondément autonomisée. Beaucoup de procédures d'évaluation sont d'introduction récente. Bien que tous les directeurs de recherche aient des tableaux de bord assez complets qui feraient pâlir d'envie le plus informé des directeurs de recherche publique ou parapublique, tous reconnaissent qu'il s'agit souvent de cotes mal taillées qui sont un supplément quantitatif utile à un travail d'analyse essentiellement qualitatif. La notion de “vente interne” des projets de recherche aux activités diverses qui forment le groupe est admise par tous mais elle apparaît souvent comme un difficile combat. Une étude entière devrait être consacrée aux procédures de parrainage ou de sponsoring des projets à l'intérieur des grands groupes. Bien que la tendance générale soit à la décentralisation et à la responsabilisation des activités, plusieurs directeurs de recherche disent encore des activités “nous décidons des montants et les activités n'ont plus qu'à courber l'échine”. D'ailleurs beaucoup de procédures qui paraissent ouvertes lorsque l'on interroge les directeurs de recherche de la “corporate research” apparaissent comme un prélèvement forcé lorsque l'on interroge certains directeurs d'activité (le directeur central de la recherche dont dépendait le dirigeant cité plus haut nous avait convaincu que tous les projets de son laboratoire central était parrainé “volontairement” par les activités...) La responsabilisation des chercheurs semble partout acquise, du moins dans le discours de leurs directeurs, mais l'insistance même à le signaler prouve que l'on revient de loin.

L'ambiguité de ce rapprochement entre deux expressions longtemps distinctes —recherche industrielle et statégie d'entreprise— est encore accrue par le fait que tous les directeurs doivent se battre aussi contre un excès de responsabilisation. L'un d'eux parle d'un “effet de balancier qui a fait passer ses chercheurs d'une volonté farouche d'indépendance dans un ghetto central” à une pression non moins farouche et tout aussi funeste “pour une analyse marketing que personne ne sait faire”. C'est qu'entre “le lyrisme et la myopie”, comme le dit un autre interlocuteur, le second danger est presque pire. Beaucoup de directeurs de recherche disent passer leur temps à résister à la demande d'assistance technique des activités. “Nous refusons l'assistance technique, ça c'est le problème majeur d'un groupe industriel” dir le directeur de recherche d'une enveloppe de 5 milliards. Un autre appelle “dérive client” ce raccourcissement de l'horizon de ses chercheurs constamment interrompus dans leurs projets pour répondre à des demandes d'aide au coup par coup. Entre l'autonomisation d'une recherche qui poursuit ses propres fins quelles que soient celles de l'entreprise et l'instrumentalisation qui sacrifie la préparation des produits et procédés de l'avenir aux besoins de production à très court terme, le métier de directeur de recherche demande un sens aigu de la navigation. Selon les cas l'intégration de la recherche et de la stratégie voudra dire que l'on rapproche les chercheurs des préoccupations des activités ou que l'on éloigne au contraire les préoccupations des activités afin qu'elles intègrent la recherche. Malgré le consensus qui

voudrait ne voir dans ces deux attitudes que le “barre à babord” et le “barre à tribord” d'une subtile navigation, il est rare de rencontrer des directeurs de recherche qui ne signalent pas dès les premières minutes d'entretien laquelle des deux tâches leur tient le plus à coeur: les uns désignent par le pronom “eux” les chercheurs tandis que les autres désignent ainsi les activités de production et de commercialisation. Il est plus rare de rencontrer des directeurs de recherche qui racontent des anecdotes à la fois sur la façon dont ils ont convaincu les chercheurs de prendre en compte l'entreprise et sur la façon dont ils ont convaincu les activités de prendre en compte la recherche. Et plus rare encore de rencontrer des dirigeants qui n'ont pas d'anecdotes de ce type à raconter parce que cette intégration est évidente.

Mais ce qui rend plus difficile encore de spécifier le lien exact entre recherche industrielle et stratégie des firmes c'est que, pour beaucoup de nos interlocuteurs, les firmes dans lesquelles ils opèrent n'ont tout simplement pas de stratégie à long terme. C'est là l'un des traits les plus frappants de cette enquête. Les directeurs de recherche ne veulent plus que l'on accuse la recherche d'être peu utile ou peu intégrée aux plans des entreprises alors que “le haut management n'a aucune vision long terme” et “qu'il joue au Mécano financier, saisissant les opportunités à la petite semaine” “Ce sont pour la plupart des joueurs de Monopoly”. La plainte des directeurs de recherche “on ne nous aime pas assez” devient, à mesure que le lien recherche-stratégie se fait plus intense, une remise en cause parfois vive de la politique à long terme des gouvernements d'entreprise. “Faites-moi de la bonne stratégie et je vous ferais de la bonne recherche” dit l'un d'eux, universitaire passé au privé et revenu depuis au public.

Plusieurs directeurs nous ont affirmé que les chercheurs commençaient à prendre beaucoup plus en compte les contraintes industrielles, financières, légales que les dirigeants ne prenaient en compte l'horizon temporel et les contraintes de la recherche. Ils ne supportent plus l'argument selon lequel les chercheurs venus de l'université ou des grandes écoles ne seraient pas capables de s'intégrer aux plans des entreprises “la mise en accusation de la recherche est le symptôme que quelque chose ne va pas dans la stratégie long terme” dit un directeur de recherche “corporate”. Un autre signale qu'il est beaucoup plus grave aujourd'hui de voir s'autonomiser la fonction financière que la fonction recherche. Il est clair que, à leurs yeux, plus la firme a une stratégie à long terme et s'y tient plus l'intégration de la recherche s'en trouve facilitée. A l'inverse dés que l'on évalue la recherche avec les yeux d'un bon gestionnaire serreur de boulons plus la recherche est mal vue puisqu'elle ne fait que diminuer la rentabilité comptable. Une bonne indication du nouveau lien établi entre recherche et stratégie consiste à repérer jusqu'où dans le gouvernement d'entreprise le directeur de recherche est capable de monter. Les directeurs de recherche interrogés siègent tous d'une façon ou d'une autre au comité exécutif mais cette position cache des attitudes foncièrement différentes. Alors que pour les uns le but est d'y décider en commun la stratégie de la firme, pour les autres il s'agit d'y représenter la recherche ce qui n'est pas du tout la même chose, témoin l'attitude d'un directeur de recherche centrale d'un grand groupe qui affirme simplement: “il n'est pas mauvais que la

recherche soit représentée au comité exécutif mais, vous savez, je ne veux pas les bassiner avec mes histoires, le DG trouve qu'on parle bien assez de la recherche et pas assez des résultats de la recherche”. Une telle attitude souligne assez que, dans ce groupe, la recherche est tolérée mais que les décisions vraiment importantes se passent ailleurs malgré la présence du directeur de recherche au sommet.

La recherche était un vilain petit canard, elle voudrait bien être un aigle au milieu des aigles définissant la stratégie à long terme, mais de multiples signes tendent à rappeler que les autres aigles continuent à lui voir les plumes de canard. La fonction de directeur de recherche n'est pas encore la voie la plus sûre pour arriver au sommet des gouvernements d'entreprise. Ce n'est plus une voie de garage, ce n'est pas encore une voie royale. C'est à cause de cette ambiguité que les directeurs de recherche les plus offensifs ou ceux qui appartiennent à des firmes où la RD représente une part énorme des dépenses telles la pharmacie ou la biologie refusent absolument de même parler “d'une intégration de la recherche et de la stratégie”. “Si l'on pose le problème dans ces termes c'est que l'on est déjà dans l'impuissance; non, il y a une stratégie celle de l'entreprise, la recherche est un moyen parmi d'autres de la définir, de la réévaluer, de la réaliser, si on ne me demandait mon avis que sur les aspects techniques ce serait fichu” dit l'un d'eux. “Il n'y a pas de stratégie de recherche, ça n'existe pas, il n'y a qu'une stratégie de l'entreprise”. “Ils se plaignent toujours qu'on ne les aime pas” dit l'un d'eux à propos de ses collègues de l'EIRMA “mais c'est de leur faute, ils défendent leur corporation au lieu de prouver qu'ils sont mieux capables que les autres [dirigeants] de prendre en compte la stratégie long terme de la boîte”. “Je ne suis pas l'avocat de la recherche au comité exécutif, ce serait une cause perdue, non je donne mon avis sur les aspects techniques et aussi sur la stratégie”, assure un autre. “Le signe que cela change, affirme le directeur d'un grand groupe verrier, c'est que l'on nous demande beaucoup plus qu'avant; avant on nous disait ‘vous êtes le spécialiste, débrouillez-vous’; c'était très malsain; j'aime mieux être moins indépendant et qu'on nous demande plus”. On remarquera combien ces expressions sont encore marquées par une attitude que nos interlocuteurs voudraient voir dépassée. C'est que la redéfinition en cours du métier de directeur de recherche suppose probablement un peu plus que des changements de mots. Si la stratégie est l'art d'évaluer des positions, de les occuper et de les tenir irréversiblement en forçant l'adversaire à abandonner du terrain, la fusion dans le même métier de la fonction recherche et de la fonction stratégie demeure délicate car elle suppose une redéfinition assez profonde de l'idée que l'on se fait de la recherche mais aussi une redéfinition plutôt radicale de l'idée que se font les dirigeants français de la stratégie d'une entreprise. C'est là tout l'intérêt de la fonction de directeur de recherche: elle conduit à redessiner la philosophie de l'entreprise.

Aussi incertain que soit ce rapport entre recherche et stratégie une évolution paraît irréversible qui rend la direction de recherche bien différente de ce qu'elle était dans les années 60: l'accolement des deux mots ne signifie pas que l'on va raccourcir l'horizon temporel de la recherche, mettre au pas les chercheurs, les boucler solidement; il signifie

également que l'on va s'efforcer d'allonger aussi bien les préocuppations des activités que les considérations du gouvernement d'entreprise. A la défense d'une fonction recherche autonome s'est substitué un combat offensif sur deux fronts à la fois. La recherche n'est plus conçue comme un réservoir d'où il finira bien par sortir quelque chose et qui de toutes façons ne peut pas faire de mal, mais comme des troupes fraîches permettant de soutenir la guerre économique grâce à l'effet de surprise créé par des combinaisons inattendues. Après les années pendant lesquelles la recherche survivait dans un ghetto en ne se justifiant que par le slogan “la science pour la science”; après la réaction au cours de laquelle les stratèges voulaient mettre la recherche au pas et la faire servir à plus court terme, nous entrons dans une période nouvelle où toute la firme cherche à allonger sa stratégie, la rendre plus ferme et plus durable. Encore faut-il, pour qu'il y ait stratégie, qu'il y ait des stratèges et qu'ils soient au fait de la nouvelle guerre de mouvement rendue possible par la recherche.

Les différents savoirs-faire du directeur de recherche

Après avoir défini ce que le directeur de recherche ne veut pas être (le gardien du

tombeau des Danaïdes) et ce qu'il aspire à devenir (un responsable parmi d'autres de la stratégie de l'entreprise), il est possible de définir, avec plus de précision, les différents métiers, fort divers, qu'il doit occuper simultanément. Nous aboutirons ainsi, malgré les variétés techniques, à une sorte de portrait-robot du rôle actuel de directeur de recherche. (L'emploi du masculin ne signale aucun préjugé sexiste mais simplement le fait que je n'ai rencontré nulle directrice de recherche).

Le démographe Aucune autre fonction de l'entreprise ne gère à ce point des ressources humaines rares,

chères, lentes à remplacer, à peu près complètement idiosyncratiques. On sait combien la recherche en général repose sur des réseaux de compétence délicats à manier et à évaluer dont aucun élément n'est substituable à aucun autre: entre un tribologue et un autre, entre un spécialiste des anticorps monoclonaux et un autre, il peut y avoir toute la différence qui sépare l'échec de la réussite. La gestion des ressources humaines est de peu d'utilité en ce qui concerne les chercheurs puisqu'il s'agit en même temps des ressources techniques du groupe. Impossible, là plus qu'ailleurs, de séparer les carrières des hommes et la stratégie scientifique. Tous nos interlocuteurs signalent les précautions de sioux qu'il leur faut déployer pour gérer ce personnel là, l'attirer, le garder, l'orienter, le ménager, le récompenser. La difficulté de ce métier est bien mise en lumière par l'un de nos interlocuteurs: “on n'investit pas dans la recherche mais dans des chercheurs; la constante de temps est la chose la plus difficile à gérer; la plupart des projets de recherche sont à cinq

ans maximum, alors que la formation des hommes nécessaires pour les mener à bien est à dix ans”. Impossible, en cas de brusque virage, de créer du jour au lendemain une équipe de spécialistes de haut niveau bien au fait de la culture locale et des contraintes de la production. Plus difficile encore de réemployer des chercheurs que les fusions et réorientations incessantes ont rendu moins utiles. La considération est là, plus qu'ailleurs, une des contraintes fortes, et l'un des savoirs-faire les plus délicats consiste à maintenir le moral des chercheurs ce qui est particulièrement difficile pour les directeurs de recherche chargés de les mettre au pas et de serrer les boulons (ou de leur serrer la vis). Plusieurs directeurs de recherche signalent d'ailleurs que l'on ne “peut gérer la recherche impeccablement”, il faut nécessairement du “flou, de la graisse, un peu de surnombre, de la marge”.

Tous les directeurs de recherche sont extrèmement attentifs à la démographie de leurs chercheurs, à leurs spécialités, au turn-over qui les diffuse dans l'entreprise, et aux possibilités de recrutement à partir des organismes publics de recherche. Ils ont pour cela des tableaux de bord extrèmement détaillés qui sont évidemment tenus secrets, des procédures de promotion interne et même de double échelle selon la formule américaine afin de récompenser les mérites de ceux des chercheurs qui restent chercheurs à vie. En dehors de ces cas qui, tous sont d'accord sur ce point, doivent demeurer rares, le but des directeurs de recherche est de diffuser à travers toute l'entreprise le plus grand nombre d'anciens chercheurs. “Rien n'est plus triste qu'un vieux chercheur de l'industrie” dit un brillant universitaire devenu directeur d'une des plus grosses enveloppe recherche. Malheureusement il n'existe pas d'étude publique et récente sur la diffusion à travers les firmes des anciens chercheurs (turn-over interne), ce qui est regrettable car on disposerait alors d'un indicateur remarquable pour mesurer l'habilité d'une direction de recherche à créer le réseau de ceux capables de comprendre ses motivations et ses contraintes. Un trait semble pourtant bien reconnaissable: plus l'entreprise intègre facilement la recherche moins le directeur de recherche croit aux campagnes de motivation (primes à l'innovation, pourcentage de temps de recherche en perruque, groupes de progrès, etc). “Ce sont des cautères sur une jambe de bois”.

A ce propos tous les directeurs de recherche signalent une amélioration considérable des relations avec les organismes publics de recherche. C'est là, de l'avis unanime, l'effet le plus durable du passage des socialistes au(x) ministère(s) de la recherche. “Avant, on nous considérait comme des marchands de canons, maintenant on nous accueille à bras ouverts”. Malheureusement, cela ne suffit pas à offrir à leur gestion du personnel ce vaste arrière-pays sur lequel ils pourraient se porter soit pour recruter, soit pour réorienter, soit pour externaliser les recherches à faire. Même si tous les indicateurs classiques (bourses CIFRE, contrats, consultations, GIP, accords-cadre, contrats CEE, subventions) marquent une augmentation, la porosité demeure faible entre OPR et firmes et les directeurs de recherche ne sont pas libres d'internaliser ou d'externaliser les projets de recherche de façon réversible. En gros, ils sont obligés de faire eux-mêmes trop de recherche et d'embaucher

pour plus longtemps qu'ils ne le voudraient trop de chercheurs (d'où l'effet statistique mis en lumière dans BARRE, 1988). “Si nous trouvions plus de bonne recherche à l'extérieur, nous n'aurions pas à la faire”. Plusieurs directeurs de recherche sont préoccupés par le fait que la recherche publique est souvent trop appliquée —effet pervers de la mobilisation des universitaires en faveur de l'industrie !— ou mal orientée —effet de l'échec de la programmation de la recherche publique— ce qui les force à entreprendre eux-même une recherche plus fondamentale que celle qu'ils souhaiteraient faire (ce qui complique d'autant leur travail sur l'autre front avec leurs directions centrales ).

La vie d'un directeur de recherche n'est décidemment pas simple, d'autant qu'un universitaire, dit l'un d'eux, peut récupérer en consultations la différence de salaire avec l'industrie tout en gardant sa liberté totale de manoeuvre... Même si les relations se sont améliorées, le directeur de recherche doit encore penser à constituer les savoirs transversaux et à long terme nécessaires à sa branche industrielle, travail qui devrait être pourtant, pour une large part, celui de la recherche publique. Voilà une tâche de suppléance très importante dont il se passerait volontiers si la recherche publique remplissait davantage ses fonctions et ne s'empêtrait pas dans une vaine imitation de l'industrie que Michel CALLON (1988c) appelle cruellement la RANA (recherche appliquée non appliquable), RANA qui semble le produit essentiel d'immenses organismes dont les directeurs de recherche taisent le nom par commisération. Ce qui est clair c'est que personne ne parle plus en France d'une recherche publique indépendante opposée à une recherche industrielle qui serait aux ordres; il n'y a que des chercheurs poursuivant des stratégies de recherche les unes définies par les collègues américains ou japonais, les autres par les collègues de la branche, les autres enfin par une équipe diversement composée. A long terme ce changement dans les attitudes devrait faciliter la tâche des directeurs de recherche.

L'évaluateur Gérer des hommes n'est qu'une partie du travail d'un directeur de recherche, il doit aussi

pouvoir à tout moment évaluer les projets en cours, suivre leur degré d'avancement, choisir parmi ceux que les laboratoires proposent, intéresser les activités aux projets qui lui paraissent prometteurs, enfin, défendre son enveloppe et ses choix. On apprend, dans les quelques formations consacrées à la gestion de la recherche, d'impressionnantes méthodes pour sélectionner les projets et pour les évaluer. Ces méthodes sont impressionnantes en effet mais peu ou pas utilisées sauf dans les secteurs classiques pour lesquels elles furent inventées dès les années 60 (chimie, pharmacie non biologique). La trentaine de méthodes recensées par l'étude de DANILA (1985) ne suscitent en effet qu'une grande méfiance. “Les méthodes quantitatives ne sont que des gardes-fou”. Le suivi des recherches est assuré la plupart du temps par des indicateurs robustes: le découpage par projet se généralise d'autant plus rapidement que les grands laboratoires centraux à recherches forcées sont en voie de disparition. Tous les directeurs de recherche interrogés peuvent en gros savoir, du moins au

niveau des activités, combien il y a de projets, ce qu'ils coûtent annuellement, qui en est le responsable, depuis quand ils ont commencé, quel est leur intitulé. On remarquera que ce minimum est déjà très supérieur à ce dont peuvent disposer, aujourd'hui encore, les directeurs de recherche publique incapables, dans la plupart des cas, de rapporter des hommes, des sommes, des temps et des intitulés, ce qui sape évidemment toute possibilité de stratégie et laisse les chercheurs à ce qu'ils appellent par euphémisme “l'indépendance de la science”, c'est à dire leurs stratégies.

A cette base d'indicateurs s'ajoutent souvent une procédure d'évaluation plus ou moins continue. Ces procédures visent toutes à faire se rencontrer fréquemment les parrains ou sponsors, les chercheurs et les dirigeants. Des procédures souvent très élaborées avec même des spécialistes pour aider les chercheurs à remplir les formulaires d'évaluation (add). extérieures, visites,

Aucun des directeurs de recherche ne croient vraiment aux évaluations formalistes (l'un d'eux prétend même vivre dans “une société orale primitive sans papier”), mais tous utilisent les procédures formelles comme moyens de rencontre afin d'intégrer le plus possible les futures parties prenantes de la recherche. En particulier tous ont une procédure plus ou moins élaborée pour intégrer la recherche au marché. C'est la préoccupation lancinante de tous les directeurs de recherche. On sait en effet que les gros investissements ne sont pas à faire dans la recherche (phase I des projets) mais plus tard en phase II et III. C'est là que les projets coûtent le plus cher et sont le plus fragiles. C'est là, comme le montrent les statistiques collationnées par Michel CALLON (1988c), que l'industrie française tend globalement à les abandonner, préférant une recherche plus fondamentale, moins utile mais moins chère, à une recherche plus utilisable mais infiniment plus chère. Le résultat de cette tendance c'est qu'il est paradoxalement plus facile de défendre une recherche qui ne débouche pas qu'un projet de développement qui risque de déboucher sur quelque chose ! Les chercheurs et les directeurs de recherche ont été tellement échaudés par l'échec de nombreux projets qu'ils commencent tous à multiplier les précautions, procédures d'alerte et voyants rouges. Chacun, en fonction de sa propre expérience et de son propre flair, s'inquiète en fonction d'indications différentes.

Tous, surtout les directeurs de recherche centraux ou “corporates”, sont très soucieux de l'état du marché interne à la société; dès que les activités renâclent à financer, les directeurs de recherche reévaluent leurs projets sans jamais être sûrs que les résistances qu'ils rencontrent sont dûes à la “myopie” des commerciaux ou au “lyrisme” de leurs chercheurs. Une phrase peut résumer les procédures mises en place: intégrer les clients (parfois extérieurs mais le plus souvent intérieurs) aussi tôt que possible en amont des projets. On sait que c'est là aussi la seule variable pertinente découverte dans la fameuse étude SAPPHO sur les conditions de l'innovation dans l'industrie anglaise, résultat confirmé depuis par de nombreuses études de socio-économie des innovations. Chacun a ses trucs pour installer résolument le marché interne et externe dans la définition même des projets. Dans l'un des groupes verriers le directeur de recherche demande aux chercheurs

de calculer tous les six mois, avec l'aide de contrôleurs de gestion, non pas le coût des programmes de RD mais les prix de revient et les prix de vente du produit final mis sur le marché —calcul qui gagne en réalisme au fur et à mesure que le projet s'avance. De six mois en six mois, les deux courbes que l'optimisme de départ tend à éloigner l'une de l'autre ont hélas une fâcheuse tendance à se recouper dès que l'on approche de la préindustrialisation.

C'est lorsqu'on passe de la phase d'optimisme au grand moment pessimiste que le directeur de recherche doit se muer, selon l'expression d'un des plus éminents d'entre eux, “en psychanalyste des chercheurs” capables de “gérer la crise inévitable”. C'est ce rôle qui est le plus délicat et en un sens le plus intéressant. Les chercheurs doivent passer d'un état où ils explorent une gamme de possibilités nombreuses, à une sorte d'entonnoir où les possibilités doivent être impitoyablement sélectionnées. Si l'on voulait cerner de façon plus fine l'attitude psycho-sociale que les directeurs de recherche doivent affronter on pourrait dire que c'est une tendance des chercheurs à considérer prématurément le projet comme achevé. C'est la source de l'optimisme bien connu des chercheurs. Une fois le projet “techniquement au point” le “reste suivra tout seul”. Or, un projet n'est jamais techniquement au point sauf en fin de parcours, lorsqu'il est achevé, lorsqu'il est devenu une technique mûre et rentable. Hélas, c'est justement à la phase de prédeveloppement, au moment même où l'on commence à voir l'exponentielle décoller, que les chercheurs tendent à abandonner leur projet au hasard, c'est à dire aux autres.

C'est pourquoi, un rêve parcourt le milieu restreint des directeurs de recherche, celui de voir leurs chercheurs accompagner leurs projets de phase en phase jusqu'à se retrouver en fin de parcours dans des sous-activités ou même des filiales entièrement responsables de la production et de la commercialisation. Il n'existe aucune étude qui permettrait de savoir s'il s'agit là d'un rêve ou d'une réalité. Evidemment certaines sociétés que nous avons visitées, comme Essilor, sont dirigées par les innovateurs qui les ont créées, mais il s'agit là d'exceptions. En regardant le nom des principaux dirigeants des groupes, des branches et des activités, on ne retrouve que très rarement le nom des principaux innovateurs. Un fait est plus troublant encore. Bien que nous manquions cruellement de statistiques fiables, une proportion non-négligeable (peut-être le tiers?) des directeurs de recherche en France ne sont pas eux-mêmes “monté” à partir de grands projets de recherche-développement.

Malgré cela le rêve des directeurs de recherche est très révélateur; il ne vise à rien moins qu'à redéfinir, dans les firmes françaises, les voies du succès. En supposant qu'un chercheur peut et doit suivre son innovation jusqu'à diriger la société qui exploiterait le marché correspondant, les directeurs de recherche supposent l'existence d'un nouveau dirigeant hybride capable d'intégrer simultanément les techniques et le marché. Ce qui rend ce rêve assez subversif c'est que cet hybride ne correspond pas du tout à l'ingénieur-dirigeant sorti des grandes écoles, des bottes et des corps. Celui-ci mèle également technique et économie mais au lieu de conjoindre l'incertitude de la recherche à l'incertitude du marché, ce sont les certitudes (et parfois, pour nombre de nos

interlocuteurs, l'arrogance) qu'il redouble dans le domaine technique et dans le domaine économique. Un directeur de recherche privé revenu au public exprime fort bien ce que rappelle Michel CALLON (1988c) à propos de la formation des écoles d'ingénieur: “le drame n'est pas que le marché et la recherche ne soient pas plus intégrés, c'est que le jeune ingénieur n'aient été en contact ni avec la recherche, ni avec la vente, c'est à dire qu'il ait raté les deux principales sources d'incertitudes”. En un sens, il y a moins de distance entre la recherche et la stratégie de vente parce qu'elles introduisent toutes deux à un monde fluctuant, incertain, où un petit rien peut séparer l'échec total de la réussite, qu'entre ces deux activités et l'ingénieur généraliste convaincu que le monde est au fond stable, rêglé, connaissable et maîtrisable. Selon le mot de l'un de nos interlocuteurs, “un abime sépare l'expert du chercheur”. Si toute l'entreprise est conçue comme une exploration in vivo de l'état des marchés, des techniques et des concurrents, rien de plus facile que d'y ajouter une recherche forte. Si elle est dirigée partout par des experts, l'incertitude n'apparaît plus que dans la recherche qui devient de ce fait impossible à exploiter.

On notera à ce propos avec quelque réconfort que cette formation technique divorcée à la fois de la recherche et de la vente est le seul trait reconnaissable que nos interlocuteurs associent à la situation française. Pour le reste, aucun ne trouve de qualités nationales bien reconnaissables même ceux qui, chargé de la portion française de grands groupes multinationaux, sont appellés à faire, par la force des choses, de nombreuses comparaisons (il est vrai que tous les interviewés sauf deux étaient français). Là encore les problèmes de management et les particularités techniques sont plus importants que quelques vagues traits culturels qui seraient propres aux chercheurs de ce pays. Un coup d'oeil sur la littérature spécialisée fait d'ailleurs ressortir que les difficultés d'intégrer stratégies de recherche et stratégie d'entreprise se retrouvent comme une litanie dans tous les pays, même au Japon, même aux Etats-Unis, même en Allemagne. Malgré ces litanies unanimes, il est clair que si les directeurs de recherche pouvaient recruter dans les universités et les grandes écoles, des gens préparés à parcourir de façon continue tout le réseau qui va de la recherche des possibilités techniques à la recherche des possibilités du marché, en passant par la recherche des possibilités des hommes, leur tâche serait grandement allégée.

Le marieur Recruter, stimuler, mobiliser les chercheurs est le premier savoir-faire du directeur de

recherche; évaluer, intégrer, mesurer, suivre les projets de recherche est le second. Il en est un troisième, qui consiste à marier des groupes ou des intérêts si différents qu'ils n'auraient eu, sans lui, aucune chance de se mesurer ou de s'accorder. C'est ce travail de marieur et de médiateur qui distingue le plus nettement les directeurs de recherche gestionnaires des directeurs de recherche stratèges. Dans les entreprises où la recherche est acceptée mais peu ou mal intégrée on ne demande au directeur de recherche que les deux premiers savoirs-faire. Il s'occupe de la recherche comme d'autres s'occupent des frais financiers, des

relations publiques ou du contrôle qualité. Il est le spécialiste de la technique et on lui demande avant tout d'être un bon gestionnaire. Souvent d'ailleurs il ne fait que surveiller l'arbitrage entre les projets de recherche proposés par les chercheurs ou les activités. Il court donc le risque de se trouver instrumentalisé à la fois par la direction (occupez-vous de la technique, c'est votre boulot) et par les chercheurs (gérez la recherche, c'est votre boulot). Ce rôle de directeur de recherche est plutôt ingrat et peut aboutir à une marginalisation d'autant plus rapide que l'origine du directeur de recherche compte alors énormément. S'il est un ancien chercheur, les scientifiques lui feront confiance mais la direction se méfiera de son corporatisme éventuel; s'il est un manager venu pour serrer la vis, les chercheurs se méfieront de son incompétence technique et le lui feront bien sentir. La situation est rendue encore plus délicate si le directeur de recherche est un fonctionnel. Haut dans la hiérarchie mais sans réel pouvoir par rapport aux directeurs de recherche d'activités, il court alors le risque d'une marginalisation rapide même s'il siège au gouvernement d'entreprise. Il aura beaucoup de statistiques, défendra courageusement son enveloppe-recherche, évaluera régulièrement ses chercheurs, mais ne sera qu'un instrument dans la main des autres. Le plus grave est que cet amenuisement relatif de sa position ne fera que renforcer la coupure entre le milieu de recherche et le reste de l'entreprise. Le travail de directeur de recherche ne suffira pas à empêcher la double litanie de reprendre: “ils jouent au monopoly et sacrifient le long terme”, accuseront les uns; “ils se font plaisir et nous ruinent”, rétorqueront les autres. C'est le lot de tous les métiers de médiateurs, on peut y être beaucoup de choses à la fois ou compter pour du beurre.

Afin de ne pas compter pour rien, le directeur de recherche doit ajouter ce troisième savoir-faire, le plus délicat de tous qui va lui permettre de passer de la gestion à la stratégie, de la défensive à l'offensive, de la surveillance à l'initiative. On reconnaît après quelques minutes d'entretien les directeurs de recherche qui pratiquent ce savoir-faire: ils se passionnent pour le contenu des grands projets techniques qu'ils essaient de monter. Leur oeil s'allume, ils s'échauffent, ils ne peuvent s'empêcher de parler (en termes voilés) des “coups” techniques qu'ils sont en train de jouer. Les autres vous parlent gestion du personnel et procédures d'évaluation, certes avec sérieux et talent, mais pas de technique avec passion. On sent que le bureau où nous reçoivent les premiers est celui d'un honnête gestionnaire qui ne peut inflêchir profondément l'entreprise; dans le bureau des seconds, au contraire, on veut donner l'impression que s'y forge les produits et procédés de l'entreprise de demain. Chose significative, ce partage ne recoupe pas celui entre les directeurs venus de la recherche et ceux venus du management. En effet, lorsqu'il s'agit de développer une stratégie, c'est à dire d'occuper de façon irréversible, un ensemble cohérent de positions clefs qui obligent l'adversaire à la retraite, l'unité nécessaire de la stratégie devient plus importante que l'“arme” d'appartenance. Autant il était important de savoir d'où venait le directeur de recherche lorsqu'il adoptait de son métier le profil bas que j'ai décrit, autant cela est superflu lorsqu'il adopte un profil haut.

Le directeur de recherche doit trouver pour les programmes que l'évaluation a retenus non seulement des parrains dans toute l'entreprise mais des lobbies. Il ne s'agit plus de convaincre l'entreprise que la recherche en général doit être soutenue. Ce rôle corporatiste bien que nécessaire est trop prévisible pour être habile puisque les directeurs de recherche demanderont toujours, on le sait d'avance, plus de personnel et plus de crédits. Non, il s'agit maintenant d'intéresser à tel projet technique un ensemble de gens qui n'ont pas nécessairement d'intérêt, de respect ou de motivations pour la recherche. Cela est plus habile puisqu'on se fiche maintenant de la recherche en tant que telle. On vend des projets. Il se trouve que, une fois les autres secteurs de l'entreprise convaincus, il faut aussi, pour mener à bien les dits projets, continuer, voire amplifier, l'effort de recherche. Mais on ne demande plus un chèque en blanc, ce sont les autres maintenant qui exigent un effort de recherche accru afin de mener à bien leurs projets. La recherche ne devient plus qu'un moyen pour une fin bien identifiée. On reconnait facilement de tels projets au fait que la recherche n'y est plus mentionnée comme telle. Il s'agit de pousser une nouvelle activité (procés, produits ou services), et le personnel de RD se trouve là parmi tant d'autres qui poussent à la roue. Ce travail très subtil de vente interne est bien visible dans les relations toujours délicates que les directeurs de recherche, surtout s'ils sont fonctionnels, ont avec les responsables de branches ou d'activité. Les différents directeurs peuvent former à travers les grands groupes des “collèges” visibles ou invisibles qui ne suivent pas les nervures usuelles des organigrammes. Soit qu'ils regroupent par discipline ou par fonction (chimie fine, procédés d'analyse, instrumentation, centres de calcul) des moyens de recherche dispersés; soit qu'ils passent par dessus la tête des directeurs de branche pour s'adresser directement aux chercheurs; soit qu'ils montent avec des universitaires ou des centres de recherche associatives des projets qui n'obéissent à aucun prédécoupage; soit enfin qu'ils organisent une veille technique, plus ou moins sophistiquée, en faisant travailler des panels de spécialistes sur les développements attendus dans un domaine; dans tous les cas les directeurs de recherche peuvent passer partout et, s'ils sont habiles, bénéficient d'une marge de manoeuvre très importante pour développer, pour l'entreprise, de nouveaux pseudopodes.

Les directeurs de recherche que nous avons interrogés passent un temps énorme à ce travail de marieur. C'est ce travail là qui, s'il était décrit, permettrait de prendre connaissance, avec une assez grande précision, de la stratégie à long terme de l'entreprise. Malheureusement, c'est aussi la raison qui rend l'enquête si délicate. Autant les indicateurs sont précis pour la démographie et l'évaluation des projets, autant ils font défaut pour ce savoir-faire de marieur. Le flair, les relations personnelles du directeur, ses affinités, son habileté manoeuvrière, les secteurs techniques dans lesquels ils se sent à l'aise, voilà ce qui est déterminant et ce qui échappe aussi, pour l'instant, aux indicateurs. Personne ne sait mieux, dans une entreprise, à quoi s'en tenir sur l'incertitude des marchés, des techniques et des luttes internes. Personne ne sait mieux que lui comment faire appel à la technique quand les luttes internes ou le marché bloque, et comment faire appel au marché ou aux

luttes internes quand c'est la technique qui bloque. Mais à chaque changement de titulaire, le savoir-faire disparaît et réapparaît sous une autre forme. Pourtant, il devrait être possible d'inventer des procédures permettant de recueillir cette exploration simultanée de l'état de l'entreprise, de l'état des marchés, et de l'état des techniques. Le “flair” du directeur de recherche serait alors, non pas remplacé, mais visualisé et donc susceptible d'une discussion plus précise.

La mutation du métier de directeur de recherche

Jusqu'à une date récente tout concourait en France à marginaliser la recherche, et

surtout la recherche industrielle. Marginaliser, ne voulait pas dire, chose surprenante aux yeux de l'étranger, qu'elle était mal financée ou mal considérée; au contraire, qu'elle soit publique, semi-publique, ou privée, l'effort de recherche est assez facilement consenti, mais à condition qu'il ne vienne pas troubler l'ensemble des certitudes. Surtout, que les chercheurs ne viennent pas exiger un effort décuplé au moment crucial où les projets passent du laboratoire au prototype. Qu'ils s'occupent d'assistance technique, de recherche fondamentale, d'entretiens des connaissances, mais pas de constituer de nouvelles lignes, de nouvelles branches, de nouvelles organisations, de nouveaux marchés. Cet exil doré flattait bien sûr de nombreux chercheurs toujours prompts à vêtir du nom prestigieux “d'autonomie de la recherche” une certaine infantilisation qui les mettait à l'abri à la fois de la production et du marché scientifique international (bien plus compétitif que le monde, par comparaison, très courtois des entreprises). On aboutissait donc à ce paradoxe que la recherche était d'autant plus aimée qu'elle était moins utile. L'expression de “danseuse” était, tout compte fait, assez bien choisie, car le financier qui entretient un rat de l'opéra ne souhaite pas la voir se mèler de ses affaires et siéger en son conseil... Tout le monde a connu ces laboratoires forteresses d'où ne sortait ni publications, ni brevets, mais qui, ne gênant personne, faisait partie des frais fixes.

La situation a maintenant bien changé même si elle ne se reflète pas encore dans les statistiques de RD (pour ne pas parler de la balance des brevets et des royalties, ni de la balance commerciale). Tous les directeurs de recherche ont repris en main les laboratoires forteresses —beaucoup ont été tout simplement démantelées et rendues aux activités pour contraindre celles-ci à prendre en charge leur propre long terme; tous ont mis au point des procédures d'évaluation et de suivi, souvent très précises mais presque toujours de création récente et sans le degré de sophistiquation qu'on prétendait leur donner dans les années 60; tous, ont créé des comités scientifiques composés pour une grande part de personnalités extérieures, pour les aider à prospecter et à évaluer leurs projets; tous ont fortifié les liens jusque là fort distendus avec les organismes publics de recherche; tous se sont donnés un mal de chien pour intégrer les fonctions marketing et les fonctions recherche —parfois de façon seulement incantatoire; presque tous ont monté suffisamment pour siéger aux comités éxécutifs des branches et des groupes, même si l'ENA, la banque ou les bottes

restent des voies infiniment plus sûres pour arriver au sommet des gouvernements d'entreprise. La recherche industrielle n'est plus une danseuse dont le directeur de recherche serait la duègne. Elle est admise par tous non seulement comme un luxe mais comme une nécessité qu'exprime fort bien le slogan invérifiable mais utile comme éperon : “nous devons renouveller deux tiers (ou trois quarts, ou neuf dixième) de nos produits et procédés d'ici l'an 2000”.

Reste à prendre un nouveau tournant qui donne aux plus enthousiastes des directeurs de recherche un grand espoir et qui rend leur métier aussi digne de passion: non plus intégrer la recherche et la stratégie, mais, tout simplement avoir une stratégie. Au cours des cinq ou six dernières années on a d'abord compris la mobilisation de la recherche comme un raccourcissement de son horizon. On passait, pour employer des étiquettes absurdes, de la recherche appliquée, à la recherche sur-appliquée. C'était se tromper sur l'idée de stratégie et trouver un moyen sûr pour démoraliser les meilleurs chercheurs transformés en assistants techniques. C'est qu'une stratégie ne se définit pas par le développement de telle ou telle arme mais par les positions que l'on souhaite durablement occuper. Peu importe que ces positions soient définies par le marketing, par les financiers, par les producteurs, par les conseillers extérieurs ou par les chercheurs. Ce qui compte c'est ensuite de mobiliser aussi loin et aussi complètement qu'il le faut les forces capables de tenir ses positions. Après tout, y a-t-il meilleure définition de la recherche scientifique que celle-ci: recruter et discipliner durablement des choses afin de tenir et maîtriser durablement des hommes? Selon les positions à prendre et les forces à recruter, avoir une stratégie cela peut vouloir dire aussi faire plus de recherche, plus longtemps et plus en amont. Les directeurs de recherche s'en aperçoivent maintenant et c'est leur meilleur argument. Mais il y a un hic. C'est que l'isolement doré de la recherche arrangeait bien du monde, dans les entreprises. En accusant les chercheurs de ne rien comprendre au monde de l'économie, on pouvait, à bon compte, cacher ce secret de polichinelle: les firmes n'ont souvent pas de stratégie à long terme cohérente. C'est pourquoi, comme le montrent tant d'études micro et méso-économiques sur l'innovation, les firmes françaises abandonnent souvent les projets après avoir longuement investi sur eux au moment même où ils pourraient devenir enfin intéressants. C'est qu'il s'agit là du moment où les investissements décuplent et qu'il faut alors choisir entre une stratégie de recherche finalement peu coûteuse et une stratégie tout court. Comme toujours la conception que l'on se fait des sciences est un parfait révélateur du reste de la société. En modifiant cette conception, les directeurs de recherche sont engagés dans une rédéfinition des entreprises, et, par ricochet, de la politique publique de programmation de la recherche. Ou bien ils réussissent à faire avaler la recherche aux gouvernements d'entreprise ce qui veut dire en fin de compte les obliger à définir une stratégie, ou bien ils échouent et la recherche, grasse ou maigre, demeurera toujours une fonction subalterne que l'on tolèrera faute de pouvoir la supprimer.

La gestion d’un laboratoire de recherche universitaire

José REMACLE

L'organisation et le fonctionnement d'un laboratoire de recherche sont multiples. Ils diffèrent considérablement des sujets de recherche lesquels ont chacun leurs contraintes propres ne fut-ce que par le type d'appareillage, plus ou moins sophistiqué et coûteux à utiliser. Il faut aussi considérer la taille du laboratoire; ce n'est pas la même chose de suivre les travaux de quelques chercheurs que de gérer les recherches de dizaines de personnes. L'orientation générale des recherches est aussi importante; un laboratoire de recherche fondamentale, subsidié par des fonds stables ne sera pas soumis aux mêmes contraintes, par exemple efficacité à court terme, qu'un laboratoire travaillant sur des contrats privés ou publics où les échéances sont déterminantes. Le statut et la formation des chercheurs influencent également la gestion; les jeunes chercheurs dont le diplôme ou la thèse dépend des résultats obtenus sont d'habitude très motivés mais ils exigent un suivi important alors qu'il en va tout autrement pour les chercheurs "professionnels", engagés de manière stable ou, en tout cas à long terme. Enfin, d'autres facteurs, et non des moindres, sont la personnalité du responsable du laboratoire et sa conception de la recherche et du travail en équipe. Les extrêmes pourront être, d'un côté son isolement presque physique mais aussi intellectuel par rapport au travail des chercheurs, de l'autre, une implication personnelle forte à tous les niveaux de la conception du travail à sa réalisation et à sa publication. Cet esprit dans lequel fonctionne un laboratoire avec la conception non seulement scientifique mais aussi social, psychologique, économique, ... de son responsable est si forte qu'on pourrait dire que le laboratoire est à l'image de son responsable. Etant donné cette diversité et le nombre de facteurs qui interviennent dans le fonctionnement d'un laboratoire, on ne peut certainement pas en donner des règles mais plutôt des lignes générales et des indications en montrant

quelques implications qu'entraînent ces options, chaque laboratoire restant finalement unique. La gestion d'une équipe Bien que la gestion d'un laboratoire s'appuie sur les principes du management de n'importe quelle institution ou entreprise, il s'agit, avant tout, d'un travail d'équipe réalisé par des personnes où l'aspect humain est primordial. Chacun doit trouver sa place, sa motivation et sa considération dans le travail avec les autres. Le responsable organise ce travail de manière à ce que chacun puisse situer sa participation, prendre conscience de la dépendance du travail d'ensemble par rapport à sa compétence et obtenir une reconnaissance de l'effort fourni. L'idéal est que chacun puisse mettre en valeur ses potentialités : certains préférant un travail technique, d'autres sont plus théoriciens, certains étant plus cartésiens, d'autres plus intuitifs etc... L'organisation des équipes de travail doit tenir compte de ces facteurs de même que des relations personnelles entre les chercheurs. Le travail de deux doctorands sur un même sujet commun peut se transformer en compétition stérile surtout si la participation de chacun au sujet de recherche est mal définie, alors que les rapports entre un chercheur chevronné et un jeune chercheur sont souvent excellents. Les encouragements, outils privilégiés d'intervention, sont dispensés principalement dans les moments difficiles où le travail n'avance pas ou lorsqu'un chercheur rencontre un problème. Le responsable doit s' impliquer lui-même dans le travail et il faut que chacun le sache. Ces interactions se font principalement par des discussions fréquentes au niveau des idées mais aussi en analysant les résultats, en discutant et parfois planifiant les expériences à réaliser et, enfin, en finalisant le travail sous forme de thèse, de rapport ou de publication. Il s'agit d'une sorte de contrat par lequel chacun est engagé à des niveaux divers à un travail commun et devient solidaire des autres. Ainsi, au jeune chercheur qui va apprendre énormément et va bénéficier de toute l'infrastructure et de l'acquis du laboratoire, on demandera de faire sa part du travail et de risquer le meilleur de lui-même dans sa recherche. De son côté, le responsable propose un sujet de recherche intéressant, il s'engage à le suivre, à discuter et à corriger sa thèse ou ses articles à la fin du travail. Une relation de solidarité et de mutuelle dépendance s'établit dans le travail; elle exige une confiance et un respect mutuel. Ce

contrat n'est évidemment pas écrit ou stipulé tel quel mais il est vécu dans la vie quotidienne du laboratoire. La relation est toute différence de celle de professeur à étudiant qui a été en vigueur au cours des études et le changement se réalise lentement chez le jeune chercheur, mais c'est au chef de laboratoire à faire la démarche dès le début. Le travail de chercheur se déroule dans une équipe. Cette situation, si elle est bénéfique au chercheur, entraîne aussi sa part de contraintes et d'obligations. Ainsi, lorsqu'un des membres de l'équipe ne parvient pas à réaliser sa part de travail et que les autres ne peuvent compter sur lui, la discussion de ses résultats lui fera prendre conscience de ses lacunes, et une décision commune sur l'organisation future devra être prise : soit lui confier un autre aspect du travail, soit lui permettre de compléter sa formation par des sessions ou par un séjour dans un autre laboratoire, soit si la situation s'est présentée plusieurs fois et qu'aucune amélioration n'est observée de se séparer de lui. Le travail en équipe demande une très grande tolérance et deux situations peuvent se présenter : ou bien un chercheur est mauvais ou travaille très peu ou ne s'implique pas dans son travail, ou bien au contraire, le chercheur est très entreprenant et envahissant et risque d'écraser les autres. Dans un laboratoire, on oscille souvent entre les deux situations et il faut beaucoup de doigté, de discussions et d'interventions pour éviter d'arriver à ces extrêmes qui peuvent détruire la vie d'un laboratoire. Tout ceci se fait souvent très simplement et sans grosse difficulté. Par exemple, lorsque le travail n'est plus très efficace, le passage plus fréquent du responsable pour discuter des résultats, fait très bien sentir au chercheur qu'il doit réagir. Il est clair que les chercheurs sont les premiers conscients des difficultés et des problèmes qu'ils ont et qu'ils sont alors particulièrement sensibles à l'attitude et aux remarques du responsable. Là aussi un peu de patience, d'encouragements et de discussions positives aplanissent souvent les problèmes. Qui n'a pas de passages à vide de temps en temps ? La notion d'efficacité Cette réflexion me permet d'introduire la notion de formation et de liberté de recherche qui s'opposent à celle d'efficacité comme on peut la concevoir dans une entreprise. Il s'agit d'un point très important dans la prise de certaines décisions. De la position du responsable sur ce sujet, dépendra en grande

partie l'esprit de son laboratoire. Il existe au moins deux raisons pour que l'efficacité de type industriel ne soit pas primordiale dans les laboratoires de recherche. La première est la fonction de formation que les laboratoires du moins universitaires, doivent remplir. La formation d'un chercheur est un apprentissage long et souvent pénible, les problèmes et le travail étant le lot quotidien et les réussites peu nombreuses. De plus, au bout de la formation, le jeune chercheur doit avoir parcouru toutes les étapes qu'un travail scientifique nécessite, c'est-à-dire non seulement un apprentissage technique mais aussi une série d'informations, un "know how" qui entoure une technologie, une capacité de discuter ses résultats, de les interpréter, de les présenter en public, de les restituer dans l'ensemble des travaux de la littérature et enfin de les publier. Il devra progressivement développer son esprit critique vis-à-vis des informations et commencer à avoir ses propres idées et avis sur son sujet de recherche. Cette formation progressive du chercheur est souvent en conflit avec une efficacité optimale basée sur le nombre de résultats où le patron imposerait ses idées et organiserait de manière autoritaire son laboratoire. L'attitude du patron dépend évidemment du stade de formation du chercheur et si, au départ, il doit exiger un apprentissage technique important et rigoureux, il laisse petit à petit l'initiative au jeune chercheur. Ma position personnelle dans ce domaine consiste à donner un avis et à expliquer les raisons de mon attitude. En général, la discussion et les résultats et les limitations techniques mis en évidence par chacun permettent de dégager une solution ou de définir une voie de recherche, mais parfois il y a conflit et la décision est difficile surtout si le jeune chercheur est convaincu d'avoir une bonne idée et qu'il est emballé par celle-ci. Dans ce cas et après discussion, c'est lui qui décide sauf s'il y a vraiment un problème majeur notamment par rapport à l'orientation des recherches du laboratoire, c'est-à-dire au niveau de la politique générale du laboratoire qui à mon avis est du ressort du responsable. D'un point de vue conceptuel, la difficulté de la décision provient justement du conflit qui peut exister entre les aspects considérés comme "objectifs" provenant des contraintes techniques et des résultats antérieurs avec l'originalité de l'idée du chercheur. On ne peut pas laisser tester n'importe quelle idée d'un chercheur sous prétexte qu'elle est originale en sachant bien qu'elle est vouée à l'échec. D'autre part, certaines idées en rupture avec les connaissances établies ont été à l'origine des grandes découvertes de la science. J'aurais plutôt tendance à laisser le chercheur tester son idée si après lui avoir fait part de toutes les objections et difficultés que l'on

peut faire à son idée, il est toujours convaincu qu'elle a une chance de réussite. Dans ce cas cependant, le responsable doit être vigilant et intervenir lorsqu'une recherche n'aboutit pas et s'enlise. Jusqu'où faut-il persévérer ? Faut-il réorienter la recherche ? Ce sont certainement deux questions très difficiles et l'expérience du patron joue ici un rôle prépondérant. Mon attitude personnelle consiste à persévérer et à envisager d'abord systématiquement les paramètres qui pourraient interférer avec le déroulement de l'expérience avant d'abandonner. Là aussi, l'aspect personnel est prépondérant : si le chercheur est complètement démoralisé et que le patron ne peut plus le convaincre qu'il y a encore quelque chose à tester, alors mieux vaut réorienter le travail. Il faut évidemment tenir compte de l'intérêt de la recherche en cours. Parfois, des recherches sont réorientées parce que s'ouvrent de nouvelles voies, imprévues, qui apparaissent plus prometteuses que l'idée originale, alors que pour d'autres recherches, on s'entête à obtenir un résultat qui tarde à venir parce qu'on estime la recherche particulièrement importante. La deuxième raison pour laquelle l'efficacité maximale n'est pas toujours celle que l'on croit est que le succès d'une recherche vient souvent d'une bonne idée, idée qui est une coupure par rapport à la pensée habituelle ou qui provient d'une association originale. Je ne vais pas développer ici l'origine des idées ou découvertes mais il est clair qu'elles nécessitent une liberté de pensée, un temps plus ou moins long passé à des lectures, des discussions, des réflexions. Derrière ces idées se trouve une connaissance la plus large possible du domaine dans lequel on travaille, une démarche scientifique impitoyable pour tester l'idée et une efficacité technique qui demande une excellente organisation du laboratoire. De nouveau, un équilibre est à trouver entre le travail expérimental, la lecture et les discussions, qui peuvent parfois apparaître comme du temps perdu. J'ai personnellement plutôt tendance à envisager cet équilibre dans le temps : un chercheur qui est lancé sur une bonne idée va mettre toute son énergie dans le travail expérimental, alors que par la suite, au moment où celui-ci se relâche, il passera plus de temps pour la conception et les idées. En conclusion, je suis convaincu que la réussite d'un laboratoire universitaire telle qu'on peut l'estimer par exemple par la valeur et le nombre de ses publications peut être envisagée comme une conséquence des deux priorités développées ci-dessus, à savoir la formation et l'implication personnelle des chercheurs, plutôt qu'être un objectif prioritaire en soi.

La gestion financière et matérielle Un autre aspect important de la direction d'un laboratoire est la gestion financière. Ici aussi des positions extrêmes peuvent se rencontrer allant de la gestion stricte, programmée et contrôlée jusqu'à la liberté et l'improvisation totale. J'aimerais juste développer ici un concept qui me semble important dans le cadre d'un laboratoire de recherche. La plupart des laboratoires bénéficient d'une allocation fixe qui représente une partie plus ou moins importante de l'ensemble de leurs revenus, le reste étant constitué très souvent de crédits accordés en fonction de programmes de recherche précis et provenant soit de fonds de recherche publics, soit privés comme les contrats avec les entreprises. La gestion de ces différentes sources n'est pas toujours facile. Il n'est, par exemple, pas possible d'avoir une gestion organisée au point de planifier une dépense constante pour chaque mois de manière à boucler son budget en fin d'année. Personnellement, je préfère la notion de la nécessité : il s'agit d'acheter ce qui est nécessaire pour réaliser les recherches importantes. Si ces recherches impliquent un appareillage spécial, il faut les prévoir dans les investissements et essayer de les obtenir soit à partir de son institution, soit sur des fonds de recherche publics ou privés. Je préfère cette attitude à celle qui consiste à ne faire des recherches que si elles sont possibles avec les appareillages que l'on possède. Souvent d'ailleurs, cette dernière attitude se remarque au fait que ces laboratoires font le même type de recherche en utilisant toujours la même approche aux problèmes et la même technologie. En ce qui concerne les frais de fonctionnement, là aussi, il faut une grande souplesse soit parce qu'au début de l'année certains achats sont effectués en grosses quantités afin d'obtenir une réduction auprès des vendeurs, soit parce que certains produits nécessaires à des recherches sont très chers. La décision dépend de l'importance de l'achat. Les gros appareillages s'imposent souvent du fait de leur nécessité pour l'une ou l'autre recherche. Le choix se fait par le responsable du laboratoire après une discussion avec les chercheurs. Il est exceptionnel qu'on n'arrive pas à un consensus. Pour le fonctionnement courant, les techniciens du laboratoire sont responsables des achats qu'ils regroupent. Ils rangent les produits à des endroits numérotés et ils inscrivent les nouveaux produits dans une liste informatisée qui comprend, classé par ordre alphabétique, le nom du produit, le nom de la firme, le n° du produit dans

le catalogue, la quantité achetée et la localisation dans le laboratoire. Des produits particuliers peuvent être commandés directement par les chercheurs qui donnent le double du bon de commande au technicien. Les doubles des bons de commande sont tous conservés et classés par ordre alphabétique des firmes. Dès que les produits arrivent, le technicien l'indique sur les bons de commande, ce qui permet de vérifier les factures dont un double est aussi conservé au laboratoire. Je reviendrai sur le rôle essentiel joué par les techniciens du laboratoire. Je signalerai seulement ici qu'en plus du contrôle des achats, ils veillent au renouvellement des produits courants. Le rôle de centralisation des achats est parfois tenu par des personnes comme des secrétaires mais je préfère les techniciens qui peuvent mieux évaluer l'importance des produits, leur niveau de pureté, la nécessité de leur renouvellement, etc. L'intervention du responsable du laboratoire dans les achats courants est assez minime. Elle se fait en début d'année lorsque les achats en gros sont réalisés, si possible avec d'autres laboratoires, afin d'obtenir les prix les plus avantageux. Les achats de produits chers sont signalés au responsable du laboratoire et les achats moins importants lorsque la situation financière n'est pas favorable. Parfois, il est bon d'informer les chercheurs et techniciens de l'état général des finances et de leur demander de n'acheter que ce qui est nécessaire. Lorsque les budgets sont réduits, tout le monde est averti et le responsable doit pouvoir compter sur leur collaboration pour réduire les dépenses à l'essentiel. L'expérience montre que souvent les chercheurs et techniciens sont extrêmement coopératifs et que les mauvaises surprises sont exceptionnelles. Au contraire, il faut parfois intervenir auprès des chercheurs pour qu'ils achètent un produit ou un matériel qui leur ferait gagner du temps mais qu'ils n'osent commander de peur de faire des dépenses exagérées. Dans ce domaine comme dans beaucoup d'autres, la confiance doit être totale. Il existe évidemment d'autres modèles de gestion : par exemple, un contrôle du responsable pour chaque commande, ou l'attribution à chaque chercheur ou à chaque groupe de recherche d'un budget que les chercheurs doivent gérer. Un certain bon sens est nécessaire pour la gestion du budget qui globalement, doit être plus ou moins bouclé chaque année. Ainsi, certaines expériences dont les coûts sont vraiment prohibitifs pour le laboratoire seront exclues et le développement de techniques alternatives bon marché sont toujours favorisées.

Développer des nouvelles recherches Ce dernier point me permet de discuter le choix ou non de développer certaines techniques. Chaque laboratoire maîtrise certaines techniques et méthodes, le "know how", c'est-à-dire qu'il peut les appliquer pratiquement à n'importe quelle situation; il en connaît les limites et les possibilités. Lorsqu'un nouveau sujet de recherche est mis sur pied, la question se pose de savoir s'il faut développer de nouvelles techniques pour cette recherche. Une solution alternative consiste à trouver un autre laboratoire qui dispose de ce savoir-faire et d'établir une collaboration avec lui. Cette solution est la plus efficace à condition que la collaboration fonctionne bien. La situation idéale est celle où les 2 laboratoires ont une expertise complémentaire et sont tous les deux intéressés à réaliser l'expérience. En pratique, c'est rarement aussi simple et souvent un des deux laboratoires est au service de l'autre ou, encore, ne s'implique pas réellement par manque de temps ou de personnel. La collaboration devient alors difficile. Généralement, la discussion préparatoire à une collaboration est insuffisante; les implications que celle-ci entraîne ne sont pas assez évaluées. Souvent le responsable du laboratoire, stimulé par le développement d'un projet de recherche établit des collaborations à l'occasion d'une réunion scientifique ou, simplement par téléphone. Malheureusement, il ne se rend pas compte que la technologie qu'il demande pose des problèmes dont il n'a aucune idée : contrainte de personnel, contrainte du matériel de recherche, coût élevé, etc... La collaboration mise en place, une série de problèmes vont surgir qui risquent de déteriorer les relations entre ces deux laboratoires. L'organisation des recherches Le développement d'une nouvelle technique est toujours longue, pas du fait de la technique elle-même, mais nécessairement par les multiples facteurs qui peuvent influencer les résultats et qu'il faut être à même de contrôler. Ainsi, l'expérience n'est jamais aussi simple qu'elle n'apparaît dans un article scientifique et la mise en oeuvre demande de nombreux contrôles, voire parfois une ré-étude complète. Le corollaire à cette situation est que lorsqu'une technique est bien maîtrisée par un chercheur, il est nécessaire qu'elle puisse

être transmise aux autres chercheurs ou techniciens du laboratoire. Cette transmission est normalement plus aisée que l'acquisition de la maîtrise initiale. Le rôle des techniciens est, à ce niveau, tout à fait central. En règle générale, ce sont eux qui connaissent les techniques de base et qui font la vie du laboratoire. Ils connaissent les machines et les produits dont très souvent ils ont la responsabilité de l'approvisionnement. Ils sont, au même titre que les chercheurs chevronnés, responsables de la formation des jeunes chercheurs. Cette formation est complexe, contrairement à ce que l'on croit souvent; elle ne se limite pas à la connaissance d'une technologie, mais implique une foule de petits détails qui constituent une approche de la recherche et créent un esprit dans un laboratoire : planification de l'expérience, préparation des réactifs, tenue d'un cahier de laboratoire détaillé, introduction des données dans les ordinateurs, traitement statistique, discussion et critique des résultats, participation aux séminaires, rangement des tables de travail, entretien du matériel, prévisions d'approvisionnement à moyen terme, consultation du catalogue des firmes, consultation des livres techniques, des notices d'utilisation des appareillages, des dictionnaires de données scientifiques, mais aussi des occupations accessoires comme donner un coup de main notamment lorsqu'un travail doit être clôturé (travail de fin d'étude, thèse, contrat), participer à la préparation du café, à l'organisation de soupers de laboratoire, etc. Abordons maintenant le problème du suivi des différentes recherches par le responsable. Ce suivi est simple lorsque le laboratoire est petit et que le responsable peut suivre pratiquement au jour le jour ses chercheurs. Dès que le laboratoire prend une taille plus importante, ce suivi doit être organisé. Spontanément se forment alors de petits groupes qui sont centrés sur un même sujet et regroupés autour d'un chercheur chevronné, dynamique et qui dirige dans la pratique ce petit groupe. Cette organisation décharge le responsable de problèmes pratiques, ce qui n'est pas négligeable. Il peut alors suivre ces petits groupes en les réunissant séparément et se concentrer alors principalement sur les décisions importantes, sur leur orientation et l' interprétation des résultats. Néanmoins, il aura toujours à intervenir au niveau des problèmes techniques et de planification et utiliser au maximum son expérience de la recherche pour aborder les problèmes sur lesquels les chercheurs butent. Même s'il ne connaît pas la solution, il portera un regard nouveau sur le problème en faisant appel à son expérience, à ses connaissances

techniques et à sa connaissance de la littérature. La discussion devra permettre d'envisager les divers paramètres susceptibles d'intervenir et ceux-ci seront tester systématiquement. Dans certains laboratoires, les divers sous-groupes d'un même laboratoire sont devenus indépendants scientifiquement et matériellement constituant parfois l'amorce d'instituts de recherche plus importants. Les options fondamentales Pour terminer, j'aimerais donner quelques réflexions plus fondamentales sur les options de base du responsable quant à sa manière d'enseigner son travail. Il doit se demander ce qu'il recherche fondamentalement dans son travail et les raisons pour lesquelles il a choisi ce métier. C'est de ces réponses que découlent la plupart de ses positions. Consciemment ou non, elles seront perçues par ses collaborateurs et influenceront la vie du laboratoire. La recherche est la base du laboratoire. Elle permet, soit de faire avancer les connaissances, soit de déboucher sur des applications intéressantes. Si la démarche de recherche en elle-même, procure beaucoup de satisfaction, un laboratoire ne peut toutefois se développer et n'attirer de jeunes chercheurs que s'il est productif et, souvent, sur un sujet "porteur". La dimension "formation" fait partie intégrante du rôle du laboratoire universitaire et relativise la notion d'efficacité comme quantité de résultats produits. Quant aux aspects relationnels, ils sont primordiaux. Le laboratoire a la chance de voir arriver chaque année de nouveaux jeunes chercheurs avec leur personnalité, leurs intérêts, leurs points forts mais aussi leurs lacunes. Chacun doit trouver sa place dans l'ensemble non seulement du point de vue du travail; mais aussi dans ses relations personnelles, ses amitiés et ses réticences. Le travail de recherche est le plus souvent de longue haleine et ardu. Il y a des moments de fatigue et de lassitude comme il existe des moments de grande joie. Ces problèmes et ses joies sont partagés. C'est pour moi une caractéristique essentielle de la vie d'un laboratoire; elle est aussi importante que sa réussite scientifique.

Bibliographie

ABERNATHY W.J. (1988), CLARK K.B., Comment établir une carte stratégique

des innovations dans un secteur industriel ?, Culture Technique, n° 18, mars 1988, pp 40 - 54

ADER E. (1983), L'analyse stratégique et ses outils, Futuribles, n° 72 AKRICH M. (1985), La diffusion des techniques photovoltaïques dans les PVD,

Mémoire de DEA AKRICH M. (1987), Comment décrire les objets techniques, Techniques et culture,

5, 1987, pp 49-63 AKRICH M. (1989a), La construction d’un système socio-technique. Esquisse pour

une anthropologie des techniques, Anthropologies et Sociétés, 12 (2) AKRICH M. (1989b), BOULLIER D., Le K, monographie n° 1, in BOULLIER D.,

AKRICH M., LE GOAZIOU V., LEGRAND M., Représentation de l’utilisateur final et génèse des modes d’emploi, rapport LARES-CCETT

AKRICH M. (1989c), LATOUR B., MICHELET B., TEIL G., La machine de Hume-Condillac : Les réseaux d’association peuvent-ils faire plus que les règles formelles ?, 1989, à paraître

ALDRICH D. (1975), MORTON T.E., Optimal Funding Paths for a Class of Risky Projects, Management Science, 12 (5), pp 491-500, janv 1975

ALLESH J. (1982), Industry-University Relations - German experience, Six Countries Programme, Stockholm Workshop

ANDERSON D. R. (1976), SWEENEY D. J., WILLIAMS T. A., An Introduction to Management Science - Quantitative Approaches to Decision Making, West Publishing Company, USA, 1976

ANSOFF I. (1965), Corporate strategy, MacGrawHill ANSOFF I. (1986), Strategic Management of Technology, The Journal of Business

Strategy ALLEN G. (1979), Naturalists and experimentalists : the genotype and the

phenotype, Studies in history of biology, III, pp 179-209 ALLEN T.J. (1977), Managing the Flow of Technology, MIT Press ANASTASSOPOULOS J.P. (1985), BLANC G., NIOCHE J.P., RAMANANTSOA

B., Pour une nouvelle politique d'entreprise, PUF, Paris ARIST Alsace (1989a), Vers une typologie de la veille face à la diversité des

besoins, Bulletin de l'IDATE, n° 36, pp 43 - 66

ARIST Alsace (1989b), L'information sur mesure pour les PMI. Un nouveau métier, celui de l'ingénieur en information, Annales des Mines, n° 4, pp 65-74, avril 1989

ARTHUR B. (1988), Self-reinforcing mechanisms in economics, in Anderson et Arrow (ed.), The Economy as an evolving complex system, Addison Wesley Publishing Comp.

ARVANITIS R. (1986), M.CALLON, B.LATOUR, Evaluation des politiques publiques de la recherche et de la technologie, éd. La Documentation Française, Paris

AUGOOD D.R. (1973), A review of R&D Evaluation methods, IEEE Transactions on Engineering Management, Vol EM 20, n° 4, pp 114-120, novembre 1973

AUJAC H. (1983), Une prévision technologique utile, Futuribles, nov. 1983 AUSTIN J.L. (1970), Quand dire c’est faire, Paris, Seuil BABA M.L. (1987), University Innovation to Promote Economic Growth and

University/Industry relations, Austin, TX: IC2 Institute, The University of Texas at Austin

BAILY M. N. (1986), Capital innovation et croissance de la productivité, pp.53-72, in (SALOMON, 1986)

BARRE R. (1987), A strategic assessment of the scientific performance of five countries, Science & Technology Studies, 5(1)

BARNES B. (1974), Scientific Knowledge and Sociological Theory, Routledge & Kegan Paul, London

BARNES B. (1977), Interests and the Growth of Knowledge, Routledge & Kegan Paul, London

BARNES B., (1979), S.SHAPIN, Natural order : Historical studies of scientific culture, Beverley Hills

BARNES B. (1982), T.S.Kuhn and Social Science, Columbia University Press, New York

BARRE R. (1988), La faiblesse de la recherche industrielle française : de quoi parle-t-on ?, Culture Technique, n° 18, mars 1988

BASBERG B.L. (1987), Patents and the measurement of technological change: a survey of the literature, Research Policy 16, pp 131-141

BASTIDE F. (1989), CALLON M., COURTIAL J.P., The use of review articles in the analysis of a research area, Scientometrics, 15 (5-6), pp 535-562

BASTIDE F. (à paraître), Œuvres de sémiotique des textes scientifiques BATTELLE (1985), La Recherche - Développement sous-traitée en Europe, Etude

interne, Geneva

BAUIN S. (1987), MICHELET B., Comprendre la réaction chimique: étude des tendances internationales par la méthode Leximappe, CNRS

BAUIN S. (1990), MICHELET B., SCHWEIGHOFER M.G., VERMEULIN P., La bibliométrie au service de l'analyse stratégique en politique scientifique, Les Cahiers de l'Adest, 1 (version anglaise à paraître dans Scientometrics)

BAXTER A. (1979), FARLEY J., Mendel and meiosis, Journal of the history of biology, XII, 1979, pp 137-173

BEN DAVID J. (1966), COLLINS R., Social factors in the Origins of a New Science : the Case of Psychology, American Sociological Review, XXXI, pp 451-465

BERRY M. (1984), Pour ou contre l'évaluation quantitative des chercheurs, ADEMAST, n° 9, août-sept 1984

BETA (1980), Les effets économiques induits des contrats de l'Agence Spatiale Européenne, ESA SP 151

BIJKER W.E. (1987), T.P.HUGHES, T.J.PINCH(eds), The Social Construction of Technological Systems. News Directions in the Sociology and History of Technology, Cambridge, 1987.

BLOOR D. (1976), Knowledge and Social Imagery, Routledge & Kegan Paul, London, (tr.française : Sociologie de la logique : les limites de l’épistémologie, Pandore, Paris, 1983)

BOGGHIO G. (1984), SPACHIS-PAPAZOIS E., Evaluation of Research and Development, Proceedings of the seminar held in Brussels, October 17-18, 1983. D. Reidel Publishing company, Doordrecht

BOLTANSKI L. (1984), La dénonciation, Actes de la recherche en sciences sociales, 51, pp 3-40

BOLTANSKI L.(1987), THEVENOT L., Les économies de la grandeur, Cahiers du centre d’études de l’emploi, n° 31, PUF, Paris, 1987

BURNS T. (1961), STALKER G.M., The Management of Innovation, Tavistock Publications, London

CALLON M.(1976), L’opération de traduction comme relation symbolique, in P.Roqueplo, Incidences des rapports sociaux sur le développement des sciences et des techniques, Cordes, 1976

CALLON M. (1979), L'Etat face à l'innovation technique, Le cas du véhicule électrique, Revue Française de Sciences Politiques, vol. 29, n°3, Juin 1979, pp. 426-47

CALLON M. (1980), Struggles and negociations to define what is problematic and what is not. The socio-logic of translation, in (KNORR-CETINA, 1980)

CALLON M. (1981a), Pour une sociologie des controverses technologiques, Fundamenta Scientiae, 2(3/4), pp 381-399

CALLON M. (1981b), LATOUR B., Unscrewing the Big Leviathan : how actors macrostructure reality and how sociologists help them to do so, in Knorr-Cetina K., Cicourel A., Advances in Social Theory and Methodology : Toward an Integration of Micro and Macro-sociologies, Routledge and Kegan Paul, London, 1981

CALLON M. (1982a), LAW J., On Interests and their transformation : Enrolment and Counter-Enrolment, Social Studies of Science, 12(4), 1982, pp 615-625

CALLON M. (1982b), LATOUR B., éds., La science telle qu'elle se fait. Anthologie de la sociologie des sciences de langue anglaise, éd.Pandore, Paris

CALLON M.(1983), BAUIN S., COURTIAL J.P., TURNER W., From translation to Problematic Networks : an Introduction to Coword Analysis, Social Science Information, 22, 2, pp 191-235.

CALLON M. (1984), BASTIDE F., BAUIN S., COURTIAL J.P., TURNER W., Les mécansimes d’intéressement dans les textes scientifiques, Cahiers STS-CNRS, 4, pp 88-105

CALLON M. (1985a), LATOUR B., éds., Les scientifiques et leurs alliés, éd.Pandore, Paris

CALLON M. (1985b), LATOUR B., Les paradoxes de la modernité. Comment concevoir les innovations ?, Prospective et Santé, n° 36, 1985/1986, pp 13-25

CALLON M.(1986a), Eléments pour une sociologie de la traduction. La domestication des coquilles Saint-Jacques et des marins-pêcheurs dans la baie de Saint-Brieuc, L’année sociologique, n° 36, pp 169-208

CALLON M. (1986b), J.LAW, A.RIP, Mapping the dynamics of science and technology, The MacMillan Press, London

CALLON M. (1986c), Sociology of an actor-network, in (CALLON, 1986) CALLON M. (1987a), Le rôle des différents conseils dans l'élaboration et la mise en

œuvre de la politique de la recherche de l'AFME, CSI-Ecole des Mines de Paris

CALLON M. (1988a), Les réseaux technico-économiques, un outil pour la programmation et l'évaluation des transferts entre recherche et secteurs socio-économiques, conférence faite à la Journée AFME-Entreprises (29/3/1988)

CALLON M. (1988b), Dossier de base pour l'évaluation des actions de recherche de l'AFME (tome 1 : les partenaires de l'AFME ; tome 2 : le rôle des différents conseils dans l'élaboration et la mise en oeuvre de la politique de la recherche à l'AFME ; tome 3 : les principes d'une gestion stratégique des réseaux technico-économiques), Centre de Sociologie de l'Innovation, documents ronéotypés, Mars 1988

CALLON M. (1988c), Faut-il croire en la recherche industrielle ?, Culture Technique, n° 18, mars 1988, pp.202-209

CALLON M. (1989a) (éd.), La science et ses réseaux. Genèse et circulation des faits scientifiques, éd.La Découverte, Paris

CALLON M. (1989b), LAREDO P., MAUGUIN P., VINCK D., WARRANT F., CRANCE P., PAULAT P., GIRAUD P.-N., Evaluation des programmes publics de recherche, Le cas du programme communautaire Energie Non-Nucléaire, Presses Universitaires de Namur

CALLON M. (1989c), COURTIAL J.P., LAVERGNE F., La méthode des mots associés. Un outil pour l’évaluation des programmes publics de recherche, Etudes NSF, Ecole des Mines de Paris-CSI

CALLON M. (1990a), LAREDO P., L’impact des programmes communautaires sur le tissus scientifique et technique français, rapport établi à la demande de la CCE, collection Etudes 1990 - La Documentation Française

CALLON M. (1990b), La dynamique des réseaux technico-économiques, in BOYER R. (éd.), Figures de l’irréversibilité, Economica, Paris

CALLON M. (1990c), CHABBAL R., LAREDO P., L'évaluation des programmes technologiques : enjeux et organisation, in FORAY D. (ed.), L'évaluation économique de la technologie, Paris, Economica

CALLON M. (1990d), LAREDO Ph., MUSTAR Ph., Les méthodologies d'évaluation des programmes technologiques en Europe, Paris, Economica

CALLON M. (1990e), COURTIAL J.P. , LAVILLE F., L'analyse des interactions entre la recherche académique et la recherche appliquée: le cas des polymères, Les Cahiers de l'Adest, 1. (version anglaise à paraître dans Scientometrics)

CAMBROSIO A. (1990), LIMOGES C., COURTIAL J.P., LAVILLE F., A computerized analysis of biological safety research literature (1912-1988), American industrial hygiene conference

CARPENTER M.P. (1980), COOPER M., NARIN F., Linkage between basic research literature and patents, Research Management 23, pp 30-35

CARPENTER M.P. (1983), NARIN F., Validation study: Patent citations as indicators of science and foreign dependence, World Patent Information, 5 , pp 180-185

CETRON (1967), MARTINO, ROEPCKE, The Selection of R&D Program Content : Survey of Quantitative Methods, IEEE Transactions on Engineering Management, Mars 1967, pp 4-13

CHABBAL R. (1987), Organisation de l'évaluation de la recherche à la C.C.E., C.C.E., novembre 1987

CHABBAL R. (1988), Compte rendu de la conférence du 23/2/1988 de R. CHABBAL à l'ADEST, document ADEST

CHANDLER A. (1962), Strategy and structure, Cambridge MIT press

CHAPMAN I.D. (1983), FARINA C., Peer Review and National Need, Research Policy, N° 12, pp 317-327, mars 1983

CHARTRON G. (1989), Lexicon management tools for large textual databases: the lexinet system, Journal of Information Science 15, 339-344

CHESNAIS F. (1988), Les accords de coopération technique entre firmes indépendantes, STI, 4

CHESNAIS F. (1990), Compétitivité internationale et dépenses militaires, Paris, Economica

COBBAUT R. (1974), DE BETHUNE A., Stratégie de progrès et systèmes d'information et de gestion, Centre de Perfectionnement, Université de Louvain

COHENDET P. (1987), LEBEAU A., Choix stratégiques et grands programmes civils, CPE-Economica, Paris

COLE S. (1973), COLE J., Social Stratification in Science, University of Chicago Press

COLE S. (1981), COLE J., SIMON G., Chance and Consensus in Peer Review, Science, 214, pp 884-886, 20th November 1981

COLLINS H. (1982a), Les sept sexes : étude sociologique de la détection des ondes gravitationnelles, in (CALLON, 1982)

COLLINS H.(1982b), PINCH T., En parapsychologie, rien ne se passe qui ne soit pas scientifique, in (CALLON, 1982)

COLLINS H.(1982c), PINCH T., Frames of meaning : The social construction of extraordinairy science, London

COLLINS H.(1985), Changing Order : Replication and Induction in a Scientific Practice, London, Sage

COLLINS P. (1988), WYATT S., Citations in patents to the basic research literature, Research Policy 17, pp 65-74

COOTER R.(1980), Deploying “Pseudoscience” : Then and Now, in Hansen M., Order M., Weyant R., Science, Pseudoscience and Society, Waterloo, Ontario, Wilfred Laurier Press, 1980, pp 237-272

COURTIAL J.P. (1984) et al., Is indexing trustworty? Classification of articles through co-word analysis, Journal of Information Science, 9, 47-56

COURTIAL J.P. (1988), REMY J.P., Towards the cognitive management of a research institute, Research Policy 17, 225-233

COURTIAL J.P. (1989a), Qualitative models, quantitative tools and network analysis, Scientometrics, vol.15

COURTIAL J.P. (1989b), LAW J., A co-word study of artificial intelligence, Social Studies of Science, 19, 301-11

COURTIAL J.P. (1990a), Introduction à la scientométrie, Anthropos, Paris

COURTIAL J.P. (1990b), MICHELET B., A mathematical model of development in a research field, Scientometrics, 123-138

CUNEO P. (1984), L'impact de la recherche-développement sur la productivité industrielle, Economie et Statistique, n° 164, Mars 1984

CUNEO P. (1985), MAIRESSE J., Recherche-Développement et performances des entreprises, Revue économique, n° 5, Septembre 1985

DANILA N. (1983), Stratégies technologiques : Méthodes d'évaluation et de sélection de projets de recherche, Paris, IDMP / FNEG

DANILA N. (1985), Pratique françaises des stratégies technologiques, bilan de l’utilisation des méthodes d’évaluation et de sélection des projets de recherche, Paris, IDMP / FNEGE

DAVID P. (1986), Understanding the Economics of Querty : the necessity of history, in Parker (ed.), Economic History and the Modern Economist, Basil Blackwell

DEAN J.(1979), Controversy over classification : A case-study from the history of botany, in (BARNES, 1979)

DE BANDT J. (1989), La filière comme mode d’organisation méso-industrielle, in ARENA et al., Traité d’économie industrielle, Paris, Economica

DEBRESSON C. (1987), Technological clusters : Poles of Development, Montreal, Concordia University, Economics Department, Working paper, 1987-02

DEFORGE Y. (1985), Technologie et génétique de l'objet industriel, Maloine, Paris DE HEMPTINNE Y. (1987), TENIERE-BUCHOT P.F., Méthodes de

Programmation des programmes scientifiques et techniques, UNESCO Press DE JONG R. (1989), KANDEL N., Les stratégies d’alliances motivées par la

technologie dans le secteur du Hardware, Working paper, Laboratoire Stratégie et Technologie, ECP

DE WOOT Ph. (1984), DESCLEE DE MAREDSOUS X., Le Management Stratégique des Groupes Industriels. Fonctionnement au Sommet et Culture d'Entreprise, éd Cabay-Economica, Paris

DE WOOT Ph. (1988), Les entreprises de haute technologie et l’Europe, Ed.Economica, Paris

DORFMAN (1983), Route 128 : the development of a regional high technology economy, Research Policy, 12, pp.299-316

DOSI G. (1982), Technological Paradigms and Technological trajectories, Research Policy, 11, 3

DUFOURD D. (1988), FORAY D., Recherche technique, innovation et structures industrielles : de la crise des représentations aux réalités économiques, Culture technique, 18, mars 1988, pp 154-172

DURAND T. (1981), De la planification stratégique d'entreprise à la planification industrielle, rapport pour le Commissariat Général du Plan

DURAND T. (1986a), GONARD T., Stratégies Technologiques : le cas de l’insuline, Revue Française de Gestion, n° 60

DURAND T. (1986b), Les entreprises expérimentent de nouvelles stratégies d’accès aux Ressources Technologiques, Working Paper, Laboratoire Stratégie et Technologie, ECP

DURAND T. (1986c), FEUILLEE P., Principaux aspects de la diffusion et de la valorisation des résultats de la recherche publique en France, Communication présentée au Symposium européen sur l'utilisation des résultats de la recherche publique ou financée par le secteur public, Luxembourg, Septembre 1986

DUSSAUGE P. (1987), B.RAMANANTSOA, Technologie et stratégie d'entreprise, MacGraw-Hill, Paris

EDGE D.(1982), MULKAY M., L’influence des facteurs cognitifs, techniques et sociaux sur le développement de la radioastronomie, in (CALLON, 1982)

EFMD (1982), Facing Realities : A Societal Strategy Project, European Foundation for Management Development, Brussels

EYMARD DUVERNAY F. (1989), Conventions de qualité et formes de coordination, Revue économique, 2

FAVRET-SAADA J. (1977), Les mots, la mort, les sorts, Gallimard, Paris FERNE G. (1988), La marchandisation du savoir, La Recherche, n° FORAY D. (1986), LE BAS C., Diffusion de l'innovation dans l'industrie et fonction

de recherche technique: dichotomie ou intégration, Economie Appliquée, Tome XXXIX,n°3, PP.615-50

FORAY D. (1987), Innovations technologiques et dynamique industrielle, PUL FORAY D. (1989), Les modèles de compétition technologique, une revue de la

littérature, Revue d’économie industrielle, 48 FORD D. (1981), The management and marketing of technology, Working paper,

School of Management, University of Bath FORMAN P. (1971), Weimar Culture, Causality, and Quantum Theory, 1918-1927,

Historical Studies in the Physical Sciences, 3, pp 1-115 FREEMAN C. (1974),The Economics of Industrial Innovation, Penguin Books,

Harmondsworth, London FREEMAN C. (1982), The Economics of Industrial Innovation, Frances Pinter,

Londres FREEMAN C. (1984), Design, Innovation and Long Cycles, Frances Pinter, Londres FREEMAN C. (1988a), A quoi tiennent la réussite ou l'échec des innovations dans

l'industrie ?, Culture Technique, n° 18, pp 30-39, mars 1988.

FREEMAN C (1988b), PEREZ C., Structural crises of adjustement, business cylces and investment behaviour, in Technical Change and Economic Theory, London, Pinter Publishers Ltd

GAFFARD J.L.(1989), Marché et organisation dans les stratégies technologiques des firmes industrielles, Revue d’économie industrielle, 48

GARFIELD E. (1972), Citation analysis as a tool in journal evaluation, Science 178 (4060), pp 471-479

GEOFFRION A.M. (1972), DYER J.S., FEINBERG A., An Interactive Approach for Multi-Criterion Optimization with an Application to the Operation of an Academic Department, Management Science, 19 (4), pp 357-368, Decembre 1972

GEST (1986), Grappes technologiques. Les nouvelles stratégies d'entreprise, McGraw-Hill, Paris

GIBBONS M. (1974), JOHNSON, R., The roles of science in technological innovation, Research Policy, 3, 1974, 4

GIBBONS M. (1979), LITTLER D., The Development of an Innovation, The Case of Porvair, Research Policy, 8, pp. 2-25

GIBBONS M. (1986), GEORGHIOU L., Evaluation de la recherche, OCDE, Paris GIBSON D.V. (s.d.), SMILOR R.W., The role of the research university in creating

and sustaining the U.S. technopolis, dactylog., s.l. GODET M. (1985), Prospective et planification stratégique, CPE-Economica, Paris GOLD B. (1981), ROSEGGER G., BOYLAN M.G., Evaluating Technological

Innovations, Lexington Books GORDON T.J. (1964), HELMER O., Report on a long-Range Forecasting Study,

Santa Monica Californie, The Rand Corporation GUTERL F. (1984), Design case history: Apple's Macintosh, IEEE Spectrum, Dec

1984 HAGSTROM W. (1965), The Scientific Community, Basic Books, New York HAMEL G. (1988), PRAHALAD C.K., Managing strategic alliances, 8th Strategic

Management Society Conference, Amsterdam HAZEN R.(1989), La course aux semi-conducteurs, Paris, Plon HENNION A. (1988), MEADEL C., Les ouvriers du désir. Voyage dans une agence

de publicité, Culture Technique , n°18 HINDESS B. (1982), Power Interests and the Outcomes of Struggles, Sociology, 16

(4), 1982 HOLLIS M. (1982), LUKES S., Rationality and Relativism, Basil Blackwell, Oxford HORWITCH M. (1986), Les nouvelles stratégies technologiques des entreprises,

Revue Française de Gestion, mai 1986

HOUNSHELL D. (1983), Elisha Gray et le téléphone. A propos de l’inconvénient d’être un expert, Culture Technique, n° 10, juin 1983

HUGHES T.P. (1983a), Networks of Power. Electrification in Western Society, 1880-1930, Baltimore, John Hopkins University Presse

HUGHES T.P. (1983b), L’électrification de l’Amérique, Culture Technique, n° 10, juin 1983

IDHR-CPE (1982), Etude d'évaluation des trois programmes de développement technologiques : Electronucléaire, Aéronautique, Recherche spatiale, Paris, IDHR-CPE, juillet 1982

ISENSON R.S. (1969), Project Hindsight : An Empirical Study of the Sources of Ideas Utilized in Operational Weapons Systems, pp. 155-76, in GRUBER W.H. and MARQUIS D.G. (eds), Factors in the Transfer of Technology, M.I.T. Press, Cambridge, Mass,

JACQUEMIN A. (1985), Sélection et pouvoir dans la nouvelle économie industrielle, éd.Cabay-Economica, Paris

JENKINS R.V. (1976), Images and Enterprise: Technology and the American Photographic Industry, 1839-1925, Baltimore, John Hopkins University Press

JENKINS R.V. (1983), Georges Eastman et les débuts de la photographie populaire, Culture Technique, n° 10, pp 75-88

JEWKES J. (1958), SAWERS D., STILLERMAN R., The Sources of Invention, 2nd ed., London, Macmillan, (2nd ed.1969), (traduction fr. L'invention dans l'industrie, Les Editions d'Organisation, Paris, 1966)

KALDOR M. (1988), WALKER W., Technologie militaire et dynamisme économique, La Recherche, n° 203, octobre 1988, pp.1270-1280

KANDEL N. (1988), Les stratégies d’accès aux Ressources Technologiques, Working paper, Laboratoire Stratégie et Technologie, ECP

KAUFMAN A. (1969), DESBAZEILLE G., La méthode du chemin critique, Dunod, Paris

KERVERN G. (), L' Evangile selon St Mac, Gérer et Comprendre , n° KEYNES J.M. (1969), Théorie générale de l'emploi, de l'intérêt et de la monnaie,

Payot, Paris KIDDER J.T. (1982), Projet Eagle, Flammarion, Paris KING J. (1987), A review of bibliometric and other science indicators and their role

in research evaluation, Journal of Information Science 13, pp 261-276 KLINE S.(1986), ROSENBERG N., An Overview of Innovation, in LAUDAN &

ROSENBERG (ed.), The Positive sum strategy, National Academic Press KNORR-CETINA K.(1980), KROHN R., WHITLEY R., The Social Process of

Scientific Investigation, Sociology of the Sciences, IV, Reidel, Dordrecht

KNORR-CETINA K.D. (1981), The Manufacture of Knowledge. An Essay on the Constructivist and Contextual Nature of Science, Pergamon Press, Oxford

KOKAOGLU D.G. (1983), A Participative Approach to Program Evaluation, IEEE Transactions on Engineering Management, vol EM 30, n° 3, pp 112-118, août 1983

KRANSBERG M. (1982), Le processus d'innovation, Culture Technique, n°10, Juin 1982, pp. 263-77

KUHN Th. (1962), The Structure of Scientific Revolutions, Univ.Press of Chicago, 1962 (tr.française : Flammarion, Paris, 1983)

LAKATOS I. (1970), Falsification and the methodology of scientific research programmes, in LAKATOS and MUSGRAVE, Criticism and the growth of knowledge, Cambridge University Press.

LANGRISH J. (1972) et alii, Wealth from Knowledge, A Study of Innovation in Industry, London, Macmillan

LAREDO P. (1986), Le programme national, une modalité renouvelée de gestion des priorités nationales de recherche, réflexions à propos de l'expérience française 1982 - 1985, actes du séminaire de Septembre-Octobre 1986, Institut International d'Administration Publique, Paris 1988, pp. 253-262 et 561-572

LAREDO P. (1990), CALLON M., L'impact des programmes communautaires sur le tissu scientifique et technique français, Paris, La Documentation Française

LATOUR B. (1979a), Go and See. For an Anthropological Study of Working Scientists, Society for Social Studies of Science Newsletter, 4(1), pp 18-20

LATOUR B. (1979b), S.WOOLGAR, Laboratory Life, The Social Construction of Scientific Facts, Sage Publications, (trad. française,La vie de laboratoire. La production des faits scientifiques, éd.La Découverte, Paris, 1988)

LATOUR B. (1984), Les microbes, Guerre et Paix, suivi de Irréductions, éd.A.M.Métailié, Paris

LATOUR B. (1987), Science in Action, Open Univ.Press, Milton Keynes, (trad.française,La science en Action, éd. La découverte, Paris, 1989)

LATOUR B. (1990a), Where are the Missing Masses ? Sociology of a new mundane artefacts, in BIJKER W., LAW J., Constructing networks and systems, MIT Press

LAUDAN L. (1977), Progress and its Problems : towards a Theory of Scientific Growth, Routledge & Kegan Paul, London

LAW J. (1982), WILLIAMS R., Putting facts together : a Study in Scientific Persuasion, Social Studies of Science, 12, pp 535-558

LAW J. (1983), Enrôlement et contre-enrôlement : les luttes pour la publication d’un article scientifique, Social Science Information, 22, 1983, pp 237-251

LAW J. (1984), A propos des tactiques du contrôle social : une introduction à la théorie de l’acteur-réseau, La légitimité scientifique : Cahiers Science, Technologie, Société, 4, pp 106-126, Paris, CNRS

LAW J. (1987a), CALLON M., The life and death of an aircraft : a network analysis of technical change, International Workshop on the Integration of Social and Historical Studies of Technology, University of Twente, Enschede

LAW J. (1987b), Technology and heterogeneous engineering : the case of the Portuguese expansion, in (BIJKER, 1987)

LAW J. (1988a), The anatomy of a sociotechnical struggle : the design of the TSR 2, in Elliot B., Technology and Social Process, Edinburgh University Press, Edinburgh, 1988

LAW J. (1988b), CALLON M., Engineering and Sociology in a Military Aircraft Project : A network Analysis of Technological Change, Social Problems, 35(3)

LAW J. (1988c), BAUIN S., COURTIAL J.P., WHITTAKER J., Policy and the mapping of scientific change: a co-word anlysis of research into environmental acidification, Scientometrics, 14, 251-264

LEMAINE G. (1983), DARMON G., EL NEMER S., Noopolis. Les laboratoires de recherche fondamentale : de l’atelier à l’usine, C.N.R.S., Paris

LE MARC M. (1990), COURTIAL J.P., DRODZA SENSKOVA E., PETARD J.P., PY Y., La dynamique des recherches en psychologie du travail de 1973 à 1987: de l'étude de l'entreprise à l'étude de la profession, Université de Nantes-CSI

LEMAY J. (1988), DEBRESSON C., Le repérage des grappes technologiques : une analyse de graphes orientés appliquée à des matrices technologiques, Concordia University, Economics Department, Working paper

LEROI-GOURHAN A. (1964), Le geste et la parole , (2vol), Albin Michel, Paris MANDAKOVIC T., An Interactive Model for R&D Project Selection Decision

Making in Hierarchical Organizations, PhD Dissertation, Department of Industrial Engineering of the University of Pittsburg, Pittsburg PA

MANNHEIM K. (1952), Essays on the Sociology of Knowledge, Routledge & Kegan Paul, London

MANNHEIM K. (1956), Idéologie et utopie, (trad.), éd.Marcel Rivière, Paris MANSFIELD K. (1961), Technical change and the rate of imitation, Econometrica,

29 (4), pp 741-66 MANSFIELD E. (1980), ROMEO A., Technology transfer to overseas subsidiairies

by U.S. based firms, Quaterly Journal of Economics, dec 1980 MANSFIELD E. (1985), How rapidly does new industrial technology leak out ?, The

J. of Industrial Economics, 34 (2)

MARITI P. (1983), SMILEY R.H., Cooperative agreements and the organization of industry, The Journal of Industrial Economics, juin 1983, 31 (4)

MARTIN B.R. (1987), IRVINE J., NARIN F., STERRITT C., The continuing decline of British science, Nature, vol. 330, pp 123-126

MARTINET B. (1988), RIBAULT J.M., La veille technologique concurrentielle et commerciale, Ed. d'Organisation, Paris

MASLOW A. (1969), The Psychology of Science, Gateway, Chicago McKENSEY D. (1979), BARNES B., Scientific judgement : The biometry-

Mendelism controversy, in (BARNES, 1979) McKENZIE D. (1981), Statistics in Britain, 1895-1930. The Social Construction of

Scientific Knowledge, Edinburgh University Press, Edinburgh McKENZIE D. (1984), Marx and the Machine, Technology and Culture, 25, 1984,

pp 473-502 McKENZIE D. (1985), J.WAJCMAN, The Social Shaping of Technology, Open

University Press, Milton Keynes MECHLIN G.F. (1980), BERG D., Evaluating Research - ROI is not enough,

Harvard Business Review, pp 83-99, sept-oct 1980 MENSCH G. (1979), Technological Stalemate, New York, Ballinger MERTON R. (1938), Science, technology and society in seventeenth century

England, Osiris, IV (nouv.éd., New York, 1970) MERTON R. (1942), Science and Technology in a Democratic Order, Journal of

Legal and Political Science, I, 1942, pp 115-126, repris dans Merton R.,The Sociology of Science, University Press of Chicago, 1973

MEYER-KRAHMER F. (1983), GIELOW G., KUNTZE U., Impacts of government incentives towards industrial innovation, Research Policy 12, pp. 153-169

MEYER-KRAHMER F. (1989), MONTIGNY P., Evaluations of innovation programmes in selected European countrie, Research Policy , 18

MICHELET B. (1985), TURNER W.A., 'Co-word' search: a system for information retrieval, Journal of Information Science, 11, 173-181

MICHELET B. (1988), Thèse de Doctorat de l’Université de Jussieu, Paris VII MOED H.F. (1985) et al, The Use of Bibliometric Data for the Measurement of

University research performance, Research Policy, 14, pp 131-149 MOLET H. (1985), SATAURY J.C., VAN GIGH J.P., Robot en rodage, Les

enseignements d'une périrobotique rétive, CGS-Ecole des Mines de Paris MONNIER E. (1987), Evaluations de l'action des pouvoirs publics. Du projet au

bilan. éd.CEP-Economica, Paris MONTIGNY P. (1987), MELLERAY C., L'audit d'un grand organisme de recherche

et d'enseignement public, Etude CPE, n° 91

MORIN J. (1985), L'excellence technologique, Jean Picollec-Publi-Union, Paris MORVAN Y. (1985), Fondements d'Economie Industrielle, éd.Economica MOWERY D. (1979), ROSENBERG N., The influence of market demand upon

innovation: A critical review of some recent empiorical studies, Research Policy, 8, 1979, pp. 102-53

MOWERY D. (1983), The relationship between intrafirm and contractual industrial research, Exploration in economic history, 20

MUSTAR Ph. (1989a), Science et innotation. Annuaire raisonné de la création d'entreprises technologiques par les chercheurs en France, Ed. CPE - Economica, Paris

MUSTAR Ph. (1989b), Recherche-Industrie: le CNRS fait le point, La Recherche, 20 (211), juin 1989, p 719

NARIN F. (1985), NOMA E., Is technology becoming science?, Scientometrics, 7, pp 369-381

NARIN F. (1989), ROSEN M., OLIVASTRO D., Patent citation analysis: new validation studies and linkage statistics, in VAN RAAN A.F.J., NEDERHOF A.J., MOED H.F. (éd.), Science and Technology Indicators, DSWO Press, Leiden

NELSON R. (1977), WINTER S., In Search of Useful Theory of Innovation, Research Policy, 6, pp 36-76

NELSON R. (1989), What is private and what is public about technology, Science, Technology and Human Values, 14(3)

NELSON R. (1982), WINTER S., An Evolutionary of Economics Change, Harvard University Press

NORD-PAS DE CALAIS (1988), Centrale Management (Paris), Centre de Sociologie de l'Innovation (Paris), 3IE IFRESI (Lille), Evaluation de l'impact de la politique du Conseil Régional Nord-Pas de Calais en matière de recherche et technologie, Conseil Régional Nord-Pas de Calais

NSF (1976), Indicators of International Trends in Technological Innovation, National Science Foundation, Washington

NSF (1989), Evaluation on the Small Business Innovation Research Program, National Science Foundation, Washington

NUNEO P. (1988), OOSTERVELD J., Managing Technology Alliances, Longe Range Planning, 21 (3)

OCDE (1986), La politique d'innovation en France, Paris, Economica OCDE (1987), Evaluation des pratiques de la recherche : un choix de pratiques en

vigueur, OCDE, Paris OCDE (1989), Un nouveau rôle pour les organismes publics de recherche, Paris,

OCDE

PACIFICO C. (1964), Is it Worth Risky ?, Chemical Engineering Progress, vol 60, Mai, pp 19-21

PAPON P.(1978), Le pouvoir et la science en France, Le Centurion PATTON M.Q. (1981), Creative evaluation, Sage Publications, Londres PAVEL T. (1986), Fictional Worlds, Harvard University Press, Cambridge Mass.

(traduction fr. Univers de la fiction, Seuil, Paris) PELZ D. (1966), ANDREWS F., Scientists in Organizations, John Wiley and Sons,

New York PERROUX F. (1956), La théorie générale du progrès économique, Cahiers de

l'Institut de sciences économiques appliquées, Paris, 1956-1957 PETERS T. (1983), WATERMAN R., Le prix de l'excellence, Intereditions PETERS T., (1985), AUSTIN N., A Passion for Excellence, The Leadership

Difference, Random House, New York. En français, La passion de l’excellence, Interéditions, 1985

PICKERING A. (1984a), Constructing Quarks. A Sociological History of Particle Physics, Edinburgh University Press, Edinburgh

PICKERING A. (1984b), Against Putting the Phenomena First : the Discovery of the Week Neutral Current,Stud.Hist.Phil.Sci., 15, 1984, pp 85-117

PICKERING A. (1985), Rôle des intérêts sociaux en physique des hautes énergies. Le choix entre charme et couleur, in (CALLON M., 1985)

PINCH T. (1979), Normal explanations of the paranormal : The demarcation problem in parapsychology, Social Studies of Science, IX, pp 329-348

PORTER M.E. (1982), Choix stratégiques et concurrence, Economica, Paris PORTER M.E. (1986), L'avantage concurrentiel, InterEditions, Paris PRICE (Derek de Solla) (1963), Little Science, Big Science, Columbia University

Press, New York QUERMONNE J.L. (1986), L'évaluation des universités françaises : problèmes et

réalisations, in B.CROUSSE, J.L.QUERMONNE, L.ROUBAN, Science politique et politique de la science, Economica, Paris

RABEHARISOA V. (1990), Petit exercice de sciento-métrie: ce que chiffrent et racontent les brevets français sur les piles à combustibles, Rapport CSI-AFME

RIP A. (1984), COURTIAL J.P., Co-word maps of biotechnology: an example of cognitive scientometrics, Scientometrics, 6, 381-400.

RIP A. (1986), J.NEDERHOF, Effects of implementing the science policy priority for biotechnology in the Netherlands, Research Policy, 15

RIP A. (1988a), Contextual transformation in temporary science, in JANSSON A. (éd.), Keeping Science Straight, A Critical Look at the Assessment of Science and Technology, Gothenburg, Department Serie Science

RIP A. (1988b), Mapping of Science : possibilities and limitations, in VAN RAAN T., Handbook of Quantitatif Studies of Science and Technology, Elsevier

ROQUEPLO P. (1982), Evaluation de la procédure des actions concertées, Etude CPE, n° 3

ROQUEPLO P. (1985), Evaluation et programmes : deux moments organisateurs de la stratégie de la recherche, in Colloque international C.P.E., Méthodologies évaluatives de la recherche, II- Les programmes de Recherche, Paris, 3-4mai 1984, C.P.E. Etude, n° 51, janvier 1985

ROSENBERG N., Inside the Black Box : Technology and Economics, Cambridge ROSENBERG N. (1976), Perspectives on Technology, Cambridge University Press ROTHMAN H. (1988), Scientometrics techniques for research planning and

strategy, Actes du colloque INFODIAL ROUBAN A. (1983a), Les chercheurs et les laboratoires, Etude CPE, n° 26 ROUBAN A. (1983b), Les organismes, Etude CPE, n° 29 ROUBAN A. (1984), Les programmes, Etude CPE, n° 51 ROUBAN L. (1988), L’Etat et la Science, Paris, éd. CNRS SAHAL D. (1985), Technological Guide Posts and Innovation Avenues, Research

Policy, 14 SAINFORT F. (1987), Innovation and Organization : Toward an Integrative Theory,

Thèse de l’Ecole Centrale, Paris SALOMON J.J. (1970), Science et Politique, Le Seuil, Paris SALOMON J.J. (1972) (éd.), Le système de la recherche, 3 vol., Paris, OCDE SALOMON J.J. (1986), SCHMEDER G. (sous la direction de), Les enjeux du

changement technologique, Paris, CPE-Economica SCHMOCH U. (1990), Wettbewerbsvorsprung durch patentinformation, Verlag

TUV Rheinland, Köln SCHMOOKLER J. (1966), Invention and Economics Growth, Harvard University

Press, Cambrige, Mass. SCHUMPETER J. (1934), The Theory of Economic Development, Cambridge,

Mass., Harvard University Press SCHUMPETER J. (1939), Business Cycles : A Theoretical, Historical and Statistical

Analysis of the Capitalist Process, New York, MacGraw Hill SCHUMPETER J. (1942), Capitalisme, socialisme et démocratie, Paris, Payot SERIEYX H. (1982), Mobiliser l'intelligence de l'entreprise, Entreprise moderne

d'édition SERRES M. (1989) (éd.), Eléments d'histoire des sciences, éd.Bordas, Paris

SHAPIN S. (1982), History of Science and its Sociological Reconstruction, History of Science, sept 1982

SHAPIN S. (1985), L’histoire sociale des sciences est-elle possible ?, in (CALLON, 1985)

SIMONDON G. (1958), Du mode d'existence des objets techniques, Aubier, Paris SOUDER W.E. (1978), Project Selection; Planning and Control, vol 2 §10, in

ELMAGHRABY S. and MODER J., The Handbook of Operations Research, Van Nostrand, New York

SOUDER W.E. (1980), Management Decision Methods for Managers of Engineering and Research, Van Nostrand Reinhold, New York, pp 137-190

SOUDER W.E. (1983), Project Selection and Economic Appraisal, Van Nostrand Reinhold, New York, pp 60-85

STORER N. (1986), The Social System of Science, Rinehart and Winston, New York STANKIEWICZ R. (1986), Academic and Entrepreneurs, London, Frances Pinter

Publishers, 155 p TASSEL J. (1983), La méthode SRI d'analyse stratégique, Futuribles TEECE D. (1986), Profiting from Technological Innovations, Working paper BPP-

16, Berkeley, 6th SMS COnference, Singapour TEIL G. (1989), Sociologie Assistée par Ordinateur, participation au Colloque

International du Centre de Sociologie de l’Innovation, juillet 1989 TEIL G. (soumis pour publication), AKRICH M., MICHELET B., LATOUR B., La

machine de Hume, TENIERE BUCHOT P.F. (1988), in Formation par la recherche, n°22, Paris, mars

1988 THEVENOT L. (1985), Les investissements de forme, Conventions Economiques,

Paris, PUF THILL G. (1973), La fête scientifique, Desclée-Aubier, Paris TRACES (1968), Technology in Retrospect and Critical Events in Science

(TRACES), Prepared for the National Science Foundation by the Illinois Institute of Technology Research Institute, vol.1

TURNER W.A. (1988a), C. CHARTRON, F. LAVILLE, B. MICHELET, J. POMIAN, Information et innovation: des techniques nouvelles pour l'exploitation des bases de brevet en texte intégral, Infomédiatiques, Edition du cercle de la librairie.

TURNER W.A. (1988b), CHARTRON G., LAVILLE F., MICHELET B., Packaging information for peer review: new co-word analysis techniques in: A.F.J. RAAN (ed) Handbook of quantitative studies of science and technology, Elsevier.

TURNER W.A. (1989), LAVILLE F., SIGOGNEAU A., COURTIAL J.P., Terre et système solaire: origines, structure et dynamique, CNRS-CSI

TURNER W.A. (1990), MICHELET B., COURTIAL J.P., Scientific and technological information banks for the network management of research, Research Policy, 19

TURNER W.A. (1991), ROJOUAN F., CALLON M., Evaluating input/ouput relationships in a regional research network using co-word analysis techniques, Scientometrics (forthcoming)

UTTERBACK J.M. (1971), The Process of Technological Innovation within firm, Academy of Management Journal, mars 1971

UTTERBACK J.M. (1982) et. al., Technology and Industrial Innovation in Sweden. A study of New Technology Based Firms, Center for Policy Alternatives, MIT, Cambridge MA

VAN VIANEN B.G. (1989), MOED H.F., VAN RAAN A.F.J., The assesment of the Science Base of Recent Technology, in VAN RAAN A.F.J., NEDERHOF A.J., MOED H.F. (éd.), Science and Technology Indicators, DSWO Press

VINCK D. (1989a), Le Comité de Gestion et de Coordination, in (CALLON, 1989b) VINCK D. (1989b), LATOUR B., Programme de R&D Technologique “Transports

Terrestres” : Evaluation des procédures internes, CSI-Ecole des Mines VLETZ D.(1989), Réseaux dans l’industrie, Industries an réseaux, Genie urbain,

acteur, territoire et technologie, LATTS VON HIPPEL E. (1988), The Sources of Innovation, Oxford University Press WATSON J.D. (1968), La double hélice, Robert Laffont, Paris WATTERS L.J. (1967), Research and Development project Selection :

Interdependance and Multi-period Probabilistic Budget Constraints, PhD Dissertation, Arizona State University

WEINBERG A.M. (1968), Criteria for Scientific Choice, in E.SHILS (ed.) Criteria for scientific development : Public Policy and National Goals, MIT Press

WHITTAKER J. (1989), Creativity and conformity in science: titles, keywords and co-word analysis, Social Studies of Science, 19, 473-96

WILIAMS D.J. (1969), A study of a Decision Model for R&D Project Selection, Operational Research Quaterly, 20 (3), pp 361-373, july 1969

WILLIAMSON O. (1975), Markets and hierarchies, New York, The Free Press YOUNG B.(1977), Science is Social Relations, Radical Science Journal, 5, pp 65-

129

GESTION DE LA RECHERCHE

Nouveaux problèmes, nouveaux outils

La pratique scientifique change. De nouvelles méthodes de gestion de la recherche voient le jour. Entreprises, Universités et Pouvoirs Publics s’associent pour se lancer dans l’aventure de l’innovation technologique. Ils créent des synergies et construisent des réseaux parce que la liaison est toujours incertaine entre la production de connaissances nouvelles et le progrès économique et social. Des instruments d’analyse et d’intervention appropriés sont réclamés de toutes parts.

Or, une nouvelle génération d’outils pour la préparation, le suivi et l’évaluation des projets et des programmes de recherche est en plein développement. Elle s’appuie sur les acquis de 20 ans de travaux en sociologie des sciences, en économie du changement technique et en scientométrie. Plusieurs de ces outils, tels que les cartes stratégiques de la recherche scientifique, sont, aujourd’hui, tout-à-fait opérationnels et de plus en plus souvent utilisés, notamment pour l’élaboration des politiques scientifiques et des stratégies de recherche dans les entreprises. D’autres sont encore au stade de leurs premiers développements, tel le graphe socio-technique pour le suivi et la visualisation des projets d’innovation. Cet ouvrage a l’honneur d’en exposer, pour la première fois en public, la méthode et la pertinence. L’émergence de ces outils est étroitement liée au nouveau regard porté aujourd’hui sur les pratiques scientifiques et technologiques. Signalons également les apports déterminants du concept de Réseau Technico-Economique et les énormes possibilités qu’offrent des méthodes simples d’exploitation des bases de données de publications scientifiques et de brevets.

Du fait de l’importance de l’innovation technologique dans nos sociétés, il nous a semblé utile de faire connaître, aux gestionnaires de la recherche (en particulier, directeurs de la R&D dans les entreprises, gestionnaires des interventions publiques de recherche et directeurs de laboratoires universitaires) ainsi qu’aux économistes et aux chercheurs en gestion, les acquis des dix dernières années et les développements en cours. Ce livre propose à la fois un cadre renouvelé pour penser l’innovation technologique et des outils susceptibles de changer profondément les pratiques de gestion dans la futur. L’ouvrage est conçu de manière à permettre une lecture progressive : des éclairages les plus nouveaux et accessibles jusqu’à la présentation complète des outils les plus performants.