Les déterminants d’un bon système de recherche

Les déterminants d’un bon système de recherche

Olivier Postel-Vinay

Mettons-nous dans la peau d’un homme politique de haut niveau qui s’aviserait, sait-on jamais, de lancer une enquête sérieuse pour tenter d’identifier des leviers susceptibles d’inverser la tendance au déclin qui affecte la recherche française. Comment orienterait-il son enquête ? J’ai une suggestion à lui faire : regarder si les pays qui sont en tête des indicateurs de performance n’auraient pas, par hasard, quelques caractères en commun, et voir s’il ne serait pas possible de s’en inspirer pour engager des réformes.

Le critère du nombre de publications est-il pertinent ?

Si l’on adopte de point de vue de Sirius, le moins mauvais indicateur de l’impact de travaux de recherche n’est pas le nombre de publications dont ces travaux ont fait l’objet, ni la réputation des journaux et revues scientifiques dans lesquels ces articles ont été publiés, mais l’intérêt suscité par ces publications auprès des chercheurs du domaine, dans le monde entier et dans la durée. Cet écho est mesuré tant bien que mal par le comptage du nombre de fois où un article donné est cité en référence dans des articles scientifiques ultérieurs, de préférence sur une période excédant deux ans. Un tel instrument de mesure est sujet à caution lorsqu’il s’agit d’évaluer finement le travail d’un chercheur en particulier. Disons qu’il est nécessaire, mais non suffisant. Un responsable de recherches écrivait récemment dans Nature que pour recruter un bon candidat, la technique éprouvée dans son département universitaire consiste à lui demander, lors d’un entretien, de dire quels sont à ses yeux les trois ou quatre articles les plus importants qu’il a publiés et de lui demander de les commenter. Ces trois ou quatre articles ne sont pas forcément les plus cités et n’ont pas forcément été publiés dans les meilleures revues. Mais on peut toucher du doigt, par ce moyen, la véritable originalité d’un chercheur.
Il reste que sauf exception (fraude, scandale), et compte tenu de l’impact des effets de mode, un chercheur dont certains articles sont beaucoup cités en référence a de grandes chances d’être un bon chercheur. Il en résulte que si l’on cherche à évaluer non plus un individu mais un laboratoire, un département universitaire, une institution, une communauté disciplinaire, voire une nation ou un groupe de nations, cet outil revêt une valeur statistique tout à fait raisonnable. S’il existe quantité de défauts dans les procédures conduisant à la publication, une fois publié, un article a en gros le sort qu’il mérite. Une institution qui publie beaucoup mais dont peu d’articles sont cités n’est pas un bon centre de recherches ; il n’y a aucun doute à ce sujet.
Les indicateurs d’impact des publications agrégés au niveau d’un pays ont donc un sens, surtout si on les considère discipline par discipline, et si l’on se limite aux sciences dites dures (en sciences humaines et sociales – sauf peut-être en économie les données sont plus difficiles à rassembler et sujettes à caution). Ces indicateurs sont depuis une vingtaine d’années couramment utilisés, à bon escient, pour comparer les performances des pays engagés dans la compétition scientifique. Ils placent la France à un niveau modeste, même en mathématiques, domaine où l’école française est pourtant particulièrement réputée. Nous nous situons en gros en dixième position dans les principaux champs disciplinaires. En outre, notre impact a plutôt tendance à baisser.
Considérons maintenant les pays qui arrivent en tête de liste des indicateurs. Quels sont-ils ? On trouve, d’une part, plusieurs petits pays européens (la Suisse, la Suède, les Pays-Bas), d’autre part, les États-Unis, et, troisième catégorie, le Royaume-Uni. Pourquoi ces pays, par ailleurs si divers ? Étant admis que la recherche de causes dans les affaires humaines est un exercice périlleux, on peut se demander si ces pays n’ont pas en commun quelques caractères susceptibles d’éclairer leur avance.

Comment hiérarchiser les pays ?

Voyons d’abord cinq caractères souvent invoqués pour décrire une bonne politique de recherche, mais que tous ces pays ne possèdent pas également ou pas du tout. Ainsi l’intensité de la recherche (rapport entre la dépense intérieure de R & D et le PIB) est-elle forte en Suède, aux États-Unis et en Suisse, nettement plus faible au Royaume-Uni et aux Pays-Bas. De même l’effort de l’État pour la R & D est traditionnellement élevé dans presque tous ces pays, mais pas au Royaume-Uni. La recherche académique est essentiellement publique dans les petits pays européens, moins au Royaume-Uni et beaucoup moins aux États-Unis. La recherche académique est adossée à une puissante recherche industrielle aux États-Unis, mais ce n’est que partiellement le cas dans les petits pays européens et beaucoup moins vrai au Royaume-Uni. Le facteur d’entraînement du budget militaire est énorme aux États-Unis, significatif au Royaume-Uni et en Suède, quasi nul en Suisse et aux Pays-Bas. Pour importants qu’ils soient, ces caractères ne peuvent donc être considérés comme discriminants.
Il n’en va peut-être pas de même de cinq autres caractères, que ces pays ont en commun en dépit de leur différence de taille et de la diversité de leurs trajectoires historiques et de leurs traditions industrielles et sociales.
Le premier et non le moindre est que le centre de gravité de leur système de recherche est l’université. Ce sont les grandes universités de recherche qui, dans ces pays, drainent les talents et assurent les carrières. On ne peut en dire autant de la France, où le centre de gravité du système est constitué par des organismes publics de recherche.
Deuxième caractère : les universités de ces pays se comportent à certains égards comme des entreprises. Elles se considèrent comme étant en situation de concurrence sur le marché mondial , et en tirent les conséquences. Elles définissent une stratégie. Elles déterminent elles-mêmes le mode de sélection de leurs étudiants et les méthodes de recrutement et d’évaluation de leurs enseignants-chercheurs. Elles définissent leurs propres règles de management et de financement. En France, les universités ne peuvent définir une stratégie, car elles n’ont pas ces libertés. Le président de Harvard a récemment publié un article suggérant que les grandes universités de recherche pourraient constituer un modèle managérial pour les grandes entreprises. L’idée que nos entreprises pourraient s’inspirer des méthodes managériales à l’œuvre dans les universités est simplement comique.
Les chercheurs ne disposent dans ces pays que d’une sécurité de l’emploi limitée : c’est un troisième caractère commun. Même quand il existe des barèmes, les recrutement se font sur la base de contrats individualisés. Un enseignant-chercheur ne peut espérer voir son emploi stabilisé qu’après une longue période probatoire marquée par plusieurs contrats successifs, pas forcément dans la même université. C’est le principe du tenure track. En France, au contraire, même si la pratique des positions post-doctorales se développe, ces contrats ne sont pas renouvelables et le recrutement du jeune chercheur, à l’université ou dans un organisme, se traduit par l’entrée dans la fonction publique : l’emploi à vie est garanti. C’est une cause d’énormes rigidités humaines, structurelles et budgétaires.
Quatrième caractère : dans ces pays de tête, la recherche académique est principalement financée sur projets. Un scientifique, une équipe n’a pas d’argent tant qu’il n’a pas présenté un projet de recherche, évalué par des comités de scientifiques n’ayant, en principe, pas de liens ni de conflit d’intérêt avec le requérant. Le financement accordé porte en général sur une durée de trois ou quatre ans et comporte les moyens nécessaires au recrutement d’autres chercheurs. Un scientifique qui ne parvient plus à faire financer un projet doit cesser son activité. En France, la pratique du financement sur projet n’intervient qu’à la marge et dans des conditions souvent obscures. Hors contrats obtenus à l’extérieur du système, le gros des dépenses de recherche se fait par reconduction du budget annuel des organismes et des universités. En règle générale, les équipes n’ont pas la liberté de recruter dans le cadre de ces budgets.
Enfin, la recherche académique reçoit dans tous ces pays de tête le soutien de fondations puissantes et de dons et legs émanant d’entreprises et de riches particuliers. Cette tradition est favorisée par une fiscalité très avantageuse, allant jusqu’à l’exonération complète. Pour des raisons historiques, l’État français reste réticent à cet égard. Il est à la fois difficile de créer une fondation, malaisé de la faire prospérer et peu avantageux d’accorder des dons et legs de quelque importance. Une loi récente améliore un peu les choses ; mais il est significatif qu’elle n’a pas été conçue pour favoriser la recherche scientifique.
Les pays en tête dans le palmarès des indicateurs de recherche ont donc en commun au moins cinq caractères que la France ne possède pas. Il est étrange que les débats sur notre système de recherche, qui défraient la chronique depuis le grand colloque Chevènement de 1982, n’aient pas porté sur l’analyse en profondeur de ces caractères, de leur impact et des raisons pour lesquelles ils ne sont pas présents dans notre pays.