La science à l’horizon 2025. Ruptures ou continuités ?

La science à l’horizon 2025. Ruptures ou continuités ?

Pierre Papon

Au début du XXe siècle, une série de découvertes scientifiques et d’innovations technologiques majeures annonçait une transformation profonde de notre perception du temps, de l’espace, de la matière et du vivant : M. Planck posait les bases de la physique des quanta en 1900, l’année même où Freud publiait l’ouvrage fondateur de la psychanalyse et où étaient redécouverts les travaux de Mendel sur l’hérédité. Marconi réalisait la première liaison radio transatlantique en 1901 et deux ans plus tard, en 1903, les frères Wright effectuaient le premier vol en avion. Enfin, en 1905, annus mirabilis pour Einstein, celui-ci proposait la théorie de la relativité et la théorie quantique, ou corpusculaire, de la lumière. Associées à des mouvements artistiques novateurs, le fauvisme et surtout le cubisme lancé par Picasso en 1907, ces découvertes et ces innovations étaient des « signes du temps » annonciateurs de ruptures majeures dans notre vision du monde et de la société .
Aujourd’hui, au début du XXIe siècle, sommes-nous capables de détecter des signaux analogues qui, telles des secousses sismiques, seraient annonciateurs de bouleversements majeurs ? Sommes-nous, au contraire, dans une phase de continuité avec les grandes percées scientifiques et technologiques du XXe siècle ? C’est à ce type de questions que nous allons tenter de répondre.

L’héritage des grands paradigmes

La science est souvent structurée par des grands paradigmes fondés sur une série de découvertes qui, pendant une période plus ou moins longue, vont fournir un cadre de référence et une « légitimité » aux travaux des chercheurs, leur permettant de s’attaquer à toute une série de questions qui paraissent d’actualité .
Nous avons hérité de la physique du XXe siècle deux grands paradigmes qui structurent nos conceptions sur l’espace, le temps et la matière et dont l’influence s’étend d’ailleurs bien au-delà du champ de la recherche scientifique : le paradigme de la relativité et celui de la physique quantique. La théorie de la relativité d’Einstein a conduit à abandonner les concepts de temps et d’espace absolus, hérités de Newton, pour introduire le paradigme d’espace-temps : nous devons raisonner dans un « espace » à quatre dimensions avec trois coordonnées spatiales classiques et une coordonnée temporelle. Cet espace-temps, non euclidien, où la vitesse de la lumière est une constante (un postulat einsteinien), est le moule géométrique dans lequel se coulent les lois de la physique relativiste. Qui plus est, la matière présente dans l’univers déforme localement cet espace géométrique et c’est cette déformation qui est à l’origine de la gravitation. La théorie de la relativité fut à l’origine de l’émergence d’une nouvelle physique qui a bouleversé peu à peu notre conception de l’espace et du temps, mais elle a aussi modifié notre approche des relations entre la matière et l’énergie (Einstein montra dès 1905 que la masse peut se transformer en énergie) ainsi que notre vision de l’univers. En astronomie les théories du big-bang et de l’expansion de l’univers sont des conséquences logiques des principes relativistes.
La physique quantique, quant à elle, a introduit un paradigme qui s’apparente à une construction à plusieurs étages. Elle suppose d’abord qu’un système, un atome par exemple, ne peut échanger de l’énergie avec son environnement que de façon discontinue par « quantum », hypothèse formulée par Planck en 1900 : l’énergie est donc quantifiée. Einstein, en 1905, complètera ce schéma en émettant l’hypothèse que la lumière elle-même est formée de particules, les photons, qui sont en quelque sorte des grains d’énergie. Le second étage de la construction de la physique quantique consiste à admettre, d’une part, que l’on peut associer une onde à une particule, et que, d’autre part, on doit décrire de façon probabiliste les propriétés de la matière et donner une interprétation probabiliste des phénomènes physiques. On décrit ainsi une particule à l’aide d’une « fonction d’onde » qui permet de calculer la probabilité de présence en tel ou tel point de l’espace et la valeur probable de grandeurs physiques qui décrivent ses propriétés. Enfin, un dernier étage a été ajouté à cette construction, complétant le paradigme quantique. Heisenberg a montré que si l’on peut éventuellement mesurer avec une précision extrême la position d’une particule, la mesure simultanée de sa vitesse sera alors entachée d’une grande incertitude. Il en résulte que la notion de trajectoire d’une particule devient floue, puisqu’il faut mesurer à chaque instant sa position et sa vitesse pour la déterminer. C’est le principe d’incertitude de Heisenberg.
Cette interprétation probabiliste de la physique quantique, dite « interprétation de Copenhague », constitue une remise en cause profonde d’une bonne partie des conceptions de la physique moderne de la matière et du rayonnement. Einstein n’a jamais admis cette conception probabiliste de la physique et, disait-il, on ne saurait admettre que Dieu puisse jouer aux dés. Tous les grands succès de la physique du XXe siècle sont en filiation directe avec le paradigme quantique : la physique nucléaire , la physique des transistors et des lasers, l’interprétation des propriétés magnétiques et électroniques des solides, la mise en évidence de nouvelles propriétés de la matière comme la supraconductivité et la superfluidité, etc.
L’émergence d’un paradigme unificateur dans la biologie et la génétique modernes a été une entreprise de plus longue haleine que pour la physique. Si le concept de gène est apparu relativement tôt, en 1909, sa structure est restée un mystère pendant plusieurs décennies. L’idée que les propriétés des êtres vivants pourraient s’expliquer par l’intervention de molécules et leur interaction s’est imposée à la fin des année 1930 alors que l’existence des macromolécules venait d’être mises en évidence ; c’est ainsi qu’émergera peu à peu la biologie moléculaire. L’acide désoxyribonucléique, l’ADN, va se révéler être l’opérateur central de la génétique, un véritable deus ex machina du théâtre du vivant. La structure en double hélice de l’ADN une fois déterminée par Watson et Crick en 1953, il apparaît que l’ADN en se dédoublant en ARN joue un rôle clé dans sa transmission du message génétique . F. Crick formula en 1957, ce qu’il nommait lui-même pompeusement le « dogme central » de la biologie moléculaire : l’information génétique chemine irréversiblement de l’ADN vers l’ARN, puis vers les protéines. La découverte du « code génétique », au cours des années 1960, constituera une application directe de ce véritable paradigme qu’était le dogme central de la biologie moléculaire : les informations inscrites sur des fractions d’ADN, constituant des gènes, étaient recopiées sur des ARN messager et de transfert, pour synthétiser des protéines. Le message génétique emprunte donc une voie moléculaire. On peut affirmer que les percées récentes de la biologie et de la génétique sont largement les applications de ce paradigme et d’une vision réductionniste du vivant : mise au point des techniques du génie génétique et du clonage (production en particulier des OGM), séquençage des génomes (en particulier du génome humain), nouvelle approche de la théorie de l’évolution héritée de Darwin, tentatives pour mettre en œuvre des thérapies géniques, etc. Même si elle est loin d’être aussi élaborée et exclusive, l’approche moléculaire est aussi un paradigme à l’œuvre dans les neurosciences ; le rôle des médiateurs chimiques est en effet très important dans les modes de transport de l’information au sein du système nerveux. Cette méthode réductionniste connaît d’indéniables succès dans le domaine de la neurobiologie, même si elle est loin d’expliquer tous les phénomènes mis en jeu dans un cerveau qui reçoit des informations et donne des ordres… et qui pense.
La manipulation d’informations en grande quantité sous forme de signes et de symboles est le processus clé de l’informatique qui a pris son essor avec l’invention des ordinateurs à la fin de la Seconde Guerre mondiale. La logique est au cœur du mode opératoire d’un ordinateur et s’il n’existe pas, à proprement parler, un paradigme informatique, on peut affirmer que l’ensemble des règles et de processus logiques qui conduisent à l’élaboration de programmes, à la conception et à la mise en œuvre d’architectures d’ordinateur est l’équivalent d’un paradigme . Celui-ci englobe, au début des années 1950, les concepts de la théorie de l’information et de la cybernétique qui étaient en gestation dans les années 1940. C’est un vaste continent du savoir et des techniques que vont former l’informatique, l’automatique, la cybernétique et la robotique qui seront les piliers de la société de l’information. La construction des machines programmées, réagissant à leur environnement par un mécanisme de « feed-back », les robots, est un fruit du mariage de l’informatique et de la cybernétique dont l’impact sur les société industrielles est évidemment très important puisque les robots ont été les vecteurs de l’automatisation dans l’industrie. On peut observer aussi que le paradigme informatique a été importé dans la génétique moderne puisque, dans une certaine mesure, la notion de code génétique emprunte plusieurs concepts à l’informatique, en particulier celui de programme génétique qui, inscrit dans les gènes et transcrit par l’intermédiaire de l’ADN, permet la synthèse des protéines dans les cellules. L’informatique à la frontière de la science et de la technologie est un héritage important de la seconde moitié du XXe siècle dont l’impact social et économique est considérable. La percée de la micro-électronique, avec l’invention des circuits intégrés, a rendu possible l’extension rapide, à partir des années 1970, d’une informatique opérationnelle dans de nombreux secteurs de la société.

Des signes de ruptures ?

Pouvons-nous identifier, aujourd’hui, dans l’héritage scientifique et technologique du XXe siècle des signes annonçant des ruptures ? Cet inventaire de l’existant est évidemment une démarche importante dans la prospective de la science qui doit éviter, faute de pouvoir « prévoir » les grandes percées scientifiques et technologiques, d’extrapoler systématiquement les grandes tendances de la recherche et de la technologie. On se gardera bien d’affirmer que nous sommes au seuil d’une nouvelle année 1905 pour la science, mais on peut tenter de repérer quelques signes annonçant des crises ou au contraire la poursuite de dynamiques scientifiques.
Si l’on examine d’abord la situation des sciences de la matière et de l’univers, en ce début de XXIe siècle, on doit constater que les deux paradigmes hérités de la relativité et de la physique quantique, sont totalement opérationnels et que les théories physiques élaborées, au fil des décennies, rendent bien compte des phénomènes physiques rencontrés sur la planète et dans l’univers à toutes les échelles. Il n’est pas certain, en revanche, que nous ayons intégré dans notre vision du monde toutes les conséquences des révolutions scientifiques que constituaient la théorie de la relativité et la physique des quanta. En particulier, nous avons beaucoup de mal à accepter qu’il n’existe ni temps, ni espace absolus et que nous vivons dans un espace-temps . La cosmologie, en accord avec les modèles relativistes, prévoit un univers en expansion (une expansion qui semble s’accélérer) à partir du big-bang initial. Mais on doit observer que, d’une part, on n’est pas encore parvenu à mettre en évidence expérimentalement les ondes gravitationnelles dont Einstein avait prévu l’existence et qui déforment l’espace-temps (elles sont émises par des masses subissant des accélérations), et, d’autre part, qu’on ignore la nature du constituant de l’univers qui provoque son expansion (appelée aussi « inflation ») qui semble s’accélérer . La composition de l’univers reste ainsi largement inconnue : 70 % de l’univers seraient constitués par une « énergie noire », 25 % par une « matière noire » qui, l’une et l’autre, auraient un effet répulsif sur la structure de l’espace (alors que des masses s’attirent par gravitation) et provoqueraient ainsi son expansion. Qui plus est, si l’on revient à la physique de la matière, les théories les plus récentes tentent d’expliquer l’origine de la masse par l’existence d’une particule appelée boson de Higgs que les physiciens cherchent à mettre en évidence avec la nouvelle génération d’accélérateurs de particules comme celui dont la construction s’achève au CERN à Genève, le Large Hadron Collider (LHC). Enfin, la théorie dite des cordes assimile les particules élémentaires à des petits objets unidimensionnels, de petits brins, animés de vibrations. La taille de ces cordes serait infinitésimale (10-33 cm) et les physiciens sont amenés à supposer qu’elles doivent vibrer non plus dans l’espace-temps à quatre dimensions mais dans un espace à dix dimensions. La théorie des cordes avec ses hypothèses se veut une description de l’univers et elle prédit même l’existence d’un nombre infini d’univers possibles .
En fait, les physiciens et les astrophysiciens poursuivent un double objectif : tenter, d’une part, de trouver une théorie unitaire capable d’expliquer l’existence des forces à l’œuvre dans la matière et l’univers, un espoir qu’Einstein a caressé jusqu’à la fin de sa vie, et, d’autre part, de comprendre, et si possible de prévoir, l’évolution de l’Univers. Qui plus est, la physique connaît depuis Einstein un sérieux échec : on n’a pas été capable d’unifier la théorie de la gravitation reformulée par la relativité et la physique quantique. Les deux paradigmes de la physique moderne donnent donc deux systèmes de référence séparés pour décrire l’espace, le temps et la matière. Pour simplifier les choses, on ne peut pas décrire par une même théorie la gravitation et l’électromagnétisme et ce constat heurte de nombreux scientifiques qui considèrent que, s’il est probablement impossible de trouver une théorie capable d’expliquer tous les phénomènes physiques, a theory of everything , on devrait pouvoir trouver, à tout le moins, un cadre théorique unifiant la relativité générale et la physique quantique.
De fait, la physique se trouve aujourd’hui, en quelque sorte prise dans les remous d’un triangle des Bermudes :
– elle doit confirmer l’existence de particules élémentaires prévues par les théories comme les bosons de Higgs ;
– elle doit expliquer la nature de l’énergie et de la matière noires dont on suppose la présence dans l’univers et que l’on n’a jamais détectées ;
- il lui faut enfin parvenir à unifier totalement les théories relativistes et quantiques. Rien ne prouve que la physique pourra parvenir à sortir des fortes turbulences de ce triangle des Bermudes et si elle n’y parvenait pas, il est fort possible alors qu’elle se trouve obligée de procéder à des remises en cause draconiennes des théories aujourd’hui admises, ce qui serait sans doute une véritable rupture.
On doit aussi constater que si le paradigme de la physique quantique conduit à une description probabiliste des propriétés de la matière et des phénomènes physiques (on prévoit, par exemple, la valeur moyenne de l’énergie d’un ensemble de particules), cette approche s’est révélée totalement opérationnelle et elle a permis d’enregistrer de très nombreux succès qu’illustrent, par exemple, les percées que représente la mise au point des lasers et des composants de la microélectronique, largement basés, aujourd’hui, sur le silicium .
Depuis la découverte du transistor en 1947, un objet à échelle du centimètre à l’époque, la physique du solide, en s’appuyant à la fois sur les théories quantiques et les techniques expérimentales (en particulier la micro-lithographie utilisée pour réaliser des circuits intégrés et les nouvelles méthodes de microscopie comme la microscopie à force atomique), s’est intéressée à des matériaux à échelle de plus en plus réduite. Des composants dont la dimension était inférieure au micron (le millième de mm) ont ainsi été réalisés dès le début des années 1980 et aujourd’hui on peut manipuler des objets dont les dimensions sont nanométriques (le millionième de mm). Avec ces systèmes, on entre ainsi dans le domaine des nanosciences (on manipule aussi bien des nanotubes de carbone que des molécules biologiques) et l’on ouvre la perspective de développer des nanotechnologies mettant en œuvre des dispositifs électroniques ou mécaniques dont les dimensions seraient de quelques nanomètres. Ces systèmes nanométriques (molécules ou ensembles de molécules et d’atomes) sont dotés de propriétés nouvelles collectives d’origine quantique. Peut-on vraiment parler d’une révolution avec ces nanosciences ? C’est peut-être un abus de langage dans la mesure où les nanosciences sont en continuité avec toute la physique de la matière développée depuis la fin des années 1940 en application du paradigme de la physique quantique. Les « prévisions » concernant les perspectives ouvertes par les nanotechnologies sont le plus souvent irréalistes. Il reste, en effet, bien des obstacles à franchir avant de réaliser des assemblages de nano-objets pour réaliser des dispositifs techniques opérationnels (un petit moteur ou une sonde par exemple). Ainsi, les forces d’attraction entre des systèmes de dimension nanométrique deviennent-elles très grandes et supérieures aux forces mécaniques extérieures appliquées par exemple à un outil ; il sera donc difficile de les manœuvrer ; par ailleurs ces systèmes sont très sensibles à des fluctuations de nature thermique, ce qui rend leur localisation précise et donc leur assemblage difficiles. Avec les nanomatériaux il faudra faire un saut technique important pour développer réellement une nano-technologie dont l’avènement est peut être possible à l’horizon 2025.
Einstein avait prévu avec le physicien indien Bose, en 1925, que si l’on refroidissait au-dessous d’une température « critique » (très basse et proche du zéro absolu) un gaz d’atomes obéissant à certaines caractéristiques statistiques (ils devaient être constitués d’un nombre pair d’électrons, de protons et de neutrons) une fraction importante et croissante de ces atomes allait se « condenser » dans l’état quantique d’énergie la plus basse. Ce phénomène dit de condensation de Bose-Einstein a été mis en évidence pour la première fois en 1995 sur une vapeur d’atomes de Rubidium, à la température de 170 nanokelvins (soit 170 milliardièmes de degré). Le condensat obtenu était formé de dix millions d’atomes et il put conserver sa cohérence pendant quinze secondes. Depuis lors, la liste des atomes susceptibles de former des condensats de Bose-Einstein s’est allongée et l’on réalise ainsi des « macro-objets » quantiques dont les constituants sont condensés dans l’énergie minimale : ils se comportent collectivement comme un super-atome. Les condensats de Bose-Einstein, un nouveau succès du paradigme quantique, ne sont probablement pas destinés à demeurer des curiosités de laboratoire (comme l’étaient les lasers dans les années 1960). Pour l’heure, les physiciens envisagent de réaliser des sources de matière froide et de monoénergétique avec des condensats de Bose-Einstein qui seraient l’équivalent des lasers. On peut sans doute spéculer sur les développements scientifiques et techniques qui pourraient sortir de cette véritable création d’un nouvel état de la matière, mais il est indéniable qu’elle ouvre de nouvelles perspectives .
Les succès du paradigme quantique à l’échelle sub-atomique, atomique et supra-atomique (des ensembles d’atomes), non démentis par l’expérience, ne sont pas sans poser, à tout le moins, une question de fond : celle de la mesure en physique quantique. Les physiciens dans leur très grande majorité admettent l’« interprétation de Copenhague » de la physique quantique depuis les années 1930 (Einstein et quelques autres s’y sont toujours opposés) : le comportement des particules est de nature probabiliste et la mesure d’une grandeur physique correspond à sa valeur moyenne. Si le débat semble clos, on doit bien admettre qu’il subsiste un paradoxe avec cette physique dans la mesure où le monde macroscopique se comporte de façon tout à fait classique sans qu’il soit nécessaire de faire appel à des méthodes statistiques pour le décrire alors qu’en revanche les approches quantiques et probabilistes sont nécessaires pour décrire la matière et l’énergie à l’échelle microscopique. Quelle réalité la physique quantique décrit-elle donc ? C’est une question qui reste largement ouverte et à laquelle on aura peut-être une réponse au cours des vingt-cinq prochaines années .
La révolution scientifique que constitue le déchiffrage du code génétique témoigne de la fécondité de l’approche réductionniste mise en œuvre par la biologie et la génétique et qui est à la base du dogme de la biologie moléculaire. Il existe une différence fondamentale entre la biologie et la physique. En effet, contrairement à cette dernière, la biologie et la génétique ne disposent pas véritablement de méthode prédictive. La génétique ne peut pas véritablement prévoir le fonctionnement d’un gène ou d’un ensemble de gènes, a fortiori celui d’un système complexe comme un génome et donc les phénomènes qu’il commande. Qui plus est, si la génétique, par son approche réductionniste, a bien identifié les clés du code génétique qui commandent telle ou telle opération au sein d’une cellule (par exemple la synthèse d’une protéine), les combinaisons des chiffres du code (les bases des nucléotides) résultent d’une histoire, et donc d’une évolution, qui est souvent inconnue. La biologie est donc en quelque sorte prisonnière du modèle qu’elle a emprunté à la théorie de l’information : le code génétique recèle une information mais son interprétation dépend de tout un contexte souvent inconnu. L’interprétation de l’information génétique reste donc un problème clé pour les sciences du vivant, qu’elles n’ont pas résolu . Ce constat conduit à douter fortement du réalisme de l’ambition, très souvent affichée par les biologistes aujourd’hui, de faire du gène le deus ex machina de toute stratégie d’action sur le vivant, en particulier à des fins médicales. Tout se passe comme si une logique d’ingénieur l’emportait aujourd’hui dans les sciences du vivant, alors que nombre de mécanismes biologiques demeurent incompris. Comme le remarque François Gros, « le déterminisme génétique n’est pas aussi direct qu’on l’imaginait sûrement autrefois » .
L’avènement d’une génétique prédictive n’est probablement pas pour demain car il apparaît que plusieurs gènes concourent au déclenchement d’un mécanisme biologique ou d’une maladie (certains cancers ou le diabète par exemple) et les fonctions biologiques dépendent elles-mêmes des interactions d’un très grand nombre de protéines qu’il faut identifier. Des biologistes en viennent aussi à penser que le fonctionnement cellulaire doit faire intervenir des événements probabilistes ; un rapprochement avec la physique est donc certainement un enjeu important. La biologie et la génétique après leurs succès des trois dernières décennies sont peut être de nouveau à un tournant et il est possible que le « dogme » de la biologie moléculaire soit soumis à un sérieux aggiornamento d’ici 2025.
La situation des neurosciences est quelque peu différente, dans la mesure où elles n’ont pas encore trouvé un paradigme opérationnel. Elles sont certes parvenues à identifier les médiateurs chimiques ainsi que les signaux électriques qui commandent les multiples mécanismes mis en œuvre dans le phénomène singulier qu’est la pensée, mais elles n’ont pas encore découvert un schéma explicatif des mécanismes de la pensée. Les progrès foudroyants des techniques d’imagerie fonctionnelle par résonance magnétique, survenus ces dernières années, permettent de visualiser les zones du cerveau qui commandent une action musculaire ou qui sont le siège de la perception de la douleur, voire de sentiments comme l’empathie, mais ces observations, si elles permettent d’affirmer que l’on voit le cerveau « penser », n’expliquent pas le phénomène de la pensée. L’ambition des neurosciences est grande dans la mesure où elles ont l’objectif scientifique d’élaborer l’équivalent d’une théorie de la conscience . On peut douter qu’elles soient en mesure d’atteindre un tel objectif dans la mesure où la conscience, qui est une connaissance du monde réel, est le résultat des interactions multiples de notre esprit et de notre corps avec ce monde et le produit de toute l’histoire d’un individu. Il est possible, toutefois, que les neurosciences parviennent à trouver un paradigme qui les rapproche de cet objectif et leur champ d’action constitue indéniablement un enjeu majeur pour la recherche dans les vingt prochaines années.
Le paradigme informatique est au cœur de la société de l’information et l’ordinateur en constitue le moyen opérationnel aux usages quasi-universels. On en observe même l’impact sur la création artistique avec le développement du traitement numérique des images depuis une bonne dizaine d’années. Les performances de l’informatique (rapidité de calcul, capacité de traiter un grand nombre de données) ont été constamment accrues grâce au progrès de la microélectronique ; aujourd’hui, on est capable de réaliser des composants dont la dimension est de l’ordre du dixième de micron. Toutefois, cette course à la miniaturisation atteindra probablement ses limites dans les vingt ans à venir, même si l’utilisation de composants nanométriques est envisageable. Qui plus est, les composants électroniques utilisent, par construction, des électrons comme vecteurs de l’information qui consomment de l’énergie et dont la vitesse est limitée. L’informatique basée sur les ordinateurs classiques utilisant les techniques de la micro-électronique va donc très probablement atteindre ses limites d’ici 2025. Une rupture conceptuelle est donc nécessaire pour dépasser ces limites ; c’est l’objectif de la technologie de l’information quantique qui vise à utiliser des phénomènes quantiques pour transférer et traiter l’information. Deux voies semblent, pour l’heure, disponibles. La première consiste à manipuler une variable quantique associée à un électron, le spin, qui est équivalent à un moment cinétique de rotation intrinsèque de la particule, au lieu d’utiliser la charge électrique de l’électron comme en microélectronique classique ; c’est ce que les physiciens appellent la « spintronique ». Il faut donc trouver des matériaux organiques ou inorganiques porteurs de spins manipulables (en orientant un spin dans une direction on enregistre un bit d’information) et pouvant garder leur cohérence. La seconde voie, plus prometteuse, mais aussi plus difficile, consiste à mettre en œuvre comme vecteur de l’information la « particule » de lumière, le photon que l’on utiliserait dans les processus de transport et peut-être de calcul. Des expériences de cryptographie quantique utilisant des photons ont été réalisées à Genève et à Vienne en 2002, qui ont permis de transmettre une information codée. L’informatique quantique représente un défi scientifique et technologique très important pour ces vingt prochaines années.

La science au carrefour d’enjeux économiques et sociaux

La société est confrontée périodiquement à un certain nombre de défis ayant des dimensions politique, économique et sociale, et la recherche scientifique est souvent appelée pour aider le politique à les relever. Parfois d’ailleurs, la science contribue elle-même à identifier ces défis. Il en va ainsi, par exemple, de la question majeure que constitue le « développement durable » de la planète qui est devenu un problème politique majeur depuis la publication du rapport Brundtland en 1987.
La science a contribué à provoquer une prise de conscience par l’opinion mondiale des problèmes que pose le développement de la planète, constituant un système global qui ne peut supporter n’importe quel comportement ; elle a montré, en particulier, que la consommation croissante de combustibles fossiles, hydrocarbures et charbon, amplifiait l’effet de serre qui entraînait un réchauffement du climat de la planète. Les scénarios climatiques qui sont aujourd’hui l’objet d’un large accord des spécialistes retiennent ainsi une fourchette d’augmentation de la température moyenne de la surface de la terre de 1,4° C à 5,8° C en un siècle, associée à un doublement de la concentration en gaz à effet de serre de l’atmosphère, en particulier en gaz carbonique d’origine anthropogénique (par l’utilisation des combustibles fossiles notamment).
Le développement économique de pays comme la Chine et l’Inde laisse prévoir une croissance forte de la consommation énergétique mondiale et donc une augmentation de l’effet de serre associée à un réchauffement de la planète. Le protocole de Kyoto, sur lequel se sont mis d’accord de nombreux pays de la planète en 1997 et qui est entré en vigueur en 2005 (les États-Unis ne l’ont pas ratifié), prévoit une diminution de l’émission des gaz à effet de serre par les pays les plus développés ; des mesures draconiennes doivent donc être prises pour limiter la consommation énergétique mondiale. Or, aujourd’hui, 90% de l’énergie consommée dans le monde est d’origine fossile (charbon, pétrole, gaz naturel) et, dans le secteur des transports, il n’existe pour l’heure aucun vecteur énergétique capable de remplacer rapidement l’essence et le gasoil (les véhicules électriques ne sont pas encore utilisables massivement) ; on voit donc la difficulté que représente l’application du protocole de Kyoto à l’échelle de la planète. À cette difficulté s’ajoute celle que représente, à plus ou moins long terme, la nécessité de trouver un substitut aux hydrocarbures qui ne constituent pas une ressource énergétique inépuisable et renouvelable.
La question énergétique est donc majeure pour le développement de la planète et elle constitue un défi pour la recherche scientifique et technique . La filière nucléaire est évidemment disponible et elle est un produit de la révolution scientifique du XXe siècle ; toutefois son acceptabilité par l’opinion demeure en cause et la recherche doit trouver une solution acceptable au traitement et au stockage des déchets : c’est un premier défi scientifique qui peut être relevé. Par ailleurs, il reste à prouver la faisabilité et à rendre opérationnelles d’autres filières énergétiques qui ne produisent pas de gaz à effet de serre. Leur liste n’est pas très longue ; y figurent la fusion thermonucléaire, l’utilisation de l’hydrogène, les énergies renouvelables comme le solaire. La plupart des scénarios prospectifs pour l’énergie considèrent qu’une croissance très forte de l’utilisation des énergies renouvelables (éolien, solaire, hydraulique, géothermie) est peu probable à l’horizon 2025 et qu’elle ne permettra pas de résoudre le problème de l’énergie pour les transports. La fusion thermonucléaire, une filière qui est l’objet de travaux de recherche coûteux depuis cinquante ans, n’a pas encore prouvé sa faisabilité et il est peu probable que l’on parvienne à disposer d’un réacteur thermonucléaire opérationnel d’ici 2025 (l’objectif du projet international ITER est de prouver la faisabilité de la filière) ; il n’est pas certain, d’ailleurs, que la fusion thermonucléaire contrôlée puisse constituer, à terme, une filière techniquement viable. Quant à l’hydrogène, c’est un vecteur énergétique qu’il faut utiliser dans des moteurs thermiques et électriques, pour le transport par exemple, ou des processus industriels. La pile à combustible à hydrogène est une technique disponible pour le transport mais son fonctionnement exige la mise au point de matériaux spécifiques (des catalyseurs en particulier) à des coûts compétitifs. Elle suppose aussi que l’on sache produire (sans dégager de gaz carbonique) et stocker l’hydrogène à des coûts économiques compatibles avec un large usage de la filière. Là encore, la recherche a d’importants progrès à faire.
Pour résumer, il n’existe pas encore de solution à long terme (au-delà de 2025) pour l’énergie de la planète et, plus généralement, on doit considérer que le développement durable , avec la question énergétique, est l’un des problèmes majeurs auxquels s’affrontent les politiques de recherche.
Les questions de santé et d’alimentation constituent un second défi auquel sont confrontées nos sociétés et les politiques de recherche. Elles ne sont pas de même nature dans les pays développés et les pays du tiers-monde où l’espérance de vie reste basse et où subsistent à la fois des maladies endémiques (la malaria par exemple) et la malnutrition. Les enjeux scientifiques dans ces domaines sont très nombreux et ils se doublent d’enjeux économiques dans la mesure où l’industrie pharmaceutique procède à des investissements très importants dans la recherche-développement (R&D), en particulier dans l’espoir de trouver des applications aux techniques du génie génétique et, plus généralement, des biotechnologies. Il en va de même d’ailleurs avec la grande industrie agroalimentaire qui investit dans la recherche sur les OGM. Enfin, le monde n’est pas à l’abri de crises sanitaires graves (du type de celle que fut la grippe espagnole en 1918-1919 et qui aurait fait quarante millions de victimes) ; la dernière en date fut celle de l’épidémie de pneumonie atypique (SRAS) en 2002, et ceci devrait conduire à s’interroger sur la capacité de la médecine à juguler des pandémies ; on voit déjà les difficultés que rencontrent de nombreux pays, en Afrique notamment, à juguler l’épidémie du sida. Une recherche sur des méthodes de dépistage et des vaccins est donc indispensable.
La panoplie des thématiques de recherche qui vont se développer pour tenter de répondre à l’ensemble de ces questions est relativement importante. La génétique constitue évidemment le noyau dur de nombreux travaux dans les sciences du vivant pour tenter de mettre au point des méthodes de diagnostic, des thérapies géniques (dont l’application sur une large échelle n’est pas encore acquises), des traitements ciblés des maladies, des OGM résistant à des pesticides ou des conditions climatiques sévères, etc. Dans tous ces domaines rien n’est acquis et il n’est pas certain, nous l’avons souligné, qu’une génétique « prédictive » s’avère praticable. On peut également penser que les méthodes de diagnostic fondées sur des phénomènes physiques ou physico-chimiques, en particulier toutes les techniques d’imagerie, vont se développer considérablement dans les vingt prochaines années ; les progrès récents et spectaculaires de l’imagerie par résonance magnétique (IRM) sont une bonne illustration de perspectives qui sont ouvertes dans ce domaine. Enfin, si les neurosciences n’ont pas encore trouvé leur paradigme, les progrès qu’elles ont accomplis à la fin du XXe siècle laissent sans doute entrevoir la possibilité de traiter des maladies invalidantes, et malheureusement répandues dans les sociétés occidentales vieillissantes, comme les maladies d’Alzheimer et de Parkinson.
On peut allonger la liste des questions de société, auxquelles la recherche va se trouver confrontée d’ici à 2025. Les problèmes que posent les villes, les transports, et les techniques de communication sont sans doute aussi aigus. Pour y répondre il faut mobiliser un vaste champ disciplinaire où les sciences sociales et humaines sont souvent au premier plan (elles sont aussi présentes dans le champ de la santé).
La recherche est donc, plus que jamais, au carrefour des grandes questions de société et des grandes interrogations scientifiques sur l’espace, la matière et la vivant.

La science dans la mondialisation

La science a été, de longue date, un élément des stratégies de développement technologique et donc économique, en particulier depuis la fin du XIXe siècle, au moment de l’émergence de l’industrie chimique organique qui fut largement fondée, à ses débuts, sur les découvertes scientifiques intervenues, pour nombre d’entre elles en Allemagne. Des impératifs de défense ont mobilisé tout au long du siècle dernier (les deux guerres mondiales puis la guerre froide), une partie des recherches et des technologies de pointe mais, aujourd’hui, le discours politique dominant sur la recherche met en avant la contribution de la science et de la technologie à la compétitivité industrielle des économies dans un contexte de mondialisation. Le concept d’« économie de la connaissance » est à l’ordre du jour et il conduit à prendre en compte de multiples acteurs de la recherche dans la société : laboratoires publics d’universités, d’organismes de recherche comme le CNRS et l’INSERM en France, hôpitaux, laboratoires industriels, bureaux d’études, etc. La recherche suscite également la création de programmes internationaux et de réseaux internationaux de laboratoires ; le Programme-cadre pour la recherche de l’Union européenne est un exemple de la dimension incontournable des politiques de recherche. Cette émergence d’une « économie de la connaissance » s’est accompagnée d’un accroissement tout à fait considérable des dépôts de brevets, depuis le début des années 1980, en particulier dans les domaines des biotechnologies et des technologies de l’information aujourd’hui en pleine expansion. La politique de protection de la propriété industrielle a de fait substantiellement changé, en particulier dans les domaines du vivant et des logiciels, car le savoir est devenu une « marchandise » qu’il faut s’approprier et protéger pour pouvoir l’utiliser. Ceci n’est pas sans conséquences pour la liberté de la création scientifique.
Si l’on veut bien admettre que la science couplée à la technologie est l’un des facteurs de la mondialisation (les scientifiques sont de fait habitués à communiquer entre eux en Europe à travers les frontières depuis la Renaissance), la compétition scientifique et technologique contribue aussi à créer un « monde dual » pour la science et la technologie. On constate ainsi qu’au début du siècle 73% des dépenses mondiales de R&D étaient assurées par les pays constituant ce que l’on appelle la Triade (États-Unis, Union européenne, Japon) . La Chine dont les dépenses de recherche ont fortement crû ces dix dernières années (elle est désormais au troisième rang mondial) tente de se joindre à la Triade ainsi que le Brésil et dans une certaine mesure l’Inde. L’Afrique représentait environ 0,7% de la dépense mondiale de R&D et l’Amérique latine 3%. Les indicateurs de la production scientifique et technologique (nombre d’articles scientifiques publiés dans des revues internationales, dépôts de brevets, exportation de technologie) mettent également en évidence la domination écrasante de la Triade et la marginalisation de l’Afrique et dans une certaine mesure de l’Amérique latine (hormis le Brésil). Signe du temps majeur pour le développement de la planète, seuls une cinquantaine de pays participent de façon notable à la production des connaissances et des techniques et peuvent accéder aux résultats de la recherche, les autres étant largement exclus de ce processus. La production scientifique et technologique est devenue une entreprise inégale dans le contexte de la mondialisation alors que les connaissances scientifiques et techniques sont, avec l’éducation, l’un des facteurs clés du développement. La recherche, en devenant un outil essentiel pour accéder à la modernité, a paradoxalement contribué à créer un monde plus inégal. Il y a peu de chance que cette situation change lors des vingt prochaines années.

Quo vadis ?

Le développement de la science jusqu’à l’horizon 2025 sera probablement loin d’être un long fleuve tranquille, même s’il est difficile d’anticiper des révolutions scientifiques et techniques. Il est possible que la physique soit conduite à procéder à un aggiornamento des paradigmes quantique et relativiste et que la biologie se voie contrainte de réviser le dogme de la biologie moléculaire sous la pression des faits ; la biologie sera probablement confrontée à la difficulté de mettre en œuvre une génétique prédictive. Enfin, la pression sur la science de problèmes de société tels que ceux que posent le développement durable, l’énergie et la santé, ne pourra que croître.
La dynamique de recherche restera sous l’influence, sans doute prédominante, des logiques scientifiques et des grandes questions que posent l’origine de l’univers, les propriétés de la matière, l’origine et l’organisation du vivant, mais elle devra tenir compte aussi de la pression des problèmes de société. Tout le rôle des politiques de recherche, en particulier au niveau des États, consistera à permettre que la dynamique de la création scientifique soit à la fois préservée et mise au service de politiques économiques, sociales ou de défense. Pour un pays comme la France, la politique de recherche devra trouver son chemin entre les impératifs du développement régional, ceux du maintien de compétences nationales dans des domaines clés (les politiques publiques de défense, de santé, d’énergie, de transport) et de la nécessité de stratégies européennes dans de très nombreux domaines. La politique de recherche française a, jusqu’à présent, éludé ces choix mais elle ne pourra plus continuer à garder cette attitude .
L’évolution récente de la science, à la fin du XXe siècle, n’est pas sans poser de problèmes dans sa relation avec la société. La chute importante des effectifs d’étudiants qui suivent un cursus scientifique dans leurs études universitaires, dans pratiquement tous les pays occidentaux, peut rapidement déboucher sur une crise des vocations scientifiques ; elle est, probablement, l’un des symptômes d’un malaise profond et d’un questionnement sur le rôle de la science dans nos sociétés. Si l’on prend du recul, on est ainsi amené à constater le contraste existant entre le début du XXe siècle et celui du XXIe siècle. La première décennie du siècle passé avait été marquée par une floraison de découvertes scientifiques et d’innovations technologiques, artistiques et littéraires. La science, la technologie, l’art, la littérature apportaient une vision nouvelle, et relativement cohérente, du monde, à laquelle était associée une croyance dans les vertus d’un progrès fondé sur la science et la technologie. Aujourd’hui, il est difficile de trouver une telle vision unitaire du monde associant la science aux autres dimensions de la culture. Qui plus est, la réalité du progrès fondé sur la science et la technologie est souvent mise en question, du moins dans les pays développés. L’idée de progrès conserve un sens si l’on veut bien considérer que l’histoire nous montre combien il a été chaotique, comment il s’est parfois fourvoyé dans des impasses mais qu’il a débouché aussi sur des conquêtes incontestables. Le progrès n’a de sens que par rapport à des valeurs partagées par la société à un moment donné. Il faut alors admettre que les interrogations légitimes de la société sur la science incitent à un débat sur les finalités de la connaissance et à redéfinir un « contrat social » entre la science, la technologie et la société. C’est aussi une tâche urgente pour les vingt prochaines années.