La théorie de l’évolution : quel futur ?

La théorie de l’évolution : quel futur ?

Hervé Le Guyader

La théorie de l’évolution est le seul cadre conceptuel unificateur de l’ensemble de la biologie , sans doute la plus diverse des sciences de la nature. Pourtant, comme de nombreux indices le laissent penser, la biologie fondamentale et la théorie de l’évolution paraissent actuellement menacées. N’entrons pas dans le détail des agressions que subit la discipline et retenons plutôt l’obscurantisme de créationnistes fondamentalistes qui continue à se propager dans le pays qui abrite bon nombre des scientifiques les plus prestigieux, à savoir les États-Unis d’Amérique.
Qu’est-ce que la théorie de l’évolution ? La réponse est extrêmement simple : le vivant sur terre a une histoire et cette histoire s’est réalisée sur quelques 3,5 milliards d’années. Les évolutionnistes tentent donc de retracer cette histoire , comprendre les mécanismes biologiques qui en expliquent l’origine et le déroulement et préciser si des prévisions dans le futur peuvent être possibles.
Si les questions sont simples, les éléments de réponse deviennent de plus en plus raffinés et, par conséquent, de plus en plus difficiles à appréhender. La biologie évolutive se trouve actuellement, d’une certaine manière, dans une situation analogue à celle de la physique : on peut énoncer et expliquer des résultats que seuls les spécialistes – ou les amateurs très éclairés – peuvent saisir dans leur ensemble. Car pour comprendre l’évolution, il convient d’utiliser l’ensemble des techniques disponibles pour l’étude de la biodiversité et les appliquer au niveau des génomes, des organismes et des écosystèmes. Ceci requiert des travaux de terrain, de laboratoire, de modélisation, englobant la biologie moléculaire, la génomique, la physiologie comparée, la biologie du développement, l’écologie évolutive… Pourtant, l’homme de la rue perçoit les résultats des physiciens et des biologistes de manière toute différente. Si, a priori, il n’imagine pas pouvoir comprendre, même intuitivement, le déroulement de calculs complexes de mécanique quantique ou de relativité générale, il pense avoir des choses à dire en biologie, et en particulier en biologie évolutive qui propose des résultats très souvent énonçables en langage naturel. Or, comme en physique, la théorie de l’évolution mène à des résultats contre-intuitifs. Avec des idées préconçues, de tels résultats, « insupportables au sens commun » , sont difficiles à accepter, d’autant plus que chaque individu croit pouvoir penser les choses puisqu’il croit les vivre. Les avancées récentes en évolution biologique concernant justement des résultats de ce type , on doit s’attendre à un rejet de plus en plus puissant.
La biodiversité est le résultat d’une histoire dont les grandes lignes commencent à être bien connues. Bien sûr, ce Grand Récit nous concerne ; nous en sommes l’un des résultats, et nous essayons de le comprendre. Il est tellement important que toute culture possède un Grand Récit, repose sur un Grand Récit. C’est pourquoi parler du futur de la théorie de l’évolution se doit de comprendre deux volets :
-  d’un point de vue scientifique : quelles sont les avancées prévisibles, quelles sont les pistes de recherche qui pourront s’avérer prometteuses ?
-  d’un point de vue mythique : pourquoi de telles résistances ? Comment les démêler ? Comment proposer un Grand Récit universel ? Quelles en seraient les conséquences ?
Pour bien saisir les difficultés de ces entreprises, il convient de résumer rapidement l’histoire et la situation actuelle de la théorie de l’évolution, pour en esquisser ensuite les perspectives.

De Darwin à la théorie synthétique de l’évolution

Charles Darwin (1808-1882) présente, dans L’origine des espèces , deux notions révolutionnaires profondément liées, la sélection naturelle et la descendance avec modification. La première renvoie aux mécanismes de l’évolution (ou process), la deuxième au déroulement historique de l’évolution (ou pattern). À l’époque, la controverse a surtout porté sur l’origine – ou plutôt la parenté animale de l’homme. Pourtant, pas à pas, la bascule va se réaliser, et, sauf pour quelques irréductibles, l’enracinement animal de la lignée humaine va être accepté, avec des ardents défenseurs comme Ernst Haeckel (1834-1919) en Allemagne. Les controverses ultérieures portent principalement sur les mécanismes, alors que la génétique naissante du début du XXe siècle amène de nombreux éléments de compréhension.
La « redécouverte » des lois de Mendel , en 1900, s’accompagne d’un nouveau concept, celui de mutation, défini comme étant un changement brusque et imprévisible d’un caractère héréditaire, ce qui permet d’appréhender la source de la variation chère à Darwin. Les généticiens s’en saisissent et, vingt ans plus tard, par la génétique des populations, construisent des modèles prouvant qu’un caractère héréditaire sélectionné peut très vite envahir une population, même avec un coefficient de sélection très faible. Ce genre de travail va mener tout naturellement, avant et pendant la Deuxième Guerre mondiale, à une synthèse entre génétique et évolutionnisme, synthèse que l’on a baptisée « théorie synthétique de l’évolution », mauvaise traduction de Synthetic Theory of Evolution, appellation de Julian Huxley (1887-1975), petit-fils de Thomas . Les hypothèses fondatrices correspondent à une réunion de concepts issus pour les uns de la génétique, pour les autres de la biologie naturaliste et évolutive. On peut les résumer en six points :
-  l’hérédité est particulaire, c’est-à-dire que les gènes, portés par les chromosomes, sont les unités de base, les « particules élémentaires » du génome, suivant en cela les résultats de l’école de Morgan sur la génétique de la drosophile ;
-  les populations naturelles possèdent intrinsèquement une énorme variabilité naturelle, la source de cette variabilité étant bien sûr la mutation ;
-  l’évolution se déroule dans des populations dont les localisations géographiques présentent un intérêt important ; en particulier, un isolement géographique aura pour conséquence un arrêt du flux de gènes entre ces populations ;
-  l’évolution procède par modification graduelle des populations ; en d’autres termes, les caractères changent pas à pas, par addition successive de très nombreux changements élémentaires de faible amplitude ;
-  les changements dans les populations sont le résultat de la sélection naturelle, c’est-à-dire que les variations élémentaires passent continuellement au crible de l’ensemble des conditions environnementales (biotiques et abiotiques) ;
-  les différences observées entre les organismes sont, pour une grande part, des adaptations, à savoir que tout va vers un progrès. Le nouveau est « mieux » que l’ancien.
Comme dans toute synthèse, il y a des nouveautés intéressantes et des archaïsmes de pensée qui ne seront discutés que plus tard. Les avancées ? Principalement, l’arrivée de la génétique dans un secteur de la biologie au départ strictement naturaliste. Les modèles de génétique des populations, proposés par Julian Huxley, Ronald A. Fischer (1890-1962) et Sewall Wright (1889-1988), montrent comment la sélection peut agir, et comment la nouveauté génétique peut apparaître. De cette manière, des arguments décisifs sont apportés contre certaines idées alors en vogue, comme le finalisme (toute caractéristique organique serait le résultat d’un projet), l’orthogenèse (l’évolution se ferait suivant une direction propre, la sélection n’ayant alors aucun rôle moteur), le saltationnisme (le moteur de l’évolution serait principalement le fait de mutations de grande amplitude, avec peu de poids de la sélection) et enfin le néo-lamarckisme (croyance en l’hérédité des caractères acquis). Ainsi peut-on définir la thèse centrale de la théorie synthétique de l’évolution : importance capitale de la sélection, pas de relation entre les causes de la mutation et les paramètres de la sélection (ce que l’on résume maladroitement par le terme de « hasard » ), pas de finalité, pas de projet.

Gradualisme et progrès

Suivant la théorie synthétique, l’évolution procède suivant un schéma relativement simple : la variation héréditaire est le résultat de la mutation ; ces variations sont sous l’emprise de la sélection naturelle qui entraîne le changement des fréquences géniques dans les populations ; ces changements ont pour résultat une meilleure adaptation des organismes. Donc, de manière graduelle, paraît toujours émerger « quelque chose de mieux ».
Suivant G. G. Simpson, le paléontologue de la théorie synthétique de l’évolution, le vivant suit une marche graduelle selon des « degrés d’organisation » ou grades , et dont chacun dérive des précédents (par exemple : poissons, batraciens, reptiles, mammifères). C’est aussi vu comme une tendance vers une « meilleure adaptation », un progrès, au sens anthropomorphique du terme.
Le gradualisme est une persistance d’une idée chère à Darwin, à savoir que l’évolution se fait par addition de nombreuses petites variations. Le modèle paradigmatique serait donc un changement des caractères de manière continue et uniforme. Le progrès serait la conséquence de l’adaptation ; étant donné qu’on postule que toute mutation sélectionnée l’a été pour mieux adapter l’organisme dans son milieu, il en résulte que le nouveau est considéré comme mieux que l’ancien . Cette vision est relativement ancienne ; on la retrouve par exemple dès Ernst Haeckel et elle amène une autre idée qui va être immédiatement intégrée à la paléontologie, celle de « forme intermédiaire », popularisée sous le terme de « chaînon manquant » . En effet, si l’on a comme image celle d’une progression linéaire et continue vers le progrès, on peut penser que tout fossile d’une lignée va trouver sa place dans une telle série. De plus, si l’on nomme le point de départ et le point d’arrivée, le piège des mots va pousser à trouver une forme intermédiaire. Par exemple, entre les reptiles et les mammifères, on place des « reptiles mammaliens ». Entre un singe et un homme, on place un pithécanthrope (en grec, pithèque, singe et anthrope, homme).
Il convient donc maintenant de replacer pas à pas les nouveautés qui ont été récemment proposées en théorie de l’évolution, sans minorer l’avancée indéniable que fut en son temps la théorie synthétique de l’évolution, et en essayant de répondre aux questions que se pose tout un chacun.

Reine Rouge et équilibres ponctués…

Parmi les idées nouvelles de ces trente dernières années, la critique de la marche vers le progrès est arrivée de manière implacable de toutes parts. Le concept de la Reine Rouge, proposé par Leigh Van Valen , est là pour rappeler que, même s’il y a évolution de caractères, on ne peut dire qu’il y ait meilleure adaptation des organismes dans leurs écosystèmes, puisque leur probabilité d’extinction reste identique tout au long des temps géologiques. On ne peut donc confondre évolution et meilleure adaptation.
La prise en compte des fossiles, avec une recherche de parenté et non de descendance, permet de bien mettre en évidence la vision buissonnante aux multiples bifurcations de toute lignée biologique. Une telle vision semble là pour faire référence à deux concepts récents en théorie de l’évolution. Tout d’abord, Stephen J. Gould (1941-2002) propose un modèle évolutif dans lequel il tient compte, dans la représentation de l’histoire évolutive, de l’ensemble des organismes, ceux qui ont donné des descendants, mais aussi les autres. C’est plus qu’une simple remarque. Au cours de l’évolution, il y a un remplacement continuel d’espèces anciennes par des espèces nouvelles, mais suivant un processus qui n’est en rien graduel. Radiations évolutives et décimations se succèdent . Utilisant cette idée, M. Serres définit la nature comme une « intégrale définie des bifurcations », c’est-à-dire « un ensemble, une somme, telle ou telle, de naissances » .
Entre une diversification et une extinction, les fossiles paraissent souvent identiques, ce qui tend à signifier que les changements morphologiques constatés ont lieu très vite, au moment de la spéciation. On retrouve une autre vision « gouldienne » de l’évolution, celle des « équilibres ponctués », proposée avec Eldredge. Suivant ce modèle, l’évolution des caractères se fait très vite au moment de la spéciation, principalement parce que la population marginale qui s’autonomise, comportant un faible nombre d’organismes, présente un effet fondateur avec peu d’inertie, ce qui permet d’évoluer très vite . Tout ceci met à mal la vision graduelle de l’évolution : des processus rapides, une série de bouffées de diversifications avec une évolution brutale des caractères sont suivis de longues stases pendant lesquelles rien ne bouge.

Un concept-clé : l’exaptation

La petite histoire de ce concept est fort intéressante . Lors d’un congrès de biologie évolutive, Gould commença son exposé par un commentaire d’une photographie, prise de la nef, du dôme de la cathédrale Saint-Marc à Venise. Il présente en particulier les quatre piliers qui soutiennent ce dôme, en insistant sur l’intelligence de l’architecte qui a prévu les quatre pendentifs qui les rejoignent, et sur lesquels on trouve la figuration des quatre évangélistes. Naturellement, tout le monde se demandait quel était le rapport avec la biologie évolutive. Tout s’éclaira quand Gould retourna complètement sa démonstration en expliquant que l’architecte avait été obligé de construire ces pendentifs, étant donné qu’il avait à réaliser une transition entre un carré réalisé par les quatre piliers et un cercle, correspondant à la base du dôme ; c’était donc une contrainte géométrique incontournable ; pourtant il y a eu intelligence de l’architecte, mais par l’utilisation de ces pendentifs pour l’ornementation de la cathédrale. La fonction première des pendentifs est d’ordre géométrique et mécanique ; la fonction seconde, d’ordre artistique, n’est absolument pas contenue dans la première et est apparue secondairement et indépendamment. Or, c’est cette dernière que l’on voit en premier lieu quand on visite la cathédrale, seuls les gens de l’art étant conscients de la fonction géométrique. De même, en biologie évolutive, certaines structures peuvent avoir une fonction seconde qui, comme dans l’exemple de la cathédrale Saint-Marc, masque la fonction première qui lui a donné naissance.
Le raisonnement biologique analogique porte donc sur deux points. En tout premier lieu, c’est une critique du « programme adaptationniste » cher aux fondateurs de la théorie synthétique de l’évolution, qui, devant toute structure biologique, se posaient la question : quelle est l’adaptation qui lui est liée ? Or, il peut évidemment se trouver que certains caractères proviennent de contraintes de développement, et non d’une pression de sélection particulière. Ainsi, ne cherchons pas systématiquement l’adaptation liée à telle ou telle structure. Par exemple, chez les tétrapodes, il n’y aura jamais que quatre membres ou moins, mais pas plus. L’ange (six membres, avec ses deux ailes) ne pourra jamais exister. Les mamelles des femelles de mammifères seront toujours en nombre pair. Donc le nombre minimum est de deux ; on n’aura jamais une femelle avec une seule mamelle.
Pour l’homme, on a longuement glosé sur le rôle du menton, jusqu’au moment où on s’est rendu compte que c’était le résultat du développement particulier de la face, plus particulièrement de la différence de vitesse de développement entre les deux mâchoires. Le menton ? Un élément résultat d’une contrainte de développement. D’autre part, cela revient à dire qu’une structure (organe, molécule…) a pu acquérir une nouvelle fonction au cours de l’évolution à partir d’une caractéristique totalement sans relation avec la fonction première. Le terme d’exaptation, proposé par S. J. Gould, remplace avantageusement le mot très connoté de préadaptation. D’un point de vue évolutif, il veut désigner l’utilisation fortuite, pour une fonction nouvelle, d’un caractère particulier d’une structure biologique préexistante (molécule, organe…). Ainsi, la plume des oiseaux a eu pour fonction première la protection thermique – comme le duvet actuellement – et pour fonction seconde de réaliser une surface portante pour permettre le vol. Bien évidemment, la pression de sélection qui a présidé à la construction de la plume n’a rien à voir au départ avec le vol. Celui-ci est apparu car une caractéristique fortuite de la plume a pu être utilisée secondairement, bien après son apparition, pour constituer une surface alaire, sous l’effet d’une pression de sélection totalement différente de la première. Conclusion : ne jamais oublier que la fonction visible, immédiate, des structures des organismes actuels n’est pas obligatoirement la fonction première qui peut être difficilement décelable.
Chez l’homme, plusieurs caractères peuvent être approchés de cette manière. Ainsi, la station debout, la main préhensile et la vue stéréoscopique ont eu pour première fonction le déplacement d’un primate arboricole qui réalise la brachiation, c’est-à-dire qui se suspend et se lance d’une branche d’arbre à une autre, comme, par exemple, les orangs-outans actuels. La suspension entraîne la station verticale, qui explique le déplacement bipède transitoire des orangs-outans et des chimpanzés, le transitoire étant devenu du définitif chez l’homme. Une brachiation correcte nécessite une bonne vision stéréoscopique afin de bien mesurer la distance et de « calculer » son impulsion quand l’animal passe de branche en branche. Enfin, il convient d’avoir une possibilité de prise suivant le terme des montagnards – et un pouce opposable est alors idéal. La préhension par la main ? L’utilisation d’un mouvement relatif d’un objet par rapport au corps. Dans le cas de la brachiation, l’objet – le support – est immobile et le corps est en mouvement ; dans le cas de la préhension, le corps est immobile, et c’est l’objet qui est en mouvement.

Embryologie et évolution

Dès Étienne Geoffroy Saint Hilaire (1772-1844), dans un texte de 1836, on trouve l’ébauche d’une théorie du « retardement » appliquée aux primates. Après avoir comparé les crânes d’orangs-outans jeune et adulte, il lui apparaît y avoir plus de « distance » entre eux qu’entre un crâne de chien et d’ours. De plus, constatant une ressemblance de comportement entre les petits de l’orang-outan et de l’homme, il suggère que c’est l’adulte de l’orang-outan qui est une anomalie, étant allé « trop loin » dans son ontogénie. Les successeurs vont plutôt prendre un raisonnement inverse. C’est ainsi que Louis Bolk (1866-1930) proposa la fameuse théorie de la fœtalisation. Pour lui, ce qui distingue la forme du corps humain de celle des autres primates, c’est que des conditions fœtales sont devenues permanentes, résultat de ce que l’on appelle la néoténie. Ce qui est un état transitoire dans l’ontogénie des autres primates est devenu un état terminal, définitif, chez l’homme. Donc, pour Bolk, l’homme doit être considéré comme un fœtus de primate devenu sexuellement mature, et le responsable en est le système hormonal. Plus tard, S. J. Gould, commentant les idées de Bolk, résume sa pensée de la manière suivante : « Je pense que les êtres humains sont “essentiellement” néoténiques, […] parce qu’un retardement temporel général du développement caractérise clairement l’évolution humaine. Ce retardement établit une matrice à l’intérieur de laquelle toute tendance de l’évolution de la morphologie humaine doit être évaluée. » De cette manière, il est vrai que la théorie invraisemblable de Bolk – un fœtus sexuellement mature – devient vraisemblable si l’on sait que les caractères d’un organisme évoluent très généralement en mosaïque, c’est-à-dire que certains gardent leur état ancestral tandis que d’autres évoluent pour acquérir un état dérivé. Ainsi le pouce opposable de l’homme est un caractère ancestral (on le trouve chez les autres grands primates), tandis que le gros orteil non opposable est un caractère dérivé (il est opposable chez les autres grands primates, que Cuvier appelaient quadrumanes). La biologie moléculaire plaide en faveur de l’opinion de Gould. En effet, on s’étonne parfois de l’extraordinaire ressemblance entre le génome humain et celui du chimpanzé, vers 98 %. Si seuls des phénomènes d’hétérochronies régissent leurs différences, on doit s’attendre à avoir les mêmes gènes, mais avec de légères variations sur la temporalité de leurs expressions. Certains s’allumeront plus tôt chez l’un, plus tard chez l’autre… Mais ceci ne demande que de très légères variations au niveau des séquences régulatrices.

Et l’évolution humaine ?

La théorie synthétique de l’évolution semble maintenant bien loin, même si les bases sont toujours là. En effet, l’indépendance entre causalité de la mutation et causalité de la sélection ne sera jamais infirmée. En revanche, tout un buissonnement d’idées nouvelles s’affirme : variations dramatiques des vitesses d’évolution, multiples essais condamnés par la sélection, contingence importante, émergence et exaptation. Bref, tout un cortège peut être assemblé pour démontrer qu’aucune prédiction n’est possible. On peut de plus faire appel aux résultats des systèmes différentiels non linéaires donnant lieu au « chaos déterministe » pour en avoir une démonstration mathématique. De plus, de manière implacable, l’ensemble des idées nouvelles peut s’appliquer à l’évolution humaine. Mais allons jusqu’au bout, et voyons si l’on ne peut encore aller plus loin.
La néoténie, qui semble au cœur de l’hominisation, prend encore plus de poids quand elle est replacée auprès de trois autres éléments particuliers, l’effet réversif de l’évolution, la domestication et le développement du cerveau.
L’effet réversif, explicité en premier par Darwin et dénommé ainsi par Patrick Tort , vise à expliquer l’apparente absence de sélection naturelle à l’intérieur de l’espèce humaine. En effet, la société a tendance à protéger les plus faibles (jeunes, malades, vieillards…), alors qu’une vision simpliste de la sélection naturelle tendrait à considérer que, biologiquement, tout devrait passer par l’élimination rapide de tels organismes. Le raisonnement porte en fait sur la sélection des instincts, et Darwin propose que le sentiment de compassion, à la source du tissu social, a été sélectionné naturellement et serait une caractéristique forte de l’évolution humaine. Un tel sentiment est en relation directe avec la néoténie de l’homme, car favorisant la longue protection du petit.
La néoténie est également directement en relation avec la domestication, et ce point est devenu important d’un point de vue philosophique. Gould – encore lui – l’a bien exposé, en prenant principalement le chien en exemple. La domestication – ou l’apprivoisement – peut être rapproché de l’exaptation, car elle nécessite à la base un comportement préexistant chez l’animal. En effet, apprivoiser un animal consiste à utiliser pour son propre compte les signaux comportementaux qui, à l’état sauvage, sont l’apanage de l’animal dominant. Or, il se trouve que, du moins chez les mammifères, les espèces domestiques présentent des caractères plus juvéniles que leurs ancêtres sauvages. On ne peut expliquer de tels caractères néoténiques par une action consciente du sélectionneur. Comme le dit Gould : « Quel avantage adaptatif commun aurait pu pousser les éleveurs à sélectionner une même face rapetissée chez le porc blanc intermédiaire, le bœuf camard (ou nato) d’Amérique du Sud, et le pékinois de la cour impériale chinoise ? » L’explication viendrait d’un effet dit d’« autostop », bien connu en génétique. Quand on sélectionne un gène, on sélectionne également inconsciemment les gènes qui lui sont proches sur le chromosome ou qui lui sont corrélés d’un point de vue fonctionnel. Ainsi, le travail de sélection d’un caractère « tire » d’autres caractères. Dans le cas de la domestication, la cible essentielle de la sélection est le comportement ludique car, « en ne faisant se reproduire que ceux des animaux qui retiennent, au-delà de la maturité sexuelle, un comportement malléable caractéristique de la juvénilité, l’homme hâte le processus de domestication lui-même ». Or, en sélectionnant un comportement juvénile, on retient en même temps, mais sans le vouloir, des caractères morphologiques juvéniles. En d’autres termes, la sélection sur le comportement amène une néoténie morphologique.
La corrélation néoténie/domestication n’est pas sans rappeler certains éléments de la controverse suscitée par Peter Sloterdijk, à propos de la lettre en réponse à la Lettre sur l’humanisme de Heidegger. En commentant à la fois Heidegger et Nietzsche, il propose : « La domestication de l’être humain constitue le grand impensé face auquel l’humanisme a détourné les yeux depuis l’Antiquité jusqu’à nos jours ». Dans un autre ouvrage , Sloterdijk s’explique : « Le devenir-humain a été, en tant que tel, un acte d’élevage spontané de soi-même. Avec cette thèse, on dirige le regard vers la constitution biologique de l’espèce, mais plus encore sur le fait qu’elle est conditionnée par l’histoire de la culture. Ce qui m’importe, c’est la thèse selon laquelle les hommes sont les créatures d’une histoire de la gâterie par l’habitat, et qu’on peut les appeler, ne serait-ce que dans ce sens, des “animaux domestiques”. Il faut réfléchir au type de domesticité qui s’applique dans le cas de l’Homo sapiens. […] On peut ainsi comprendre pourquoi une querelle permanente pour l’éducation et le dressage de l’être humain parcourt les cultures avancées ». On comprend pourquoi certains, tel Jürgen Habermas, ont réagi violemment. Pourtant, l’intérêt fondamental de cette idée n’est pas où on le croît. Certes, la domestication – l’apprivoisement de l’homme mérite d’être discuté. En effet, l’auto-référence – « élevage spontané de soi-même » paraît d’une importance ontologique considérable.

Vers des modèles auto-référents

Quelle que soit la vision que l’on prenne d’un point de vue évolutif, le modèle auto-référent semble s’imposer. L’homme, animal auto-conscient, produit de l’évolution, s’interroge sur celle-ci. L’organisme se trouve dans une situation d’auto-référence dans son environnement. Suivant Lewontin, « l’organisme et l’environnement ne sont pas réellement déterminés de manière séparée. L’environnement n’est pas une structure imposée aux êtres vivants de l’extérieur mais, en fait, une création de ces êtres » . Au niveau cellulaire, si le raisonnement précédent peut également s’appliquer, les relations entre le cytoplasme et le génome, fondé sur le concept de régulation, peuvent s’exprimer de la même manière (il faut de l’ADN pour synthétiser des protéines, et des protéines pour synthétiser de l’ADN). Tout est donc fondé sur des réseaux de régulation qui possèdent des capacités auto-organisatrices.
Le problème de la forme relève du même type de modélisation. La morphogenèse, ou apparition de la forme tant d’un point de vue embryologique qu’évolutif, n’est toujours pas expliquée avec suffisamment de profondeur, même si des progrès se font actuellement . Il est clair qu’un organisme – en particulier animal – est caractérisé par sa structure spatiale ; la morphologie et l’anatomie ont été parmi les premières disciplines de la biologie. Les formes des organes apparaissent au cours de l’embryogenèse dans une séquence immuable, très bien décrite pour certains organismes . De nombreux réseaux de gènes du développement ont été décrits au cours de ces vingt dernières années, et pourtant le mystère de la construction biologique reste peu exploré. Plusieurs explications peuvent être avancées. Tout d’abord, on avait peu de faits biologiques, résultats d’expérience, à interpréter. Mais c’est surtout un problème de concept. Quelle était la pensée des années 1960 ? Après la découverte de l’expression des gènes, le modèle général mis en place était simple : des gènes sont activés, des différenciations cellulaires, des proliférations cellulaires en résultent, et la combinaison de ces processus structurent la forme. Certes, mais, vue de cette manière, l’information nécessaire semble couler du génome vers l’organisme, et même si l’on sait que les interactions cellulaires ont un rôle important, on ne voit pas comment les éléments géométriques pourraient être codés. Une vision nouvelle propose un type de modèle structuré totalement différemment, en boucle. Si des gènes sont activés, etc., la forme qui en résulte à elle-même une action sur l’expression des gènes. En quelque sorte, le système est auto-référant, et c’est l’ensemble du circuit qui est à considérer. Cette fois-ci, il n’y a pas « stockage » de l’information à un endroit donné, et l’environnement joue un rôle fondamental.
L’intérêt essentiel veut que ce type de modèle semble parfaitement souhaitable en sciences cognitives. Suivant Francisco Varela (1946-2001) : « Nous percevons un monde sans nous rendre compte de tout ce que nous faisons pour le percevoir de cette façon ; précisément parce que nous sommes pris dans l’étrange circuit de tous les processus qui s’accomplissent dans notre corps ».
Dans la continuité de cette réflexion, Varela propose dans un autre ouvrage le concept d’énaction, ou « action incarnée », qui spécifie qu’il y a co-implication entre la structure qui permet la perception et l’acte même, sans qu’il y ait prééminence et causalité de l’un ou de l’autre . L’énaction se trouve fondée sur deux principes :
« 1. la perception consiste en une action guidée par la perception ;
2. les structures cognitives émergent des schèmes sensori-moteurs récurrents qui permettent à l’action d’être guidée par la perception. »
Cette présentation permet de sortir de la logique infernale de l’œuf et de la poule. La perception est guidée par la structure sensori-motrice du sujet, et l’action du sujet façonne la structure sensori-motrice (en particulier au cours du développement). Ceci amène le fait bien connu que les animaux vivent chacun dans un monde particulier, l’environnement n’étant en aucune manière déconnecté de l’organisme.
L’importance de l’auto-référence et la relation complexe environnement-organisme plaident pour une analogie forte avec le processus évolutif. La critique de la représentation en sciences cognitives, débouchant sur l’énaction, a pour analogie la critique de l’adaptation, telle que vue ci-dessus, et donnant, chez Varela, le concept de « dérive naturelle ». Pour ce faire, Varela va utiliser plusieurs résultats scientifiques, pour beaucoup issus des mathématiques. Les gènes forment des réseaux, qui possèdent des propriétés auto-organisatrices ; de manière générale, de tels réseaux peuvent être modélisés, et on peut décrire des solutions stables, qui ne sont pas obligatoirement optimales ; le satisficing correspond à l’adoption d’une des solutions viables, mais peut-être non optimale. Enfin, les réseaux peuvent s’organiser et interagir, pour donner à nouveau des structures auto-organisatrices. Ainsi, la « dérive naturelle » peut se définir de la manière suivante :
« 1. L’unité d’évolution (à un niveau quelconque) est un réseau capable d’un riche répertoire de configurations auto-organisatrices.
2. Soumises à un couplage structurel avec un milieu, ces configurations engendrent une sélection, processus incessant de satisficing qui déclenche (mais ne spécifie pas) des changements dans la forme des trajectoires viables.
3. La trajectoire ou le mode de changement spécifique (non unique) de l’unité de sélection est le résultat entremêlé (non optimal) de multiples niveaux de sous-réseaux de répertoires auto-organisés ayant fait l’objet d’une sélection.
4. L’opposition entre les facteurs causaux internes et externes est remplacée par une relation de co-implication, puisque l’organisme et le milieu se spécifient l’un l’autre. »
Une étude serrée permet de remarquer que le concept d’exaptation de Gould peut facilement s’insérer dans un tel cadre.
L’intérêt premier de ce type d’approche est de coupler, dès les prémisses, l’organisme et son environnement, alors qu’actuellement, malgré certains efforts louables, l’organisme est regardé « à côté » de son environnement. C’est ainsi que la notion de « niche écologique » est très souvent bien mal employée d’un point de vue logique. Ne parle-t-on pas de « niche écologique vide » pouvant être remplie par de nouveaux organismes ? On explique souvent la radiation des mammifères à la limite secondaire-tertiaire par le fait qu’ils ont occupé les niches écologiques laissées vides par les dinosaures. Or, une niche écologique est définie comme étant l’ensemble des relations existant entre un organisme et son environnement. S’il n’y a plus d’organisme, il n’y a plus de niche…
Les réseaux auto-organisateurs, permettant des émergences et des exaptations, se retrouvent à tous les niveaux d’organisation avec une fantastique diversité. Cette idée est en fait la base de l’hypothèse Gaïa, qui présente le globe terrestre fonctionnellement comme un organisme auto-régulé . Une telle démarche co-impliquerait évolution et écologie et arriverait à certaines conséquences.
-  l’histoire de la biodiversité ne serait pas que temporelle, mais spatio-temporelle ;
-  les caractères particuliers des lieux à forte biodiversité (hot spots) seraient mieux approchés. Les mécanismes de spéciation devraient alors devenir moins mystérieux ; pourquoi y a t-il des zones particulières, sources fortes de nouvelles espèces ?
-  les originalités géologiques de la Terre (et de ses enveloppes fluides) seraient mieux explicitées ;
-  les impacts des activités humaines seraient correctement décrits.
Naturellement, au niveau de l’organisme, une telle conceptualisation entraînerait une meilleure compréhension du développement et des relations génotype-phénotype. Comment des organismes, comme une drosophile et une souris, ayant des gènes majeurs très proches, peuvent-ils être si différents ? Comment la forme d’un organe (et d’un organisme) sont-ils spécifiés ? Encore une fois, c’est le spatial, la géométrie qui est l’inconnu. C’est une nouvelle approche naturaliste qui doit se mettre en place, une approche pour laquelle, par une pensée de type « énaction », la causalité classique sera complètement remise en cause.

Vers une nouvelle évolution ?

Il y a toujours eu une grande différence entre la définition de l’homme par un biologiste et par un philosophe. En caricaturant, le premier voit l’appareil morpho-anatomique, tandis que l’autre voit une conscience auto-consciente. Pourtant, avec une vision de type « énaction », c’est-à-dire celle d’un organisme profondément corrélé à son environnement de manière auto-référente, les choses changent complètement. Prenons, par exemple, deux philosophes actuels, commentant certains écrits de Heidegger, Peter Sloterdijk et Giorgio Agamben. S’il est maintenant bien compris que chaque animal, par sa structure sensori-motrice, vit dans un monde qui lui est particulier, et très différent d’une espèce à l’autre , il est fascinant de voir que Heidegger s’est inspiré, dans Sein und Zeit, des travaux de Jacob von Uexküll (1864-1944) , qui est un de ceux qui ont compris que, dans l’environnement d’un animal, il y avait certaines caractéristiques qu’il définissait comme porteurs de signification et que, suivant Agamben, Heidegger a appelé les désinhibiteurs. Ainsi, « l’animal est enfermé dans le cercle de ses désinhibiteurs exactement comme il l’est, pour Uexküll, dans les rares éléments qui définissent son monde perceptif » . Mais : « Ce dont l’animal est incapable, c’est précisément de suspendre et de désactiver sa relation au cercle de ses désinhibiteurs spécifiques ». D’où l’importance de la méditation d’Heidegger sur l’ennui : « L’ennui profond apparaît alors comme l’opérateur métaphysique où s’effectue le passage de la pauvreté en monde et au monde, du milieu animal au monde humain : avec l’ennui il ne s’agit de rien de moins que de l’anthropogenèse, du devenir Da-sein du vivant homme. » Donc : « Le monde ne s’est ouvert pour l’homme que par l’interruption et la néantisation du rapport du vivant avec son désinhibiteur. […] Mais l’être n’apparaît dans la “claire nuit du néant” que parce que, dans l’expérience de l’ennui profond, l’homme a pris le risque de suspendre son rapport de vivant avec le milieu. […] Le Dasein est simplement un animal qui a appris à s’ennuyer, qui s’est réveillé de sa propre stupeur et à sa propre stupeur. Ce réveil du vivant à son propre être étourdi, cette ouverture, angoissée et décidée, à un non-ouvert, c’est l’humain ».
C’est une autre manière de préciser une auto-référence dynamique, avec une interaction avec l’environnement très différente pour l’homme et pour l’animal. On comprend mieux maintenant pourquoi Sloterdijk rappelle avec force que « l’être humain n’existe pas, mais qu’il doit se produire lui-même dans une querelle permanente autour de son être non déterminé. », phrase que l’on peut rapprocher de celle de Picq : « Selon moi, l’humain est loin d’être une évidence qui va de soi. […] Au cours de leur évolution, les chimpanzés ne sont pas devenus des hommes ; quant aux hommes, il n’est pas certain qu’ils soient devenus humains » .
L’avenir ? Il devrait être le fruit de l’élargissement de la biologie évolutive, avec la prise en compte de données venant, par exemple, des sciences cognitives. Alors, une telle biologie pourra réaliser une interaction d’une grande force avec la philosophie, voire la théologie , en tant que discipline de l’humain.
Mais le danger est immédiatement présent, comme le commente Sloterdijk : « Il s’agit de montrer comment les hommes ont perdu le respect de l’être – et comment ils ont appris le désir qui mène à la technique. On pourrait du reste aller encore plus loin et définir purement et simplement la technique comme une insurrection contre la nature – la technique désignant ici un phénomène qui remonte à des paliers très anciens de l’évolution. »
La technique a-t-elle à voir avec l’évolution ? Dans un premier temps, on l’a vu comme prolongement du corps humain, avec une possibilité d’action énorme, étant donné qu’un outil peut être abandonné, échangé…, à l’inverse de ce qui se passe pour un organe animal, comme la pince d’un crabe. L’homme non spécialisé, déspécialisé, se trouve alors pourvu d’une puissance d’action sur son environnement. Mais actuellement, le raisonnement est bien autre, et porte sur deux sujets, les organismes génétiquement modifiés (OGM) et les nanotechnologies.
La discussion sur les OGM s’est vite trouvée empoisonnée par les tenants du « pour » (c’est le progrès, et on va résoudre le problème de la faim dans le monde) et du « non » (c’est une atteinte à la nature faite par des apprentis sorciers). Même s’il est possible de sortir de ce débat stérile , on peut s’étonner de voir, dans le camp des « pro-OGM », des références récurrentes à l’évolution. En caricaturant, les transferts horizontaux de gènes se sont produits de nombreuses fois au cours de l’évolution. Techniquement, on reproduit quelque chose de naturel, donc on ne voit pas où est le problème. Avec les nanotechnologies, on rencontre un raisonnement de ce type.
Quand on consulte sur la toile les sites américains relatifs aux programmes des nanotechnologies , on ne peut qu’être effaré de ce que l’on lit. En résumant, la nature est un bien mauvais ingénieur, et l’évolution a été lente et non optimale ; l’homme, maintenant, se trouve pourvu de toutes les techniques permettant de maîtriser les mécanismes vitaux, de concevoir une nouvelle vie, bref, de prolonger de manière lamarckienne tout ce qui a été conçu de manière darwinienne. Le raisonnement est particulièrement simpliste : l’homme est un produit de l’évolution ; les sciences et les techniques sont le produit de son cerveau ; donc elles sont le produit de l’évolution… Jean-Pierre Dupuy montre qu’en fait ces scientifiques veulent se servir des propriétés auto-organisatrices de la matière vivante et détourner à leurs fins ces propriétés : « En s’unissant aux biotechnologies, les nanotechnologies en démultiplient l’ambition. Les biotechnologies prennent les produits de l’évolution biologique pour donnés et se contentent de les utiliser ou de les reproduire pour les mettre au service des fins humaines. Le projet nanotechnologique est beaucoup plus radical. Il part du constat que l’évolution est un piètre ingénieur, qui a fait son travail de conception plus ou moins au hasard, se reposant sur ce qui marchait à peu près pour échafauder de nouvelles constructions plus ou moins branlantes bref, en bricolant. L’esprit humain, relayé par les technologies de l’information et de la computation, qui le dépasseront bientôt en capacités d’intelligence et d’imagination, fera beaucoup mieux. » En termes biologiques, on veut remplacer le sélectif par de l’instructif. Un vaste programme américain de la National Science Foundation (NSF) a été lancé en juin 2002 sur ce sujet. Appelé Converging Technologies, il est maintenant appelé NBIC, car les « technologies convergentes » sont les nanotechnologies, les biotechnologies, les technologies de l’information et des sciences cognitives . Le projet revient à rivaliser avec la nature, ou plutôt à réaliser une autre nature, car les ingénieurs de demain verront leurs créations leur échapper, mais à dessein, étant donné qu’ils utiliseront les capacités auto-organisatrices pour arriver à une fabrication de la vie. La NSF a publié un rapport, Converging Technologies for Improving Human Performances. Au-delà des promesses ahurissantes qu’on y trouve, Jean-Pierre Dupuy fait remarquer que « l’un des deux responsables de la publication, William Sims Bainbridge, technocrate influent de la NSF, milite dans la vie civile dans une secte qui prêche le “transhumanisme”, c’est-à-dire le dépassement de l’imparfaite espèce humaine par une cyber-humanité. Celle-ci pourra accéder à l’immortalité lorsqu’on saura transférer le contenu informationnel du cerveau, donc l’esprit et la personnalité de chacun, dans les mémoires d’ordinateur. » L’existence d’une telle secte prouve que la discussion éthique est évidemment indispensable et urgente , et nécessite, d’une part, une argumentation sur l’évolution, d’autre part, une argumentation sur l’humain. Il semble clair que l’absence de prise en compte de la niche écologique, de la « bulle » de l’organisme, de manière structurée et pertinente ne peut qu’amener des désastres, et on comprend mieux pourquoi la biologie doit rejoindre, s’allier à la philosophie. Heidegger avait déjà perçu l’acuité du problème, comme l’explique Sloterdijk : « Il [Heidegger] comprenait bien que la question de l’Être se pose à travers celle du pouvoir et de la technique. Et nous voyons aujourd’hui à quel point c’est exact, notamment au fait que les technologies de pointe, dans les life sciences, s’attellent à reformuler les codes du vivant. […] Dans ce contexte, on peut rappeler une fois encore le grand diagnostic de Heidegger sur la pensée occidentale, pensée dans laquelle il disait avoir discerné l’oubli de l’être » .
Ceci signifie que, à part des philosophes et certains intellectuels, le message de Heidegger – bien difficile, il faut bien le dire ! –, tout comme celui de Darwin, n’est pas du tout passé, et c’est une vieille vision qui est encore présente dans les esprits. Agamben le formule d’une autre manière : « Dans la perspective de Heidegger deux scénarios sont dès lors possibles :
a) l’homme post-historique ne garde plus son animalité en tant qu’indécelable, mais tente de la gouverner et de la prendre en charge par la technique ;
b) l’homme, le berger de l’être, s’approprie sa latence même, son animalité même, qui ne reste pas cachée ni n’est faite objet de maîtrise, mais est pensée comme telle, comme pur abandon » .
Résoudre cette alternative nécessite une action et une réflexion d’une grande urgence. Le futur de la théorie de l’évolution n’est pas seulement scientifique ; elle n’est pas non plus seulement philosophique. Agamben a posé le vrai problème : « Le conflit politique décisif, qui gouverne tout autre conflit, est, dans notre culture, le conflit entre l’animalité et l’humanité de l’homme. La politique occidentale est, en d’autres termes, co-originairement biopolitique. » Bref, pour paraphraser Dobzhansky : rien n’a de sens en politique, si ce n’est à la lumière de l’évolution.