Nanotechnologies et technologies convergentes : quel avenir à vingt ans ?

Nanotechnologies et technologies convergentes : quel avenir à vingt ans ?

Louis Laurent

Contexte en ce début de siècle

Le vingtième siècle a été marqué par de formidables avancées dans la compréhension du monde qui nous entoure, qu’il s’agisse de la matière inerte ou du vivant. Cet ensemble de connaissances a induit une triple évolution dans la manière dont la communauté scientifique et technique appréhendait le monde.
La course à l’infiniment petit. Le déclic été le discours de 1959 « There is plenty of room at the bottom », prononcé par le prix Nobel de physique Richard Feynman à la réunion annuelle de la Société américaine de Physique à Pasadena en Californie. Dans ce discours prémonitoire, il discutait les possibilités offertes par la manipulation de la matière à l’échelle moléculaire et mentionnait la possibilité d’écrire l’information contenue dans l’Encyclopedia Britannica sur la surface d’une tête d’épingle. Il faudra toutefois attendre plus de vingt ans pour que l’on puisse réellement travailler à ces échelles, avec l’invention du microscope à effet tunnel et les progrès de diverses techniques. Pour mesurer le chemin parcouru, il suffit de rappeler le pari par lequel Feynman terminait son discours de 1959 : 1 000 dollars à qui réaliserait un moteur en état de marche et d’un volume inférieur à 250 millimètres cube. Or, en 1999, une équipe de l’université Cornell (États-Unis) a réalisé un moteur moléculaire qui tourne réellement, d’un volume un million de milliards de fois plus petit. Ce mouvement vers l’infiniment petit n’est plus l’apanage des chercheurs, il concerne désormais les applications. Par exemple, les développements dans le monde de la microélectronique ont permis de réaliser couramment des objets travaillés à des échelles proches de celles qu’évoquait Feynman. On entrevoit désormais l’essor d’une nouvelle industrie qui produirait des dispositifs millimétriques, voire largement plus petits, dont les composants seraient eux-mêmes de taille extrêmement réduite. Les microprocesseurs actuels sont un bon exemple : des puces centimétriques qui contiennent des centaines de millions de transistors gravés avec un motif cinq cents fois plus fin qu’un cheveu.
Une vision unificatrice. Lorsqu’on réduit le niveau d’observation de la matière à l’échelle de quelques atomes, les différences entre la physique, la chimie, la science des matériaux ou la biologie s’estompent . Il y a par exemple une parenté très forte entre les propriétés électriques et chimiques d’une molécule. De même, lorsqu’on explore le fonctionnement du vivant à l’échelle moléculaire, on se trouve en présence d’une machinerie faisant appel à des interactions mécaniques, chimiques, électriques entre de grosses molécules. C’est également dans ce monde de l’infiniment petit qu’apparaissent les effets quantiques. Cachés ou brouillés dans la plupart des objets de taille macroscopique , ils sont dominants lorsqu’on travaille dans le monde microscopique et peuvent se manifester par de nouveaux phénomènes parfois fascinants. C’est de ce constat qu’est né le concept de « nanosciences », terme global recouvrant les activités de recherche dans le monde microscopique et qui prend en compte l’irruption de nouveaux effets physiques dans le monde microscopique. Cette vision unificatrice des disciplines a sa contrepartie dans le domaine de la technologie. On utilise les mêmes outils pour réaliser des systèmes électriques (historiquement les premiers), mécaniques, fluidiques et surtout des ensembles complexes combinant ces diverses fonctions.
La convergence avec le complexe. Les nanotechnologies permettent de disposer de plus en plus de composants par unité de volume donc, assez naturellement, on tend à réaliser des objets avec des architectures de plus en plus complexes. D’autre part, la disparition des frontières entre disciplines à petite échelle apporte des possibilités inédites de fertilisation croisée. Un exemple particulièrement illustrateur est ce que l’on nomme la convergence NBIC (nanotechnologies, biologie, information, cognition). Elle traduit :
-  le rapprochement entre les systèmes miniatures complexes que sont ceux du vivant et des systèmes artificiels ;
-  l’interpénétration de plus en plus poussée des technologies logicielles et des architectures matérielles ;
-  la prise en compte du système naturel le plus complexe, le cerveau et les processus cognitifs.
Cette évolution de la recherche et de la technologie sera probablement génératrice de nouveaux produits qui auront un impact fort sur notre vie. Trois caractéristiques sont souvent associées aux innovations attendues : le fait qu’elles soient intégrées dans notre environnement, voire invisibles, des possibilités qui laissent rêveur, et une forte spécificité dans le mode d’action (systèmes d’information sophistiqués qui n’agissent que dans un contexte précis, agents biologiques très sélectifs, sophistication permettant de prendre en compte les caractéristiques individuelles). Tous ces points apparaîtront plus clairement ci-dessous.
Ces recherches sont considérées comme stratégiques par chacun des grands blocs concernés (Europe, États-Unis, Asie) et elles font l’objet d’investissements importants qui, au niveau mondial, dépassent les 3 milliards d’euros par an . On s’attend à ce que les résultats de ces recherches apportent des réponses à des questions de société importantes, par exemple dans le domaine de l’énergie ou de la santé. Pour d’autres, les découvertes promises seront à l’origine de nouvelles industries et permettront de lutter contre les délocalisations. Devant l’ampleur de ce mouvement et la nature ambitieuse de ces recherches, il est naturel de s’interroger sur l’impact futur de ces investissements, question qui fait déjà l’objet d’une littérature abondante et de conférences variées.
Le but de cet article est de donner un éclairage sur le futur possible. Tout d’abord, il s’agit d’essayer de prédire les résultats à vingt ans de ces programmes de recherche et de montrer leurs conséquences sur la société. Ensuite, il conviendra de montrer en quoi la prise en compte de ces innovations n’est pas neutre pour une société et est aussi une affaire de politique. Les questions à traiter sont, par exemple : quel but se donne t-on pour ces programmes ? Le changement dans la société induit par telle innovation est-il souhaitable ? Quelles sont les parts de régulation par le marché et par le législateur ?

Que peut on prévoir à vingt ans ?

Il s’agit plus de fournir un cadre de réflexion que de prétendre « prédire l’avenir », le cours de l’histoire ayant été régulièrement modifié par de nouvelles découvertes, mais aussi des usages non prévus (il suffit de penser à l’exemple d’Internet). Dans un souci de clarté, la discussion sera articulée autour de deux grands secteurs choisis parce qu’on s’attend à ce qu’ils aient un fort impact : les technologies de l’information et de la communication et la rencontre avec le vivant.

Les technologies de l’information et de la communication

Les capacités de traitement de l’information ont progressé ce dernier siècle d’un facteur mille milliards . On a d’abord changé la manière de faire : relais, lampes, transistors isolés puis implantés en grand nombre sur une surface de silicium pour constituer un circuit intégré au début des années 1960. Cette progression fulgurante s’est poursuivie avec la miniaturisation des transistors implantés, le nombre de composants sur un circuit doublant tous les dix-huit mois depuis près de quarante ans et sans doute encore pendant dix ans. Les processeurs actuels, qui peuvent déjà être considérés comme résultant des nanotechnologies, contiennent des centaines de millions de transistors et effectuent quelques milliards d’opérations par seconde. On estime que la miniaturisation devrait se poursuivre jusque vers 2015, date à laquelle diverses limites devraient donner un coup d’arrêt à cette progression. Les processeurs de cette époque, avec leur contenu d’une dizaine de milliards de transistors, devraient avoir des capacités d’environ mille milliards d’opérations par seconde. Un autre élément clef est la possibilité de stocker des informations en masse comme cela est fait sur les disques durs ou les DVD actuels. Il s’agit de modifier un milieu avec un laser, un champ magnétique, voire une pointe, pour « graver » des points mémoires, c’est-à-dire des « bits d’information » qui, assemblés en paquets, constituent du texte, les pixels d’une image, un son. Dans ce domaine aussi, les capacités ont évolué rapidement. Actuellement, on sait inscrire et lire quinze milliards de bits par centimètre carré. Diverses idées existent pour multiplier par cent cette densité dans les dix ans à venir. Un bit serait alors stocké sur un carré dont le côté fait une vingtaine d’atomes.
En parallèle avec cette évolution qui, aussi étonnante soit-elle, se fait dans une certaine continuité, il existe un foisonnement de recherches qui visent à inventer d’autres méthodes pour traiter les informations ou les stocker. Leur but n’est pas nécessairement de remplacer l’industrie du circuit intégré qui a encore de beaux jours devant elle, mais d’ouvrir d’autres champs que ceux couverts par les machines actuelles. L’existence du cerveau humain est un bon exemple : il illustre l’existence d’autres méthodes puissantes pour combiner des informations mais aussi faire bien « autre chose ». On réfléchit ainsi à des dispositifs plus petits ou moins gourmands en énergie que les transistors (par exemple des molécules qui sont en quelque sorte le calculateur ultime, ou l’utilisation du magnétisme), voire des méthodes de calcul radicalement différentes en utilisant par exemple des effets quantiques. Les systèmes auxquels rêvent les chercheurs utilisent des « superpositions de réalités » et n’ont pas d’équivalent dans notre monde macroscopique. On pense aussi à de nouvelles architectures. Si le standard actuel est le monde plan et microscopique des circuits intégrés, rien n’interdit une évolution vers des systèmes en volume, éventuellement inspirés de la biologie. Les possibilités offertes seraient sans commune mesure avec ce qui a été mentionné plus haut car les densités de composants se mesureraient en milliers de milliards par litre (chiffre qu’on peut comparer aux cent milliards de neurones du cerveau humain). Mais il s’agit avant tout de recherche fondamentale dont les retombées pratiques peuvent être certes considérables, mais sont difficiles à prévoir. En revenant soixante ans en arrière, on peut faire la comparaison avec la physique du solide. Celle-ci a engendré le circuit intégré et le stockage magnétique des données, mais elle n’avait pas ce but.
Quoi qu’il en soit, même avec des hypothèses assez conservatrices, ces prouesses scientifiques et technologiques peuvent potentiellement induire des modifications profondes dans nos rapports aux technologies de l’information. Il s’agit de nouveaux usages et de nouvelles pratiques qu’il est difficile de prévoir compte tenu des incertitudes sur l’état exact de la technique dans vingt ans mais surtout de la demande. En effet, si ces dernières décennies les technologies de l’information se sont développées au travers de gros programmes institutionnels (calculateurs, télécommunications), celles-ci ont basculé dans le domaine des applications pour le grand public (téléphones portables, micro-informatique, jeux, etc.) et sont désormais tirées par la demande. On peut toutefois esquisser trois tendances qui se rapportent souvent à des travaux en cours ou sont l’extrapolation de phénomènes déjà existants.
La présence de plus en plus massive de systèmes d’information. Le développement de la microélectronique a permis de baisser les coûts des petits systèmes d’information. L’exemple le plus connu est celui des étiquettes électroniques RFID . Il s’agit d’un « code barre » lisible à distance. Lorsqu’ils sont interrogés, ces dispositifs transmettent un code d’identification qui peut être unique, il y aura assez de chiffres pour cela, avec une portée qui va de quelques millimètres à une dizaine de mètres. On s’attend à ce que, dans un avenir proche, un RFID ne soit pas plus cher qu’une étiquette. On pourrait alors imaginer un monde dans lequel la plupart des objets auraient ainsi un identificateur interrogeable à distance. Des applications triviales sont le suivi de stocks, les marquages anti-vol, des badges d’accès, l’immatriculation des automobiles et la généralisation d’objets capables d’informer leur environnement de leur présence. Ainsi, on peut imaginer qu’un réfrigérateur ou une valise « sauraient » ce qu’ils contiennent.
En 1960, l’ordinateur était un gros objet géré de manière centralisée dans les entreprises, puis, dans les années 1980, l’ordinateur personnel est apparu et, vingt ans plus tard, beaucoup d’entre nous ne savent pas combien de processeurs sont contenus dans les objets qu’ils possèdent. Cette tendance va s’accentuer avec l’avènement de systèmes intelligents de petite taille, aptes à « s’informer » de leur « contexte » et sobres en énergie (voire capables de tirer leur énergie du monde environnant), donc relativement autonomes. Ils pourront en outre communiquer par une liaison sans fil et être ainsi reliés à Internet. Une conséquence pourrait être le passage d’un Internet des humains à un Internet des objets. D’ailleurs, le passage à la norme IPV6 pour les adresses Internet permettrait de connecter sans ambiguïté tous les objets à la surface du globe. On conçoit aisément que cette progression puisse être tirée par la demande. Un tel déploiement concernant les téléphones, les assistants personnels, les appareils photos numériques permet à chacun de pouvoir bénéficier de nouveaux services et d’être connecté à toute l’information disponible sur Internet. La connexion d’autres objets plus inattendus comme les appareils électroménagers ou divers capteurs ou moyens d’actions peut également donner lieu à l’apparition de nouvelles pratiques. Par exemple, un domicile qui est « conscient » des items manquants ou des problèmes de maintenance, un appareil électroménager suivi à vie par le fournisseur qui surveille son parc à distance comme cela est déjà pratiqué pour des logiciels.
Une forte évolution des relations homme-machine. La croissance régulière des puissances des machines individuelles a permis le développement de nouveaux outils qui se sont rapidement répandus : traitements de texte (pour dix millions d’opérations par seconde), puis d’image (pour quelques centaines de millions d’opérations par seconde), reconnaissance du langage et traduction automatique (milliards d’opérations par seconde). On estime gagner encore un facteur mille sur les puissances de calcul, ce qui devrait ouvrir de nouvelles perspectives : recherche d’informations dans des bases de données géantes, synthèse ou analyse d’images 3D en temps réel (centaines de milliards d’opérations par seconde), simulation réaliste de procédés, interface homme/machines intelligentes et pourquoi pas simulant certains aspects de l’esprit humain comme la sensibilité et la création. À la question « à quoi tout cela pourrait il servir ? » qui s’est régulièrement posée lorsque les puissances de calcul ont augmenté, on peut tenter d’apporter une réponse sans doute partielle en trois points.
D’abord, la possibilité de calculer des représentations très réalistes du monde. On peut prévoir l’explosion des applications faisant appel à la réalité virtuelle (il peut s’agir de la visite d’un lieu imaginaire, ou réel comme un magasin pour faire ses courses, une manifestation sportive, un site touristique) ou à la réalité augmentée, c’est-à-dire la réalité enrichie d’informations, voire d’images supplémentaires comme des personnages virtuels. On peut également s’interroger sur les évolutions de la production cinématographique. Les puissances de calculs prévues permettront aux images d’atteindre un niveau de réalisme quasi parfait et notamment de faire « vivre » des personnages, qu’il s’agisse de création ou de copies d’acteurs dans des décors parfaits mais synthétiques.
La puissance de ces machines autorisera ensuite la réalisation de systèmes plus « humains ». Ils seront capables de comprendre le langage naturel et de s’exprimer de la même manière : ce qui implique la compréhension de contenu, le contenu affectif de la voix, les expressions du visage, voire l’humour. La manière dont ces possibilités seront utilisées reste ouverte à l’imagination, mais dépendra aussi fortement de la manière dont les relations étranges qui pourraient en résulter seront perçues. On peut imaginer des cyber-compagnons virtuels, hybrides de tamagotchi et de coach, ayant accès à toute l’information contenue dans Internet. Les usages peuvent être innombrables : compagnon, jeux, professeur, médecin, etc.
Enfin, la montée en puissance de la simulation. La banalisation de systèmes capables de simuler des processus physiques réels dans toute leur complexité, la possibilité d’avoir accès à de larges bases de données vont probablement modifier les pratiques dans de nombreux secteurs : prototypage industriel, droit, santé.
La prolifération des données. Pour les mémoires, les perspectives sont également saisissantes. Un disque de cent mille milliards de bits, standard dans une quinzaine d’années, correspond à un an de vidéo, à dix millions de photographies, à la mémorisation d’un signal audio pendant vingt ans. Cette augmentation formidable de notre capacité de numériser et de mémoriser notre environnement aura des conséquences.
L’une d’entre elles est l’apparition de nouvelles pratiques dont on voit les prémisses avec le succès des appareils photos et baladeurs numériques. Sans pouvoir deviner s’il y aura une demande, on peut se risquer à spéculer sur de nouveaux produits rendus possibles. Pourquoi pas une « boîte noire » individuelle qui enregistrerait toute la vie de son porteur (par exemple le son et une image par seconde) ? L’ensemble serait couplé à un moteur de recherche puissant capable de retrouver une scène à partir d’indications vagues (« la dernière fois où j’ai mangé des huîtres »). Le propriétaire d’un tel dispositif pourrait « rejouer » un épisode donné, voire léguer, échanger ou offrir ce patrimoine numérique.
Une autre serait l’augmentation du nombre de données disponibles en ligne sur Internet, donc du décalage entre la quantité de données accessibles et notre capacité à les utiliser. Par exemple, sur Internet, il y aurait en ligne environ deux millions de milliards de bits, chiffre appelé à augmenter de manière fulgurante à l’image des stockages notamment avec la généralisation des supports vidéo. Un enjeu est la mise au point de programmes capables de « comprendre » les attentes de chacun et de chercher les données.

Rencontre avec le vivant

La convergence des nanotechnologies avec la médecine et la biologie, mais aussi avec d’autres secteurs comme les neurosciences, sera probablement génératrice de fortes évolutions dans les vingt années. Trois secteurs en particulier sont concernés.
La nanomédecine. Il s’agit de l’utilisation des nanotechnologies pour soigner . Les cellules qui composent notre corps sont des systèmes complexes dont les pièces élémentaires sont des molécules. La compréhension du fonctionnement de ces rouages, c’est-à-dire la biologie moléculaire, la possibilité d’hybrider des molécules du vivant avec des dispositifs variés, ou simplement la capacité que nous avons désormais de miniaturiser des systèmes qui peuvent fonctionner à l’intérieur du corps ouvrent de larges champs. Les applications actuelles ou futures de ce que l’on appelle désormais la nanomédecine sont variées.
Le diagnostic d’abord. Beaucoup de systèmes du vivant fonctionnent sur la base d’interactions spécifiques entre macromolécules biologiques (protéines, ADN notamment) : deux molécules complémentaires sont capables de se reconnaître avec une grande sélectivité et de s’apparier, réaction qui produit ensuite une cascade d’événements (c’est par exemple la base du fonctionnement du système immunitaire). Les micro-nanotechnologies permettent d’utiliser ces réactions pour détecter de manière très spécifique des molécules biologiques et d’ores et déjà d’intégrer la partie sensible dans un microlaboratoire intégré de quelques centimètres carrés. Ce principe est déjà utilisé dans des produits commerciaux comme les puces à ADN et pourrait être généralisé à diverses analyses qu’il s’agisse de la recherche de substances ou le tri de cellules. Cela permettrait par exemple de réaliser rapidement un très grand nombre de tests en parallèle. La miniaturisation permet aussi la conception de systèmes de mesures « embarqués », logés dans l’organisme. Ils permettent de réaliser des examens de manière beaucoup moins invasive (il existe par exemple des caméras ingérables pour voir l’intérieur du tube digestif) ou de mesurer sur place et retransmettre des paramètres (pression artérielle, glycémie).
Les soins ensuite. Les médicaments utilisés de nos jours sont des molécules actives qui pallient une carence de l’organisme, détruisent un micro-organisme ou une tumeur. Ces molécules, une fois absorbées, envahissent tout le corps et causent aussi des effets secondaires dans la mesure où elles n’agissent pas nécessairement que sur les cellules atteintes par la maladie. Les nano-biotechnologies laissent présager une nouvelle génération de médicaments où la molécule cède la place à un système vecteur-molécule active, capable de se fixer là où il doit agir et de soigner localement, donc plus sélectivement. Le mode d’action devient lui aussi de plus en plus sophistiqué : on peut donner l’exemple de nano-particules sur lesquelles on a greffé des molécules qui ont tendance à se fixer sur les tumeurs malignes. Une fois que ces particules sont arrimées sur les cellules cancéreuses, on peut les chauffer sélectivement avec un laser, ou les agiter avec des champs électromagnétiques. Les premiers essais sont en cours et ont effectivement permis de résorber des tumeurs malignes.
La réparation enfin. Ce dernier secteur, regroupe les techniques pour pallier des déficits, voire reconstruire. Il peut s’agir de « pièces » destinées à remplacer une partie manquante et surtout capables d’induire la régénération des tissus disparus. Diverses pistes existent comme des échafaudages biocompatibles capables d’échanger des signaux chimiques avec le corps pour stimuler et guider la croissance des tissus environnants, ou alors contenant des cellules souches qui se différencient et se multiplient. On parle aussi de l’implantation de machines dans le corps, notamment pour remplacer des organes trop complexes pour être régénérés. Cette idée n’est pas en soi si nouvelle, les stimulateurs cardiaques (le premier a été implanté en 1958), les implants cochléaires (depuis les années 1980), les implants cérébraux pour stabiliser la maladie de Parkinson (années 1990) étant déjà utilisés. Les progrès des micro-nanotechnologies et de la médecine permettent toutefois de perfectionner ces dispositifs et surtout d’aborder d’autres cibles qui font actuellement l’objet de recherches : rétine artificielle (interfacée sur le nerf optique), systèmes informatisés capables de stimuler les muscles pour reproduire la marche chez un paraplégique. On évoque également des mécanismes de réparation du génome. Un exemple de résultat très récent qui, s’il se confirme, pourrait avoir des conséquences importantes est « la correction génétique ». Au moins deux équipes (une européenne et une américaine) ont récemment mis au point un procédé qui permet de corriger un gène : une molécule reconnaît la partie de l’ADN à corriger et la coupe. La cellule utilise sa machinerie interne pour remplacer la partie coupée en copiant un modèle d’ADN sans erreur qui lui est présenté. Cette technique a pour l’instant été testée in vitro sur des cultures de cellules dans l’espoir de soigner une maladie génétique grave.
Interface cerveau/machine. Dans cette approche, plus futuriste, il s’agit de réaliser des interfaces entre les systèmes d’informations naturels tels que les organes des sens, le cerveau qu’on appelle parfois le « wetware » et des systèmes de traitement de l’information artificiels. Ces recherches sont concomitantes avec les progrès considérables de l’imagerie cérébrale fonctionnelle en particulier celle par résonance magnétique. De nombreux travaux sont actuellement publiés faisant le lien entre ce qui était jusqu’à présent du domaine de l’immatériel (les sentiments, le traitement des dilemmes) et la « circuiterie » du cerveau. Toutefois, on est très loin de suivre chaque neurone individuellement. Depuis des travaux de pionnier comme ceux de D. Fromhertz en Allemagne dans les années 1990, on a appris à hybrider des neurones avec des circuits électriques. On réalise ainsi des neuropuces, circuits qui contiennent un réseau de capteurs conçus pour mesurer l’activité électrique de neurones, que ceux-ci soient en culture ou sur un cerveau. Dans ce dernier cas, il s’agit du premier élément d’une interface cerveau/machine. Ces techniques sont devenues plus prometteuses depuis que les micro-nanotechnologies permettent de réaliser des réseaux d’électrodes plus fins, de telle sorte que l’on touche sans difficulté des neurones individuels, et de disposer de puissances de calcul comparables à un « morceau de cerveau », donc capables de traiter les informations recueillies sur les électrodes ou de calculer un signal à injecter. L’une des motivations de ces travaux est de pallier des déficits du fonctionnement du cerveau ou de la moelle épinière. Cette idée n’est pas entièrement nouvelle. Ainsi depuis 1993, la stimulation électrique du noyau sous-thalamique permet d’améliorer l’état de personnes atteintes de la maladie de Parkinson. Mais il existe d’autres voies de recherches encore plus spectaculaires.
Les mouvements que nous effectuons sont planifiés dans le cortex moteur sur lequel ils se manifestent par une activité électrique mesurable par des électrodes. Depuis la fin des années 1990, des essais ont eu lieu sur des malades entièrement paralysés et sur des primates. Les résultats montrent qu’il est effectivement possible de contrôler une machine (par exemple un bras robot ou un curseur sur un écran) « par la pensée » à l’aide, dans les expériences les plus sophistiquées, d’un réseau de plusieurs centaines d’électrodes. On commence à « craquer » le code de représentation des mouvements dans le cerveau : un ordinateur peut transformer l’image électrique à la surface du cerveau en une intention de mouvement. C’est ainsi qu’en 2004, à l’aide d’un dispositif mis au point à l’université Duke aux États-Unis, le singe « Belle » a pu commander un bras robot sans bouger. D’autre part, on s’est rendu compte que le cerveau lui-même est doté d’une grande plasticité et un patient peut apprendre à se servir du système comme s’il devenait une extension de lui-même. L’espoir est grand de pouvoir un jour permettre à des personnes entièrement paralysées une communication rapide vers l’extérieur mais aussi de concevoir des neuroprothèses, systèmes mécaniques directement commandées par le cerveau. L’une des premières réalisations en ce sens avec Matthew Nagle, un patient tétraplégique, date de 2005. Un circuit appelé « braingate » doté d’une centaine d’électrodes a été implanté à la surface de son cortex moteur par John Donogu, professeur à l’Université Brown.
Une autre voie de recherche est l’interface directe d’organes sensoriels avec le cerveau, comme les essais tentés depuis quelques années avec des aveugles pour relier des images vidéo à un réseau de quelques centaines électrodes implantés dans le cortex visuel. Les résultats sont mitigés. L’une des difficultés est la densité du réseau d’électrodes nécessaires mais aussi la manière de coder les images pour que le cerveau interprète correctement l’image électrique qu’on lui imprime.
D’autres projets, à visée plus futuriste, visent le remplacement de morceaux de cerveau par des systèmes artificiels. Des expériences ont lieu sur l’hippocampe, petit sous-ensemble qui joue un rôle dans l’élaboration de la mémoire à long terme. Il s’agit là sans aucun doute de travaux à long terme qui se heurteront peut-être à des impossibilités. En effet, si l’on peut imaginer percer les codes utilisés par le cerveau pour les aires sensorielles ou motrices dont on dispose du signal en entrée (ce que voit ou entend un cobaye, ses mouvements), pour des notions plus abstraites comme les souvenir ou les émotions, on ne peut que spéculer sur la possibilité un jour de les transformer en signaux électriques.
Ces travaux, aussi fascinants qu’ils soient, auront probablement des débouchés importants pour le traitement des handicaps graves comme la paralysie, l’amputation, et peut-être un jour la cécité. Il faut noter qu’aux États-Unis ces recherches bénéficient ouvertement d’un financement important de la DARPA qui y voit des pistes possibles pour la réalisation d’interfaces hommes/machines. On peut rêver d’applications sur des sujets bien portants (interface homme/machine, incrustation de sons et d’images directement dans le cerveau, module mémoire), mais il ne faut pas oublier que ce domaine est neuf. Il subsiste beaucoup d’inconnues quant à la fiabilité des électrodes, le codage utilisé par le cerveau, et tout simplement ce qui sera réellement faisable ne serait-ce que parce qu’on ne pourra pas implanter une électrode dans chaque neurone. Enfin, l’implantation d’électrodes dans le cerveau n’est pas une intervention bénigne ! Des applications autres que médicales n’auront de sens que si des techniques moins intrusives voient le jour.

Vers une convergence de l’inanimé avec le vivant ?

Une question souvent abordée lorsqu’on parle de nanotechnologies est la possibilité de comprendre ou de réaliser des systèmes complexes miniatures. Souvent, le vivant est utilisé comme point de départ, ou comme modèle. Cette recherche a un but cognitif mais pourrait aussi être utilisée pour réaliser des dispositifs capables de réaliser des opérations de « nanofabrication » ou de synthèse chimique, de détecter, voire absorber, des espèces chimiques nocives et pourquoi pas soigner. Cette question peut être en fait abordée sous deux angles différents.
Partir du vivant. Il s’agit d’étudier les systèmes complexes naturels qu’offre le vivant. C’est ainsi qu’est en train d’émerger la biologie systémique, nouvelle discipline qui cherche à appréhender, notamment par la simulation, comment on passe d’un enchevêtrement complexe de protéines et de molécules biologiques à une cellule vivante qui fonctionne. La recherche consiste également à agir sur le vivant. Depuis les années 1980, on utilise déjà les biotechnologies pour réaliser des synthèses chimiques de substances comme l’insuline en modifiant l’ADN de bactéries. On peut tenter d’aller plus loin et agir plus profondément sur des cellules.
Un exemple particulièrement illustrateur est la mise au point des « biobricks », projet lancé au MIT . Il s’agit d’une bibliothèque de fragments d’ADN qui peuvent être injectés dans une cellule pour lui faire synthétiser une protéine donnée. Ces fragments peuvent interagir ensemble, l’un pouvant par exemple bloquer le fonctionnement de l’autre ou au contraire l’activer. Un exemple qui date de l’an 2000 a été la modification d’une bactérie par une équipe de Princeton pour la rendre clignotante (en provoquant la production intermittente d’une protéine fluorescente). L’idée sous-jacente derrière ces recherches est d’utiliser la machinerie cellulaire (l’énergie, les matières premières, les ribosomes usines à synthétiser les protéines) pour fabriquer au sein même de la cellule des machines faites de protéines. De telles machines pourraient fabriquer des médicaments, détecter des polluants ou même les piéger. Certains rêvent de réaliser des circuits logiques en quelque sorte en dotant la cellule d’outils lui permettant de « compter ».
Des projets plus ambitieux existent, comme celui de l’institut des énergies alternatives biologiques localisé dans le Maryland : il s’agit de créer de nouveaux organismes, avec au moins une partie du génome sur mesure, capables de fabriquer de l’hydrogène ou de séquestrer le dioxyde de carbone, ce qui potentiellement ouvrirait par exemple la voie à la production massive d’énergies renouvelables à partir de biomasse artificielle.
Partir de l’inanimé. Une autre approche consiste à utiliser des molécules ou des « nanoobjets » pour réaliser de petits systèmes. On sait désormais assembler des dispositifs nanométriques même si les opérations restent surtout artisanales. C’est ainsi que le nanotube de carbone que l’on sait désormais manipuler est devenu un élément clef pour réaliser des petits moteurs, des capteurs, des circuits de calcul et divers dispositifs. Une alternative est l’utilisation de molécules issues du vivant (par exemple les protéines ou l’ADN). Un exemple est la réalisation en 1999 par Carlo Montemagno et ses collaborateurs de l’université Cornell d’un « nanomoteur » de moins de 100 nanomètres de diamètre en utilisant une enzyme très répandue, l’ATPase. À moyen terme, on peut effectivement imaginer des dispositifs, voire des machines, fonctionnant à l’échelle moléculaire. Quoi qu’il en soit, on restera sans doute loin de la complexité des systèmes vivants : les dispositifs dont on parle seront peut-être un jour aussi complexes que les machines que nous connaissons à notre échelle, mais on ne voit pas concevoir quelque chose d’aussi complexe qu’une cellule avec ses centaines de milliers de protéines en interaction.

Quelles conséquences pour une démocratie ?

Même si le résultat d’un exercice de prospective ne doit pas être pris au pied de la lettre, on ne peut qu’être interpellé par les nouvelles possibilités qu’offriront la science et la technique dans une vingtaine d’années. D’un côté, on entrevoit des bénéfices considérables, mais aussi, comme c’est le cas pour toute innovation marquante, de nouvelles questions se poseront. Cette affirmation n’est pas en soi nouvelle, diverses inventions ayant déjà bouleversé notre mode de vie ces dernières décennies, comme la télévision, l’informatique personnelle, Internet et le téléphone portable.
Mais on peut penser que des questions inédites seront à traiter par nos sociétés à un rythme plus soutenu qu’auparavant. Les débats déjà en cours sur des sujets aussi variés que l’utilisation des cellules souches, le clonage humain, les organismes génétiquement modifiés, la propriété artistique sur Internet, la toxicité des nanoparticules en sont les premières illustrations. On peut ajouter que la science-fiction, même si elle ne prétend pas être un exercice de prospective rigoureux, illustre parfois de manière intéressante les questions nouvelles . En fait, les questions qui se posent sont de nature variée. On pourrait les classer en quatre grandes catégories.
Le risque . La forme la plus spectaculaire du risque est l’expérience qui tourne à la catastrophe. De tels questionnements ont longtemps concerné la physique des hautes énergies. L’un des dernier cas en date fut, au début des années 2000, celui du RHIC aux États-Unis, machine devant produire des collisions entre ions lourds à des énergies jamais atteintes auparavant, dans le but de se rapprocher des conditions de températures que l’on rencontrait juste après le big bang. Tout ceci a fait craindre à certains l’apparition d’un trou noir et la destruction de la terre (il n’en a rien été !). Dans les années 1980, les nanosciences ont, elles aussi, fait l’objet de ce type de questions. Eric Drexler a introduit le concept de « gelée grise », magma formé de nanorobots crées par l’homme mais capables de se dupliquer eux-mêmes et, en cas de perte de contrôle, d’engloutir la biosphère, voire pour les plus gloutons la croûte terrestre. Au début des années 2000, ce thème a été popularisé par la science-fiction mais aussi par le prince Charles qui s’était publiquement ému de la question. En fait, on est loin de la possibilité de créer des nanorobots capables de se reproduire, et on ignore même la faisabilité d’un tel tour de force. Comme cela a été mentionné plus haut, la vraie question pourrait être les risques associés à des expériences partant du vivant. Cette question n’est pas nouvelle. En 1975, lors de la conférence d’Asilomar en Californie, 140 scientifiques débattirent des risques associés à l’insertion de fragments d’ADN dans le génome de microorganismes. Il s’ensuivit quelques années de débats avant que la situation ne se stabilise.
Une deuxième manifestation du risque est l’impact de nouveaux produits ou habitudes qui se révéleraient nocifs. En ce qui concerne les nanotechnologies, on cite assez volontiers la possible toxicité de nanoparticules qui s’échapperaient de produits high-tech (on peut faire le parallèle avec l’amiante mais aussi des médicaments retirés du marché à la suite d’accidents).

Quels choix pour notre société ?

Comme mentionné ci-dessus, de nouveaux produits ou services qui nous paraissent aujourd’hui extraordinaires seront techniquement faisables : diagnostic médical rapide, « compagnon virtuel », « communication émotionnelle », appareils capables de vous reconnaître et communiquant en langage naturel, « mémoire de toute une vie », supermarché virtuel. Une autre tendance est la multiplication des systèmes d’informations ou de capteurs enfouis dans les objets et interconnectés. Nous pourrions nous-mêmes être des éléments de ce circuit, par la numérisation de données nous concernant (localisation, « contexte », paramètres médicaux) ou liées aux objets que nous possédons. La motivation serait de décharger les humains d’un maximum de tâches, les objets dialoguant entre eux pour agir au mieux (réglages, ouverture de fenêtre, maintenance, remplir le réfrigérateur) ou fournir à chacun des services d’une qualité inégalée (navigation prenant en compte la situation réelle, conseils, mesures d’urgence). Les appréciations sur ce genre de produit ou services sont très variées d’un individu à l’autre et vont du sentiment de malaise à l’enthousiasme.
Trois éléments peuvent réguler le système.
Le marché concerne les innovations dont l’usage n’entraîne pas ou crée peu de nuisance pour autrui (ce fut le cas du téléphone portable). Le juge de paix est le marché : existe-t-il des clients ? Pour les fabricants potentiels de nouveaux systèmes, la vraie question sera la conception de produits ou services tels que leur possesseur voie plus d’avantages que d’inconvénients (réels ou simplement redoutés), car il s’agit avant tout de vendre. Les sujets à traiter sont nombreux. Il y a la relation homme/machine : appareils « discrètement intelligents », agréables à utiliser offrant une réelle plus-value (notions qui dépendent du possesseur), ou, au contraire, système high-tech valorisant son propriétaire. Un autre point important est la nécessité d’inspirer la confiance. Par exemple, les systèmes ou services ne se développeront que s’ils garantissent à leur utilisateurs la maîtrise et la confidentialité des données les concernant, voire leur destruction au bout d’un certain laps de temps.
La réglementation. Lorsque celui qui a le bénéfice principal n’est pas celui qui en subit les inconvénients ou lorsque de mauvais usages peuvent accroître significativement les inconvénients s’ils ne sont pas réprimés, le marché ne suffit plus, une règle du jeu collective devient nécessaire.
On peut citer le cas emblématique des RFID présentés ci-dessus. Ils sont envisagés comme marquage de produits dans les supermarchés, ce qui permettrait une optimisation de la chaîne de distribution, donc des coûts moindres. Toutefois, des associations de consommateurs américaines sont peu sensibles à ce point qui concerne le commerçant et reprochent aux RFID de pouvoir être facilement dissimulés et de permettre, par recoupement (chaque objet pourrait avoir un numéro unique au monde), d’accéder à des informations sur le porteur, son identité, sa localisation, ses goûts. La CNIL et les autorités européennes équivalentes ont pris position début 2004 sur ce sujet en assimilant les données issues des RFID à des identifiants personnels. Quelques principes généraux ont été suggérés pour que les RFID deviennent des objets « amicaux ». Tout d’abord, l’encadrement de l’usage des RFID : signalisation de leur présence, transparence sur leur finalité, possibilité de les retirer ou de les inhiber après usage. Ensuite, la réglementation de l’accès aux données qu’elles soient sous forme de fichier ou réparties dans de multiples systèmes interconnectés.
Un autre sujet de réflexion est la question de la banalisation de données relatives à l’humain. L’exemple le plus emblématique est l’analyse de l’ADN. Elle permet des dépistages de prédisposition à diverses maladies et donc potentiellement de sauver des vies. Toutefois, la banalisation de tests pourrait entraîner des abus. Si des tests « presse bouton » sont en vente libre, même à l’autre bout du monde, on court le risque de l’apparition de profilages génétiques d’un individu, éventuellement à son insu. On peut ajouter que la rigueur des tests n’est absolument pas une condition nécessaire à la « catégorisation scientifique des individus » . La question à résoudre sera de trouver la bonne combinaison de verrous techniques et de réglementation permettant de pouvoir bénéficier de ces dispositifs en interdisant les usages abusifs.

Des débats internes

Dans les cas plus complexes, la réglementation ne suffit pas. C’est le cas lorsqu’une invention présente manifestement un avantage pour la collectivité mais aussi des inconvénients ressentis différemment par chaque citoyen. La maîtrise de l’innovation passe par le débat, ne serait-ce que pour éclairer le législateur sur tous les aspects de la question. Il peut s’agir de débats locaux, nationaux comme ceux organisés au sein de l’Office parlementaire d’évaluation des choix scientifiques et technologiques ou par diverses institutions savantes, voire de vrais débats politiques. Par exemple, les possibilités offertes par la convergence des technologies de l’information et de la biométrie peuvent faire que des sociétés démocratiques sont confrontées à des choix difficiles. Chacun dispose d’un espace protégé du regard des autres, que ce soit au travers du secret médical, du huis clos ou de l’anonymat. Cet espace est un élément important pour la stabilité d’une société. La montée de l’insécurité, le terrorisme, voire un crime odieux, peuvent pourtant amener un État à accepter une diminution de cet espace en échange de plus de sécurité. On peut citer le Megans Act aux États-Unis. À la suite d’un crime particulièrement odieux par un pédophile récidiviste, les États-Unis ont adopté une loi autorisant la publication de données sur les délinquants sexuels qu’on trouve d’ailleurs facilement sur le web pour certains États. Un autre exemple est la réflexion sur les possibilités offertes par les fichiers d’empreintes génétiques.

Questions d’éthique

La convergence de la technique avec le monde du vivant et l’humain est naturellement porteuse de questions variées qui touchent parfois les fondements mêmes de la nature humaine. On n’en citera que deux qui découlent directement des développements décrits plus haut.
Vers une forme de prédestination moderne ? Des données jusqu’ici inaccessibles (prédisposition à une maladie, peut-être un jour d’autres caractéristiques comme celles liées au fonctionnement du cerveau) s’obtiendront simplement à partir d’une mesure de routine. Même s’il existe une réglementation sans faille garantissant le secret, on peut légitimement s’inquiéter de l’émergence d’une forme de prédestination moderne, le destin de l’individu se trouvant conditionné par ces données même si elles sont de nature probabiliste.
En poussant la logique jusqu’au bout, dans la mesure où l’on décode progressivement les mécanismes du fonctionnement du vivant et de la cognition, on pourrait « expliquer » au moins partiellement toutes les actions. Cela amènerait alors une remise en cause de la notion de mérite ou de responsabilité, chacun étant de toute manière déterminé par son « wetware ». Dans le même registre, des sociétés de « neuromarketing » proposent d’étudier l’impact de produits sur de potentiels consommateurs par imagerie cérébrale.
L’humain augmenté. On a évoqué ci-dessus des systèmes implantés permettant de réaliser un diagnostic continu, voire l’injection de médicaments, rendant la liberté de mouvement à des malades actuellement immobilisés. Ces techniques, qui appartiennent à un proche avenir, recevront un accueil des plus chaleureux. À plus long terme, une nouvelle génération de dispositifs pourrait être encore plus innovante : rétines ou oreilles internes artificielles, implants cérébraux, tissus artificiels. Ces innovations offriraient l’opportunité de traitements révolutionnaires mais poseraient également des questions sans précédent (qui sont en fait déjà abordées, notamment aux États-Unis ). Que se passera-t-il si l’on réalise des dispositifs capables d’améliorer l’humain ? Que deviendraient les sociétés qui décideraient de renoncer à ces pratiques ? De même, si les techniques de réparation génétiques mentionnées ci-dessus voient le jour, de nombreuses affections graves seront guérissables. Mais que se passera-t-il si la même technique est envisagée pour améliorer un individu, si des parents peuvent modifier leurs enfants ?

Science et évolution de la société

Le progrès a de tout temps façonné les sociétés. Il suffit de penser à l’impact qu’ont eu l’automobile ou la télévision et peut-être bientôt Internet. Il s’agit d’une évolution collective qui résulte des choix de vie de chacun en fonction des possibilités qui lui sont offertes. Au moins trois questions méritent d’être débattues.
L’impact sur l’économie. On peut imaginer des aspects très positifs comme une accélération des échanges, la création d’emplois et plus de prospérité, en particulier la création de biens immatériels grâce à l’essor de technologies de réalité virtuelle et à la traduction automatique. D’autres points sont moins clairs. Que se passera-t-il si les distances et les barrières linguistiques sont abolies ? N’y aura-t-il pas délocalisation des services ? À moins que consommation et travail étant globalisés dans un monde virtuel, la question n’ait plus guère de sens. Plus déroutant, si des systèmes d’informations permettent de traiter des masses de données considérables et au moins d’imiter certains raisonnements humains, que deviendront des métiers comme juriste ou médecin ? Pour reprendre un exemple donné par Sonia Miller , juriste à New York : « Si vous avez le choix, qui croiriez-vous le plus : un juriste suceur de sang ou un ordinateur qui calcule froidement ? »
L’impact sur la vie sociale. Les innovations attendues permettront à chacun, s’il le désire, de vivre dans un monde virtuel au niveau planétaire (pour peu qu’il y ait une connexion croissante des services, que la barrière des langues soit abolie, que des interfaces hommes/machines facilitent cette immersion). On peut s’interroger sur l’impact de cette tendance déjà bien amorcée avec la télévision et Internet. D’un côté, ces technologies ont tendance à accroître l’isolement des individus vis-à-vis de leurs proches, mais, d’un autre, elles permettent le télétravail, une vie sociale au niveau mondial, voire l’échange de données beaucoup plus intimes que ce qui est pratiqué aujourd’hui (voir l’exemple de la mémoire de toute une vie). Peut-être même que la raréfaction de l’énergie encouragera ce genre de relations pour diminuer les transports.
Les relations Nord-Sud. Une question souvent posée est l’impact de ces technologies sur l’écart entre pays riches et pays pauvres. Là encore, il semble qu’il n’y ait pas de réponse monolithique. D’un côté, on peut craindre une augmentation de cet écart, les pays riches capitalisant sur leur recherche. D’un autre côté, toutes ces technologies, non nécessairement coûteuses (qu’il s’agisse de nanomédecine, de technologies de l’information, de méthodes de purification de l’eau), peuvent au contraire considérablement améliorer la situation.

Conclusion

Une extrapolation raisonnable laisse présager un avenir riche en innovations. À l’instar de la télévision, du téléphone et d’Internet, celles-ci pourraient avoir un impact fort sur nos vies. Le défi est : comment une société doit-elle s’organiser pour y répondre et choisir son futur ? On peut s’attendre dans les vingt ans à venir à une évolution dans trois directions.
Tout d’abord la prise en compte du cadre mondial dans lequel les questions se posent, qu’il s’agisse des échanges économiques ou du simple fait que certains risques dépassent le périmètre d’un État. Une conséquence en est que, dans un cadre global, le refus de l’innovation tout autant que l’innovation, peuvent être pénalisants.
L’importance croissante des débats au niveau du citoyen ensuite. L’abondante littérature sur l’impact des nanotechnologies en est un signe avant-coureur. En effet, les possibilités offertes par les progrès attendus sont immenses et bien des innovations citées ci-dessus concernent la vie quotidienne.
Enfin, l’anticipation et la prospective. Ce sont des éléments décisifs pour la qualité, voire l’existence, d’un débat. D’autre part, il peut ne pas être satisfaisant de laisser un délai trop long entre l’apparition d’une innovation et l’éventuelle législation associée. C’est toutefois un exercice difficile dans la mesure où l’on peut susciter un débat sur une innovation qui n’arrivera jamais ou au contraire oublier. Cette question est reconnue comme de plus en plus déterminante au niveau européen. On assiste ainsi à une augmentation des exercices de prospective. De plus, les sciences humaines et sociales figurent parmi les neuf priorités thématiques retenues pour le projet de septième programme cadre européen, qui devrait encadrer la recherche européenne dans la période 2007-2013.