Le futur conjugué au mode interactif

Le futur conjugué au mode interactif

Jean-Gabriel Ganascia

C’est un lieu commun aujourd’hui que d’évoquer l’accélération du temps et la complexification croissante du monde. Il est vrai que le rythme de production des résultats scientifiques et technologiques s’accroît dans des proportions considérables. À première vue, cela devrait réduire l’horizon au-delà duquel les prévisions deviennent purement spéculatives et hasardeuses. Or, les choses ne sont pas aussi simples qu’il y paraît. À certains égards, et quoique cela semble paradoxal, le futur immédiat se révèle plus difficile à prédire que le futur lointain (à vingt, trente ou quarante ans). Un regard rétrospectif sur la prospective des grands scientifiques ou sur la science-fiction montre que les perspectives qu’elles offrent sont assez fidèles à l’évolution. Le futur immédiat comporte une part d’incertitude liée à la prise en compte des rétroactions sociales instantanées, alors que le futur à long terme gomme ces errements. Cela tient à la multiplicité des acteurs intervenant dans une prise de décision quelle qu’elle soit comme au caractère interactif de toute décision.
En effet, l’interactivité sociale est devenue à la fois une donnée maîtresse du développement technologique et une revendication insistante. Le grand nombre doit à tout instant donner son avis, soit activement, en réagissant à toute décision, soit passivement, par le truchement des outils de sondage. Il en résulte une difficulté à planifier, puisque tous les acteurs interviennent à tous moments. En conséquence, les évolutions deviennent plus difficiles à prévoir et à anticiper. Les efforts d’anticipation ne s’en trouvent pas réduits à néant pour autant ; mais les régimes d’anticipation doivent changer ; ils doivent intégrer la part de l’interaction dans la prévision. Cela n’interdit pas non plus la prospective, bien au contraire, car la prédiction, même erronée, joue un rôle moteur dans la définition des stratégies scientifiques et dans le développement technologique, mais cela change radicalement le mode sur lequel la prospective doit intervenir.
Tout se passe comme si la structure du temps évoluait du fait de cette prise en compte des rétroactivités sociales immédiates. Or, cette nouvelle structure du temps qui se présente à nous aujourd’hui semble bien étrangère aux structures traditionnelles auxquelles nous étions habitués. Elle n’est plus ni linéaire, ni cyclique. C’est à l’élucidation de cette nouvelle structure du temps qu’est consacré cet article. Pour asseoir ces perspectives sur un fondement concret, nous illustrerons ici ce nouveau régime d’anticipation à l’aide d’exemples tirés du développement des technologies de l’information et de la communication et des diverses prospectives formulées dans ce domaine.

Difficulté des prévisions à court terme

L’histoire de l’informatique est jalonnée d’une longue suite d’erreurs d’appréciation. Les prévisions à court ou à moyen terme se sont, pour une très grande part, révélées totalement erronées. Pour s’en convaincre, il suffit de jeter un regard sur les grandes étapes du développement de l’informatique et, en particulier, du logiciel. Les exemples sont innombrables. En voici quelques-uns.

La cybernétique

La cybernétique, au tout début des années 1940, enthousiasma beaucoup de chercheurs qui crurent voir s’ouvrir là des perspectives radicalement nouvelles. Les premiers réseaux d’automates, en particulier les réseaux de neurones formels imaginés par Warren McCulloch et Walter Pitts ainsi que les notions de rétroaction et de machine théologique introduites par Arturo Rosenblueth, Norbert Wienner et Julian Bigelow, devaient ouvrir des horizons neufs ; un pont reliait désormais l’ingénierie et la simulation à l’aide de flux d’informations, d’un côté, la réalité biologique, logique et sociale, de l’autre. Ainsi, on pensait être en mesure d’établir les lois de la complexité qui régissent les phénomènes d’ordre biologique, en particulier le fonctionnement du cerveau, les phénomènes physiques, par exemple l’auto-organisation et la formation de cristaux, les phénomènes politiques et sociaux, ce qui permettrait d’établir des lois du gouvernement reposant sur un fondement rigoureux et, enfin, les lois de la pensée. Les premiers essais furent rapidement suivis de quelques déconvenues. Par exemple, les tentatives de création d’une rétine artificielle par Frank Rosenblatt (ce qu’on a appelé le PERCEPTRON) se sont heurtées à bien des obstacles qui furent mis en évidence dès le milieu des années 1950 par Marvin Minsky et Seymour Papert. Pour autant, bien des perspectives ouvertes par la cybernétique, et qui avaient semblé conduire à des échecs, furent rouvertes au début des années 1980.

La traduction automatique

Dès le début des années 1950, des sommes considérables sont investies dans des projets de traduction automatique. Beaucoup crurent que les ressources des systèmes de traitement de l’information, en particulier leur capacité de stockage et de manipulation de chaînes de caractères, permettraient de construire rapidement et à peu de frais une machine capable de traduire automatiquement tous les textes d’une langue dans une autre. À l’appui de cette thèse, venait la possibilité de concevoir des dictionnaires. Or, il ne suffit pas d’un dictionnaire pour être capable de bien traduire ; il faut avant tout comprendre, ce qui suppose une analyse grammaticale, puis une analyse sémantique et éventuellement une analyse pragmatique, autant de phases dont les ingénieurs pensaient pouvoir s’affranchir. Ils furent rapidement détrompés. Cela n’empêcha pas le gouvernement américain d’engager des sommes importantes pour fabriquer une machine à traduire. Et il en alla de même du gouvernement français. Il fallut attendre l’année 1966 pour qu’un rapport commandé par le Sénat américain fasse état de l’impasse dans laquelle s’étaient engagés les efforts de traduction automatique. En retour, tous les laboratoires américains de traduction automatique furent fermés ; leurs sources de financement se tarirent rapidement.
Cela ne signifia pas toutefois la fin de la traduction automatique. En Europe, des laboratoires continuèrent à poursuivre des recherches sur cette question. Il existe même aujourd’hui de nombreux programmes européens qui financent des recherches fondamentales sur la traduction automatique. Les ambitions se sont un peu modérées et les méthodes employées font désormais appel à des connaissances de linguistique et de sémantique. Cependant, et quoi qu’il en soit de l’avenir effectif de la traduction automatique, les anticipations du début des années 1950 se sont révélées totalement erronées.

Intelligence artificielle

Dès ses débuts, en 1957, l’intelligence artificielle suscita bien des espoirs. On imaginait qu’une machine serait en mesure de simuler les facultés supérieures de l’intelligence, qu’elle serait capable de percevoir le monde extérieur, de raisonner à l’égal d’un homme, de parler et de comprendre. Les tout premiers travaux alimentèrent de telles espérances : on construisit une machine capable de démontrer automatiquement la plupart des théorèmes de logique contenue dans l’ouvrage d’Alfred Whitehead et Bertrand Russel Principia Mathematica. Ces succès incitèrent les pionniers de l’intelligence artificielle à aller plus loin ; on se prit à rêver. Ainsi, Herbert Simon, qui devint plus tard prix Nobel d’économie et qui reçu la médaille Turing, fit avec son collègue Alan Newell des déclarations fracassantes : selon eux, dans dix ans (nous étions en 1958), un ordinateur, s’il n’était pas interdit de participation aux compétitions internationales, devait sans aucun doute devenir le champion du monde au jeu d’échecs. Dans le même ordre d’idées, un ordinateur serait certainement capable, toujours dans un laps de temps de dix ans, de composer de la musique douée d’une indéniable valeur esthétique, de démontrer des théorèmes mathématiques totalement originaux, de simuler le psychisme au point que toutes les théories psychologiques allaient prendre la forme de froids programmes d’ordinateur, etc. Il va sans dire que ces prédictions se sont toutes révélées erronées.
Ainsi, en 1965, un enfant de dix ans bâtit l’un des premiers programmes d’ordinateur permettant de jouer aux échecs. Pourtant, en 1997, c’est-à-dire quarante ans plus tard, un ordinateur parvint à défier et à vaincre le champion du monde en titre de jeu d’échecs. Les ordinateurs sont beaucoup utilisés par les musiciens. Ils prennent une part importante dans l’activité des mathématiciens, pour démontrer des théorèmes. De même, les psychologues ont beaucoup fait appel à des modèles informatiques. Cela veut dire que la plupart de ces annonces, si elles devaient être démenties, n’étaient pas totalement absurdes. Mais les délais ne furent pas respectés, loin s’en faut.
Toujours dans le domaine de l’intelligence artificielle, on s’enthousiasma au début des années 1980 pour ce que l’on appelait les « systèmes experts », c’est-à-dire pour des logiciels qui comprenaient, en lieu et place des programmes informatiques traditionnels, du savoir spécialisé se référant à des connaissances détenues par des hommes de métier. Là encore, les anticipations furent déçues : le développement industriel des systèmes experts ou des systèmes à base de connaissances fut beaucoup plus lent que ce que tous les spécialistes de prospective avaient imaginé.

Les ordinateurs et leur mise en réseaux

Plus généralement, l’histoire de l’informatique présente, à qui veut l’examiner de près, une succession étonnante d’erreurs d’anticipation. Ainsi, dans les années 1960, on s’imaginait que l’informatique se développerait sur un modèle centralisé avec un ordinateur géant dont tout le monde dépendrait. Selon bien des ingénieurs de l’époque, il devrait en aller des capacités de calcul comme de l’eau et de l’électricité : une production centrale irriguerait toute une entreprise, voire toute une ville ou tout un État. En conséquence, les bâtiments professionnels, par exemple les bureaux ou les universités, qui furent construits à l’époque étaient câblés : chacun, de son bureau, devait pouvoir avoir accès au centre de calcul et aux ressources informatiques.
À la fin des années 1970, on développa des mini-ordinateurs. Cela signifiait que l’informatique pourrait se décentraliser, c’est-à-dire que chaque service d’une grande entreprise disposerait de son propre ordinateur. La mise en réseau de l’ensemble des ordinateurs ne se justifiait plus ; il suffisait de disposer, à l’intérieur de chaque service, d’un réseau local permettant à chacun d’accéder aux ressources informatiques propres aux services.
Puis, très vite, arrivèrent les stations de travail : il s’agissait d’ordinateurs individuels qui apparaissaient très coûteux et dont on pensait équiper les ingénieurs. Et l’apparition de ces ordinateurs individuels fut suivie de près par celle desdits micro-ordinateurs, c’est-à-dire des ordinateurs de table. Leur faible coût changea totalement la donne. Tous les ingénieurs, les administrateurs, mais aussi toutes les secrétaires disposaient maintenant d’un ordinateur sur leur bureau. En conséquence, il fallait constituer des réseaux pour relier l’ensemble du parc de micro-ordinateurs.
Ces évolutions n’étaient aucunement prévisibles. Ainsi, la plus grande des firmes d’ordinateurs de bureau, IBM, mit un certain temps à se convaincre de la place que prendraient les micro-ordinateurs dans les entreprises. Le PC, le Personal Computer, ne fut fabriqué et commercialisé qu’en 1981, c’est-à-dire plus de neuf ans après la conception des tout premiers ordinateurs personnels et quatre ans après le succès commercial des Apple II.
Dans le même ordre d’idées, l’histoire des interfaces machine montre les réticences préalables à l’utilisation de la souris et à l’adoption de la métaphore du bureau, des dossiers, de la poubelle, etc. Pendant longtemps, pour les grandes firmes informatiques, le calcul ne pouvait être qu’affaire de spécialistes. Il ne pouvait donc être question de le mettre à la portée du grand public. Développées par la firme Xerox Parc à partir de 1972, les premières machines qui furent réalisées en ayant recours à ces principes et en faisant appel à un écran haute définition (en particulier l’Alto, la Dolphin et la Star) n’eurent aucun succès commercial. Il en alla de même avec la première machine développée en 1983 par Apple sur ces mêmes principes, la Lisa. Il fallut attendre 1984 et l’apparition du Macintosh pour que ces nouvelles interfaces machine conquièrent le monde.

Internet, la toile et la bulle spéculative qui s’ensuivit

Il en va de même pour les réseaux de télécommunications entre ordinateurs. Songeons que les premiers essais de communication numérique remontent à la fin des années 1960 ; le réseau ARPANET commence à être développé au début des années 1970 aux États-Unis. Au même moment, en France, des projets similaires sont à l’étude, par exemple, le projet Cyclades. Toujours en France, le Minitel, qui repose sur l’utilisation du réseau téléphonique, est mis en service au début des années 1980. On parlait alors de télématique. Tous les principes des réseaux étaient déjà posés. Et la dualité, très actuelle, entre un réseau informatique et un réseau téléphonique existait déjà.
Il convient de rappeler que la toile (ce que l’on appelle plus couramment le Web et qui consiste dans le couplage des techniques de l’hypertexte et de la notion de réseau) est une invention européenne faite à Genève par un Européen, sur le site du CERN. C’est pourtant surtout aux États-Unis qu’elle a pris à ses débuts. Enfin, plus proche de nous, l’engouement pour l’Internet du milieu à la fin des années 1990, avec la bulle spéculative qui s’ensuivit, résulte aussi d’une erreur d’anticipation.

Prévisions à long terme

Bref, un regard rétrospectif sur l’histoire récente des technologies de l’information et de la communication montre que les anticipations à court et à moyen termes, c’est-à-dire à cinq ou sept ans, ont été pour beaucoup démenties par la réalité. Plus le futur est éloigné de nous, plus il paraît plus difficile à prévoir que le futur immédiat. En conséquence, si les prévisions à court ou à moyen termes sont fausses, alors, a fortiori, les prévisions à long terme seront d’autant plus aléatoires. Est-ce à dire qu’il n’est plus possible d’anticiper en cette matière ? La réalité semble démentir les intuitions. En effet, beaucoup de prévisions à très long terme, par exemple à vingt ou trente ans, se sont réalisées de façon presque conforme. En voici quelques illustrations.

La loi de Moore

La loi dite de Moore stipule que la vitesse des processeurs et leur capacité de stockage doublent tous les 18 mois. Cette loi empirique, émise en 1965, par Gordon Moore, co-fondateur de la société Intel (fabricant de microprocesseurs), se vérifie depuis quarante ans ; certes, tous savent que les principes physiques sur lesquels repose la conception des circuits électroniques actuels demandent à être revus si l’on désire poursuivre cette progression sur un rythme identique au-delà de l’an 2015 ou 2020. Il n’en demeure pas moins que cette loi reste encore valide et qu’elle devrait le rester au moins pendant les dix prochaines années. Nous avons là une loi d’anticipation purement expérimentale qui ne repose sur aucun fondement scientifique rigoureux. Pourtant, elle se trouve confirmée par l’expérience sur le long terme.

Alan Turing : qu’est-ce que penser pour une machine ?

Dans un article célèbre qu’il écrivit en 1950 Alan Turing essaye de préciser ce que l’on pourrait appeler penser pour une machine. D’après lui, la pensée et plus généralement l’intelligence n’ont à faire ni avec l’apparence physique, ni avec le grain de la voix, ni même avec les traits du visage. Cela n’a pas non plus directement à voir avec la conscience. Une machine sera dite intelligente si ce qu’on observe de son comportement semble émaner d’un être intelligent. Pour préciser ce qu’il entend exactement par l’intelligence des machines, Alan Turing imagine un subterfuge, le « jeu de l’imitation ». Ce jeu se joue à trois : un homme, nous l’appellerons A, une femme, B, et un interrogateur, C, dont le sexe est indifférent. A, B et C se trouvent dans trois pièces séparées de sorte qu’ils ne perçoivent pas leur voix respective ni leur apparence physique. Le jeu consiste, pour l’interrogateur, C, à poser des questions à A et à B afin de distinguer l’homme de la femme, sachant que l’homme, c’est-à-dire A, essaie de se faire passer pour une femme. Jusque-là, il n’entre aucun ordinateur ni aucune machine dans le jeu de l’imitation. Que se passe-t-il maintenant si l’on remplace l’homme qui imite la femme par un ordinateur qui imite l’homme qui imite la femme ? D’après Alan Turing, un ordinateur pourrait être qualifié d’intelligent s’il était capable de tromper l’interrogateur aussi longtemps que l’homme. Nous ne nous étendrons pas ici sur la pertinence de ce test d’intelligence qui a été beaucoup commenté. En revanche, intéressons-nous au commentaire d’Alan Turing : d’après lui, on devait être en mesure, d’ici cinquante ans (rappelons que nous étions en 1950), de concevoir un ordinateur capable de tromper un interrogateur dans plus de 70% des cas sur un échange de cinq minutes. Malgré tous les déboires et toutes les déconvenues de l’intelligence artificielle, on est effectivement capable, depuis quelques années, de concevoir des machines (les « shatbots ») avec lesquels tous peuvent échanger et discuter sur Internet. Or, ces machines jouent au jeu de l’imitation et leurs performances ressemblent grandement à celles qu’avait prévues Turing. On organise d’ailleurs régulièrement des concours entre ces machines en hommage à Turing.

2001 l’Odyssée de l’espace

Le film culte de Stanley Kubrick sortit sur les écrans en 1968 mais le scénario fut écrit quelques années plus tôt, en 1965. Si nous mettons de côté ce qui relève du mythe de l’ordinateur omnipotent et examinons les différentes techniques qui sont présentées à l’intérieur du film, nous voyons qu’elles reflètent assez fidèlement l’état des recherches que l’on poursuivait à l’époque dans les laboratoires américains. Or, à quarante ans de distance, nous pouvons constater que beaucoup de ces techniques très en pointe à l’époque sont maintenant abouties. Prenons quelques exemples. Le vaisseau spatial est piloté et régulé par un ordinateur comme le sont aujourd’hui beaucoup d’avions, la navette spatiale et les fusées. Ce qui paraissait à l’époque novateur se révèle aujourd’hui banal. De même, la sécurité est assurée en confrontant les résultats obtenus par trois ordinateurs : si deux d’entre eux sont en conflit avec le troisième, alors c’est le troisième qui est mis en cause. Ce principe est maintenant couramment utilisé pour assurer la sécurité des systèmes complexes ; on essaye même, lorsque le coût n’est pas trop élevé, de faire réaliser plusieurs programmes informatiques par des équipes différentes et de les mettre en concurrence.
On se souvient que, dans le film, l’ordinateur central de la navette spatiale dominait tous les hommes au jeu d’échecs, tandis qu’à l’époque, c’est-à-dire en 1965, un enfant de dix ans battit l’un des premiers ordinateurs programmés pour jouer aux échecs. Depuis, nous savons tous qu’un ordinateur a été en mesure, à plusieurs reprises, de l’emporter sur le champion du monde en titre.
Enfin, les petits robots androïdes présents à l’intérieur du vaisseau spatial sont capables de parler, de comprendre les mots des astronautes et de discourir avec eux. À l’époque, les recherches sur le traitement automatique de la parole en étaient à leurs balbutiements. Aujourd’hui, nous savons tous quels progrès ont été faits en cette matière. Il existe désormais des machines à dicter qui s’adaptent à notre voix et à notre vocabulaire et dont les performances sont tout à fait acceptables. Certains, comme Dan Sperber, prétendent même que nous entrons dans une société sans écriture, ce qui signifie qu’à l’instar des Anciens nous n’auront plus besoin d’écrire ou de taper à la machine, car il nous suffira de dicter à des ordinateurs qui prendront la place des scribes. Soulignons encore que, dans de nombreux laboratoires, des robots androïdes dotés de parole et de vision, et analogues en tous points à ceux du vaisseau spatial de 2001 l’Odyssée de l’espace, sont actuellement à l’étude.
En somme, la science-fiction, lorsqu’elle ne se contente pas du mythe, mais qu’elle examine ce qui se fait dans les laboratoires de recherche, est capable de faire de la prospective à long terme tout à fait satisfaisante.

Le statut du savoir dans la société postmoderne

À la fin des années 1970, Jean-François Lyotard, fit paraître La condition postmoderne qui portait sur le statut du savoir dans les sociétés postindustrielles. Ce livre faisait suite à une enquête conduite pour le compte du gouvernement canadien sur les conséquences à long terme du développement de la télématique. Sans entrer dans le détail de ses analyses, rappelons qu’il s’agissait pour le philosophe d’examiner les conséquences du développement des technologies de l’information et de la communication sur la connaissance. Il s’agissait de se demander comment les individus seraient en mesure de lire et d’interpréter le savoir consigné dans d’immenses bases de données sans disposer des médiations instituées traditionnelles. Plus généralement, Jean-François Lyotard se demandait comment évoluerait le lien social et comment se reconstitueraient de grands récits de légitimation du savoir dans une société totalement décentralisée où chacun aurait à sa pleine et entière disposition tout le savoir du monde. Alors que le terme de télématique employé à l’époque apparaît hors d’usage, alors que les techniques auxquelles Jean-François Lyotard faisait référence, en l’occurrence le Minitel, n’ont plus d’actualité, les questions qu’il posait ne relèvent plus d’une simple projection sur le futur, car elles sont désormais d’une brûlante actualité.
Nous nous trouvons donc dans une situation étrange où le futur proche se révèle plus difficile à appréhender que le futur lointain. Nous allons maintenant essayer de comprendre l’origine de ce paradoxe.

La part de l’interaction

Conception centrée sur l’utilisateur

Première constatation : l’imprévisibilité des évolutions à court terme ne touche pas également tous les domaines de l’activité industrielle et économique. À titre d’illustration, le développement des composants électroniques semble relativement prévisible à court terme tandis que, à long terme, il l’est moins, obéissant ainsi à une loi classique selon laquelle la connaissance du futur se dégrade à mesure qu’il s’éloigne. Il en va ainsi du développement des industries traditionnelles, là où le progrès matériel n’interfère pas avec l’homme. Par exemple, dans la production d’électricité, dans le nucléaire, dans la chimie ou dans la métallurgie, il semble que la projection dans le futur se produise conformément à notre intuition, ce qui signifie que l’avenir immédiat est plus facilement prévisible que l’avenir lointain.
Par ailleurs, ce n’est pas le foisonnement des résultats qui interdit l’anticipation. En effet, dans beaucoup des domaines mentionnés, il existe un nombre considérable de résultats d’ordre à la fois pratique et théorique. Et ceux-ci n’interdisent pas l’anticipation à court terme.
En revanche, dans tous les champs d’activité où interviennent soit les facultés cognitives des utilisateurs, soit les modes d’appropriation des technologies par une société, l’évolution n’obéit pas aux lois classiques. Prenons, par exemple, le domaine du transport automobile. Le développement matériel des voitures est tributaire des progrès technologiques dans le domaine des matériaux et dans celui des moteurs. À ce titre, il obéit aux lois traditionnelles du progrès ; en conséquence, nous pouvons le prévoir avec le même degré d’incertitude que celui avec lequel nous prévoyons les évolutions dans les domaines des matériaux, des industries mécaniques ou des moteurs. Néanmoins, les choix stratégiques dépendent de données sociales, liées par exemple aux préoccupations écologiques d’une société à un moment donné ; or, celles-ci demeurent totalement imprévisibles. En l’occurrence, l’évolution effective des véhicules automobiles dépend surtout de facteurs exogènes qui n’ont rien à voir avec la technologie mais, par exemple, avec la volonté de limiter les accidents de la route ou avec la sensibilité de la population au bruit et à la pollution atmosphérique. Il en va de même dans le champ des technologies de l’information et de la communication. Ceci explique que les interfaces homme-machine, les ordinateurs, les réseaux de télécommunications ne se soient développés que dans des conditions très particulières qui étaient souvent bien peu prévisibles.
Plus généralement, dans un certain nombre d’industries, il ne suffit plus de planifier autoritairement l’évolution, comme on aurait pu le faire avec les industries traditionnelles au début du XXe siècle. Aujourd’hui, il faut prendre en considération l’ensemble des utilisateurs potentiels, et ceci ne se fait pas sans leur participation effective. On doit donc procéder à des concertations et à des enquêtes préalables. Plus exactement, il convient d’engager les utilisateurs au cours même du processus de conception ; c’est ce qu’on appelle la conception centrée sur l’utilisateur (« User Centered Design »). Il en résulte d’abord un sentiment de solidarité des acteurs impliqués dans les premières étapes de la fabrication ; la notion de clubs d’utilisateurs, très fréquentes dans le domaine informatique, répond à cette première exigence. Mais cette stratégie de communication se double d’une exigence pratique : le concepteur n’étant pas en mesure de maîtriser l’ensemble des facteurs intervenant dans la satisfaction des clients, il recourt à la bonne volonté d’utilisateurs bénévoles, qui ont bien souvent le sentiment d’avoir été élus car ils bénéficient d’un usufruit à titre gratuit, pour prendre conscience des faiblesses des dispositifs qu’il a conçus. La prise en considération de ces retours d’expérience lui permettra d’adapter ces dispositifs aux besoins exacts de la plus grande partie des utilisateurs.

Loi du second arrivant

Pour attester l’importance de ces retours, il existe même une loi connue sous le nom de « loi du second arrivant » qui stipule que, sur les marchés de très haute technologie, le second venu possède un avantage stratégique majeur s’il peut tirer parti des leçons de l’échec de ses prédécesseurs. Beaucoup d’exemples déjà mentionnés viennent à l’appui de cette loi. Ainsi, le succès du Macintosh en 1984 et la popularisation des micro-ordinateurs avec interface graphique et souris qui s’ensuivit avaient été précédés par de nombreux essais infructueux qui, pourtant, déployaient, sur le plan conceptuel, l’ensemble des ingrédients qui ont fait la fortune de ces machines. Plus récemment, certains se souviennent peut-être de la machine particulièrement novatrice inventée par la société Apple et appelée le « Newton ». Cet ordinateur, sans clavier mais avec un écran tactile et un stylet, préfigurait ce que sont les ordinateurs de poche actuels (ce que l’on appelle couramment les « palm ») et les tablettes PC. Le « Newton » anticipait une nouvelle génération de machines disposant d’une interface graphique et ayant recours à la reconnaissance de l’écriture manuelle. Elle n’eut pourtant aucun succès. Nous pourrions multiplier les illustrations de cette loi. Ce qui importe ici, c’est qu’un principe traditionnel qui veut que les précurseurs adoptent une place prépondérante et dominante sur les marchés se trouve mis en défaut. Par exemple, dans le domaine de l’électronique, il existe des brevets en nombre extrêmement important, ce qui fait qu’il est impossible aujourd’hui de s’introduire dans le marché lorsqu’on ne dispose pas déjà d’une grande quantité de « tours de main » et de connaissances technologiques, car le coût d’achat de toutes ces licences serait prohibitif. L’avantage stratégique va donc, dans les industries traditionnelles, aux pionniers, c’est-à-dire à ceux qui, par leur savoir-faire et leur intelligence, ont su être là les premiers. Or, curieusement, dans les industries les plus modernes, lorsque la conception requiert une forme de participation mutuelle de tous les acteurs, il semble que les pionniers ont plutôt un désavantage ; ce sont donc les seconds arrivants qui emportent la mise.
L’histoire récente du développement des moteurs de recherche illustre très bien ce principe : beaucoup de financiers ont cru nécessaire d’investir très tôt dans les premières firmes qui proposaient des moteurs de recherche, car ils croyaient que celles-ci domineraient le marché, sans partage. Cette crainte alimenta la bulle spéculative autour du développement de l’Internet. Or, un examen attentif du développement des technologies montre que ces craintes n’étaient pas fondées. C’est même l’inverse qui se produisit ; pour s’en convaincre, rappelons la date d’apparition de quelques-uns des moteurs de recherche les plus connus : Excite 1993, Lycos 1994, Yahoo 1994, Altavista 1995, Hotbot 1996, Google 1998… Il semble là encore que l’avantage aille plutôt au dernier arrivant qu’au premier.

Rétroactivité

Dès que l’on considère ce modèle interactif de conception et de développement industriel, l’évolution ne peut plus répondre à de simples injonctions autoritaires, fussent-elles émises par des hommes de métier possédant une compétence établie et reconnue. On doit prendre en considération l’ensemble des interactions au cours du processus de conception et de fabrication.
Si nous tentons de modéliser les évolutions, nous ne devons plus considérer ni un acteur isolé, ni même une classe d’acteurs solidaires, mais un ensemble d’acteurs interagissant mutuellement les uns avec les autres, avec des compétences et des objectifs différents les uns des autres. Il s’ensuit que les lois du changement n’obéissent plus à une causalité classique dans laquelle l’effet suit la cause ; on doit prendre en considération l’ensemble des rétroactions, ce qui correspond à des systèmes dynamiques complexes dans lesquelles les comportements à court terme peuvent se révéler chaotiques, même si les comportements à long terme convergent vers des attracteurs. À condition de se référer à la théorie des systèmes dynamiques, nous pouvons expliquer de façon claire le phénomène paradoxal selon lequel les anticipations à court terme sont souvent moins exactes et fiables que celles à long terme.

Le temps tressé

En guise de conclusion, examinons la nouvelle structure du temps qui résulte de la prise en compte de telles interactions.
D’un côté, le temps du progrès est linéaire ; il se déploie sans jamais revenir en arrière. Ce temps rectiligne évoque une fuite en avant poursuivie indéfiniment sans que l’on sache jamais lui attribuer un terme. Ce temps linéaire de la modernité perpétuellement renouvelée s’oppose à un temps traditionnel cyclique dans lequel le futur n’est jamais que le retour du passé. Le temps est alors éminemment prévisible puisque rien de vraiment neuf ne peut advenir. Dans le cas présent, le temps ne peut se concevoir comme cyclique, puisque le développement technologique et industriel impose un renouvellement incessant : rien n’est aujourd’hui comme hier. L’impératif contemporain qui nous enjoint d’être moderne atteste à lui seul la nouveauté singulière du moderne. Par conséquent, le présent ne pourrait aucunement se vivre comme le retour d’un présent ancien.
Cela signifie-t-il que le temps actuel doit être vu comme étant strictement rectiligne ? Certes, il s’agit d’un temps du progrès qui voit s’accumuler les résultats et qui, par là, s’ouvrira tous les jours à de nouvelles perspectives. Pour autant, il est vain de vouloir le réduire à n’être qu’une ligne droite. En effet, le temps présent nous surprend ; son déroulement prend parfois des allures chaotiques. Il revient en arrière. Des directions qui furent explorées, puis abandonnées, réapparaissent avec succès. Certains linéaments de l’évolution se divisent et se subdivisent au point que le fil du temps apparaît plutôt comme fourchu et barbu que comme simplement linéaire. En dépit des détours et des bifurcations, les prévisions à long terme sont relativement stables. Ainsi, bien souvent, des anticipations trop précoces sont rejetées pour un temps, avant d’occuper à nouveau le devant de la scène. De ce fait, la structure du temps ne se présente pas comme linéaire mais plutôt comme nouée et emmêlée. Ceci signifie qu’à un moment donné plusieurs évolutions alternatives peuvent être envisagées ; certaines mobilisent la plupart des esprits, tandis que d’autres demeurent à l’arrière-plan, cachées au regard du grand public. Puis, avec le temps, ce qui paraissait dissimulé resurgit. Le temps se présente comme un écheveau emmêlé. Comme dans une tresse, ses linéaments se dispersent et certains même se dérobent aux yeux de tous avant de réapparaître sous un jour nouveau puis de se cacher encore. En ce sens, on peut parler du temps de la modernité contemporaine comme d’un temps tressé.