L’étude du futur dans la planification stratégique de l’entreprise

L’étude du futur dans la planification stratégique de l’entreprise

Julien Dossier, avec la collaboration de David Ure

La planification stratégique dans l’entreprise doit définir l’horizon de temps selon lequel la stratégie est établie et choisir les indicateurs qui permettront de formuler une vision du futur. Outre la construction de cette vision, la stratégie doit aussi préparer l’entreprise à l’inattendu. Nous proposerons une typologie des changements auxquels l’entreprise pourra devoir s’affronter et nous étudierons les outils disponibles pour la préparer à l’imprévisible.

Quel horizon de temps choisir pour l’étude du futur ?

Une même mesure de temps peut, d’un type d’entreprise à un autre, représenter une perception radicalement différente de la durée ou du long terme. À l’échelle d’une entreprise, le futur peut être un horizon très court, ainsi qu’en témoignent la proportion d’entreprises qui cessent leurs activités moins de deux ans après leur création et les situations de crise déclenchées par des problèmes de liquidités (ainsi Vivendi en décembre 2002). A contrario, certaines entreprises démontrent qu’elles ont su s’adapter à des conditions changeantes sur de très longues périodes – Wendel en France, Nokia en Finlande, Reuters en Grande-Bretagne. Les unes ont connu plusieurs incarnations au cours de leur histoire : avant d’être un fabricant de téléphones portables, Nokia a aussi fabriqué des bottes en caoutchouc (dont les produits sont toujours distribués) et a exploité des forêts en Scandinavie. D’autres, comme Reuters, ont considérablement évolué, tout en restant dans un domaine donné (l’information). Reuters a toujours dû innover sur le plan technologique et stratégique pour développer et financer son activité d’agence de presse (en soi peu profitable). Aujourd’hui, la division media diffuse des services d’informations pour des sites Internet, des journaux, des radios et télévisions, des terminaux mobiles. Le groupe tire l’écrasante majorité de ses revenus de la vente de services d’informations, de calcul et de transactions aux banques et assurances. Ces entreprises ont ancré la notion de changement dans leur culture et la planification stratégique est de longue date une activité importante. Si une société est l’héritière d’une ancienne histoire et si son ambition est d’assurer sa pérennité sur une période à venir aussi longue, sa vision du futur reste quant à elle beaucoup plus courte. Alors que de rares entreprises ont émis des emprunts sur cent ans — IBM ou Coca Cola notamment —, la dette est considérée émise à long terme quand l’horizon de remboursement dépasse cinq ans, voire trois. Au moment de la bulle Internet, la notion de temps était remise en question — on parlait ainsi « d’années Internet » qui s’écoulaient en un trimestre — pour prendre en compte la rapidité et l’ampleur des changements. Du point de vue des actionnaires comme des analystes financiers, la vision future d’une entreprise cotée est encadrée par les rythmes de publication des comptes (annuels, et, de plus en plus souvent, trimestriels), ce qui détermine les horizons de temps pour la communication de l’entreprise sur son futur. Les forward looking statements (commentaires sur le futur inclus dans les rapports annuels ou les communications financières) ne sont en revanche pas encadrés : ils peuvent s’inscrire dans un futur proche comme lointain. Pour la communauté financière, la multiplicité des « horizons de temps » se traduit sous forme d’une gradation de profils de risque : les investissements à long terme étant considérés plus risqués, ils sont donc financés par des taux plus élevés. Définir un horizon de temps a priori (5, 10 ou 15 ans par exemple) ne répond pas à la diversité des futurs auxquels les entreprises doivent répondre. Qui plus est, les prémices du court terme et les objectifs du long terme sont mutuellement dépendants. Dans cet article, nous envisagerons donc le futur comme un continuum et non comme une étape du développement prise séparément.

Le continuum entre le court et le long termes

L’étude du futur ne peut pas non plus faire abstraction de l’environnement actuel de l’entreprise, base de toute évolution. Il s’agit de projeter la capacité de l’entreprise à évoluer autant que de comprendre l’impact possible sur l’entreprise de facteurs extérieurs. Une première difficulté consiste à investir sur le long terme tout en répondant aux impératifs du court terme. Les « produits patrimoniaux » (legacy products) sont la force vive de l’entreprise, sa source de revenus. Ils requièrent l’essentiel des ressources humaines, technologiques, commerciales de l’entreprise, afin de satisfaire au mieux les clients du moment. Cependant, la force du présent peut devenir la faiblesse du futur, au cas où l’offre d’un nouveau concurrent change complètement la donne ou la structure économique du marché. L’entreprise risque ainsi de voir non seulement une partie significative de ses revenus disparaître, mais en outre de devoir gérer l’obsolescence de son modèle de production. Ainsi, à la suite de l’émergence de la photographie numérique, Kodak est confrontée à la chute libre des ventes des films photographiques, mais aussi à la transformation radicale des moyens de production nécessaires : le modèle de production ne requiert plus des capacités de production chimiques, mais un savoir-faire digital et électronique. En dépit de leur importance immédiate, les produits « patrimoniaux » ne sont pas nécessairement le meilleur guide pour le futur. Il convient de trouver l’équilibre entre l’extrême sensibilisation de l’entreprise à une forme de chaos externe, d’une part, et l’excès inverse du confort des opérations courantes, d’autre part. Il faut en effet sensibiliser toute l’organisation au changement pour éviter l’effet de choc au moment où le changement se produit, tout en minimisant l’impact du changement sur les employés. Le rôle de la stratégie consiste à établir un cap à long terme, mais aussi à graduer le changement et à organiser le cheminement entre le présent et l’objectif futur.

Constitution, analyse et interprétation d’un corpus d’indicateurs

Avant même de chercher de l’information pour former une vision du futur, il faut créer une « obsession du client ». Celle-ci dépasse la capacité à répondre aux commentaires des clients, ou à leurs requêtes, pour améliorer les produits. Une bonne compréhension du client guidera le cycle complet de la planification à long terme et de la stratégie d’entreprise. Il faut se glisser dans la peau du client et construire une liste de facteurs qui influenceront l’entreprise à partir de l’analyse du comportement, du goût, des contraintes ou objectifs des clients. Dans les cas où les intérêts de l’entreprise divergent de ceux de ses clients, ce sont la tension et l’écart eux-mêmes qui deviennent des sources de prospective et d’analyse. Il faut comprendre pourquoi un client n’est pas intéressé par l’offre, chercher des moyens de le convaincre du contraire, mais surtout il faut saisir le message et réagir.

Choisir des indicateurs pour construire une vision du futur

Il est utile d’analyser des paramètres quantitatifs et économiques comme les nombre et volume d’affaires des clients, les modèles économiques et les moyens de facturation. Pour identifier les indicateurs qui comptent aux yeux des clients, il faut souvent procéder par tâtonnements, notamment pour identifier les intentions d’investissement, les allocations de budget, les critères sur lesquels les objectifs de performance (et les bonus) sont indexés. Pour l’allocation des budgets, il faut non seulement identifier ce sur quoi les clients souhaitent ou prévoient d’investir, mais également ce sur quoi ils ne peuvent ou ne souhaitent pas investir et les raisons qui motivent ces orientations. L’objectif est d’identifier quels budgets sont annulés et pourquoi. De même, pour les bonus et primes de performance, il faut non seulement identifier les critères d’allocation des primes, mais encore quels critères seraient choisis pour allouer des primes de performance si un tel système n’existait pas. Au-delà de ces paramètres de gestion, il faut chercher à comprendre l’environnement économique et stratégique des clients, identifier, analyser les mouvements qui auront un impact significatif. Par exemple, dans le milieu financier (notamment pour Iris Financial ou Reuters), les hedge funds, les fonds d’arbitrage, représentent une tendance majeure et méritent d’être étudiés en détail. Les fonds d’arbitrage ignorent les segmentations traditionnelles par instrument (marchés actions, obligations, marchés des changes ou de l’énergie), ou par zone géographique. Leurs stratégies d’investissement évoluent très rapidement d’un type d’instrument ou d’une zone géographique à l’autre. Du point de vue des fonds d’arbitrage, il n’est pas pertinent de s’appuyer sur des sources d’informations parcellaires, qui ne couvrent que tel instrument ou telle zone, ce qui fait tomber de nombreux cloisonnements dans le secteur financier.
Si leur importance est établie, le phénomène est-il durable ou transitoire ? Le volume d’affaires engendré par les fonds d’arbitrage va-t-il atteindre un pic puis décroître ? Leur croissance rapide annonce certainement des encadrements réglementaires plus stricts – ainsi plusieurs députés en Allemagne ont qualifié ce type de fonds de « criquets dévastateurs » et le gouvernement allemand envisage une réglementation plus stricte de leurs activités. Les raisons et les facteurs à l’origine de l’émergence de ces fonds semblent cependant établis pour durer. En effet, alors que les marchés financiers deviennent de plus en plus transparents, les marges se réduisent sur les transactions et la profitabilité des produits financiers « traditionnels » décroît. Les fonds d’arbitrage profitent de cette liquidité pour rapidement prendre des positions « d’opportunité » et semblent ainsi exister du fait même de la plus grande « efficacité » des marchés. Ayant déterminé, d’une part, l’importance et, d’autre part, la durabilité du phénomène, l’étape suivante consiste à en analyser l’impact sur les institutions financières et sur la communauté financière en général (incluant notamment des fournisseurs d’information ou d’infrastructures de transaction). La plupart des banques se trouvent dans une position difficile devant les fonds d’arbitrage, et ce d’autant plus qu’elles ont adopté des structures d’investissement segmentées « en silo », spécialisées par instrument ou par zone géographique, et n’ont donc pas les mêmes armes que leurs puissants concurrents. Elles doivent maintenant adapter leurs opérations pour pouvoir effectuer des transactions sur une palette diversifiée d’instruments, d’une zone à l’autre de la planète, pour se mesurer aux fonds d’arbitrage. Cet ajustement correspond à une révolution pour les systèmes informatiques des banques. De proche en proche, les fournisseurs des banques rencontrent le phénomène et doivent, eux aussi, ajuster leurs prestations pour accompagner le changement que traversent leurs clients.

Analyser les différentes formes de changement, et leur impact sur la stratégie

L’étude du futur exploite une matrice de paramètres quantitatifs, d’indicateurs économiques, financiers, stratégiques, dont il est possible d’établir le périmètre sur la base d’analyses, d’observations, de questionnaires, de conjectures. Ce premier registre permet d’identifier des pistes, des indications et des tendances. Elle doit par ailleurs prendre en compte un deuxième registre, l’inattendu. Le futur échappe au registre rationnel ou scientifique au gré de changements de rythme, soubresauts, détours, effets de mode ou surprises. L’étude du futur rencontre ici un problème ontologique : comment prévoir ce qui n’est pas prévisible ?
Le premier lieu est l’analyse du changement et l’interrogation des données tenues pour établies. Cette analyse sera d’autant plus fertile qu’elle suivra une démarche raisonnée : chercher les conséquences d’un retournement de situation (qui peut être positif ou négatif), d’une erreur d’appréciation (isolée ou collective), anticiper le comportement de l’organisation en cas de changement radical et inattendu.
Le changement peut être « négatif » : un ou plusieurs éléments de l’environnement actuel peuvent changer ou disparaître et ainsi annihiler les conditions d’un équilibre. Ce qui est vrai aujourd’hui ne sera peut-être plus vrai demain. Prenons l’exemple de l’industrie de la presse et des médias d’information, au regard de l’arrivée des blogs (web-logs). Les groupes de presse et des médias continueront-ils de « faire autorité » et resteront-ils les sources de référence pour l’accès à l’information, ou seront-ils supplantés par des blogs ? Les blogs sont des pages Internet dont les mises à jour sont actualisées par ordre chronologique (d’où la référence au « log », qui est le relevé d’une série d’opérations en informatique). Leur essor vient de la (relative) simplicité d’utilisation des outils de publication et d’un engouement pour la communication par Internet. À proprement parler, il n’existe pas de « blog » type, dans la mesure où le blog est plus caractérisé par l’outil de publication que par son contenu. Un blog peut aussi bien être un journal intime qu’un récit de voyage, une page personnalisée, ou une lettre d’information professionnelle, ou bien encore un moyen de communication et de promotion pour des grandes marques.
En France, l’essentiel des blogs est publié sous la bannière de la radio Skyrock (plus de 2 millions de comptes), et leur contenu est d’ordre privé, souvent communautaire. Au-delà de l’outil de publication, les blogs sont en effet des vecteurs communautaires, fortement interactifs, et de plus en plus réactifs (à mesure que le nombre de bloggers augmente) : les blogs se lient les uns aux autres, les lecteurs sont invités à laisser des commentaires sur d’autres commentaires, ce qui constitue un corpus de contenu en soi. On parle ainsi de « blogosphère » pour représenter ce monde virtuel constitué d’articles, notes, photos, liens, commentaires, autant que pour décrire cette communauté des « blogueurs », identités virtuelles de leurs auteurs. Les grands noms de la presse font aujourd’hui autorité pour la publication d’informations, tant généralistes que spécialisées. Les réputations de ces groupes sont typiquement construites sur leur ligne éditoriale, leur couverture, leur sélection et leur analyse, et, dans une moindre mesure, sur la réputation d’un ou de plusieurs de leurs éditorialistes. Pour le monde des « blogs », ces groupes sont le « mainstream media » (MSM, pour médias de masse, une expression péjorative), et certaines blogs s’emploient à vérifier, contre-enquêter, critiquer les articles publiés par les grands groupes. Ainsi, c’est à la suite d’une enquête par un « blogueur » que Dan Rather, le présentateur vedette du magazine d’information 60 minutes diffusé sur CBS, a dû présenter sa démission. Un des reportages diffusés par 60 minutes a mis en doute certains aspects du service militaire de George W. Bush sur la base de documents qui, après enquête, se sont révélés être des faux. Cet épisode est considéré comme moment décisif pour le secteur, révélateur du (contre) pouvoir que certains blogueurs sont parvenus à exercer. Certains d’entre eux s’érigent en censeurs des « Mainstream Media » et sont devenus des sources d’information. Le Drudge Report, de Mat Drudge, a été un des précurseurs de la tendance (lors de l’affaire Monica Lewinsky) et a joué un rôle prépondérant dans les campagnes présidentielles américaines de 2000 et 2004. Le développement des blogs d’information à grande échelle présente deux défis majeurs pour les sources d’informations traditionnelles. Le premier défi provient des modes d’accès à l’information et concerne le pouvoir d’influence des marques des médias actuels. Le mode de consommation actuel passe par les marques des groupes de médias, qui sont les moyens d’accès privilégiés à l’information. La capacité d’attirer le lectorat de manière régulière constitue la force économique et le pouvoir d’information de ces publications. Avec la croissance exponentielle du nombre de blogs — et donc de sources — les agrégateurs de flux (par exemple, des logiciels comme newsgator, des portails comme Technorati ou des sites comme Yahoo ou Google) prendront-ils ce pouvoir ? La question peut sembler saugrenue aujourd’hui pour des lecteurs qui ont grandi avec telle ou telle « marque » d’information. Cependant, le lectorat de la presse vieillit (ainsi que le montrent les études de l’Online Publishers Association, du Poynter Institute) et les comportements des plus jeunes changent (Internet est cité comme première source d’information pour les moins de 25 ans dans ces enquêtes). Le second défi concerne la fiabilité de l’information. Là encore, à grande échelle, les méthodes de publication, de croisement de sites par liens, et de classification de l’importance des pages par les moteurs de recherche convergent pour organiser implicitement les sites en fonction de leur popularité. Ces moyens favorisent (et accompagnent) l’émergence de « communautés » qui valident par leurs liens mutuels la hiérarchie des sites et des sources au sein de chaque communauté. Ce qui semble aujourd’hui un épiphénomène peut devenir la norme, ce qui conduirait les « marques » de médias à reconsidérer leur positionnement : doivent-elles se maintenir comme sources et portails d’accès à l’information, doivent-elles morceler leur contenu et s’intégrer dans ces communautés, quel équilibre leur permettra-t-il de transférer au mieux leur puissance économique dans ce nouveau contexte ? Cette question pousse ainsi les groupes de médias à repenser la nature de leur métier (ils ne sont pas imprimeurs par nature) et à reconsidérer la valeur de certaines fonctions (la hiérarchisation de l’importance des informations et la mise en page thématique par exemple). Il ne s’agit pas ici d’opposer les blogs aux médias traditionnels, mais de souligner l’importance des nouveaux outils de publication et de consommation de l’information, qui remettent en question les principes économiques du secteur. Ramenés à leur essence — outil de publication interactif, chronologique, permettant aux lecteurs d’ajouter leurs commentaires — les blogs apparaissent comme un des outils à la disposition des sites d’information. Parmi les groupes de presse les plus sensibilisés à cet enjeu, le Guardian, au Royaume-Uni, Libération en France, le New York Times aux Etats-Unis, ont chacun étendu leur mode de publication par des blogs. L’achat du site About.com par le New York Times (pour 410 millions de dollars) est révélateur de l’investissement qu’engagent certains groupes dans la plus grande convergence entre leur contenu traditionnel et un contenu « en réseau », de nature collaborative. Il s’agit ici de préparer une migration d’une génération de services vers une autre, et (ou) de minimiser le risque par une acquisition dans un domaine connexe ou contra-cyclique.
A contrario, le changement peut être positif : de nouveaux développements, des innovations ou des créations peuvent concourir à réaliser et rendre vrai demain ce qui ne l’est pas encore aujourd’hui. Prenons l’exemple de la stratégie de diffusion sur Internet de grands groupes d’information et de médias vis-à-vis de Yahoo. La diffusion électronique d’informations est une activité traditionnellement financée par abonnements, dont les prix peuvent atteindre plusieurs centaines d’euros par mois pour les services d’information financière. La diffusion d’informations gratuites sur le site de Yahoo est passée en dix ans de l’anecdote technologique à une diversification rémunératrice pour des groupes de médias et est maintenant une marque à part entière — la première sur Internet, avec plus de 345 millions d’utilisateurs par mois sur l’ensemble de ses services. Le financement par la publicité de la diffusion d’informations — dépêches, cours de bourse — est ainsi devenu une alternative crédible et profitable au modèle traditionnel du financement par abonnement. Le modèle économique de Yahoo n’a pas fondamentalement changé. En revanche, l’évolution provient de la conjonction de la capacité de l’entreprise à capter du temps d’audience grâce à des services complémentaires, appréciés des utilisateurs, avec l’augmentation des performances techniques et la maturation du financement par la publicité en ligne. Le changement concerne le degré de réalité d’un modèle économique, qui n’était au départ qu’un sujet d’étude (pour les groupes de médias en particulier) et qui est maintenant leur aiguillon quotidien. Reed Elsevier fait partie des sociétés qui ont su prendre le « virage électronique » et faire migrer leurs produits en ligne sur cette période avec succès (succès salué par une croissance de plus de 50% entre 2000 et 2004). Il s’agit ici de préparer « un plan B » et son exécution, plan qui n’a pas forcément lieu d’être activé avant que les conditions aient changé, mais qui doit être prêt dans l’éventualité du changement.
Le changement peut être relatif, sans être avéré ou infirmé : il s’agit ici d’appréciation d’amplitude, de rythme ou de maturité. Même si la tendance sous-jacente est juste, l’effet de mode qui la dénature, la déforme ou la fausse, sera une source d’erreurs de prévision et de prospective. Cette situation est souvent le résultat d’une erreur d’appréciation, isolée ou collective.
L’erreur d’appréciation collective est la plus intéressante : une erreur largement acceptée pourra devenir la norme, et pourra être suivie par un nombre d’autant plus large d’acteurs du marché que la norme aura atteint une taille critique. Prenons par exemple la bulle Internet. En 1999-2000 une bulle spéculative s’est formée autour de la nouvelle économie. Une exubérance collective a magnifié et hypertrophié la tendance sous-jacente de l’émergence d’Internet et de moyens de communication en réseau. Alors que les symptômes d’une bulle spéculative étaient de plus en plus apparents et alors que la communauté financière et la presse prenaient peu à peu conscience de l’ampleur de la bulle, personne à l’époque ne pouvait prévoir si la bulle éclaterait entièrement (entraînant par là-même un ralentissement économique global), ou si l’exubérance serait juste tempérée par une phase d’ajustement pour certaines sociétés surévaluées. Alors que la bulle a effectivement éclaté et que la nouvelle économie ne s’est pas matérialisée selon ce qui était annoncé dans ces années d’exubérance, il faut pourtant extraire les tendances de fond de ce phénomène. La communication électronique (instantanée ou non), les modèles économiques alimentés par la publicité en ligne, la recomposition de la chaîne de valeurs des médias sont toutes des tendances durables, qui ont émergé lors de cette bulle, mais qui ne peuvent pas être ignorées à ce titre. Ainsi, Yahoo, Amazon, eBay, et, depuis, Google, apparaissent non seulement comme des survivants de la bulle spéculative, mais justifient aujourd’hui leurs valorisations élevées sur la base de leur profitabilité, de leur capacité à capter des audiences à grande échelle, sans limitation de frontière. De même, dans le secteur de la grande distribution, des dirigeants se tromperaient gravement s’ils ignoraient la tendance du commerce électronique pour se concentrer uniquement sur la gestion de leurs parkings pour accueillir les foules du samedi. En 2005, les industriels des médias et de la publicité ressentent une certaine nervosité alors que les modes de consommation des médias évoluent et que la puissance de la télévision semble remise en cause. En effet, plusieurs enquêtes mesurent une augmentation constante du temps passé sur Internet (et sur des consoles de jeux pour les plus jeunes) au détriment du temps passé devant la télévision. De plus, l’usage d’Internet ou d’une console est bien plus actif qu’une activité de téléspectateur. Ce sont là deux facteurs qui convergent pour remettre le modèle économique de la télévision en cause : moindre capacité à attirer le public et moindre impact sur le public que d’autres médias. Qui plus est, la télévision n’offre que des mesures très imprécises de l’efficacité d’une publicité sur une cible de téléspectateurs donnée. La question en vogue actuellement porte sur l’évolution des stratégies médias des grands annonceurs : à quel rythme et dans quelle mesure les annonceurs vont-ils orienter leurs investissements vers des médias alternatifs ? Enfin, le changement peut être radical et inattendu : c’est le cas des attaques suicide contre les États-Unis en septembre 2001. La stratégie se doit ainsi de préparer des réponses à des situations de crise, sous forme de procédures, méthodes ou assurances. Les services de sécurité, organisant la continuité des opérations d’une entreprise en cas d’attaque sur un de ses sites (par exemple, la répartition de centres de données sur plusieurs sites redondants), ont ainsi émergé en réponse aux attaques suicides de 2001. L’effort doit donc porter sur les moyens dont l’entreprise dispose pour s’adapter rapidement à un changement radical, plus que sur l’anticipation du changement lui-même. Il s’agit, dans les termes de Peter Schwartz, dirigeant de Global Business Network, de « penser la contingence ».

Comment se préparer au changement et à l’inattendu ?

Tout un chacun peut avancer ses intuitions, ses prédictions ou ses divinations. Ce ne sont pas là les outils de décision pour la stratégie d’entreprise, qui doit éviter la conjecture ou la libre spéculation. Constituer une liste trop longue de risques potentiels ne serait pas non plus utile, car les risques ou les facteurs les plus importants y seraient dilués et dispersés. Il faut ici répondre à une double question : quelles sources de changement choisir et comment les étudier ?

Shell et le choc pétrolier : introduction aux scénarios

La méthode des scénarios a émergé pendant la Deuxième Guerre mondiale comme outil de planification militaire à l’aide duquel l’US Air Force essayait d’imaginer ce que ses adversaires pourraient faire, et comment elle pourrait mieux s’y préparer. La société Rand Corporation a ensuite développé dans les années soixante des applications civiles de cette méthode, relayée par Bertrand de Jouvenel en France à la même époque (L’Art de la conjecture). L’objectif de la méthode des scénarios est de planifier sans chercher à prédire l’imprévisible. Celle-ci doit donc séparer le prévisible de l’imprévisible et doit construire des scénarios autour de l’imprévisible pour évaluer comment des projets de développement évolueraient dans chaque scénario. La méthode a gagné en popularité lors du choc pétrolier. Shell est en effet célèbre pour avoir préparé le choc pétrolier de 1973, grâce aux scénarios élaborés par Pierre Wack et l’équipe du département Group Planning. Le paramètre principal de l’activité de Shell est le prix du pétrole. Si la demande est prévisible, sur la base de la consommation d’énergie et du développement industriel, région par région, l’offre l’est bien moins. L’offre dépend des réserves de pétrole et celles-ci dépendent des gouvernements qui les contrôlent. Du côté des réserves, les réserves américaines tendaient à s’épuiser, alors que les pays de l’OPEP montraient des signes d’émancipation politique, dans un contexte de tension religieuse, opposant des pays majoritairement musulmans aux pays occidentaux qui avaient soutenu Israël lors de la guerre des Six Jours en 1967. Shell a donc construit un scénario de crise de l’offre, en anticipant l’augmentation des royalties perçues par les pays arabes. La seule incertitude était la variable temps, malgré la forte probabilité que cette crise fût déclenchée avant 1975, lors de la renégociation des accords pétroliers entre pays du Golfe et les majors concessionnaires. Pierre Wack et son équipe ont donc élaboré des scénarios précis pour chaque hypothèse sur le futur, soutenus par des tableaux de production et de prix. Dans le premier scénario, les prix resteraient stables, et ce, à une condition quasi miraculeuse : que de nouvelles réserves fussent découvertes en dehors des pays de l’OPEP et notamment des pays arabes. Le second scénario décrivait une hypothèse plus probable : une crise déclenchée par l’OPEP. Le scénario en soi n’a pas eu d’effet : à la suite de sa première présentation, la direction de Shell a compris les implications, mais n’a pas modifié ses décisions ou son comportement. Le scénario a donc été affiné par Pierre Wack et son équipe pour illustrer les ramifications, leurs implications sur l’entreprise, les clients, les gouvernements (l’industrie deviendrait une industrie à croissance faible, les champs pétrolifères seraient nationalisés, etc.). C’est l’analyse des implications et de leur pertinence sur l’environnement économique de Shell qui a déclenché les changements. En octobre 1973, quand la guerre de Kippour a déclenché un choc pétrolier, seul Shell parmi les majors était préparé. La direction du groupe a pu rapidement répondre au nouveau contexte et a pu se renforcer dans l’intervalle, pour devenir la deuxième plus grande Major par la taille, et la première par la profitabilité . Pierre Wack a décrit la méthode employée par Shell dans deux articles publiés par la Harvard Business Review (septembre-octobre 1985 et novembre-décembre 1985) qui ont considérablement influencé tant la théorie que la pratique de la planification par scénarios. Peter Schwartz, le successeur de Wack, a ainsi poursuivi l’application des scénarios et a préparé l’entreprise à l’éventualité d’une baisse des prix du baril (tombé à 16 dollars en 1982). Schwartz dirige maintenant Global Business Network, une société de conseil en futurologie basée en Californie .

Objectifs et conditions d’applications des scénarios

Pour opérer dans un monde incertain, les dirigeants doivent être en mesure de remettre en question leurs hypothèses sur l’évolution du monde pour le voir plus clairement. Le but de la méthode des scénarios est d’aider les dirigeants à changer leur perception de la réalité, de rapprocher leur vision de la réalité telle qu’elle est et telle qu’elle le deviendra. Le résultat n’est pas une meilleure représentation du futur, mais de meilleures décisions à propos du futur. Les scénarios permettent de définir à partir d’un point donné (point de départ ou de conclusion) une ramification d’hypothèses ou de conclusions. Sur la base d’une arborescence d’alternatives, les scénarios seront construits et exprimés sous forme narrative, en articulant le passé et le présent avec un futur possible. Ils doivent présenter une alternative ou des différences claires entre chaque point d’inflexion de l’arborescence. Pour qualifier la méthode, chaque scénario portera un nom. Il faut alors tester les scénarios : présentent-ils une chaîne cohérente d’événements ? Comment les acteurs clés sont-ils susceptibles de réagir, en quoi et comment réagiraient-ils aux stratégies propres à chaque scénario ? Enfin, il faut appliquer les scénarios à la planification : cette étape doit impliquer un groupe d’acteurs clés (les stakeholders), afin de scruter les mécanismes, processus et politiques de l’entreprise à l’aune des scénarios. Comment les processus et politiques actuels de l’entreprise fonctionneraient-ils dans les différents scénarios ? Quels politiques et processus fonctionneraient-ils au mieux dans tous ? Les scénarios répondent avant tout à la complexité de situations fortement incertaines, peu contrôlables, conduisant à de multiples évolutions futures, décrites de manière qualitative plus que quantitative, et ne présentant pas de solution optimale. Ils se distinguent ainsi des outils de prévision et de contrôle. Par exemple, il est utile d’adopter une méthode de scénario pour remettre en question une perception a priori rassurante du futur. « Personne ne paiera pour ce service ou ce produit ». Cet adage restera peut-être vrai, mais il n’empêchera pas le développement de la téléphonie par Internet, par exemple. Les utilisateurs du logiciel Skype téléphonent gratuitement entre eux (plus de 114 millions de copies du logiciel ont été téléchargées et plus de 3 millions d’utilisateurs sont connectés simultanément). « Personne ne paie pour la téléphonie par Internet » et pourtant le service existe. L’entreprise Skype ne tire pas de revenus des communications sur son réseau, mais des communications vers les réseaux traditionnels (fixes ou mobiles). Les utilisateurs paient ainsi pour obtenir un numéro de téléphone afin de recevoir des appels sur leur ordinateur depuis n’importe quel poste de téléphone. Les appels vers les réseaux traditionnels, eux, sont facturés aux tarifs des opérateurs de téléphonie. Le service n’a pas encore atteint sa maturité du point de vue technique. Skype modère en effet aujourd’hui la promesse de son service, en rappelant qu’il ne peut pour le moment s’engager à une utilisation pour des appels d’urgence ou de secours, ni à une utilisation en cas de panne électrique. La société Skype transforme pourtant le secteur de la téléphonie de manière radicale : comme les communications voix sont transformées en « paquets de données » distribuées par Internet, le service relève de l’économie du logiciel, et non d’une infrastructure de réseau. Personne ne paie pour parler, et ceux qui paient ne paient pas pour l’entretien du réseau téléphonique !

Exploitation des scénarios et limites de la méthode

La méthode des scénarios n’est pas utile en tant que telle, si elle n’est pas relayée par une analyse stratégique et systématique, qui examinera pas à pas les conséquences de telle ou telle hypothèse. Il faut établir une routine, un processus de production, de test, de questionnement et de validation des scénarios. Pour ce faire, une recherche d’informations systématique doit valider (ou infirmer) chaque point d’inflexion afin d’étudier l’impact de l’hypothèse sur l’organisation ou sur son marché, si celle-ci est avérée. Il ne sert à rien d’avoir identifié une barrière à l’entrée et de s’arrêter au constat. Il faut aller plus loin et chercher à en comprendre tous les tenants et aboutissants. Pour Reuters, l’organisation et la structure de son contenu sont des éléments-clés pour pouvoir conditionner différentes types et sources d’information dans une interface simple et ergonomique. L’avantage concurrentiel consiste à pouvoir réduire le coût du « conditionnement », de manière à construire une ergonomie et une navigation au plus proche des besoins de chaque client. Reuters a donc engagé des ressources significatives dans l’analyse des taxonomies (organisation structurée des concepts dans un domaine sémantique donné), dans le traitement des méta-données (données structurées qui décrivent la nature ou le contenu d’un message), tant en interne qu’à travers sa participation à des consortiums ou groupements professionnels.
De manière plus générale, la stratégie d’entreprise requiert un suivi régulier et systématique d’un certain nombre de facteurs « à risque », de manière à faire apparaître les sujets sur lesquels des plans d’action ont été entérinés et appliqués, et ceux qui ne sont pas encore sous contrôle. Par exemple, un dirigeant pourra utilement constituer une liste de cinquante thèmes au sujet desquels il devra être particulièrement bien informé. Il s’assurera ensuite que tous les thèmes de cette liste sont suivis, que chaque sujet est attribué à une personne spécifique, et que l’organisation permette à chaque responsable d’être suffisamment informé sur son sujet respectif. L’effort doit donc porter sur les systèmes de suivi, sur les processus de veille et d’organisation, ce que la plupart des grands groupes ont mis en place en tant que risk radars (suivi des risques sur écran radar). Dans ce cadre, il faut exploiter les mécanismes des scénarios, faire jouer les hypothèses et évaluer leur potentiel de nuisance ou d’avenir, et estimer dans quel horizon de temps leurs conséquences sont susceptibles de se matérialiser. L’enjeu est double : quel impact, quand ? Là encore, c’est la mesure régulière du déroulement possible des scénarios qui prime, qui doit faire apparaître les évolutions, les changements, les modes de répétition. Un système de « feux tricolores » pourra être mis en place pour mesurer l’évolution de l’importance de l’impact ou de l’horizon de temps d’une hypothèse (accélération, conjonction de facteurs déclenchants, etc.). Au-delà de leur fonction analytique, les scénarios sont des outils de communication très efficaces auprès des conseils d’administration, directions générales ou auprès des équipes de ventes. Ils sont utiles, non pas tant comme outils de prédiction du futur, mais comme outils de calibrage et de surveillance des options pour le futur.
La méthode elle-même n’est pas sans détracteurs ou critiques. Ainsi, Alex Wright, de l’Université de Wolverhampton, au Royaume-Uni, a publié « Une déconstruction par un constructiviste social du processus de planification par scénarios de Royal Dutch Shell » . Sans remettre en cause l’utilité des scénarios, cette critique est d’ordre épistémologique et souligne la subjectivité de la méthode. L’argument de Wright consiste à souligner le rôle déterministe du processus et des acteurs qui produisent les scénarios, depuis la sélection des problèmes à étudier, jusqu’à leur analyse, leur formalisation et leur formulation. Ainsi, Wright remet en cause l’hypothèse adoptée par Shell qu’un faible nombre de variables (le prix du pétrole, les réserves pétrolifères) puisse avoir une importance si déterminante pour une organisation. Une société de services, d’après Wright, est confrontée à un réseau bien plus divers et plus dense de facteurs. Plutôt que de prendre des facteurs ex abstracto pour base des scénarios, Wright postule que le scénario doit reposer sur un riche corpus de données, à partir duquel des tendances et des hypothèses sur le futur pourront être extraites. La méthode employée par Shell, d’après Wright, sous-estime l’influence du processus sur le résultat, qui élimine par exemple les avis divergents au cours de la collecte de données, et ce au détriment de la variété et de la diversité des avis possibles. De même, le postulat qu’un scénario doit articuler une chaîne cohérente d’événements est antinomique avec son objectif premier : appréhender le « changement discontinu ». Pour Wright, un scénario discontinu ne devrait pas être éliminé, s’il devait par ailleurs avoir un impact stratégique pertinent pour l’organisation commanditaire. Le scénario doit être jugé à l’aune de son utilité pour l’organisation, non à l’aune d’un critère postulé a priori. Stanley Kubrick, avec Dr Folamour, a illustré la folie de la planification stratégique portée à son paroxysme, où le processus d’analyse du risque de guerre nucléaire devient lui-même facteur de guerre nucléaire. Les scénarios ne sont pas des oracles. L’objectif d’un scénario n’est pas de prédire le futur. Une telle ambition transformerait l’exercice en un championnat de prédictions, où les uns ou les autres vanteraient les mérites respectifs de leurs propres scénarios. Plus humblement, les scénarios permettent de révéler des points faibles (ou des avantages qui restent à exploiter). Qui plus est, il faut se méfier d’avoir eu raison. Avoir raison dans le cadre d’un scénario donné n’apporte aucune garantie d’avoir raison une deuxième fois ou, mieux, régulièrement. Le risque d’un scénario avéré est de créer un sentiment de stabilité et de certitude excessive chez son auteur (ou dans l’organisation qui se l’approprie). Ce sentiment trompeur est dangereux car il risque de réduire la vigilance ou la rigueur nécessaires à l’analyse des scénarios suivants.

Une mise en question permanente

Préparer l’entreprise à son futur passe avant tout par une excellente connaissance de son environnement, et avant tout de ses clients, de son marché, au gré d’une analyse constamment répétée et affinée. Au-delà de la projection d’une vision du futur, soutenue par des indicateurs ou des signes avant-coureurs, il faut se préparer aux événements ou aux facteurs qui ne sont pas encore connus et, à défaut de l’anticiper, se donner les moyens de cadrer l’inattendu. Le plus difficile consiste à organiser cette défense sur la durée, ce qui impose de constituer des listes de facteurs, d’indicateurs ou de tendances que les dirigeants doivent surveiller, analyser, comparer, interpréter. L’entreprise dans son ensemble doit s’organiser pour exploiter l’information et l’analyse, afin de rester en alerte devant le changement et réagir en temps voulu. Des outils analytiques et logiques comme les scénarios aident à déterminer l’impact, la probabilité et l’horizon de temps de facteurs de changement, et aussi à évaluer de façon critique le degré de préparation de l’entreprise à l’inattendu. La plupart des organisations ont maintenant mis en place des processus de suivi des risques (risk radars). La vague de scandales comptables (AIG, Enron), ou d’erreurs de stratégie (AT&T, finalement racheté par une ancienne filiale, SBC communications) prouve la difficulté du suivi efficace de ces risques. Quelle que soit leur sophistication, ces outils ne produisent pas des oracles, restent porteurs d’erreurs ou de variances et doivent continuellement être remis en question, étudiés, affinés. L’effort principal consiste ainsi à remettre en cause ses propres hypothèses, à sans cesse améliorer, mesurer et étendre l’étude du futur, sans jamais se laisser aller à une assurance excessive.