3 questions à … Laurent Bloch

1. Pourriez-vous préciser le concept d’iconomie que vous avez élaboré avec Michel Volle et quelques autres personnalités de l’Institut Xerfi ? Et en quoi la réindustrialisation est nécessaire en France et plus particulièrement dans le numérique ? Quels sont les défis à relever sachant qu’il convient pour la France et l’Europe de choisir ses combats ?

Avant de parler d’iconomie, il est nécessaire de revenir sur la troisième révolution industrielle. Elle a été déclenchée au cours des années 1970 par l’invention du microprocesseur et l’essor du logiciel, instaure un nouveau régime de concurrence : la « concurrence monopolistique ». Sous ce régime, les rendements sont croissants : les investissements préalables au lancement d’un nouveau microprocesseur ou d’un nouveau système d’exploitation (les coûts fixes) se comptent en milliers d’ingénieurs pendant des années, une unité de production de semi-conducteurs coûte plus de dix milliards d’euros, et ce avant d’avoir vendu un seul exemplaire du produit, puis le coût marginal est à peu près nul. C’est particulièrement spectaculaire pour le logiciel : la production d’un nouvel exemplaire, c’est un clic du client, une copie de fichier, son transfert par le réseau, un nouveau clic du client pour payer en ligne et l’envoi de la clé d’activation.

Interview de Laurent Bloch, précédemment DSI de l'université Paris-Dauphine, chercheur à l'Institut de l'Iconomie

Sous ce régime, pour chaque segment de marché nouveau, dès qu’une entreprise prend de l’avance sur ses concurrents, elle les élimine, parce qu’elle est infiniment plus profitable et qu’ainsi elle dispose de capacités d’investissement bien supérieures. C’est pourquoi il y a un seul Microsoft, un seul Google, un seul Amazon, un seul Apple, etc. Qui se souvient de WordPerfect, d’AltaVista, de Sybase, de Motorola, leurs concurrents naguère flamboyants ? La seule façon d’émerger dans ce monde est d’ouvrir un nouveau segment, comme Google qui supplante Windows avec Android, ou d’emprunter un modèle économique différent, comme le logiciel libre pour Linux.

Si le lecteur a des doutes sur l’ampleur du phénomène, qu’il sache qu’il y a beau temps que le chiffre d’affaires de l’informatique mondiale a dépassé celui de l’industrie automobile, par exemple : 4 500 milliards de dollars contre 3 000 milliards (ce dernier chiffre étant proche du PIB de la France).

Christian Saint-Étienne observe avec justesse que les pronostics de Marx, baisse tendancielle du taux de profit, baisse continue du pouvoir d’achat des travailleurs, et nécessité de la collectivisation des moyens de production et d’échange pour éviter l’effondrement général, s’ils se sont révélés erronés pour la seconde révolution industrielle, le sont encore plus pour la troisième : « la Nouvelle Révolution industrielle est caractérisée par des rendements croissants, ce qui n’est d’ailleurs pas sans problème, car les rendements croissants favorisent le développement des oligopoles. De plus, le pouvoir d’achat des salaires a massivement augmenté dans les pays développés au cours du XXe siècle et le capitalisme a sorti deux milliards d’êtres humains de la misère depuis trois décennies, selon les données de la Banque mondiale. »

Un autre problème est le fossé qui se creuse entre d’une part les entreprises créées selon le nouveau mode de production, qui ont une productivité et une rentabilité extraordinaires, et celles qui sont engluées dans l’ancien modèle, qui n’ont que peu de chances d’en sortir, et qui de ce fait végètent. Ce pourquoi la plupart des économistes croient observer une stagnation de la productivité, parce qu’ils font la moyenne entre deux populations, celle des entreprises en plein essor (pour lesquelles de surcroît on ne dispose pas de données rétrospectives pour la simple et bonne raison que dans le passé elles n’existaient pas), et celle des entreprises vouées à stagner ou à disparaître. La Fnac ne pourra rien contre Amazon.

C’est pour désigner l’étude de ce nouveau régime économique que nous avons adopté le néologisme « iconomie », inventé par Jean-Michel Quatrepoint. Michel Volle et Christian Saint-Étienne ont contribué à la théorie iconomique.

Compte tenu de l’ampleur des bouleversements induits dans l’ensemble de l’économie mondiale par la troisième révolution industrielle, les pays qui ne s’y adapteront pas sombreront dans le sous-développement. Rappelons-nous qu’à la fin du XVIIIe siècle la Chine et l’Inde réalisaient la moitié du PIB mondial, et qu’un siècle plus tard elles étaient les régions les plus misérables de la planète. La France est particulièrement menacée parce que son industrie a perdu énormément de positions depuis les années 1990, que l’on pense à Péchiney, Alstom, Alcatel, Areva, etc., sans oublier que les automobiles de marques Renault et Peugeot sont de plus en plus fabriquées en Roumanie, en Turquie, en Espagne, au Maroc. L’industrie informatique française a pratiquement disparu au cours des années 1980 et 1990. L’idée d’« économie de services », qui a justifié cette débandade, est trompeuse : les objets de l’économie contemporaine sont des assemblages de biens et de services, notamment des capteurs et des contrôleurs informatiques et du logiciel qui représentent la moitié de leur valeur. Il faut, d’urgence, reprendre pied dans ces domaines.

Comment faire ? La nature même de la concurrence monopolistique fait qu’il est illusoire d’essayer de rattraper un champion établi, comme Google ou Amazon. De même, l’idée de planification est périmée : les changements d’orientation sont brutaux et peu prévisibles. Qui aurait pu dire qu’en 2007 un leader mondial incontesté, Nokia, serait renvoyé aux abîmes par le lancement de l’iPhone d’Apple ?

Il y a une direction pour laquelle on est sûr de ne pas se tromper : l’enseignement et la recherche. Puisqu’il faut augmenter les chances d’innovations de rupture, avoir une population bien formée et des chercheurs motivés sont des placements sûrs.

Et, bien sûr, continuer à soutenir les champions qui nous restent : STMicroelectronics, Dassault Systems, OVH, sans oublier les jeunes entreprises de haute technologie, telles Pasqal et Mistral.

2. Les choix commerciaux ne sont pas toujours les meilleurs techniquement. Vous citez dans votre livre Pour une réindustrialisation numérique ? « Si IBM avait choisi pour le PC le 68000 [NDLR : micro-processeur] de Motorola ou le Z8000 de Zilog, bien supérieurs au 8088 d’Intel et CP/M de Digital Research plutôt que DOS de Microsoft, nettement plus rudimentaire, l’histoire eût été toute autre ». Prenons l’hypothèse dans une uchronie qu’IBM ait choisi le 68000 pour son PC comme Apple pour son Macintosh et imaginez une nouvelle écriture de l’informatique depuis 1984. Quelles seraient les différences possibles du chemin actuel de l’évolution du numérique et comment seraient IBM, Apple et quelques autres acteurs aujourd’hui ? Réciproquement est-ce que certains n’auraient pas dû exister et d’autres fictifs y compris français auraient pu trouver leur place ?

C’est tardivement, juste avant 1980, qu’IBM comprend que le marché de l’ordinateur personnel prend de l’ampleur et qu’il lui faut de toute urgence prendre le train en marche, parce que de petites entreprises talentueuses commencent à occuper le terrain. Dès 1973 Gary Kildall avait écrit CP/M, système d’exploitation capable de fonctionner sur plusieurs types de processeurs, en 1976 Steve Wozniak et Steve Jobs lancent la carte Apple I, et l’année suivante l’Apple II, basé sur le processeur Rockwell 6502 et doté d’une innovation majeure, une mémoire vidéo reliée à un moniteur à balayage. La même année Tandy RadioShack lance le TRS 80, basé sur un Zilog Z80. En 1979 Motorola lance le processeur 68000, qui a les mêmes capacités d’adressage de données que les gros ordinateurs (mainframes) d’IBM.

William Lowe, chargé par la direction de faire des propositions, formule le diagnostic suivant : IBM n’est pas capable de concevoir et de mettre en production un matériel et un logiciel entièrement de sa conception dans un délai suffisamment bref. Il suggère d’acheter une entreprise existante, en l’occurrence Atari. Mais la direction rejette cette idée et veut créer une petite équipe (douze personnes) capable de mettre le projet en route. Cette équipe est dirigée par Don Estridge, son prototype repose sur un processeur Intel 8088 et sur le système d’exploitation MS/DOS de Microsoft, avec une architecture ouverte dont les détails techniques sont publics, ce qui permet à des entreprises extérieures de proposer des cartes additionnelles qui ajoutent de nouvelles fonctions au PC, telles que modem ou disque dur. Ces caractéristiques sont très étrangères à la culture d’entreprise d’IBM.

Dès cette époque, il est clair que les capacités des micro-ordinateurs atteindront bientôt celles des « gros » ordinateurs. D’ailleurs dès 1983 IBM introduisait le Personal Computer XT/370, doté d’un processeur Motorola 68000 et capable d’exécuter des programmes pour mainframes, mais il sera rapidement retiré du catalogue, sans doute sous la pression du marketing.

L’IBM PC de 1981 a été conçu avec le processeur le moins puissant du marché, le 8088, avec le système d’exploitation le moins perfectionné, MS/DOS, et sans langage de développement digne de ce nom : était-ce pour offrir un matériel aussi simple et bon marché que possible, ou bien pour éviter de faire concurrence aux mainframes ? Les deux thèses ont des arguments en leur faveur, et faute de connaître le secret des délibérations internes d’IBM, la réponse est inconnue.

Que serait-il advenu du lancement du PC avec, par exemple, un processeur Motorola, le système d’exploitation CP/M et le langage PL/1 qu’IBM essayait, sans grand succès d’ailleurs, de promouvoir auprès de ses clients, et que Gary Kildall avait importé sur CP/M dès 1980 ? CP/M, d’ailleurs, évoluait vers un système d’exploitation multi-utilisateurs, MP/M. Un tel appareil aurait permis, dès le début des années 1980, l’exploitation de logiciels de gestion et de bases de données, ce qui ne sera possible que quelques années plus tard, avec le processeur Intel 80386. Mais si cette évolution avait été possible techniquement, l’aurait-elle été culturellement ? On ne sait.

Des projets français, ou plus généralement européens, auraient-ils pu voir le jour plus facilement dans un tel contexte ? Les lois de la concurrence monopolistique donnent à penser que non. Le PC a été lancé en 1981 par IBM, qui en a dominé le marché jusqu’en 1987, date d’une erreur stratégique qui en a transféré le monopole à Microsoft pour le logiciel et à Intel pour le matériel.

Il existe une autre raison de penser que la France, et plus généralement l’Europe, n’avaient guère de chances de sauter dans le train de la micro-informatique : les industriels et les dirigeants européens n’avaient pas compris le potentiel révolutionnaire du microprocesseur. D’ailleurs le premier micro-ordinateur, le Micral, a été produit en 1973 par le compagnie française R2E, sous la conduite d’André Truong Trong Thi et de François Gernelle : personne n’en a compris l’intérêt, la R2E s’est noyée dans le Groupe Bull. Le facteur culturel était un handicap fatal.

En 2024, la position de Microsoft, qui semblait en déclin, a été rétablie avec l’arrivée à sa tête en 2014 de Satya Nadella, artisan de l’essor du cloud Azure et de la bureautique en réseau Office 365, moyens très efficaces de verrouillage de la clientèle. Sur le marché des systèmes d’exploitation, Android de Google a pris la tête, mais Windows reste solide sur les ordinateurs personnels.

Sur le marché des processeurs, en revanche, Intel est sérieusement affaibli : du côté des ordinateurs, personnels ou serveurs, AMD conçoit et commercialise des matériels compatibles avec ceux d’Intel et fabriqués avec de meilleures caractéristiques par TSMC (Taiwan Semiconductor Manufacturing Company). Et du côté des smartphones les processeurs conçus par le britannique ARM et fabriqués par TSMC ou par Samsung sont imbattables.

Signalons le cas étrange d’Apple, qui développe un écosystème de luxe extrêmement prospère à base de processeurs de conception ARM incorporés à des circuits conçus par Apple (avec des sous-composants d’origines variées).

Apple et Microsoft alternent, avec parfois l’irruption d’outsiders tels que Nvidia, aux premières places du classement des valorisations boursières, où il n’y a plus désormais que des entreprises de la filière informatique.

3. La géopolitique du numérique pour l’ensemble de la chaîne de valeur (matériel y compris les composants de base, logiciel, données) bien que méconnue du grand public est essentielle. Quels sont les plus grands chantiers qui seraient selon vous à conduire au niveau français et européen en la matière ?

Du fait du fonctionnement même de la concurrence monopolistique, il serait vain de chercher à rattraper un leader établi. Il faut par contre créer des circonstances favorables au développement d’un nouvel entrant sur un créneau d’activité original. Et il faut bien sûr continuer à soutenir les acteurs déjà présents, notamment ceux qui ont une présence significative : STMicroelectronics, Dassault Systems, OVH, ainsi que les jeunes entreprises à vocation technique affirmée, telles que Pasqal, Mistral, etc.

Mais avant toute chose il faut absolument introduire sérieusement l’informatique dans l’enseignement, parce que la situation actuelle n’est pas sérieuse du tout. Dans l’enseignement secondaire, l’informatique doit être enseignée par des professeurs professionnels, dotés d’un master en informatique ou d’un diplôme équivalent (ingénieur par exemple), et d’un CAPES ou d’une agrégation. C’est aussi le combat mené par des associations comme EPI, Enseignement Public et Informatique.

Cet enseignement devra être dispensé à tous les élèves de toutes les sections de toutes les classes du lycée, à raison de trois heures par semaine (au moins).

Les principaux chapitres de cet enseignement seront : Algorithmique, Programmation, Système d’exploitation, Réseau, Bases de données, Intelligence artificielle. Des domaines d’application variés pourront être introduits selon les sections : Bioinformatique, Robotique, Microélectronique.

Un effort spécial devra être consacré à remonter le niveau en sciences des élèves du secondaire, dont le classement PISA révèle l’effondrement : l’égalité des chances n’a rien à voir avec le nivellement par le bas. De même pour faire venir les filles dans les filières scientifiques : leur présence ne cesse de diminuer, il faut trouver des moyens d’inverser cette tendance.

Des cours d’initiation au collège et même à l’école primaire sont également souhaitables, selon des modalités pédagogiques adaptées, mais c’est à l’âge de quatorze ans (approximativement) que deviennent disponibles les capacités d’abstraction (éventuelles : c’est de l’acquis plutôt que de l’innée) nécessaires à une pleine acquisition des concepts de l’informatique.

Cet enseignement enfin sérieux de l’informatique dans l’enseignement secondaire débouchera bien sûr sur l’enseignement supérieur et sur la recherche, déjà bien développés, mais auxquels il faudra consacrer plus de moyens.

Laurent Bloch est chercheur à l’Institut de l’Iconomie. Après des études de statistiques et d’informatique (ENSAE), Laurent Bloch a travaillé à l’INSEE, à l’INED, au CNAM. Il a été chef du Service d’Informatique scientifique de l’Institut Pasteur, Responsable de la sécurité des systèmes d’information de l’Inserm, puis DSI de l’université Paris-Dauphine, spécialiste de la sécurité des systèmes d’information. Parallèlement à ces différents postes, Laurent Bloch a constamment enseigné l’informatique dans diverses institutions, il a été rapporteur à la Commission de développement de l’informatique des Ministères de l’Économie et du Budget et rapporteur à la Commission centrale des Marchés de l’État.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.

Captcha *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.