2. La “loi” de Moore

En 1965, Gordon Moore (1929-), un des fondateurs d'Intel prédit un doublement de l'intégration chaque année, c'est à dire, grossièrement, un doublement du nombre de transistors intégrables sur une même puce (sachant qu'il n'y a pas que des transistors sur ces puces). Il révisera son optimisme en 1975 en prévoyant que le nombre de transistors des processeurs doublerait à coût constant tous les deux ans. Cette « loi de Moore » est assez bien vérifiée empiriquement. On l'exprime souvent sous la forme simplifiée d'un doublement de puissance brute des ordinateurs (mémoire, capacité des disques, puissance des processeurs) tous les 18 mois. Cette seconde forme n'a pas de définition technique précise, elle est donc invérifiable à proprement parler, mais donne un ordre de grandeur estimatif commode. Si l'on prend l'hypothèse d'un doublement tous les deux ans, on obtient grossièrement un facteur 10 pour 6 ans, 30 pour 10 ans, 200 pour 15 ans et 1 000 pour vingt ans. Il s'agit d'une progression exponentielle fulgurante, qui, bien sûr, ne peut durer éternellement. Sa fin était assez justement estimée pour le début des années 2000, pour des raisons physiques sur lesquelles nous reviendrons plus loin. Ceci fixe les bornes (1971-2005) d'une deuxième ère de l'informatique, que nous appelons l'« ère de la loi de Moore ».

Quel genre de loi est donc la “loi” de Moore ? Certainement pas une loi judiciaire. Ni une loi physique, puisqu'elle décrit, finalement, une vitesse de mise sur le marché de produits. On pourrait y voir une loi historique puisqu'elle décrit une série de faits historiques (bien avérés d'ailleurs). Souvenons-nous donc qu'elle fut formulée avant ces faits ! La loi de Moore est ainsi d'abord et avant tout un plan de marche, un programme de recherche et développement, pour l'ensemble d'une industrie.

Quelles sont ses conséquences ? Tout d'abord, cette loi s'applique à un nouveau contexte technologique et commercial : le produit dominant de cette période est le micro-ordinateur. Celui-ci est de moins en moins encombrant et de plus en plus accessible financièrement pour les ménages. Il devient une composante de l'électroménager domestique. Comparons l'ordinateur à d'autres biens d'équipement, lave-linge ou télévision. Dans une première phase les ménages les plus aisés s'équipent, les constructeurs s'efforcent donc de valoriser leurs marques : celui qui fait de meilleures machines peut espérer en vendre plus ou plus cher. Dans un second temps, quand les ménages sont largement équipés, il n'est plus possible de vendre autant de machines et il faut donc forcer le renouvellement du parc : soit en abaissant leur durabilité (lave-linge), soit en imposant des ruptures techniques (télévision). Revenons aux ordinateurs. Nombre d'unités centrales conçues aujourd'hui, avec une bonne maintenance, peuvent durer plus de dix ans. Contrairement aux machines à laver, les ordinateurs utilisent assez peu de pièces mobiles, il n'est donc pas aisé de diminuer artificiellement leur durée de vie physique. L'industrie s'appuya donc sur la loi de Moore. Puisque cette loi était connue des éditeurs, ceux-ci pouvaient développer des logiciels gourmands en puissance au moment de leur conception : la puissance des ordinateurs au moment de la diffusion devant (en principe) devenir suffisante[17]. Autrement dit, l'achat de nouveaux logiciels commande l'achat d'un nouveau matériel. Les constructeurs, de leur côté, font leur possible pour se tenir à la loi de Moore afin d'entretenir la boucle vertueuse (et introduisent suffisamment de nouveautés dans le hardware). Ainsi tout nouvel ordinateur appelle l'achat de nouveaux logiciels. La multiplication des périphériques, utilisant des protocoles (logiciel) et des connecteurs (matériel) nouveaux toutes les quelques années, complète la nasse. La clef de voûte est, comme toujours, idéologique : après trois ans un ordinateur n'est pas considéré comme « vieux » ou ayant moins de fonctionnalités, mais comme « obsolète. » Les mots sont importants. Avec le temps, bien entendu, les consommateurs se sont adaptés et s'efforcent toujours d'acheter simultanément l'ordinateur, les périphériques et les logiciels. La pression d'évolution reste toutefois importante grâce aux logiciels professionnels, aux anti-virus et aux logiciels d'entertainment (de jeu, principalement).

Ce plan de marche induit/traduit une logique qui commande la place des principaux acteurs durant cette période.

Le principal acteur de la période précédente, le constructeur d'ordinateurs, s'effacera progressivement pour céder la place, d'un côté aux constructeurs de composants, en particulier les « fondeurs » de processeurs, et de l'autre aux concepteurs de logiciels, en particulier les « éditeurs » d'applications. En schématisant et en nous limitant aux plus grands, « Big blue » IBM abandonne son leadership à Intel et à Microsoft (« big green »). Dans les années 1980, la production électronique passe des États-unis à l'Asie, au Japon en particulier [Breton, pp. 193-204].

Dans le domaine du matériel, du fait de l'augmentation de la puissance des puces, les gros systèmes perdent la plupart de leurs applications : à partir de 1974, il devient moins coûteux d'utiliser de petites machines, éventuellement en grand nombre, plutôt que les super-ordinateurs de la période précédente. C'est l'inversion de la “loi” de Grosh [Breton, pp. 195-197]. Les mini- puis les micro-ordinateurs s'imposent et conquièrent toujours plus de segments de marché. Dans le même temps la recherche informatique se développe et s'installe dans le paysage scientifique.

Du côté des logiciels, pour assurer une certaine forme de rente, les éditeurs doivent courir l'innovation. Il ne s'agit pas seulement de rendre les logiciels plus performants, mais aussi de les rendre plus « conviviaux », d'augmenter le nombre des fonctionnalités (bien au-delà de l'usage de la plupart des utilisateurs), puis, dans les années 1990, de jouer sur des effets de mode, sur le look des logiciels (et pour Apple des matériels). C'est donc une période extrêmement propice à l'innovation logicielle. Les interfaces Homme-machine (IHM), en particulier, feront des progrès considérables durant cette période. La souris telle que nous la connaissons est développée au cours des années 1960[18]. Elle se répand à partir de 1981 grâce au système Xerox Star puis, surtout au Macintosh (1984). C'est également le Xerox Parc qui développera l'affichage graphique avec fenêtres (GUI), repris et développé ensuite par les principaux systèmes d'exploitation.

Durant toute cette période, la grande majorité des ordinateurs produits ont une architecture de type « compatible PC » (et sa descendance, définie principalement par Intel). Il y a, bien entendu, des alternatives, mais elles représentent des volumes de vente extrêmement faible en regard du courant principal. Ce courant bénéficie de quelques améliorations ponctuelles du hardware, mais il y a, au fond, assez peu de changements. Nous reviendrons ultérieurement sur la principale, le multiprocessing, qui se développera au cours des années 1990 et 2000. Il est nécessaire de d'abord évoquer le développement des réseaux. Mais tout d'abord évoquons rapidement l'évolution du logiciel durant cette période.



[17] En réalité Niklaus Wirth montre en 1995 que ce n'est pas le cas. C'est la fameuse loi de Wirth : « le logiciel ralentit plus vite que le matériel n'accélère. » L'anglais est plus savoureux : « software gets slower faster than hardware gets faster. » En langage courant : les éditeurs ont une tendant naturelle à transformer les logiciels en “obésiciels” (bloatware) sans que l'amélioration régulière des performances des ordinateurs ne parvienne à le compenser.

[18] Elle est brevetée en 1970, mai des dispositifs similaires ont existé antérieurement, depuis les années 1950 au moins.