Loi de Moore

Les lois de Moore sont des lois empiriques. Elles ont trait à l'évolution de la puissance des ordinateurs et de la complexité du matériel informatique.



Catégories :

Matériel informatique - Règle empirique - Micro-électronique - Électronique

Recherche sur Google Images :


Source image : apprendre-en-ligne.net
Cette image est un résultat de recherche de Google Image. Elle est peut-être réduite par rapport à l'originale et/ou protégée par des droits d'auteur.

Définitions :

  • Loi formulée par Gordon Moore, cofondateur d'Intel, selon laquelle le nombre de transistors gravés par puce de même taille double l'ensemble des ... (source : pierre.mf.free)
Croissance du nombre de transistors dans les microprocesseurs Intel comparé à la loi de Moore. En vert, la fausse hypothèse voulant que ce nombre double l'ensemble des 18 mois

Les lois de Moore sont des lois empiriques. Elles ont trait à l'évolution de la puissance des ordinateurs et de la complexité du matériel informatique. Au sens strict, on ne devrait pas parler de lois de Moore mais de conjectures de Moore puisque les énoncés de Moore ne sont en fait que des suppositions qui, si elles ont pu se révéler vraies un certain temps, sont vouées à l'échec de manière certaine à moyen terme.

Il existe en fait trois «lois» de Moore, deux authentiques (au sens où elles furent émises par Gordon E. Moore), et une série de «lois» qui ont en commun de se prétendre «loi de Moore» mais qui n'en sont que des simplifications incorrectes.

Énoncés

Le 1er microprocesseur (Intel 4004) a été découvert en 1971. Il s'agissait d'une unité de calcul de bits, cadencé à 108 kHz et intégrant 2 300 transistors. La capacité d'intégration des transistors et la diminution de la gravure ont perfectionné les performances des processeurs.

  1. La Loi de Moore a été exprimée en 1965 dans «Electronics Magazine» par Gordon Moore, ingénieur de Fairchild Semiconductor, un des trois fondateurs d'Intel. Constatant que la complexité des semiconducteurs proposés en entrée de gamme doublait l'ensemble des ans à coût constant depuis 1959, date de leur invention, il postulait la poursuite de cette croissance (en 1965, le circuit le plus performant comportait 64 transistors). Cette augmentation exponentielle fut rapidement appelée Loi de Moore ou, compte tenu de l'ajustement ultérieur, Première loi de Moore[1].
  2. En 1975, Moore réévalua sa prédiction en posant que le nombre de transistors des microprocesseurs (et non plus de simples circuits intégrés moins complexes car constitués de composants indépendants) sur une puce de silicium double l'ensemble des deux ans. Quoiqu'il ne s'agisse pas d'une loi physique mais juste d'une extrapolation empirique, cette prédiction s'est révélée étonnamment exacte. Entre 1971 et 2001, la densité des transistors a doublé chaque 1, 96 année. En conséquence, les machines électroniques sont devenues de moins en moins coûteuses et de plus en plus puissantes.
  3. Une version commune, variable et sans lien avec les énoncés réels de Moore est : «quelque chose» double l'ensemble des dix-huit mois, cette chose étant «la puissance», «la capacité», «la vitesse» et bien d'autres variantes mais particulièrement rarement la densité des transistors sur une puce. Ces pseudo «lois de Moore» sont celles le plus fréquemment diffusées, car elles fleurissent dans des publications grand public et sur de nombreux sites Internet. Leur seul point commun est par conséquent ce nombre de dix-huit mois, qu'on ne trouve néenmoins dans aucun des deux énoncés de Moore.

Pertinence et ralentissement

La seconde loi est environ vérifiée depuis 1973, et aurait dû théoriquement continuer toujours jusqu'en 2015 avant qu'on ne bute sur des effets de bruits parasites (effets quantiques, désintégrations alpha). Mais depuis 2004, elle souffre d'un petit ralentissement dû à des difficultés de dissipation thermique, qui empêche une montée en fréquence en dépit de la taille plus faible des composants. Les fréquences de processeurs montent à ce jour au-delà de 5 GHz, un record de 500 GHz a été battu par IBM (en coopération avec Georgia Tech) avec un transistor équipé d'une puce à base de Silicium-Germanium qui, pour l'occasion, a été refroidi à -269 °C à l'hélium liquide. Ce transistor fonctionne toujours à 350 GHz à température ambiante.

On contourne pour l'instant cette difficulté de deux façons :


Parallélisme et loi de Moore

Le recours au traitement parallèle est devenu récemment indispensable pour tirer partie des gains de la loi de Moore. Pendant des années, les fondeurs de processeurs étaient en mesure d'apporter des augmentations de fréquences d'horloges et des amélioration de parallélisme au niveau des jeux d'instructions de telle manière que les applications mono-thread s'exécutaient bien plus vite sur une nouvelle génération de processeurs sans qu'aucune modification ne soit indispensable. Désormais, pour gérer au mieux la puissance dissipée (directement liée à la fréquence d'horloge), les fondeurs facilitent les architectures multi-cœurs. Ceci a un impact extrêmement important sur le logiciel qui doit être écrit et particulièrement adapté pour tirer avantage du hardware. [2]

Autres facteurs

Aspects financiers

Un autre facteur peut freiner la progression des performances des processeurs, et qui n'a cette fois-ci plus rien de physique, mais qui est d'ordre financier. Le coût des chaînes de production augmente lui aussi exponentiellement, à un point tel que même des géants concurrents comme IBM et Siemens ont dû grouper leurs investissements pour arriver à suivre le mouvement.

La rentabilité des nouvelles générations de machines dépend d'un futur pour le moins incertain (énormément d'utilisateurs de PC, par exemple, commencent à prendre comme critère de choix prioritaire non plus la vitesse d'un PC, mais son niveau de bruit) et il se pourrait que dans ces conditions ce soit une décision de financiers, et non un palier physique, qui mette fin à la loi de Moore.

Vitesse réelle et vitesse subjective

Des machines de plus en plus puissantes mises à disposition des développeurs ont des effets pervers. À l'époque des processeurs «lents» des années 1980 et 1990, les développeurs investissaient énormément de temps pour optimiser les programmes et chaque ligne de code qu'on pouvait économiser permettait de gagner des cycles d'horloge et par conséquent d'aller plus vite. Les ordinateurs actuels offrent un confort de travail qui a pour effet de diminuer la vigilance des développeurs. En outre, les contraintes économiques obligent à toujours produire dans l'urgence, et le temps passé jadis à optimiser le code a été sacrifié. Ainsi est-on confronté actuellement à un paradoxe : les ordinateurs sont de plus en plus rapides, mais les logiciels de plus en plus lourds et de plus en plus lents (voir Loi de Wirth). Au final, l'utilisateur n'a pas la sensation d'une réelle augmentation de la vitesse, en particulier pour des tâches élémentaires comme le traitement de texte. Nombre d'utilisateurs regrettent même les ordinateurs plus «rustiques» qui, privés de l'ensemble des gadgets dont les dispositifs sont chargés actuellement, pouvaient s'avérer plus performants en termes de productivité.

Contrainte économique

La loi de Moore pourrait aussi présenter un intérêt économique de contrôle de la demande par répartition distillée de l'offre. En effet, la miniaturisation progresse habituellement grâce à des découvertes ainsi qu'à des optimisations ponctuelles, réalité peu conforme à la régularité de l'évolution exponentielle spécifiée par la loi de Moore. En maîtrisant dans le temps la diffusion des applications technologiques nouvelles, il est envisageable que les géants des semi-conducteurs définissent eux-mêmes un modèle stable de consommation, et s'assurent ainsi d'une correspondance entre leurs efforts d'innovation et les désirs de renouvellement de leur clientèle. L'autolimitation de l'offre obligerait ainsi les consommateurs à mettre à jour régulièrement leur matériel. Pour être effective, il faudrait néanmoins qu'une telle autolimitation de l'offre puisse s'appuyer sur une cartellisation forte du marché.

Dans ce cas, assez courant dans l'histoire du capitalisme, les lois du marché obligeraient à brider l'innovation pour assurer une rente à la totalité du secteur concerné.

"The Wall"

La loi de Moore s'est jusqu'ici révélée étonnamment exacte, et elle pourrait habituellement le rester jusque vers 2015 avant qu'on ne soit réellement confronté aux effets quantiques. En 2015, les processeurs devraient par conséquent contenir plus de 15 milliards de transistors.

En 1999, le transistor CMOS dit «ultime» développé au CEA-Leti à Grenoble a poussé à ses limites le principe du transistor MOSFET avec une section de 18 nanomètres (la dimension d'environ 70 atomes mis côte à côte), c'est 7 fois plus petit que le plus petit transistor industriel de 2003 (130 nm en 2003, 90 nm en 2004, 65 nm fin 2005). Il permettrait un degré d'intégration théorique de 7 milliards de jonctions sur une pièce de . Mais il ne s'agissait-là que d'une simple expérience de recherche pour étudier le fonctionnement des techniques CMOS quand on s'approche de la taille moléculaire. On serait toujours incapable à ce jour de maîtriser l'assemblage coordonné d'un particulièrement grand nombre de ces transistors sur un circuit et toujours moins de réaliser cela sur un plan industriel.

Le coût de la technique donnant la possibilité la réalisation de puces intégrant de plus en plus de transistors augmente dans des proportions vertigineuses. Une autre loi empirique de la Silicon Valley, la loi de Rock, stipule mais aussi le coût de fabrication d'une puce double l'ensemble des quatre ans car le procédé de fabrication, la photolithographie, utilisé depuis une quarantaine d'année se rapproche encore plus de ses limites physiques. Ainsi en 2004, Intel a annoncé un investissement de plus 2 milliards de dollars dans son usine Fab12 en Arizona pour la fabrication de puces à partir de wafers de 300 mm de diamètre, qui ont remplacé les wafers 200 mm vers la fin 2005.

Pour fabriquer des transistors encore plus minuscules, on utilise des rayonnements de longueur d'onde encore plus courte et la course à la miniaturisation entraînera la photolithographie dans le spectre des rayons X de plus en plus durs (rayonnement UV puis rayons X…). Mais dans cette gamme de longueurs d'ondes il devient complexe, ou alors impossible de concentrer efficacement les rayons. Au milieu des années 1990, on estimait ne pas être en mesure de fabriquer industriellement des transistors de moins de 400 atomes (100 nm) de section avec un tel procédé. Actuellement, on considère envisageable de repousser les dimensions critiques des transistors CMOS à à peu près 20 nm, des démonstrations en laboratoire ayant déjà eu lieu. Mais cet ultime ordre dimensionnel formera alors une limite industrielle et physique pour cette technique. Dans l'industrie du silicium, cette limite se nomme «the Wall».

Changement progressif des besoins, développement durable

Nouveaux besoins

Certains commentateurs[3] mettent en doute la pertinence de la loi de Moore en matière de développement durable :

Les nouveaux besoins (informatique "verte", diminution de la taille des ordinateurs avec les netbooks... ) s'expriment moins en termes de millions de transistors par mm² qu'en performance par énergie consommée.

D'autre part, faire descendre le traitement d'une tâche interactive de 20 secondes à 2 secondes, puis à 200 ms, est intéressant. Le faire tomber ensuite à 20 ms n'apporte pas obligatoirement quelque chose, et sans doute rien si cette tâche est isolée. Si les besoins industriels réclament de plus en plus de puissance, il n'en va pas indéfiniment de même de ceux du spécifique.

On voit émerger les besoins des parties prenantes des entreprises, qui réclament que soient pris en compte les impacts environnementaux et sociaux de leur activité en matière de développement durable.

Un rapport d'information du Sénat sur les nouvelles techniques de l'information [4] mentionne la loi de Moore comme la principale accélération technique de ces dernières décennies. Ce rapport souligne l'obligation de définir un dispositif de valeurs dans la nouvelle société de l'information, qui évite le scientisme.

Dans ce contexte, on est amener à évaluer la performance par Watt.

Initiatives

Le Green500 List classe les superordinateurs de la liste TOP500 en termes d'efficacité énergétique. Celle-ci est mesurée en FLOPS par Watt[5]

Le constructeur informatique Bull a abandonné la loi de Moore dans ses objectifs, et retient désormais le ratio performance / énergie dans ses plans d'informatique verte[6].

Certains constructeurs comme ARM introduisent des processeurs ne cherchant plus à suivre la loi de Moore[7]. Ses processeurs de 2009 possèdent quelquefois 100 000 transistors, soit moins qu'un Intel 286 à 12 MHz de 1982[8], mais consomment juste un quart de watt, et vont équiper en 2009 une dizaine de modèles de netbooks fonctionnant sous Linux ou d'autres dispositifs.

La création en 2007 de la Climate Savers Computing Initiative, qui s'est fixé pour objectif de diminuer de moitié la consommation électrique des ordinateurs, va certainement signer l'arrêt de mort de la loi de Moore.

Voir aussi :

Changement de paradigme

Quand la loi de Moore aura atteint ses limites, changer de paradigme consistera en la transition de la microélectronique aux nanotechnologies. C'est-à-dire un ensemble de techniques radicalement différentes, complémentaires ou concurrentes telles que l'utilisation des nanotubes dans les transistors moléculaires, les ordinateurs à ADN), l'informatique quantique, … Technologies fréquemment regroupées sous le terme «nano-informatique» qui introduisent surtout les dispositifs ubiquitaires et l'informatique diffuse.

Lors de l'Intel Developer Forum de septembre 2007, Gordon Moore a prédit que sa loi de doublement du nombre de transistors dans une puce l'ensemble des deux ans ne serait plus valide dans dix à quinze ans[9]. En effet, l'industrie approche de plus en plus des limites physiques de la micro-électronique où les transistors ne seront plus constitués que de quelques atomes et l'isolant entre eux d'un seul. L'industrie devra alors chercher des méthodes entièrement nouvelles, tel que l'empilement des transistors en 3 dimensions[10].

Puces mémoires : quelques repères

(Indiqués par Gordon Bell dans son exposé «Computing laws»)

Selon la loi Moore

  • 1990 : 16 mégabits
  • 1993 : 64 mégabits
  • 1996 : 256 mégabits
  • 1999 : 1 gigabits
  • 2005 : 3 gigabits

Actuellement

À Venir

Notes et références

  1. (en) Gordon E. Moore, «Cramming More Components Onto Integrated Circuits», dans Electronics, vol.  38, 19 Avril 1965 [[pdf] texte intégral]
    Article dans lequel la loi a été énoncée la première fois
  2. See Herb Sutter, The Free Lunch Is Over : A Fundamental Turn Toward Concurrency in Software, Dr. Dobb's Journal, 30 (3), March 2005
  3. (fr) Blog sur le développement durable, page consacrée à l'informatique
  4. (fr) Rapport d'information du Sénat sur les nouvelles techniques de l'information
  5. TOP Greeen500 List - Novembre 2008
  6. (fr) L'informatique verte : cap sur l'intelligence énergétique
  7. (en) ARM : Heretic in the church of Intel, Moore's Law sur Computerworld. com. Consulté le 22 février 2010
  8. (en) Speech FINAL 06 Mars 2006 sur Arm. com
  9. (fr) Gordon Moore prévoit l'obsolescence de sa loi dans 10 à 15 ans
  10. (fr) La loi de Moore caduque d'ici 10 à 15 ans ?

Bibliographie

Voir aussi

Liens externes

Recherche sur Amazone (livres) :



Ce texte est issu de l'encyclopédie Wikipedia. Vous pouvez consulter sa version originale dans cette encyclopédie à l'adresse http://fr.wikipedia.org/wiki/Loi_de_Moore.
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 07/04/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.
Accueil Recherche Aller au contenuDébut page
ContactContact ImprimerImprimer liens d'évitement et raccourcis clavierAccessibilité
Aller au menu