Loi de Moore, limites en vue

En 1975, Gordon E. Moore, l’un des fondateurs d’Intel a constaté que le nombre de transistors des microprocesseurs doublait tous les 18 mois. Cette observation est depuis connue comme la « loi » de Moore et la prédiction de Moore s’est vérifié. Du moins jusqu’en 2015.

Bien entendu, il n’y a pas vraiment de sous-jacent scientifique qui explique cette loi, c’est, tout au plus, une loi empirique basée sur l’observation des capacités croissantes des concepteurs de microprocesseurs et des fondeurs à intégrer toujours plus d’unités de calcul logique sur une même surface. Pour tenter de comprendre mieux cette loi avant d’en annoncer les limites, il est nécessaire de revenir sur l’histoire des microprocesseurs qui, pour ne parler que de l’informatique, propulsent les serveurs, les stations, tablettes et autres smartphones qui font notre quotidien.

En 1947 est inventé le transistor soit deux ans après l’architecture Von Neumann qui avait servi de référence pour la construction du premier ordinateur opérationnel, l’ENIAC. En 10 ans cette invention permet la naissance d’une industrie de l’électronique analogique de commande et d’amplification qui reposait jusque là sur des tubes à vide encombrants, gourmands en énergie et d’une durée de vie limitée. En 1958, deux hommes, Robert Noyce et Jack Kilby inventent chacun de leur côté le circuit intégré numérique qui répond au besoin de devoir éliminer le câblage physique entre les transistors composants des circuits de l’époque. Kilby recevra un prix Nobel en 2000 pour son invention et Noyce ne recevra rien. Ça c’est pour la petite histoire. La grande histoire retiendra que Intel (fondé par Noyce) domine maintenant le marché des microprocesseurs et n’a laissé à Texas Instruments (l’employeur de Kilby) que des marchés de niche.

En 1969, Intel invente le microprocesseur, un circuit intégré non spécialisé capable d’être programmé à la demande et le commercialise dans la foulée. Plus que de réunir 2300 transistors sur une surface de quelques millimètres carrés, la prouesse est d’avoir inventé une méthode de fabrication de masse, la photolithographie. Et cette méthode ne cessera de progresser durant les 30 années qui ont suivi, la finesse des gravures de photolithographie va passer de l’échelle du micromètre en 1971 (un millionième de mètre) à l’échelle du nanomètre (un milliardième de mètre, donc mille fois plus fin) en 2006. Car la densité de transistors et la finesse de leur gravure sont naturellement liées. Plus on sait graver fin sur un substrat de silicium, plus on peut concentrer les composants.

La loi de Moore établit donc que la finesse de la gravure des composants d’un microprocesseur doit être divisée par deux au bout de 18 mois. La valeur réelle est plutôt de 30 mois mais la tendance s’est vérifiée sur les 40 dernières années.

Nos perspicaces lecteurs et lectrices auront reconnu dans cette propriété le comportement d’une fonction exponentielle dont la (dé-)croissance est vertigineuse. Dans ces conditions, est-ce que la loi de Moore pourra continuer à être respectée dans le proche avenir ? Rien n’est moins sûr car d’autres contraintes gouvernent la production de microprocesseurs et la microélectronique en général.

Il existe une autre loi empirique, moins médiatique que celle de Moore, la loi de Rock qui dit que le coût d’une usine de production de microprocesseurs double tous les 4 ans. Si le coût marginal des microprocesseurs reste constant (et très bas), les investissements nécessaires à la fabrication d’une nouvelle génération à gravure plus fine sont colossaux. En 2004, une telle unité de fabrication coûtait 1 milliard de dollar US. En 2005, le coût s’établissait à 2 milliards de dollar US. En 2015, la modernisation du centre de fabrication d’Intel dans l’Oregon, le D1X, a coûté 3 milliards simplement pour que cette usine puisse graver des substrats en 14 nm ce qui correspond à la longueur d’une centaine d’atomes de silicium mis les uns à la suite des autres. La feuille de route de cette industrie prévoit une finesse de gravure de 10 nm puis de 7 nm mais à cette échelle, des contraintes d’ordre physique et systémique apparaissent.

Plus on réduit le diamètre d’un conducteur, plus sa résistance électrique augmente car elle n’est pas compensée par la réduction de la longueur des connexions. Ceci est la cause essentielle de la consommation importante des microprocesseurs en énergie électrique et de l’augmentation de la taille des radiateurs thermiques que l’on trouve sur les cartes des serveurs. Il va arriver un moment où la puissance dissipée sous forme de chaleur à cause de cette résistance électrique va devenir tellement importante que la puissance électrique utile au calcul ne sera qu’une fraction de ce qu’elle est actuellement. Dans ces conditions, les microprocesseurs deviendraient des radiateurs électriques d’un type nouveau.

Cette limite est connue depuis longtemps et elle a été franchie dans le milieu des années 2000 avec l’apparition des architectures multi-cœurs et du multithreading comme réponse au couplage puissance dissipée/puissance utile. Sans modifier profondément les outillages de production, ces nouvelles architectures (comme le RISC en son temps) ont permis un gain de performance de 40% à puissances consommée et dissipée constantes.

L’outillage constitue aussi une limite. Si d’un point de vue théorique, rien n’exclut une finesse de gravure de moins de 10 nm (la limite quantique se situe à 5-7 nm), le procédé de photolithographie qui consiste à activer chimiquement la surface à graver grâce à de la lumière devient beaucoup plus compliqué à mettre en œuvre. Si la lumière visible a été utilisée pendant longtemps, la taille des jonctions requiert maintenant de la lumière ultra-violette car la longueur d’onde de cette lumière doit être du même ordre de grandeur que la finesse de la gravure pour éviter les problèmes dus aux interférences optiques. Pour des gravures encore plus fines, il faudra employer des rayons X. Mais là, on bute sur des problèmes liés à la production et à la manipulation optique des rayons-X. Bref, c’est un défi pour la science des matériaux et pour l’optique.

D’un autre côté, est-ce que la course à la densité de jonctions et à la finesse de gravure est réellement un objectif économiquement rationnel ? Comme tout processus économique d’innovation constante, la R&D dans ce domaine est soumise à la loi des rendements décroissants. L’augmentation des performances due à une gravure plus fine devient de plus en plus faible au fur et à mesure que les investissements s’accroissent. Dans ces conditions, il va devenir nécessaire d’offrir des alternatives.

Il existe quatre pistes de recherche pour dépasser les contraintes de la loi de Moore voire pour dépasser la loi en elle-même.

Il est tout d’abord possible de travailler sur la géométrie et la composition du substrat de silicium sans devoir changer les outillages et en restant sur une largeur de gravure de 20 nm. Il existe des recherches appliquées sur des substrats semi-isolants, sur des transistors gravés sur des parois verticales, etc.

Ensuite, tout en continuant à utiliser le principe du transistor et en gardant les micro-architectures actuelles, il est possible d’utiliser des alternatives au silicium, d’autres composés semi-conducteurs qui offriraient de meilleures performances énergétiques. Le problème est que l’approvisionnement en métaux rares comme le germanium, le gallium ou l’indium est incertain et que ces métaux possèdent déjà des usages contraints. Une alternative pourrait être offerte par le graphène, le nouveau matériau miracle mais les technologies entrevues restent très loin de la maturité.

Une troisième piste est d’explorer la topologies 3D des circuits qui fonctionne déjà bien pour les mémoires. Cette approche repose sur l’empilement de couches successives et permet de réduire l’encombrement total. Le problème vient du fait que la consommation électrique d’une puce mémoire est très faible alors que celle d’un microprocesseur est importante. Une topologie 3D impliquerait de devoir dissiper toute la chaleur produite par effet Joule et, pour l’instant, il n’y a pas de solution.

La dernière piste est d’inventer un élément de calcul de base qui reposerait sur un principe physique totalement différent. Le propre d’un transistor est d’être un bit logique (0 ou 1) dont la valeur est commandée par du courant électrique. Les transistors actuels ne diffèrent pas vraiment des tubes à vide, ils reposent sur la commande d’une barrière de potentiel électromagnétique qui laisse ou ne laisse pas passer le courant entre une anode et une cathode. La différence vient de la manière de contrôler cette barrière de potentiel. Dans le cas des tubes à vide, c’est l’émission thermoionique (l’agitation thermique des électrons), dans le cas des transistors, c’est une modulation du champ électrique dans un semi-conducteur dopé. Les pistes prometteuses pour une changement de paradigme dans l’effet de contrôle sont les effets quantiques (effet tunnel), la photonique (lumière) et certaines avancées de la physique de la matière condensée (plasmons).

Enfin, la dernière solution qui sera aussi la conclusion de cet article serait d’influencer l’offre et la demande. Les fondeurs mondiaux pourraient décider de s’entendre sur un arrêt de la course à l’armement car les investissements colossaux nécessaires risquent de rendre leur situation économique intenable. Ils pourraient également accompagner l’évolution de la demande (circuits spécialisés, processeurs asynchrones, couplage CPU-mémoire), se réorienter vers des marchés plus diversifiés et étoffer leur gamme. Dans ces conditions, la loi de Moore pourrait muter en une loi plus économétrique et se formuler par le doublement de la valeur d’usage d’un microprocesseur en 30 mois.

Sebastien LOUCHART

Sebastien LOUCHART

Ingénieur et consultant scientifique – expert en Data Management

Passionné par la recherche en intelligence artificielle et par les mathématiques appliquées, Sébastien, Ingénieur des Mines, a débuté sa carrière chez Pentalog comme concepteur de bases de données. Après presque 10 ans de conseil en systèmes d’information, il a rejoint Pentalog Institute pour apporter sa vision de la recherche, sa rigueur et sa caution scientifique aux projets innovants. Il intervient chez les clients de Pentalog en tant qu’ingénieur-conseil, spécialiste de la R&D privée, notamment dans le cadre d’audits sur des projets innovants dans le domaine numérique.

Plus d'articles

Oct 24, 2016 | Publié par dans Technologies IT | 0 commentaire

Ajouter un commentaire

Votre adresse email ne va pas être publiée.