11 décembre 2024

La loi de Moore est-elle morte ? Vive la loi de Moore !

L’attribut alt de cette image est vide, son nom de fichier est haba-haba-belgacem.jpg.

Par Belgacem Haba*
Senior Technical Fellow et vice-président de Path Finding

La loi de Moore n’a jamais été une loi de la nature au sens strict. Il s’agit plutôt d’une règle empirique basée sur une prédiction faite par le co-fondateur d’Intel, Gordon Moore, en 1965. Il a observé que les transistors devenaient plus petits à un rythme assez régulier et a prédit que le nombre de transistors (le bloc de construction des circuits intégrés à semi-conducteurs) qui pourrait tenir sur une puce de silicium doublerait environ tous les deux ans environ. La prédiction de Moore s’est avérée étonnamment précise et a permis à l’industrie de prévoir la capacité des puces à semi-conducteurs à devenir plus petites et plus puissantes.
Introduit en 1971, le microprocesseur moderne a fêté son cinquantième anniversaire l’année dernière. Ce premier microprocesseur moderne était l’Intel 4004, une puce avec un processus de 10 microns contenant 2300 transistors. Aujourd’hui, un microprocesseur de taille similaire contient des centaines de millions de ces minuscules transistors.

En plus de donner accès à la totalité des connaissances humaines, les téléphones dans nos poches aujourd’hui sont des ordinateurs plus puissants que ceux que la NASA a utilisés pour faire atterrir l’Apollo sur la lune à l’époque où Gordon Moore a fait sa prédiction désormais célèbre. Toutes les innovations du dernier demi-siècle ont été rendues possibles parce que les microprocesseurs sont devenus de plus en plus petits et rapides, plus puissants et moins chers.
En un sens, la loi de Moore est même devenue une prophétie auto-réalisatrice : toutes les parties de la chaîne de fabrication – chercheurs, concepteurs, fabricants, fournisseurs de matériaux – ont travaillé ensemble sur le même objectif. Ils savaient que les choses étaient censées doubler tous les deux ans, alors ils ont collaboré pour s’assurer que des conceptions pouvaient être mises sur le marché qui doublaient tous les deux ans.

Mais la loi de Moore atteint ses limites et a commencé à ralentir considérablement au cours de la dernière décennie. Au début des années 1970, un nœud de puce avait une taille d’environ 10 000 nanomètres (nm), et aujourd’hui, ces nœuds sont réduits à 5 nm, soit seulement quelques atomes de large. Nous atteignons la limite inférieure de taille. Mais les consommateurs d’électronique veulent que les choses deviennent de plus en plus rapides, plus petites et plus puissantes, c’est pourquoi l’industrie des semi-conducteurs a étudié la suite et développé des solutions à la stagnation de la loi de Moore.

Nouvelles approches, nouvelles innovations, nouvelles techniques

La nécessité, comme on dit, est la mère de l’invention. Une fois qu’un transistor atteint un atome de largeur, il est physiquement impossible de le réduire. Ainsi, lorsque les puces en silicium ont commencé à approcher ces limites inférieures de taille, les chercheurs ont commencé à développer de nouvelles approches pour augmenter la capacité de traitement tout en gardant l’encombrement de la puce constant.
Historiquement, toutes les puces de silicium étaient fabriquées sur un seul plan, et étaient donc essentiellement bidimensionnelles. Il y a plusieurs années, les innovateurs ont commencé à se demander : ‘et si nous prenions ces transistors 2D et les fabriquions en 3D de manière monolithique ?’ Cela a conduit au développement de ce que l’on appelle les transistors FinFET, où la grille du transistor est placée sur plusieurs côtés du canal de signal. Cela a entraîné des performances supérieures à celles des puces 2D de taille similaire.
Une autre technique, appelée nanogates, a augmenté la surface de la grille du transistor, permettant au fabricant de caler plus de capacité de traitement dans la même surface.

Aucune de ces techniques n’allait jamais nous mener très loin.

Certains ont suggéré de s’éloigner du silicium en tant que substrat et de se tourner vers des composés organiques qui semblent prometteurs pour aider à augmenter la capacité. Bien que cela ait un certain attrait, il se heurte à une limitation majeure : l’industrie des puces à base de silicium est profondément enracinée.
Chaque installation de fabrication est basée sur la fabrication de silicium, toute l’ingénierie est basée sur le silicium et tous les fournisseurs de matériaux basent leurs chaînes d’approvisionnement sur le silicium. Afin de passer à un composé de base différent, l’ensemble de l’industrie devra changer son aspect commun le plus fondamental. Ce n’est pas impossible, mais cela prendra beaucoup de temps et beaucoup d’argent.
Différentes approches qui peuvent nous donner les gains dont nous avons besoin sans abandonner les fondamentaux de cette industrie massive de plusieurs milliards de dollars sont justifiées.

Redéfinir la loi de Moore

Depuis son origine, la loi de Moore a été définie principalement par le transistor : elle mesurait le nombre de transistors pouvant tenir dans une unité de surface donnée. Historiquement, plus de transistors signifiaient une plus grande capacité de traitement et de meilleures performances, tandis qu’une plus petite surface signifiait une consommation d’énergie inférieure, des appareils plus petits et, franchement, un coût inférieur.
Et si nous pouvions redéfinir les implications de la loi de Moore ?
Les gens se rendent compte que le nombre de transistors seul n’a plus d’importance. Ce qui compte vraiment, c’est la façon dont le système fonctionne. Un système de traitement a été conçu comme étant composé de deux éléments principaux : le processeur et la mémoire. Les performances du système sont étroitement liées à ces deux éléments principaux et à la manière dont ils communiquent entre eux.

Alors, et si nous pouvions commencer à regarder la loi de Moore de cette façon ?

Et si, au lieu de la manière relativement simpliste dont nous l’avons mesuré dans le passé, nous considérions le traitement maintenant comme une combinaison de trois traits :

  1. Capacité du processeur : essentiellement, combien de transistors et à quelle vitesse ils fonctionnent
  2. Mémoire : à la fois en termes de vitesse et de capacité
  3. Communication entre les deux : combien de fils sont connectés et s’agit-il d’un bus étroit ou large ?

En gardant à l’esprit que, comme toute chaîne, cette chaîne de traitement en trois étapes est aussi solide que son maillon le plus faible. Par conséquent, il est essentiel de renforcer autant que possible chacun de ces liens afin que l’ensemble du système de traitement soit aussi robuste et optimal que possible.
Il existe différentes façons de le faire, et cela a déjà commencé. Par exemple, il y a environ deux décennies, Intel a adopté l’approche consistant à maintenir un bus étroit entre le processeur et la mémoire, tout en accélérant la vitesse du processeur. D’un autre côté, AMD a choisi de rendre le bus très large et de faire tourner le processeur à une vitesse inférieure. Les deux approches ont obtenu des gains comparables en bande passante.
Quelle que soit la méthode choisie, ou si une nouvelle approche est adoptée, l’industrie doit chercher comment créer une plate-forme d’assemblage qui donnera lieu à une interconnexion qui ouvrira la porte de la communication pendant un certain temps à l’avenir, sans rendant le système limité par la largeur du bus. Aujourd’hui, c’est une limite qui existe.
Dans la technologie de pointe d’aujourd’hui, il y a un interposeur avec un processeur graphique attaché, à côté d’une mémoire HBM. Ce modèle est limité par le nombre de fils, il n’a donc actuellement que 1 024 signaux entre la mémoire et le processeur.
En augmentant la densité d’interconnexion, il est possible d’augmenter considérablement la largeur totale du bus entre le processeur et la mémoire. Cela peut être fait en empilant, par exemple, la mémoire HBM en largeur plutôt qu’en profondeur. Cela incite également les architectes et les concepteurs à rechercher la conception de mémoires et de processeurs plus performants.

Les avantages des architectures 3D

Il existe également une nouvelle approche appelée interconnexion 3D à liaison hybride – également connue sous le nom de DBI ou interconnexion hybride – qui a le potentiel d’élargir l’horizon de la loi de Moore. Dans ce modèle, au lieu d’une seule couche de transistors sur une plaquette de silicium, nous construisons des couches supplémentaires puis les empilons les unes sur les autres, en trouvant des moyens de les connecter verticalement et horizontalement.
Dans l’approche actuelle de la mémoire HBM, par exemple, deux matrices préparées sont connectées par soudure. L’utilisation de la thermocompression avec connexion soudée même dans l’état de la technique est limitée par le pas d’interconnexion, du fait des limitations inhérentes aux techniques d’assemblage elles-mêmes. Par exemple, le pas limite utilisé aujourd’hui dans HBM est de 55 microns. Ce pas rend très difficile l’extension de la bande passante, car le HBM est limité à un bus de 1024 bits et les matrices de mémoire ne peuvent s’empiler qu’en profondeur et non en largeur.
Adeia a inventé et mis au point une technologie de liaison hybride appelée DBI (interconnexion de liaison directe) qui augmente considérablement le nombre de connexions verticales entre deux surfaces. Avec la technologie DBI, un transistor dans une puce active serait capable de voir le transistor dans la puce au-dessus et le transistor dans la puce en dessous, de la même manière qu’un transistor dans la même puce.

Cela est possible car avec DBI, les interconnexions horizontales et verticales sont rendues à peu près égales en nombre. Ce développement ouvre la voie à l’avenir de l’architecture électronique tridimensionnelle.
Notre technique DBI fonctionne essentiellement en prenant deux puces en silicium avec des contacts exposés des deux côtés et en les joignant de telle sorte que les parties en silicium fusionnent à une température relativement basse (ce qui réduit les dommages aux transistors eux-mêmes tout en créant un circuit isolé, intégré, circuit tridimensionnel). Le produit fini peut ressembler à une puce empilée, mais fonctionner comme une seule puce.
Ces puces sont utilisées aujourd’hui. Mais à l’avenir, à mesure que ces puces deviendront plus puissantes et plus courantes, elles créeront une bande passante inimaginable par toute autre technique.

L’efficacité énergétique est un autre avantage réalisé par cette approche d’architecture 3D. Dans chacune de ces puces, chaque transistor envoie et reçoit des transmissions des milliards et des milliards de fois. Si ces augmentations de traitement étaient réparties horizontalement, les signaux doivent voyager plus loin et nécessitent donc plus de puissance.
Lorsque nous passons à la dimension verticale pour augmenter notre paysage de traitement, le transistor peut examiner les connexions à côté, au-dessus et en dessous, ce qui permet d’emprunter des chemins de signal beaucoup plus efficaces et de réduire la consommation d’énergie globale. Cette nouvelle approche d’empilement de l’architecture signifie que nous avons également la flexibilité d’agréger les puces basées sur une pile d’une puce de nœud la plus récente avec une puce héritée, ce qui augmente encore l’efficacité et les performances tout en réduisant les coûts.

Il y a quelques années à peine, de nombreux acteurs de l’industrie craignaient que la loi de Moore touche à sa fin et qu’elle ait des conséquences désastreuses pour l’industrie des puces. Grâce à ces innovations et à ces nouvelles façons de penser, nous pouvons continuer à augmenter régulièrement la capacité de traitement pendant peut-être encore cinquante ans. En redéfinissant légèrement la loi de Moore et en ouvrant la dimension verticale dans l’architecture, nous avons ouvert une nouvelle verticale et lui avons donné plus de vie.

L’attribut alt de cette image est vide, son nom de fichier est haba-haba-belgacem.jpg.
Dr Belgacem Haba

*Belgacem Haba
Senior Technical Fellow et vice-président de Path Finding

Le Dr Belgacem Haba a rejoint Xperi en 1996 et est maintenant Senior Technical Fellow et vice-président de l’équipe Path Finding dans la division R&D des semi-conducteurs. Ses dernières activités incluent le développement de technologies 3D pour l’évolution de la microélectronique. Le Dr Haba était membre de la division de la plate-forme de centre de données de Google en tant que cadre supérieur et avant cela, il a cofondé SiliconPipe Inc. en 2002, une start-up d’interconnexions à haut débit basée dans la Silicon Valley qui a été acquise par Samsung. Il a également dirigé les activités de R&D sur les emballages avancés chez Rambus. De 1988 à 1996, il a travaillé pour NEC Central Research Laboratories à Tokyo au Japon et pour le IBM Watson Research Center à New York sur les applications des lasers en microélectronique.

Le Dr Haba est né en 1957 en Algérie. Il est titulaire d’un doctorat en science et génie des matériaux en 1988 de l’Université de Stanford, en Californie, dans le domaine de l’énergie solaire. Il a également obtenu deux maîtrises en physique appliquée et en science et ingénierie des matériaux de la même université. Il a commencé ses études universitaires à l’ l’USTHB, de Bab ezzouar en 1980. Le Dr Haba détient plus de 500 brevets américains.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *