Une plate-forme matérielle ultra économe en énergie pour le calcul neuromorphique activée par les tunnels FET 2D-TMD

Dans le monde en constante évolution du calcul, la quête d'une efficacité énergétique similaire au cerveau pour les circuits et plates-formes matérielles neuromorphiques (NM) a longtemps échappé aux chercheurs. Cependant, une équipe de scientifiques de renom a récemment mis au jour une percée remarquable qui pourrait déclencher une transformation majeure dans le domaine de l'intelligence artificielle et de l'analyse de données.

L'équipe a découvert une approche innovante pour améliorer considérablement l'efficacité énergétique du matériel numérique NM en introduisant des circuits NM utilisant des matériaux de canal en feuillet de dichalcogénures de métal de transition (TMD) bidimensionnels (2D) dans des transistors à effet de champ tunnel (TFET). Ce design ingénieux ouvre la voie à une nouvelle ère de calcul économe en énergie, semblable au cerveau, qui pourrait révolutionner la manière dont nous traitons et analysons d'énormes quantités de données.

La clé de cette percée réside dans les propriétés exceptionnelles des 2D-TFET, qui présentent un courant de fuite en mode veille remarquablement faible et une petite balayage sous-seuil - des caractéristiques hautement souhaitables pour la mise en œuvre de circuits à faible consommation d'énergie et à haute efficacité énergétique. En exploitant ces avantages, les chercheurs ont développé un circuit LIF numérique basé sur NM, ainsi que sa circuiterie d'apprentissage de Hebbien, qui fonctionne dans une large plage de tensions d'alimentation, de fréquences et de facteurs d'activité, atteignant deux ordres de grandeur supérieurs d'efficacité énergétique par rapport à la technologie FinFET à faible consommation standby en silicium de 7 nm de faible puissance.

Le circuit NM conçu par l'équipe émule avec succès les mécanismes de décharge neuronale et d'apprentissage synaptique observés dans le cerveau humain. Le circuit se compose d'un neurone LIF, qui augmente son potentiel membranaire à chaque cycle d'horloge pendant l'opération 'intégrer' et le fait décroître pendant l'opération 'fuite', imitant le comportement des neurones biologiques. Le circuit comprend également une circuiterie d'apprentissage de Hebbien qui met en œuvre la règle de la plasticité dépendante du temps d'impulsion (STDP), permettant l'entraînement et l'apprentissage du système NM.

Des évaluations de performances exhaustives du circuit NM à base de 2D-TFET révèlent son efficacité énergétique remarquable, en particulier à faibles facteurs d'activité, où il surpasse son homologue basé sur CMOS d'environ deux ordres de grandeur. Cette impressionnante réalisation est attribuée aux caractéristiques supérieures des 2D-TFET, qui permettent une réduction significative de la puissance statique dissipée, un contributeur clé à la consommation d'énergie globale dans les circuits NM.

L'introduction de ce circuit NM innovant à base de 2D-TFET représente une étape importante dans la quête d'un calcul économe en énergie, semblable au cerveau. En abordant les limites de la technologie CMOS, ce travail ouvre la voie au développement d'une nouvelle génération de plates-formes d'IA et d'analyse de données plus économes en énergie, compactes et capables de traiter d'énormes quantités de données à des vitesses et précisions sans précédent.

Alors que le monde continue de faire face à la demande croissante de traitement et d'analyse de données, l'impact potentiel de cette percée ne peut être surestimé. La présentation de ce circuit NM à base de 2D-TFET est un signe d'espoir, indiquant un avenir où le calcul économe en énergie devient la norme, débloquant de nouvelles frontières dans les domaines de l'intelligence artificielle, la robotique et au-delà.

URL : https://www.nature.com/articles/s41467-024-46397-3

Comments

Popular posts from this blog

Apprendre les langues étrangères : Outils modernes et potentiel du ChatGPT

ChatGPT-4 reproduit l'animation GapMinder en une seule tentative

GPT-4 vs GPT-3.5 - Dévoiler l'avenir des modèles de langage de l'IA