Circuits de neurones et de synapses à faible consommation d'énergie et de surface basés sur CMOS pour les réseaux neuronaux à pointe analogique dans le domaine temporel

Dec 06, 2023

ABSTRAIT

Les structures neuronales conventionnelles ont tendance à communiquer via des quantités analogiques, telles que des courants ou des tensions ; Cependant, à mesure que les dispositifs CMOS rétrécissent et que les tensions d'alimentation diminuent, la plage dynamique des circuits analogiques dans le domaine tension/courant devient plus étroite, la marge disponible devient plus petite et l'immunité au bruit diminue. De plus, l'utilisation d'amplificateurs opérationnels (amplis opérationnels) et de comparateurs à temps continu ou cadencés dans les conceptions conventionnelles entraîne une consommation d'énergie élevée et une grande surface de puce, ce qui serait préjudiciable à la construction de réseaux neuronaux à pointe. Compte tenu de cela, nous proposons une structure neuronale pour générer et transmettre des signaux dans le domaine temporel, comprenant un module neuronal, un module synapse et deux modules de poids. La structure neuronale proposée est pilotée par un courant de fuite de transistors MOS et utilise un comparateur basé sur un inverseur pour réaliser une fonction de déclenchement, offrant ainsi une efficacité énergétique et surfacique supérieure à celle des conceptions conventionnelles. La structure neuronale proposée est fabriquée à l'aide d'une technologie CMOS TSMC 65 nm. Le neurone et la synapse proposés occupent respectivement une superficie de 127 et 231 lm2, tout en atteignant des constantes de temps de l'ordre de la milliseconde. Les mesures réelles de la puce montrent que la structure proposée implémente la fonction de communication de signaux temporels avec des constantes de temps en millisecondes, ce qui constitue une étape critique vers le calcul de réservoir matériel pour l'interaction homme-machine. Les résultats de simulation du réseau neuronal de pointe pour le calcul de réservoir avec le modèle comportemental de la structure neuronale proposée démontrent la fonction d'apprentissage.

Desert ginseng-Improve immunity (12)

Avantages du cistanche pour les hommes : renforcer le système immunitaire

Cliquez ici pour voir les produits Cistanche Enhance Immunity

【Demandez plus】 E-mail :cindy.xue@wecistanche.com / Whats App : 0086 18599088692 / Wechat : 18599088692

Les réseaux de neurones profonds (DNN), qui constituent la deuxième génération de réseaux de neurones artificiels (ANN), ont été largement explorés ces dernières années pour un nombre croissant d'applications. Cependant, leur énorme consommation d'énergie, en particulier pour l'accès à la mémoire dans l'architecture conventionnelle de von Neumann, a obligé les gens à trouver un moyen alternatif pour obtenir des solutions plus économes en énergie.1–6 Le réseau neuronal à pointes (SNN) est l'une des solutions attrayantes en tant que troisième solution. génération d'ANN capables de réaliser une fonction d'apprentissage avec une faible puissance en imitant les neurones biologiques. Les SNN sont constitués de neurones et de synapses et sont généralement construits selon une approche ascendante, ce qui signifie que chaque composant des SNN doit être conçu en premier.6–12 De nombreuses implémentations matérielles de neurones ou de synapses pulsés ont été rapportées.13–21. mettre en œuvre la fonction d'intégration de fuite des neurones, les conceptions conventionnelles construisent généralement des intégrateurs avec des amplificateurs opérationnels (amplis opérationnels)14 et utilisent souvent de gros condensateurs et résistances sur puce pour imiter les constantes de temps en millisecondes des neurones biologiques.16,17 fonction de « feu » des neurones, une structure de circuit dédiée d'un comparateur à temps continu ou cadencé est généralement utilisée pour définir le seuil d'excitation des neurones.13–16,20 Le courant de polarisation du comparateur à temps continu augmente sans aucun doute la consommation d'énergie du neurone, tandis que le comparateur cadencé nécessite une distribution supplémentaire du signal d'horloge et que la structure complexe du comparateur occupe une grande surface de puce. Bien que des processus plus avancés puissent atteindre une faible consommation d'énergie en réduisant la tension d'alimentation et le courant de fuite statique21, ils conduisent également à une plage dynamique plus étroite, à une marge disponible plus petite et à une immunité au bruit dégradée des circuits analogiques dans le domaine tension/courant.22 Ceci est préjudiciable à réseaux de neurones conventionnels qui utilisent des quantités analogiques, telles que la tension et le courant, pour communiquer entre elles. D'autre part, grâce aux transistors dimensionnés qui ont une vitesse de fonctionnement améliorée avec des transitions de signal nettes, les informations analogiques peuvent être représentées plus efficacement dans le domaine temporel, c'est-à-dire un intervalle de temps de deux transitions de signal. Ce circuit dit dans le domaine temporel présente un autre avantage en termes d'efficacité énergétique, car il est souvent constitué d'inverseurs ou de portes logiques qui, idéalement, ne consomment pas d'énergie continue.22,23 Ainsi, les circuits dans le domaine temporel sont idéaux pour les futures implémentations de SNN de faible puissance. .

Desert ginseng-Improve immunity (21)

Avantages du cistanche pour les hommes : renforcer le système immunitaire

Dans cet article, nous proposons une structure neuronale originale pour générer et transmettre des signaux dans le domaine temporel afin de composer un réseau neuronal dans le domaine temporel. La structure intégrée comprend des modules de neurones et de synapses qui génèrent et transmettent respectivement des signaux dans le domaine temporel, ainsi que des modules de pondération pour les fonctions d'apprentissage. L’une de nos principales applications cibles est l’informatique de réservoir, qui traite les informations liées à l’activité humaine. Notre application cible des traitements plus simples et moins gourmands en données, comme les biosignaux. Dans l'informatique de réservoir, des fonctions d'apprentissage telles que l'ECG et la reconnaissance du locuteur ainsi que la reconnaissance de l'écriture manuscrite peuvent être mises en œuvre en utilisant seulement quelques centaines de neurones. La référence 24 montre que les performances d'apprentissage s'améliorent lorsque les constantes de temps des effets d'entrée correspondent entre la fonction cible et la dynamique du réservoir, et nous utilisons des constantes de temps en millisecondes comme cible de conception pour une structure neuronale qui sera utilisée pour traiter les informations de séries chronologiques de activités humaines. Nous utilisons le modèle comportemental de la structure neuronale proposée pour construire le SNN pour le calcul de réservoir et implémenter la fonction d'apprentissage, ce qui prouve que notre structure neuronale proposée peut être utilisée pour le calcul de réservoir. La structure neuronale conçue et fabriquée est illustrée sur la figure 1 (a), qui est basée sur les modules de neurones, de synapses et de poids proposés, qui seront décrits en détail ci-dessous. Dans cette structure, l'entrée du module neurone est connectée à deux modules de poids, l'un pour régler le signal inhibiteur et l'autre pour le signal excitateur. Nous avons fabriqué la structure neuronale proposée illustrée sur la figure 1 (a) avec une technologie CMOS standard TSMC 65 nm. La micrographie de la puce est présentée sur la figure 1 (b), où la surface des modules neurone, synapse et poids est respectivement de 127, 231 et 525 lm2.

Les modules de puissance mesurent respectivement 127, 231 et 525 lm2. Le modèle de neurone LIF se compose principalement d'un condensateur à membrane, d'une résistance à fuite et d'un comparateur de tension. Les neurones reçoivent des signaux d'autres neurones via des synapses et le soma génère des potentiels d'action en réponse à ces signaux externes. Si un neurone reçoit un nombre suffisant de pointes à travers la synapse, son potentiel membranaire atteindra une valeur seuil, provoquant le « feu » du neurone.8,25,26 L'utilisation d'inverseurs pour mettre en œuvre la fonction « feu » est déjà connue sous le nom de une alternative aux comparateurs. La référence 27 a proposé un neurone basé sur un inverseur, qui convient bien à une utilisation dans la structure neuronale proposée. Par conséquent, le neurone utilisé dans cette étude a été conçu sur la base de la réf. 27, qui est illustré sur la figure 2 (a). Il se compose d'un périphérique d'entrée, d'un dispositif intégrateur à fuite, d'un dispositif anti-incendie et d'un dispositif de retard. À l'origine, dans la Réf. 27, le circuit n'est pas supposé être conçu comme un élément permettant de construire un réseau neuronal et, par conséquent, n'a pas de structure pour recevoir des signaux excitateurs et inhibiteurs. Dans le circuit proposé, en revanche, le dispositif d'entrée composé de M1 et M2 reçoit respectivement une entrée excitatrice et une entrée inhibitrice. Les entrées de M1 et M2 sont des signaux d'impulsions étroites, comme le montre la figure 2 (a), qui sont générées à partir d'une synapse préalable. L'activité de la synapse pré-étape est représentée par la fréquence d'impulsion et le poids de couplage est représenté par la largeur d'impulsion. Lorsque plusieurs synapses de pré-étape sont connectées pour composer un réseau, les multiples impulsions peuvent être appliquées via une logique OU ou en ajoutant des périphériques d'entrée connectés en parallèle. Avec des dispositifs d'entrée parallèles, le circuit neuronal peut accepter plusieurs impulsions même en même temps.

Desert ginseng-Improve immunity (23)

cistanche tubulosa-améliorer le système immunitaire

Dans le dispositif intégrateur à fuite, Cmem représente la membrane cellulaire du neurone et M5 peut être considéré comme une résistance à fuite à l'état de repos. Lorsqu'il n'y a pas d'entrée externe sur le dispositif d'entrée, le condensateur est chargé par le courant de fuite de M3 et M4, et le potentiel de membrane Vmem augmente continuellement avec l'afflux du courant de fuite [le courant est intégré comme le montre la figure 2 ( bi)]. À ce stade, puisque M5 est à l'état bloqué, il peut être considéré comme une résistance en parallèle avec le condensateur, c'est-à-dire une résistance qui fuit, capable d'atteindre une constante de temps long. Une fois que Vmem atteint la tension de seuil VthðFireÞ, le dispositif de mise à feu est activé [Fig. 2(b-ii)]. Dans les conceptions conventionnelles, les neurones LIF utilisent principalement des structures de circuits dédiées de comparateur à temps continu ou cadencé pour définir la tension de seuil. Cela n’est pas favorable à la création de SNN aussi économes en énergie et à l’échelle biologique que le cerveau. Dans cette étude, le dispositif de déclenchement est mis en œuvre par un comparateur basé sur un inverseur qui peut définir la tension de seuil par deux transistors au lieu d'un comparateur à temps continu ou cadencé. Pour obtenir une tension de seuil précise pour un comparateur basé sur un onduleur, nous pouvons utiliser une technique de mise à zéro automatique qui détecte, stocke et annule périodiquement le décalage à l'aide de commutateurs et de condensateurs.28 Cependant, cela nécessite des horloges multiphasées pour contrôler les commutateurs ; il ne convient donc pas aux implémentations de réservoirs économes en surface et en énergie. Bien qu’avec un simple comparateur basé sur un inverseur, il puisse y avoir une variation de seuil due aux fluctuations du processus, de la tension et de la température, cela peut être considéré comme imitant la différence entre les individus de vrais neurones. De plus, la fonction d'apprentissage peut compenser les différences de seuil et les variations de processus.29 Lorsqu'il y a une entrée d'impulsion excitatrice, M1 sera activé instantanément, ce qui entraînera une augmentation rapide du courant pour charger Cmem et Vmem. À l'inverse, un signal d'entrée d'impulsion inhibiteur entraînera l'activation momentanée de M2, ce qui entraînera une charge plus lente ou même une décharge de Cmem à travers M2, ce qui à son tour ralentira le taux d'augmentation ou de chute de Vmem.

Lorsque le dispositif de tir est activé, il génère un faible niveau de VFire à connecter à M4, ce qui va augmenter le courant pour charger le condensateur à membrane Cmem, entraînant une augmentation instantanée du potentiel de membrane Vmem, ce qui favorise le déclenchement du tir. appareil. Cela imite l'afflux de Naþ dans la membrane cellulaire, provoquant une augmentation rapide de la tension membranaire, c'est-à-dire un effet de rétroaction positif. Enfin, le faible niveau de VFire généré par le dispositif de tir est converti en un niveau élevé de VSpike [Fig. 2(b-iii)] par un dispositif de retard qui comprend un inverseur à trois étages et connecte le VSpike à M3 et M5, réinitialisant Vmem à zéro. Ce processus imite l'activation des canaux Kþ dans les neurones biologiques, entraînant le flux sortant d'ions Kþ et le retour éventuel de la membrane cellulaire à son état de repos.

Les synapses sont des modules essentiels dans les SNN, car elles interconnectent les neurones. Nous avons conçu un module neuronal pour générer des signaux dans le domaine temporel, et nous avons ensuite besoin d'un support de transmission, c'est-à-dire une synapse, pour transmettre ce signal dans le domaine temporel à d'autres neurones. Pour composer un réseau neuronal complet, nous concevons un module synapse basé sur des signaux de fréquence, comme le montre la figure 2 (c). La synapse se compose principalement d'un oscillateur en anneau commandé en tension fonctionnant sous un courant de fuite, composé d'un inverseur à trois étages (M6 ; M7 ; M8 ; M9 ; M10 et M11). Le circuit neuronal précédent se déclenche et génère une pointe VSpike, qui est inversée par un inverseur, rendant M5 ouvert pendant une courte période, et le courant circulant à travers M5 charge CSYN, ce qui augmentera VSYN. Une fois que VSYN atteint la tension qui déclenche l'oscillation, l'oscillateur en anneau commence à osciller [Fig. 2(b-iv) et 2(bv)]. Si le neurone précédent ne se déclenche pas pendant une longue période, VSYN fuira jusqu'à l'état initial, auquel cas la synapse redeviendra inactive. Puisque VSYN est équivalent à la tension d’alimentation de l’oscillateur en anneau, le courant sortant de M5 contrôle VSYN et, donc, la fréquence de l’oscillateur en anneau.

cistanche benefits for men-strengthen immune system

Avantages du cistanche pour les hommes : renforcer le système immunitaire

Les SNN remplissent la fonction d'apprentissage en ajustant les poids ; par conséquent, nous proposons un module de poids compatible avec les modules de neurones et de synapses dans le domaine temporel proposés décrits ci-dessus, comme le montre la figure 2 (d). Le module de pondération proposé ajuste les informations du domaine temporel, qui correspondent à la largeur des impulsions de sortie. Ce module se compose d'une ligne à retard, d'un multiplexeur et d'une porte ET. VRing est le signal d'onde carrée de la synapse qui passera par la ligne à retard. VWeight est le code numérique qui représente le poids, déterminé après apprentissage et utilisé pour contrôler le multiplexeur. La largeur de l'impulsion de sortie qui correspond au poids dans le domaine temporel est ajustée en fonction de la prise dans la chaîne d'onduleurs sélectionnée par le multiplexeur. Comme mentionné précédemment, si la largeur d'impulsion excitatrice ou inhibitrice est large, la tension Vmem dans le neurone suivant est chargée ou déchargée plus rapidement, respectivement. Cela correspond à un poids important. Dans cette étude, nous avons choisi un multiplexeur à 16 entrées, soit des poids de quatre bits (0000 à 1111). La sortie du module de poids est connectée au dispositif d'entrée des circuits neuronaux suivants. La fréquence du pouls (espacement des impulsions) et la largeur du pouls agissent simultanément sur le neurone pour modifier son activité. La fréquence de l'impulsion est déterminée par la fréquence de sortie de la synapse précédente, tandis que la force de couplage dépend de la largeur de la sortie de l'impulsion déterminée par le module de pondération.

FIG. 1. (a) The proposed structure and (b) a micrograph of the chip.

FIGUE. 1. (a) La structure proposée et (b) une micrographie de la puce.

FIG. 2. (a) Circuit diagram of the proposed neuron module, (b) behaviors of proposed LIF neuron and synapse modules, (c) circuit diagram of the proposed synapse module, and (d) circuit diagram of the proposed weight module.


FIGUE. 2. (a) Schéma de circuit du module neuronal proposé, (b) comportements des modules de neurones et de synapses LIF proposés, (c) schéma de circuit du module de synapse proposé, et (d) schéma de circuit du module de poids proposé.

La figure 3 (a) montre la configuration expérimentale utilisée pour tester la puce de structure neuronale fabriquée [Fig. 1(b)], où la puce a été placée sur une station de sonde Summit 11000 et testée avec des sondes en contact direct avec elle. Dans les expériences, nous supposons que les entrées des deux modules de poids sont les synapses de pré-étape, qui sont émulées par les générateurs de fonctions arbitraires. La sortie du neurone est connectée au module synapse, dont la sortie variera en réponse au changement de sortie du neurone. Nous avons utilisé un générateur de fonctions arbitraires Tektronix AFG31252 comme synapse préalable pour fournir des signaux d'onde carrée à nos circuits neuronaux fabriqués. Dans le même temps, nous avons observé les formes d'onde de sortie à l'aide d'oscilloscopes (Keysight MSOX6004A et DSOX93304Q). Les résultats expérimentaux sont présentés sur les figures. 3(b) à 3(d). Pour vérifier l'effet des poids sur la cadence de déclenchement des neurones, nous avons fixé la fréquence de sortie synapse pré-étape (générateur de fonctions) à 100 Hz et observé le changement de la cadence de déclenchement des neurones pour quatre puces en ajustant le module de poids. Nous avons fait la moyenne des fréquences de pointe 1 024 fois sur une plage de temps de 100 ms pour dériver la fréquence de déclenchement neuronal correspondante pour chaque réglage de poids, comme le montre la figure 3 (b). Le neurone proposé se déclenche essentiellement avec le taux déterminé par les courants de fuite entrant et sortant de Cmem en équilibre, et l'entrée de l'étage précédent le module. Nous pouvons voir que lorsque les poids augmentent, la fréquence de déclenchement du module neuronal augmente. Principalement en raison de la variation du processus des FET, la fréquence de déclenchement varie d'environ 610 % à 17 % sur quatre puces. Cependant, en raison des poids aléatoires dans ses connexions récurrentes, en particulier pour une utilisation dans un réservoir, ces variations aléatoires doivent être compensées lors du processus d'apprentissage dans les poids de sortie.

La figure 3 (c) compare la variation des temps d'activation des neurones en fonction du signal provenant de la synapse préalable. Les encadrés (i) à (iii) de la figure 3 (c) montrent respectivement les cas avec une entrée inhibitrice de 100 Hz (le poids est fixé à 1 100), aucune entrée et avec une entrée excitatrice de 100 Hz (le poids est fixé à 1 100). , d'où nous pouvons voir que l'entrée inhibitrice diminue la fréquence de déclenchement du neurone et augmente l'intervalle de déclenchement, tandis que l'entrée excitatrice fonctionne à l'opposé de l'entrée inhibitrice. Les résultats expérimentaux montrent que l'intervalle d'activation du neurone proposé est de l'ordre de la milliseconde, ce qui est conforme à la caractéristique des neurones biologiques ayant des constantes de temps en millisecondes. Lorsqu'aucun signal n'est fourni par la synapse préalable, la consommation électrique est d'environ 800 pW, générant environ 20 pics dans un cycle de 100 ms. À partir de là, on peut estimer grossièrement que chaque pic consomme environ 4 pJ d’énergie. Par la suite, les encadrés (i) à (iii) de la figure 3 (c) ont été utilisés comme signaux d'entrée dans la synapse pour influencer la VR. Les formes d'onde VRing mesurées dans ces trois cas sont illustrées sur la figure 3 (d). Les moyennes des fréquences pour chaque cas mesurées sur une période de 5 s sont respectivement de 41, 90 et 98 Hz. La faisabilité de cette gamme de fréquences de sortie synapse sera validée avec des simulations au niveau du système dans la discussion suivante.

FIG. 3. (a) A photo of the experimental setup, (b) the measured firing rate of the neuron for four chips, (c) the measured waveforms of the neuron output, and (d) the measured waveforms of the synapse output.

FIGUE. 3. (a) Une photo de la configuration expérimentale, (b) la cadence de déclenchement mesurée du neurone pour quatre puces, (c) les formes d'onde mesurées de la sortie du neurone et (d) les formes d'onde mesurées de la sortie synapse.

FIG. 4. (a) Another combined structure fabricated to evaluate the synapse and (b) the measured waveforms of VRing and VSYN.


FIGUE. 4. (a) Une autre structure combinée fabriquée pour évaluer la synapse et (b) les formes d'onde mesurées de VRing et VSYN.

Pour faciliter l'observation de la réponse synchrone de la synapse, nous avons également fabriqué la structure de la figure 4 (a). La figure 4 (b) représente les résultats expérimentaux de la figure 4 (a). Nous avons utilisé un générateur de fonctions arbitraires Tektronix AFG31252 pour générer un signal d'onde carrée de 10 Hz VIN, comme indiqué sur la figure 4 (ai). Une fois que le VIN passe par un module de poids, il produit un signal de pointe VOUTðWeightÞ. La tension VSYN est observée via une source suiveuse sur puce en tant que tampon analogique. Bien que VOUTðWeightÞ ne soit pas conçu pour être observé de l'extérieur car il s'agit d'une impulsion étroite, avec l'arrivée de VOUTðWeightÞ après le front descendant de VIN, la tension VSYN au niveau de la synapse augmente instantanément, comme le montre la figure 4 (b-ii). ce qui à son tour augmente la fréquence du VRing. Si le VOUTðWeightÞ n'arrive pas pendant une longue période, VSYN diminue, ce qui à son tour affecte la fréquence VRing à devenir plus petite. Le tableau I montre la comparaison des performances entre les circuits neuronaux autonomes. Le circuit neuronal proposé présente des avantages en termes de consommation d'énergie et de surface. Les dessins dans les réf. 13 à 16 utilisaient un comparateur à temps continu ou cadencé, et ces conceptions occupent une grande quantité de surface de puce ainsi que de consommation d'énergie. Le neurone fabriqué selon un processus non CMOS proposé dans la réf. 18 ne nécessite pas de comparateur, ce qui conduit à un avantage dans la zone. Cependant, sa consommation d'énergie est relativement élevée et ces technologies particulières sont moins matures et donc plus coûteuses que les processus CMOS standards. Les deux réf. 19 et 21 sont fabriqués selon un processus avancé. Cependant, par rapport à ce travail, Réf. 19 ne présente aucun avantage en termes de consommation d’énergie et de superficie. Bien que la Réf. 21 montre une meilleure efficacité énergétique avec les résultats de simulation, lorsqu'il est normalisé par le nœud technologique, le neurone proposé atteint une meilleure efficacité de zone.

Pour démontrer la faisabilité du neurone à pointe proposé et des circuits synapses basés sur un oscillateur en anneau, une simulation comportementale est réalisée dans un environnement MATLAB, comme le montre la figure 5 (a). Dans cette simulation, 100 neurones sont utilisés avec des connexions récurrentes aléatoires avec les modules de synapse et de pondération proposés. Les modules de poids proposés sont appliqués uniquement dans la couche réservoir et leurs poids sont attribués aléatoirement à l'avance et fixés pendant le processus d'apprentissage. Ainsi, les fluctuations aléatoires du réservoir sont compensées lors du processus d'apprentissage dans les poids de sortie. Pour établir une simulation réaliste, la plage de fréquences de sortie de chaque synapse est définie entre 15 et 200 Hz en fonction des résultats de mesure réels. L'algorithme des moindres carrés récursifs (RLS) est utilisé pour entraîner les poids de sortie comme introduit dans la réf. 30. Une onde sinusoïdale de 10 Hz, qui correspond à l’échelle de temps des informations relatives à l’activité humaine, est utilisée comme exemple de signal d’entrée de supervision. Le signal de supervision et le signal de sortie entraîné sont illustrés sur la figure 5 (bi). Le signal de rétroaction de la sortie est converti en trains d'impulsions excitatrices et inhibitrices dont les fréquences sont proportionnelles à la valeur absolue de l'amplitude de sortie, comme le montrent les figures 1 et 2. 5(b-ii) et 5(b-iii), respectivement. Après cinq périodes de signal de supervision, les poids de sortie sont fixes et le SNN génère lui-même le signal appris, ce qui démontre la faisabilité des structures neuronales proposées pour la fonction d'apprentissage. Nous avons également découvert à partir de ces simulations que pour améliorer encore la capacité d'apprentissage, la plage de réglage de la fréquence de sortie de la synapse doit être augmentée, ce qui peut être réalisé en optimisant le circuit synapse. Par exemple, avec les plages de réglage de fréquence étendues de 15 Hz à 2 kHz et de 15 Hz à 20 kHz, les signaux appris deviennent plus fluides pour mieux reproduire le signal de supervision, comme le montrent les Fig. 5(b-iv) et 5(bv), respectivement.

Desert ginseng-Improve immunity (2)

cistanche tubulosa-améliorer le système immunitaire

En résumé, nous avons proposé une structure neuronale pour générer et transmettre des signaux dans le domaine temporel. Le neurone et la synapse proposés occupent respectivement une superficie de 127 et 231 lm2. Cette structure n'utilise pas d'amplis opérationnels ni de comparateurs à temps continu ou cadencés, tandis que la fonction de déclenchement est réalisée avec un comparateur basé sur un inverseur pour offrir des avantages en termes de surface et de consommation d'énergie. La structure neuronale proposée dans le domaine temporel bénéficie de technologies de processus à l'échelle par rapport aux conceptions conventionnelles dans le domaine tension/courant. Les résultats réels de fabrication et de mesure de la puce démontrent la fonction de communication du signal temporel avec des constantes de temps en millisecondes. La structure neuronale proposée dans le domaine temporel est bien adaptée à la création de réseaux neuronaux à pointe pour traiter des informations de séries chronologiques en temps réel pour l'interaction homme-machine.

TABLEAU I. Comparaison des performances des circuits neuronaux autonomes

TABLE I. Performance comparison of stand-alone neuron circuits

FIG. 5. (a) The behavioral model of the SNN for reservoir computing is based on the proposed neural structure. (b) The system-level behavioral simulation results: (i) based on a model with 15–200 Hz frequency tuning range, a zoomed-in view of the (ii) excitatory and (iii) inhibitory input signals converted from the output, (iv) based on 15–2 kHz and (v) 15–20 kHz frequency tuning ranges.


FIGUE. 5. (a) Le modèle comportemental du SNN pour le calcul de réservoir est basé sur la structure neuronale proposée. (b) Les résultats de la simulation comportementale au niveau du système : (i) sur la base d'un modèle avec une plage de réglage de fréquence de 15 à 200 Hz, une vue agrandie des signaux d'entrée (ii) excitateurs et (iii) inhibiteurs convertis à partir de la sortie, (iv) basé sur des plages de réglage de fréquence de 15 à 2 kHz et (v) de 15 à 20 kHz.

LES RÉFÉRENCES

1 Y. Zhang, P. Qu, Y. Ji, W. Zhang, G. Gao, G. Wang, S. Song, G. Li, W. Chen, W. Zheng, F. Chen, J. Pei, R. Zhao, M. Zhao et L. Shi, Nature 586, 378-384 (2020).

2 D. Shin et H.-J. Yoo, Proc. IEEE 108, 1245-1260 (2020).

3 Y. LeCun, Y. Bengio et G. Hinton, Nature 521, 436-444 (2015).

4 T. Kohno et K. Aihara, AIP Conf. Proc. 1028, 113-128 (2008).

5 E. Chicca et G. Indiveri, Appl. Phys. Lett. 116, 120501 (2020).

6 Y. Bo, P. Zhang, Y. Zhang, J. Song, S. Li et X. Liu, J. Appl. Phys. 127, 245101 (2020).

7 K. Yang et A. Sengupta, Appl. Phys. Lett. 116, 043701 (2020).

8 X. Chen, T. Yajima, IH Inoue et T. Iizuka, Jpn. J.Appl. Phys. 61, SC1051 (2022).

9 W. Maass, neuronal. Réseaux 10, 1659-1671 (1997).

10S. S. Radhakrishnan, A. Sebastian, A. Oberoi, S. Das et S. Das, Nat. Commun. 12, 2143 (2021).

11X. Chen, T. Yajima, IH Inoue et T. Iizuka, dans Extended Abstract of International Conference on Solid State Devices and Materials (SSDM) (JSAP, 2021), pp.

12D. S. Jeong, J. Appl. Phys. 124, 152002 (2018).

13G. Indiveri, E. Chicca et R. Douglas, IEEE Trans. Neural. Réseaux 17, 211-221 (2006).

14X. Wu, V. Saxena, K. Zhu et S. Balagopal, IEEE Trans. Système de circuits. II 62, 1088-1092 (2015).

15A. Joubert, B. Belhadj, O. Temam et R. Heliot, dans The 2012 International Joint Conference on Neural Networks (IJCNN), 2012.

16S. A. Aamir, P. Müller, G. Kiene, L. Kriener, Y. Stradmann, A. Grübl, J. Schemmel et K. Meier, IEEE Trans. Bioméde. Système de circuits. 12, 1027-1037 (2018).

17A. Basu et PE Hasler, IEEE Trans. Système de circuits. Je 57, 2938-2947 (2010).

18S. Dutta, V. Kumar, A. Shukla, NR Mohapatra et U. Ganguly, Sci. Rep.7, 8257 (2017).

19A. Rubino, M. Payvand et G. Indiveri, dans la 26e Conférence internationale de l'IEEE sur l'électronique, les circuits et les systèmes (ICECS) (IEEE, 2019), pp.

20S. A. Aamir, Y. Stradmann, P. Müller, C. Pehle, A. Hartel, A. Grübl, J. Schemmel et K. Meier, IEEE Trans. Système de circuits. Je 65, 4299-4312 (2018).

21R. M. Saber Moradi et SA Bhave, dans la série de symposiums IEEE sur l'intelligence informatique (SSCI), 2017.

22K. Asada, T. Nakura, T. Iizuka et M. Ikeda, IEICE Electron. Express 15, 20182001 (2018).

23R. Staszewski, K. Muhammad, D. Leipold, C.-M. Hung, Y.-C. Ho, J. Wallberg, C. Fernando, K. Maggio, R. Staszewski, T. Jung, J. Koh, S. John, IY Deng, V. Sarda, O. Moreira-Tamayo, V. Mayega, R. Katz , O. Friedman, O. Eliezer, E. de Obaldia et P. Balsara, IEEE J. Solid-State Circuits 39, 2278-2291 (2004).

24C. Gallicchio et A. Micheli, Neural. Réseaux 24, 440-456 (2011).

25L. F. Abbott et P. Dayan, Neuroscience théorique (The MIT Press, 2005).

26W. Gerstner et WM Kistler, Modèles de neurones à pointes : neurones uniques, populations (Cambridge University Press, 2012).

27T. Yajima, Sci. Rep.12, 1150 (2022).

28B. Razavi, Principe de conception du système de conversion de données (Wiley-IEEE Press, 1995).

29T. Wunderlich, AF Kungl, E. Müller, A. Hartel, Y. Stradmann, SA Aamir, A. Grübl, A. Heimbrecht, K. Schreiber, D. Stöckel, C. Pehle, S. Billaudelle, G. Kiene, C. Mauch, J. Schemmel, K. Meier et MA Petrovici, Front. Neurosci. 13, 1-15 (2019).

30D. Sussillo et L. Abbott, « Générer des modèles d'activité cohérents à partir de réseaux de neurones chaotiques », Neuron 63, 544-557 (2009).

Vous pourriez aussi aimer