banner
Centre d'Information
Notre service en ligne est disponible 24 heures sur 24.

Les ondes cérébrales synchronisées de manière critique constituent une base efficace, robuste et flexible pour la mémoire et l'apprentissage humains.

Jul 21, 2023

Rapports scientifiques volume 13, Numéro d'article : 4343 (2023) Citer cet article

1371 Accès

3 Altmétrique

Détails des métriques

L'efficacité, la robustesse et la flexibilité de la mémoire et de l'apprentissage constituent l'essence même de l'intelligence, de la cognition et de la conscience naturelles humaines. Cependant, les opinions actuellement acceptées sur ces sujets ont été avancées jusqu’à présent sans aucun fondement sur une véritable théorie physique sur la façon dont le cerveau communique en interne via ses signaux électriques. Cette absence de cadre théorique solide a des implications non seulement sur notre compréhension du fonctionnement du cerveau, mais également sur un large éventail de modèles informatiques développés à partir de la vision orthodoxe standard de l'organisation neuronale du cerveau et du fonctionnement dérivé du réseau cérébral, basée sur la publicité Hodgkin-Huxley. des analogies de circuits ponctuelles qui ont produit une multitude de réseaux de neurones artificiels, récurrents, à convolution, à pointes, etc. (ARCSe NN) qui ont à leur tour conduit aux algorithmes standard qui constituent la base de l'intelligence artificielle (IA) et de l'apprentissage automatique ( ML). Notre hypothèse, basée sur notre modèle physique récemment développé de propagation des ondes cérébrales faiblement évanescentes (WETCOW), est que, contrairement au modèle orthodoxe actuel selon lequel les neurones du cerveau s'intègrent et se déclenchent simplement sous accompagnement d'une fuite lente, ils peuvent à la place effectuer des tâches beaucoup plus sophistiquées de une synchronisation/désynchronisation cohérente et efficace guidée par l'influence collective de la propagation d'ondes cérébrales non linéaires proches des critiques, des ondes qui sont actuellement supposées n'être rien d'autre qu'un bruit infra-seuil sans conséquence. Dans cet article, nous mettons en évidence les capacités d'apprentissage et de mémoire de notre framework WETCOW, puis l'appliquons à l'application spécifique de l'IA/ML et des réseaux de neurones. Nous démontrons que l’apprentissage inspiré par ces ondes cérébrales synchronisées de manière critique est superficiel, mais que son timing et sa précision surpassent ceux de ses homologues ARCSe profonds sur des ensembles de données de test standard. Ces résultats ont des implications à la fois pour notre compréhension du fonctionnement cérébral et pour le large éventail d’applications IA/ML.

Les mécanismes de la mémoire humaine restent l’un des grands mystères non résolus de la science moderne. En tant que composante essentielle de l’apprentissage humain, l’absence d’une théorie cohérente de la mémoire a également des implications considérables sur notre compréhension de la cognition. Les progrès récents en neurosciences expérimentales et en neuroimagerie ont souligné l'importance de considérer les interactions du large éventail d'échelles spatiales et temporelles en jeu dans le fonctionnement cérébral, depuis les microéchelles des dendrites subcellulaires, des synapses, des axones, des somates, jusqu'aux mésoéchelles des interactions. les réseaux de circuits neuronaux, les macroéchelles des circuits à l'échelle du cerveau. Les théories actuelles dérivées de ces données expérimentales suggèrent que la capacité des humains à apprendre et à s'adapter à des stimuli externes en constante évolution repose sur le développement de circuits, de réseaux et d'architectures complexes, adaptables, efficaces et robustes, dérivés d'arrangements flexibles parmi la variété des types de cellules neuronales et non neuronales dans le cerveau. Une théorie viable de la mémoire et de l’apprentissage doit donc reposer sur un modèle physique capable de produire des phénomènes spatio-temporels multi-échelles cohérents avec les données observées.

Au cœur de tous les modèles actuels d'activité électrique cérébrale se trouve le modèle de pointe neuronale formulé par Hodgkin et Huxley (HH)1 qui a fourni des descriptions quantitatives des flux Na+/K+, des changements de conductance dépendant de la tension et du temps, des formes d'onde des potentiels d'action. , et la conduction des potentiels d'action le long des fibres nerveuses2. Malheureusement, bien que le modèle HH ait été utile pour adapter un ensemble d'équations multiparamétriques aux mesures de membranes locales, le modèle a été d'une utilité limitée pour déchiffrer des fonctions complexes apparaissant dans des réseaux interconnectés de neurones cérébraux. D'un point de vue pratique, le modèle HH original est trop compliqué pour décrire même des réseaux relativement petits4,5,6. Cela a abouti au développement de techniques d'optimisation7,8,9,10 basées sur un modèle très réduit de neurone à fuite d'intégration et de déclenchement (LIF) suffisamment simple pour être utilisé dans les réseaux neuronaux, car il remplace toutes ces portes multiples. , courants, canaux et seuils avec un seul seuil et une seule constante de temps. La majorité des modèles de réseaux neuronaux à pointe (SNN) utilisent ce neurone LIF simpliste pour ce que l'on appelle « l'apprentissage profond »11,12,13,14, affirmant que cela s'inspire du fonctionnement cérébral. Bien que plusieurs modèles LIF soient utilisés pour la classification d'images sur de grands ensembles de données15,16,17,18,19, la plupart des applications des SNN sont encore limitées à des ensembles de données moins complexes, en raison de la dynamique complexe même du modèle LIF trop simplifié et des opérations non différenciables de Neurones stimulant le LIF. Certaines études remarquables ont appliqué les SNN à des tâches de détection d'objets20,21,22. Des méthodes basées sur Spike ont également été utilisées pour le suivi d'objets23,24,25,26. Une recherche est en plein essor sur l'utilisation des réseaux de dopage LIF pour l'apprentissage en ligne27, la lecture de lettres en braille28, différents dispositifs synaptiques neuromorphiques29 pour la détection et la classification de problèmes biologiques30,31,32,33,34,35,36. Des recherches importantes se concentrent sur la création d'un contrôle au niveau humain37, l'optimisation des algorithmes de rétro-propagation pour les réseaux de pointe38,39,40, ainsi que la pénétration beaucoup plus profonde dans le cœur des ARCS41,42,43,44 avec un plus petit nombre de pas de temps41, en utilisant un événement- paradigme piloté36, 40, 45, 46, appliquant la normalisation par lots47, les optimisations de dispersion et de collecte48, la plasticité supervisée49, les cartes binaires pas de temps50 et l'utilisation d'algorithmes d'apprentissage par transfert51. Parallèlement à ce large éventail d'applications logicielles, de nombreuses recherches sont menées pour développer et utiliser ces LIF SNN dans des applications embarquées à l'aide du matériel neuromorphique52,53,54,55,56,57, le nom générique donné à du matériel qui est nominalement basé ou inspiré par la structure et la fonction du cerveau humain. Cependant, si le modèle LIF est largement accepté et omniprésent en neurosciences, il n’en reste pas moins problématique dans la mesure où il ne génère aucun pic en soi.

\pi /2\)) roles (this is in addition to any phase shift introduced by the static network attributed phase delay factors \(\delta _{ij}\))./p>