banner
Nachrichtenzentrum
Unser Online-Service steht Ihnen rund um die Uhr zur Verfügung.

Kritisch synchronisierte Gehirnwellen bilden eine effektive, robuste und flexible Grundlage für das menschliche Gedächtnis und Lernen

Jul 21, 2023

Scientific Reports Band 13, Artikelnummer: 4343 (2023) Diesen Artikel zitieren

1371 Zugriffe

3 Altmetrisch

Details zu den Metriken

Die Wirksamkeit, Robustheit und Flexibilität des Gedächtnisses und des Lernens bilden die Essenz der natürlichen Intelligenz, Erkenntnis und des Bewusstseins des Menschen. Derzeitige Ansichten zu diesen Themen basieren jedoch bislang nicht auf einer echten physikalischen Theorie darüber, wie das Gehirn intern über seine elektrischen Signale kommuniziert. Dieses Fehlen eines soliden theoretischen Rahmens hat Auswirkungen nicht nur auf unser Verständnis der Funktionsweise des Gehirns, sondern auch auf eine Vielzahl von Rechenmodellen, die auf der Grundlage der orthodoxen Standardansicht der neuronalen Organisation des Gehirns und der von Netzwerken abgeleiteten Funktionsweise des Gehirns auf der Grundlage der Hodgkin-Huxley-Anzeige entwickelt wurden -hoc-Schaltkreisanalogien, die eine Vielzahl künstlicher, wiederkehrender, Faltungs-, Spiking- usw. neuronaler Netze (ARCSe NNs) hervorgebracht haben, die wiederum zu den Standardalgorithmen geführt haben, die die Grundlage für künstliche Intelligenz (KI) und maschinelles Lernen bilden ( ML)-Methoden. Unsere Hypothese, die auf unserem kürzlich entwickelten physikalischen Modell der schwach evaneszenten Ausbreitung von Gehirnwellen (WETCOW) basiert, ist, dass sie im Gegensatz zum aktuellen orthodoxen Modell, bei dem Gehirnneuronen sich nur unter langsamer Leckage integrieren und feuern, stattdessen viel anspruchsvollere Aufgaben ausführen können effiziente kohärente Synchronisation/Desynchronisation, gesteuert durch den kollektiven Einfluss der Ausbreitung nichtlinearer, nahezu kritischer Gehirnwellen, der Wellen, die derzeit als nichts anderes als belangloses Rauschen unterhalb der Schwelle angesehen werden. In diesem Artikel beleuchten wir die Lern- und Gedächtnisfähigkeiten unseres WETCOW-Frameworks und wenden es dann auf die spezifische Anwendung von KI/ML und neuronalen Netzen an. Wir zeigen, dass das durch diese kritisch synchronisierten Gehirnwellen inspirierte Lernen oberflächlich ist, sein Timing und seine Genauigkeit jedoch die Deep-ARCSe-Gegenstücke in Standardtestdatensätzen übertreffen. Diese Ergebnisse haben Auswirkungen sowohl auf unser Verständnis der Gehirnfunktion als auch auf das breite Spektrum von KI/ML-Anwendungen.

Die Mechanismen des menschlichen Gedächtnisses bleiben eines der großen ungelösten Rätsel der modernen Wissenschaft. Als entscheidender Bestandteil des menschlichen Lernens hat das Fehlen einer kohärenten Theorie des Gedächtnisses weitreichende Auswirkungen auch auf unser Verständnis der Kognition. Jüngste Fortschritte in der experimentellen Neurowissenschaft und der Neurobildgebung haben gezeigt, wie wichtig es ist, die Wechselwirkungen des breiten Spektrums räumlicher und zeitlicher Skalen zu berücksichtigen, die bei der Gehirnfunktion eine Rolle spielen, von den Mikroskalen subzellulärer Dendriten, Synapsen, Axone und Somata bis hin zu den Mesoskalen der Wechselwirkungen Netzwerke neuronaler Schaltkreise, die Makroskalen gehirnweiter Schaltkreise. Aktuelle, aus diesen experimentellen Daten abgeleitete Theorien legen nahe, dass die Fähigkeit des Menschen, zu lernen und sich an sich ständig ändernde äußere Reize anzupassen, auf der Entwicklung komplexer, anpassungsfähiger, effizienter und robuster Schaltkreise, Netzwerke und Architekturen beruht, die aus flexiblen Vereinbarungen zwischen den verschiedenen Arten entstehen neuronaler und nicht-neuronaler Zelltypen im Gehirn. Eine tragfähige Gedächtnis- und Lerntheorie muss daher auf einem physikalischen Modell basieren, das in der Lage ist, raumzeitliche Phänomene auf mehreren Skalen im Einklang mit beobachteten Daten zu erzeugen.

Das Herzstück aller aktuellen Modelle für die elektrische Aktivität des Gehirns ist das von Hodgkin und Huxley (HH)1 formulierte Neuronen-Spike-Modell, das quantitative Beschreibungen von Na+/K+-Flüssen, spannungs- und zeitabhängigen Leitfähigkeitsänderungen und den Wellenformen von Aktionspotentialen liefert und die Weiterleitung von Aktionspotentialen entlang von Nervenfasern2. Obwohl das HH-Modell bei der Anpassung multiparametrischer Gleichungen an lokale Membranmessungen nützlich war, war das Modell leider nur von begrenztem Nutzen bei der Entschlüsselung komplexer Funktionen, die in miteinander verbundenen Netzwerken von Gehirnneuronen auftreten3. Aus praktischer Sicht ist das ursprüngliche HH-Modell zu kompliziert, um selbst relativ kleine Netzwerke zu beschreiben4,5,6. Dies hat zur Entwicklung von Optimierungstechniken7,8,9,10 geführt, die auf einem stark reduzierten Modell eines Leaky-Integrate-and-Fire-Neurons (LIF) basieren, das einfach genug für den Einsatz in neuronalen Netzen ist, da es alle diese mehreren Tore ersetzt , Ströme, Kanäle und Schwellenwerte mit nur einem einzigen Schwellenwert und einer einzigen Zeitkonstante. Ein Großteil der Spiking Neural Network (SNN)-Modelle nutzt dieses vereinfachte LIF-Neuron für das sogenannte „Deep Learning“11,12,13,14 und behauptet, dass dies von der Gehirnfunktion inspiriert sei. Während mehrere LIF-Modelle für die Bildklassifizierung großer Datensätze verwendet werden15,16,17,18,19, sind die meisten Anwendungen von SNNs aufgrund der komplexen Dynamik selbst des stark vereinfachten LIF-Modells und der nicht differenzierbaren Operationen von immer noch auf weniger komplexe Datensätze beschränkt LIF-Spike-Neuronen. Einige bemerkenswerte Studien haben SNNs für Objekterkennungsaufgaben eingesetzt20,21,22. Spike-basierte Methoden wurden auch zur Objektverfolgung verwendet23,24,25,26. Es boomt die Forschung, LIF-Spike-Netzwerke für Online-Lernen27, das Lesen von Braille-Buchstaben28 und verschiedene neuromorphe synaptische Geräte29 zur Erkennung und Klassifizierung biologischer Probleme30,31,32,33,34,35,36 zu nutzen. Bedeutende Forschung konzentriert sich auf die Steuerung auf menschlicher Ebene37, die Optimierung von Back-Propagation-Algorithmen für Spitzennetzwerke38,39,40 sowie auf das viel tiefere Eindringen in den ARCS-Kern41,42,43,44 mit einer geringeren Anzahl von Zeitschritten41 unter Verwendung einer ereignisgesteuerten Methode. getriebenes Paradigma36, 40, 45, 46, Anwendung von Batch-Normalisierung47, Scatter-and-Gather-Optimierungen48, überwachte Plastizität49, Zeitschritt-Binärkarten50 und Verwendung von Transfer-Learning-Algorithmen51. Parallel zu diesem breiten Spektrum an Softwareanwendungen gibt es umfangreiche Forschungsarbeiten zur Entwicklung und Nutzung dieser LIF-SNN in eingebetteten Anwendungen mithilfe der neuromorphen Hardware52,53,54,55,56,57, so der generische Name auf Hardware, die nominell auf der Struktur und Funktion des menschlichen Gehirns basiert oder von dieser inspiriert ist. Obwohl das LIF-Modell in den Neurowissenschaften weithin akzeptiert und allgegenwärtig ist, ist es dennoch problematisch, da es per se keine Spitzen erzeugt.

Ein einzelnes LIF-Neuron kann formal in Differentialform beschrieben werden als

Dabei ist U(t) das Membranpotential, \(U_{rest}\) das Ruhepotential, \(\tau _m\) die Membranzeitkonstante, R der Eingangswiderstand und I(t) der Eingang aktuell58. Es ist wichtig zu beachten, dass Gl. (1) beschreibt nicht die tatsächlichen Spitzenwerte. Vielmehr integriert es den Eingangsstrom I(t) bei Vorliegen einer Eingangsmembranspannung U(t). In Abwesenheit des Stroms I(t) fällt die Membranspannung schnell (exponentiell) mit der Zeitkonstante \(\tau _m\) auf ihr Ruhepotential \(U_{rest}\) ab. In diesem Sinne ist die Integration „undicht“. In dieser Gleichung gibt es keine Struktur, die auch nur annähernd einer Systemresonanz entspricht, die man als „Spiking“ bezeichnen könnte. Darüber hinaus sind sowohl die Zerfallskonstante \(\tau _m\) als auch das Ruhepotential \(U_{rest}\) nicht nur Unbekannte, sondern angenommene Konstanten und daher erhebliche Vereinfachungen der tatsächlichen komplexen Gewebeumgebung.

Es ist eine merkwürdige Entwicklung in der Geschichte der Neurowissenschaften, dass der Diskrepanz zwischen dem beobachteten Spitzenverhalten von Neuronen und einem Modell des Systems, das nicht in der Lage ist, Spitzenwerte zu erzeugen, nicht durch eine Neuformulierung zu einem physikalisch realistischeren Modell begegnet wurde, sondern stattdessen durch das, was es kann kann nur als Ad-hoc-Patchwork-Fix beschrieben werden: die Einführung einer „Auslöseschwelle“ \(\Theta\), die definiert, wann ein Neuron schließlich aufhört, den Input zu integrieren, was zu einem großen Aktionspotential führt, das auf fast magische Weise mit seinen benachbarten Neuronen geteilt wird, Anschließend wird die Membranspannung U von Hand wieder auf das Ruhepotential \(U_{rest}\) zurückgesetzt. Das Hinzufügen dieser Bedingungen führt dazu, dass (1) nur die Dynamik beschreiben kann, die auftritt, wenn das Membranpotential U unter dieser Spitzenlinealschwelle \(\Theta\) liegt. Es ist wichtig zu erkennen, dass diese Beschreibung der „unterschwelligen“ Dynamik des Membranpotentials, bis es seine Auslöseschwelle erreicht hat, eine Situation beschreibt, in der benachbarte Neuronen nicht von einer Beschreibung von Rauschen unterhalb des Schwellwerts betroffen sind.

Kurz gesagt, die durch (1) beschriebene physikalische Situation steht im Widerspruch zu vielen sorgfältigen neurowissenschaftlichen Experimenten, die beispielsweise zeigen, dass (1) das Neuron anisotrop aktiviert wird, indem es dem Ursprung der ankommenden Signale an der Membran folgt; (2) Die Spitzenwellenform eines einzelnen Neurons variiert typischerweise als Funktion des Stimulationsortes; (3) Bei extrazellulären Stimulationen aus verschiedenen Richtungen fehlt die räumliche Summation. (4) Räumliche Summation und Subtraktion werden nicht erreicht, wenn intra- und extrazelluläre Stimulationen kombiniert werden, sowie bei nichtlokalen Zeitinterferenzen59. Solche Beobachtungen haben zu Forderungen geführt, „neuronale Funktionalitäten über den traditionellen Rahmen hinaus erneut zu untersuchen“59.

Eine solche erneute Untersuchung wurde in unserem Labor durchgeführt, wo wir ein physikalisches Modell der elektrischen Aktivität des Gehirns entwickelt haben. Wir haben gezeigt, dass im inhomogenen anisotropen Hirngewebesystem die zugrunde liegende Dynamik nicht unbedingt nur durch den Reaktions-Diffusions-Typ eingeschränkt ist. Die kürzlich entwickelte Theorie der schwach evaneszenten Gehirnwellen (WETCOW)60,61,62 zeigt aus physikalischer Sicht, dass die Ausbreitung elektromagnetischer Felder durch die hochkomplexe Geometrie inhomogener und anisotroper Domänen realer Gehirngewebe auch wellenförmig erfolgen kann. wie Form. Diese wellenartige Ausbreitung stimmt gut mit den Ergebnissen der oben genannten neuronalen Experimente überein59 und erklärt im Allgemeinen das breite Spektrum der beobachteten scheinbar unterschiedlichen räumlich-zeitlichen Eigenschaften des Gehirns. Die Theorie erzeugt eine Reihe nichtlinearer Gleichungen sowohl für die zeitliche als auch räumliche Entwicklung von Gehirnwellenmodi, die alle möglichen nichtlinearen Wechselwirkungen zwischen sich ausbreitenden Modi auf mehreren räumlichen und zeitlichen Skalen und Graden der Nichtlinearität umfassen. Die Theorie überbrückt die Lücke zwischen den beiden scheinbar nicht zusammenhängenden Spike- und Wellen-„Lagern“, da die erzeugte Wellendynamik das vollständige Spektrum der Gehirnaktivität umfasst, das von inkohärenten asynchronen räumlichen oder zeitlichen Spike-Ereignissen bis hin zu kohärenten wellenartigen Ausbreitungsmodi in zeitlicher oder räumlicher Hinsicht reicht Domänen bis hin zum kollektiv synchronisierten Spitzenwert mehrerer zeitlicher oder räumlicher Modi.

In diesem Artikel beleuchten wir einige besondere Aspekte der WETCOW-Theorie, die in direktem Zusammenhang mit dem biologischen Lernen durch Wellendynamik stehen, und zeigen, wie diese Prinzipien nicht nur unser Verständnis der Kognition erweitern, sondern auch die Grundlage für eine neuartige Klasse technischer Analoga sowohl für Software als auch für Software bilden können Hardware-Lernsysteme, die mit den extremen Energie- und Dateneffizienzeigenschaften biologischer Systeme arbeiten können, die adaptive Widerstandsfähigkeit in dynamischen Umgebungen erleichtern.

Wir möchten betonen, dass eine Hauptmotivation für unsere Arbeit die Erkenntnis ist, dass in der Forschungsgemeinschaft in den letzten Jahren ein schnell wachsender Fokus auf Theorien des Gedächtnisses, des Lernens und des Bewusstseins gelegt wurde, die auf Netzwerken von HH (LIF)-Neuronen als biologischen basieren und/oder physischer Grundlage63. In diesem Fall wird davon ausgegangen, dass jedes einzelne Neuron ein Element (oder ein Knoten) mit festen Eigenschaften ist, das Eingaben isotrop sammelt und auslöst, wenn genug gesammelt wurde. Die Lernalgorithmen werden dann als Prozesse diskutiert, die Netzwerkeigenschaften aktualisieren, z. B. die Verbindungsstärke zwischen diesen festen Knoten durch Plastizität64 oder die Anzahl der teilnehmenden festen Neuronenknoten im Netzwerk durch Geburt und Rekrutierung neuer Neuronenknoten65 usw. In unserem Artikel besprechen wir konzentrieren sich auf verschiedene Aspekte der Netzwerkfunktion – wir gehen davon aus, dass das Netzwerk nicht durch feste Knoten (Neuronen) gebildet wird, sondern durch flexible Pfade, die sich ausbreitende Wellen, Wellenpakete oder Wellenmodi umfassen. Formal spielen diese Wellenmodi in jedem Netzwerk von Wellenmodi die gleiche Rolle wie einzelne HH-Knoten (LIF) in Netzwerken von Neuronen. Daher verwenden wir häufig austauschbar „Wellenmodus“ durch „Netzwerkknoten“. Da jedoch jedes einzelne Neuron auf mehrere Wellenmodi treffen kann, die von jedem anderen Neuron eintreffen, und sich die Synchronisation mit oder ohne Spikes je nach Ursprung der ankommenden Signale als etwas manifestiert, das wie eine anisotrope Aktivierung aussieht59, ist unser Wellennetzwerkparadigma in der Lage, vieles zu charakterisieren komplexere und subtilere kohärente Gehirnaktivität und zeigt somit funktionsreichere Möglichkeiten zum „Lernen“ und zur Gedächtnisbildung.

Die Testbeispiele, die auf unseren WETCOW-inspirierten Algorithmen basieren, zeigen eine hervorragende Leistung und Genauigkeit und sind erwartungsgemäß widerstandsfähig gegen katastrophales Vergessen und demonstrieren Echtzeit-Erkennung, Lernen, Entscheidungsfindung und Vorhersage. Aufgrund der sehr effizienten, schnellen, robusten und sehr präzisen Spike-Synchronisation sind die WETCOW-basierten Algorithmen in der Lage, in Echtzeit auf neuartige, unsichere und sich schnell ändernde Bedingungen zu reagieren und werden geeignete Entscheidungen auf der Grundlage kleiner Datenmengen in kurzer Zeit ermöglichen Horizonte. Diese Algorithmen können die Unsicherheitsquantifizierung für Daten mit hoher Dichte, großer Größe, gemischten Modalitäten und unterschiedlichen Verteilungen umfassen und werden die Grenzen der Verallgemeinerung außerhalb der Verteilung verschieben.

Das WETCOW-Modell soll mehrere unterschiedliche Gedächtnisphänomene erfassen. Auf nichtmathematische Weise kann es beschrieben werden als

Kritische Kodierung – das WETCOW-Modell zeigt, wie unabhängige Oszillatoren in einem heterogenen Netzwerk mit unterschiedlichen Parametern durch kritische Synchronisation einen kohärenten Zustand (Speicher) bilden.

Synchronisationsgeschwindigkeit – das WETCOW-Modell zeigt, dass dieser Synchronisationsprozess aufgrund der koordinierten Arbeit der Amplituden-Phasen-Kopplung deutlich schneller ist als die Gedächtnisbildung im Spike-Netzwerk von Integrate-and-Fire-Neuronen.

Speicherkapazität – Das WETCOW-Modell zeigt, dass ein kohärenter Speicherzustand mit vorhergesagten Codierungsparametern bereits mit zwei Knoten gebildet werden kann, was möglicherweise eine erhebliche Steigerung der Speicherkapazität im Vergleich zum herkömmlichen Spitzenparadigma ermöglicht.

Lerneffizienz – das WETCOW-Modell zeigt, dass die Verarbeitung neuer Informationen durch Synchronisierung von Netzwerkparametern in einem nahezu kritischen Bereich eine natürliche Entwicklung eines kontinuierlichen Gedächtnisses vom Typ Lernender ermöglicht, das für die menschliche Wissensverarbeitung repräsentativ ist.

Speicherrobustheit – das WETCOW-Modell zeigt, dass der Speicherzustand, der in einem nichtplanaren, kritisch synchronisierten Netzwerk gebildet wird, möglicherweise stabiler, anfälliger für kontinuierliches Lernen und widerstandsfähiger gegenüber katastrophalem Vergessen ist.

Die im Folgenden vorgestellten Experimente übersteigen eindeutig die menschliche Trainingskapazität, stellen aber dennoch eine sehr gute Reihe vorläufiger Stresstests dar, die alle unsere Behauptungen untermauern, von der kritischen Kodierung bis zur Robustheit des Gedächtnisses. Der Nachweis, dass ein Back-Propagation-Schritt im Allgemeinen nicht für eine sehr gute Leistung des kontinuierlichen Lernens erforderlich ist, sowie ein geringer Platzbedarf an Knoten und Eingabedaten, die an der Speicherbildung beteiligt sind, sind repräsentativ für menschliches Lernen mit wenigen Schüssen66,67,68,69 und relevant für die größeren Themen, die in unserem Artikel vorgestellt werden.

Eine Reihe von Ableitungen, die zur WETCOW-Beschreibung führten, wurde ausführlich in60,61,62 vorgestellt und basiert auf Überlegungen, die sich aus der allgemeinsten Form der elektromagnetischen Aktivität des Gehirns ergeben, ausgedrückt durch Maxwell-Gleichungen in einem inhomogenen und anisotropen Medium70,71,72

Unter Verwendung des elektrostatischen Potentials \(\varvec{E}=-\nabla \Psi\) gilt das Ohmsche Gesetz \(\varvec{J}=\varvec{\sigma }\cdot \varvec{E}\) (wobei \(\ varvec{\sigma }\equiv \{\sigma _{ij}\}\) ist ein anisotroper Leitfähigkeitstensor), eine lineare elektrostatische Eigenschaft für Gehirngewebe \(\varvec{D}=\varepsilon \varvec{E}\) , unter der Annahme, dass die skalare Permittivität \(\varepsilon\) eine „gute“ Funktion ist (d. h. sie geht nicht überall gegen Null oder Unendlich) und unter Berücksichtigung der Änderung der Variablen \(\partial x \rightarrow \varepsilon \partial x^\ Primzahl\) kann die Ladungskontinuitätsgleichung für die räumlich-zeitliche Entwicklung des Potentials \(\Psi\) als permittivitätsskalierter Leitfähigkeitstensor \(\varvec{\Sigma }=\{\sigma _{ij }/\varepsilon \}\) als

wobei wir einen möglichen externen Quellen- (oder Kraft-)Term \({\mathcal {F}}\) eingefügt haben. Für Hirnfasergewebe könnte der Leitfähigkeitstensor \(\varvec{\Sigma }\) entlang der Faserrichtung deutlich größere Werte haben als quer dazu. Die Ladungskontinuität ohne Erzwingung, also (\({\mathcal{F}}=0\)) kann in Tensorschreibweise geschrieben werden als

wobei sich wiederholende Indizes die Summation bezeichnen. Einfache lineare Wellenanalyse, d. h. Substitution von \(\Psi \sim \exp {(-i(\varvec{k}\cdot \varvec{r}-\Omega t)})\), wobei \(\varvec{k }\) die Wellenzahl, \(\varvec{r}\) die Koordinate, \(\Omega\) die Frequenz und t die Zeit ist, ergibt die folgende komplexe Dispersionsbeziehung:

welches sich aus den Real- und Imaginärkomponenten zusammensetzt:

Obwohl in dieser allgemeinen Form das elektrostatische Potential \(\Psi\) sowie die Dispersionsbeziehung \(D(\Omega ,\varvec{k})\) die dreidimensionale Wellenausbreitung beschreiben, haben wir gezeigt60, 61, dass in In anisotropen und inhomogenen Medien sind einige Wellenausbreitungsrichtungen gleichmäßiger als andere, wobei die Vorzugsrichtungen durch das komplexe Zusammenspiel des Anisotropietensors und des Inhomogenitätsgradienten bestimmt werden. Obwohl dies von erheblicher praktischer Bedeutung ist, insbesondere weil Anisotropie und Inhomogenität direkt mit nicht-invasiven Methoden geschätzt werden können, konzentrieren wir uns der Übersichtlichkeit halber hier auf die eindimensionalen skalaren Ausdrücke für räumliche Variablen x und k, die leicht verallgemeinert werden können auch für die mehrdimensionale Wellenausbreitung.

Basierend auf unserer nichtlinearen Hamilton-Formulierung der WETCOW-Theorie62 existiert ein anharmonischer Wellenmodus

wobei a eine komplexe Wellenamplitude und \(a^\dag\) ihr Konjugat ist. Die Amplitude a bezeichnet entweder zeitliche \(a_k(t)\) oder räumliche \(a_\omega (x)\) Wellenmodusamplituden, die mit dem räumlich-zeitlichen Wellenfeld \(\Psi (x,t)\) durch a in Beziehung stehen Fourier-Integralentwicklungen

Dabei verwenden wir der Übersichtlichkeit halber eindimensionale skalare Ausdrücke für die räumlichen Variablen x und k, sie können jedoch auch leicht für die mehrdimensionale Wellenausbreitung verallgemeinert werden. Die Frequenz \(\omega\) und die Wellenzahl k der Wellenmoden erfüllen die Dispersionsrelation \(D(\omega ,k)=0\), und \(\omega _k\) und \(k_\omega\ ) bezeichnen die Frequenz und die Wellenzahlwurzeln der Dispersionsrelation (die Struktur der Dispersionsrelation und ihr Zusammenhang mit den Eigenschaften des Hirngewebes wurde in60 diskutiert).

Der erste Term \(\Gamma aa^\dag\) in (6) bezeichnet den harmonischen (quadratischen) Teil des Hamilton-Operators mit entweder der komplexwertigen Frequenz \(\Gamma =i\omega +\gamma\) oder der Wellenzahl \ (\Gamma =ik +\lambda\), die sowohl einen reinen Schwingungsanteil (\(\omega\) oder k) als auch mögliche schwache Anregungs- oder Dämpfungsraten enthalten, entweder zeitlich \(\gamma\) oder räumlich \(\lambda\ ). Der zweite anharmonische Term ist kubisch in der niedrigsten Ordnung der Nichtlinearität und beschreibt die Wechselwirkungen zwischen verschiedenen sich ausbreitenden und nicht ausbreitenden Wellenmoden, wobei \(\alpha\), \(\beta _a\) und \(\beta _{a^\dag }\) sind die komplexwertigen Stärken dieser verschiedenen nichtlinearen Prozesse. Diese Theorie kann auf ein Netzwerk interagierender Wellenmoden der Form (6) erweitert werden, das durch eine Netzwerk-Hamilton-Form beschrieben werden kann, die das diskrete Spektrum dieser mehreren Wellenmoden als beschreibt62

wobei die Einzelmodenamplitude \(a_n\) wiederum entweder \(a_k\) oder \(a_\omega\), \(\varvec{a} \equiv \{a_n\}\) und \(r_{nm} =w_{nm}e^{i\delta _{nm}}\) ist die komplexe Netzwerk-Adjazenzmatrix, wobei \(w_{nm}\) die Kopplungsleistung bereitstellt und \(\delta _{nm}\) berücksichtigt Berücksichtigen Sie mögliche Phasenunterschiede zwischen Netzwerkknoten. Diese Beschreibung umfasst sowohl die Amplituden-\(\Re (a)\) als auch die Phasen-\(\Im (a)\)-Modenkopplung und ermöglicht, wie in62 gezeigt, ein deutlich einzigartiges Synchronisationsverhalten, das sich von beiden phasengekoppelten Kuramoto-Oszillatornetzwerken unterscheidet73,74,75 und aus Netzwerken amplitudengekoppelter neuronaler Integrate-and-Fire-Einheiten58, 76, 77.

Eine Gleichung für die nichtlineare Schwingungsamplitude a kann dann als Ableitung der Hamilton-Form ausgedrückt werden

nach dem Entfernen der Konstanten durch eine Substitution von \(\beta _{a^\dag }=1/2 {\tilde{\beta }}_{a^\dag }\) und \(\alpha =1/3{ \tilde{\alpha }}\) und das Weglassen der Tilde. Wir stellen fest, dass (10) zwar eine Gleichung für die zeitliche Entwicklung ist, die räumliche Entwicklung der Modenamplituden \(a_\omega (x)\) jedoch durch eine ähnliche Gleichung beschrieben werden kann, indem zeitliche Variablen durch ihre räumlichen Gegenstücke ersetzt werden, d. h. ((t,\omega,\gamma) \rightarrow (x,k,\lambda)\).

Zerlegt man (10) mit \(a=Ae^{i\phi }\) in ein Amplituden/Phasen-Gleichungspaar und nimmt einige Umordnungen vor, können diese Gleichungen als 70,71,72 umgeschrieben werden

wobei \(\psi\), \(w^a\) und \(w^\phi\) einige Modellkonstanten sind.

Die effektive Spitzenperiode \({T}_s\) (oder ihr Kehrwert – entweder die Feuerrate 1/\({T}_s\) oder die effektive Feuerfrequenz \(\omega _s = 2\pi /{T} _s\)) wurde in70,71,72 als geschätzt

wobei die kritische Frequenz \(\omega _c\) oder die kritische Wachstumsrate \(\gamma _c\) ausgedrückt werden kann als

Wo

Und

Diagramm des analytischen Ausdrucks (14) für die effektive Spitzenfrequenz \(\omega _s=2\pi /T_s\) (grün) und der aus numerischen Lösungen von (11) und (12) geschätzten Häufigkeit (rot) mit mehreren Einfügungen Zeigt die numerische Lösung mit dem angegebenen Wert des Kritikalitätsparameters \(c_r = \gamma /\gamma _c\) (detaillierte Diagramme der numerischen Lösungen, die zur Generierung von Einfügungen verwendet werden, sind im „Anhang“ enthalten). In der numerischen Lösung wurde nur \(\gamma\) variiert und die übrigen Parameter waren dieselben wie in62 angegeben.

Abbildung 1 vergleicht die Einzelknotenergebnisse (13) bis (15) mit Spitze-zu-Spitze-Perioden-/Frequenzschätzungen aus direkten Simulationen des Systems (11) bis (12). Mehrere Einfügungen zeigen Formen numerischer Lösungen, die auf der entsprechenden Kritikalitätsebene \(c_r\) generiert wurden.

Die oben analytisch abgeleiteten Einzelknotenergebnisse (13) bis (15) können direkt zur Schätzung der Auslösung miteinander verbundener Netzwerke verwendet werden, da sie die Spitzenrate als Funktion der Entfernung von der Kritikalität ausdrücken und der Kritikalitätswert wiederum durch ausgedrückt werden kann andere Systemparameter.

Ein Satz gekoppelter Gleichungen für ein Netzwerk aus mehreren Moden kann ähnlich wie die Einzelmodensätze (11) und (12) abgeleitet werden, indem man eine Ableitung der Netzwerk-Hamilton-Form (9) nimmt und die Variablen entsprechend ändert. Das ergibt für die Amplitude \(A_i\) und die Phase \(\phi _i\) einen Satz gekoppelter Gleichungen

Im kleinen (und konstanten) Amplitudengrenzwert (\(A_i=\) const) verwandelt sich dieser Gleichungssatz in einen Satz phasengekoppelter harmonischer Oszillatoren mit einem bekannten \(\sin (\phi _j-\phi _i \cdots )\ ) Form der Phasenkopplung. Aber in ihrer allgemeinen Form umfassen (19) und (20) auch eine phasenabhängige Kopplung von Amplituden (\(\cos (\phi _j-\phi _i \cdots )\)), die dynamisch definiert, ob die Eingabe von j nach i erfolgt wirken erregend (\(|\phi _j-\phi _i +\cdots |<\pi /2\)) oder hemmend (\(|\phi _j-\phi _i +\cdots |>\pi /2\)) Rollen (dies gilt zusätzlich zu jeder Phasenverschiebung, die durch die dem statischen Netzwerk zugeschriebenen Phasenverzögerungsfaktoren \(\delta_{ij}\) eingeführt wird).

Beginnen wir mit einem einzelnen unverbundenen Modus, der durch einen sensorischen Input angeregt wird. Basierend auf der Stärke der Anregung kann sich der Modus in jedem der in Abb. 1 gezeigten Zustände befinden, wobei die Aktivität von Schwingungen mit kleiner Amplitude im linearen Bereich über nichtlineare anharmonische Schwingungen bis hin zu Spitzen mit unterschiedlichen Raten (oder effektiven Frequenzen) im Sub-Bereich reicht. kritisches Regime, zu einem einzelnen spitzenartigen Übergang, gefolgt von Stille im überkritischen Anregungsbereich. Die Art der Aktivität wird durch den Kritikalitätsparameter \(c_r=(\gamma _0+\gamma _i)/\gamma _c\) bestimmt, wobei \(\gamma _c\) von den Parametern des Systems (15) abhängt und \(\ gamma _0\) bestimmt den Grad der sensorischen Eingabe und \(\gamma _i\) ist der Grad der Hintergrundaktivierung (entweder Erregung oder Hemmung). Daher für jeden beliebigen i-ten Modus

Infolgedessen zeigt der Modus i eine nichtlineare Schwingung mit einer effektiven Frequenz \(\omega _s\)

Als nächstes nehmen wir an, dass wir anstelle eines einzelnen Modus ein Netzwerk von Modi haben, die durch (11) und (12) beschrieben werden, in denen die sensorische Erregung fehlt (\(\gamma _0 = 0\)) und der Einfachheit halber nehmen wir zunächst an, dass alle Parameter (\(\gamma _i\), \(\omega _i\),\(\alpha _i\),\(\psi _i\),\(w^a_i\) und \(w^\phi _i \)) sind für alle Moden gleich und lediglich die Kopplungsparameter \(w_{ij}\) und \(\delta _{ij}\) können variieren. Der mittlere Erregungspegel für das Netzwerk \(\gamma _1 \equiv \gamma _i\) (\(i=1\ldots N\)) bestimmt die Art der Aktivität, die die nicht verbundenen Modi ausführen würden, und sie kann in einem der folgenden sein linearer, nichtlinearer, unterkritischer oder überkritischer Bereich. Natürlich hängt die Aktivität einzelner Knoten im Netzwerk (11) und (12) von den Details der Kopplung (Parameter \(w_{ij}\) und \(\delta _{ij}\)) ab und kann sehr komplex sein . Dennoch wurde in 62 gezeigt, dass eines der Merkmale des Phase-Amplituden-gekoppelten Systems (11) und (12) es sowohl von Netzwerken phasengekoppelter Kuramoto-Oszillatoren als auch von Netzwerken amplitudengekoppelter Integrations- und Feuerneuronen (oder) unterscheidet (eigentlich von allen Netzwerken, die auf der von Neuronen des Hodgkin-Huxley-Typs oder deren Ableitungen erzeugten Spike-Summierung basieren), besteht darin, dass selbst bei relativ schwacher Kopplung die Synchronisation einiger Modi in Netzwerk (11) und (12) sehr effizient erfolgen kann Benehmen. Die Bedingungen für Kopplungskoeffizienten, wenn dieser synchronisierte Zustand realisiert ist und jeder Modus i des Netzwerks das gleiche Aktivitätsmuster wie ein sensorisch angeregter Einzelmodus erzeugt, jedoch ohne externe Anregung, können für jeden Modus i wie folgt ausgedrückt werden:

Dies ist eine notwendige (aber nicht hinreichende) Bedingung, die zeigt, dass jeder wiederkehrende Pfad durch das Netzwerk, also jede Gehirnwellenschleife, die keine Phasenverzögerungen ungleich Null einführt, den gleichen Grad an Amplitudenerregung erzeugen sollte.

(Oben) Die Amplitude und Phase einer unterkritischen Einmodenspitze. (Mitte) Das Spitzensignal mehrerer Moden mit unterschiedlichen linearen Frequenzen \(\omega _i\), kritisch synchronisiert bei derselben effektiven Spitzenfrequenz (die Einheiten sind willkürlich). Die Details der Wellenfrontformen für jeden Modus sind unterschiedlich, aber die Spitzensynchronisation zwischen den Modi ist sehr stark und präzise. (Unten) Eine erweiterte Ansicht des Anfangsteils der Amplitude und Phase des Modus zeigt die Effizienz der Synchronisierung – die Synchronisierung erfolgt sogar schneller als die einzelne Periode linearer Schwingungen.

Selbst für diesen bereits stark vereinfachten Fall identischer Parameter gehen die derzeit vereinbarten Forschungslinien mit noch mehr Vereinfachungen fort und verwenden entweder einen Ansatz zur Phasensynchronisation mit konstanter (kleiner) Amplitude (Kuramoto-Oszillatoren) unter der Annahme, dass alle \(\delta _{ij}\) gleich sind zu \(-\pi /2\) oder \(\pi /2\), oder verwenden Sie eine Amplitudenkopplung (Hodgkin-Huxley-Neuron und dergleichen) mit \(\delta _{ij}\) gleich 0 (erregend) oder \(\pi\) (hemmend). Beide Fälle sind äußerst begrenzt und bieten keinen Rahmen für die Wirksamkeit, Flexibilität, Anpassungsfähigkeit und Robustheit, die für die Funktion des menschlichen Gehirns charakteristisch sind. Die Phasenkopplung ist nur in der Lage, eine sehr langsame und ineffiziente Synchronisation zu erzeugen. Die Amplitudenkopplung ist sogar noch weniger effizient, da sie die Details der Phase des eingehenden Signals völlig ignoriert und daher nur eine sporadische und inkonsistente Synchronisierung auf Populationsebene erzeugen kann.

(Oben) Die Amplitude und Phase einer einzelnen Mode, die in einem nahezu kritischen Bereich auftritt. (Mitte) Das Spitzensignal mehrerer Moden mit unterschiedlichen linearen Frequenzen \(\omega _i\), kritisch synchronisiert bei derselben effektiven Spitzenfrequenz, die nahe an der kritischen Frequenz liegt (die Einheiten sind willkürlich). Ähnlich wie beim unterkritischen Spiking in Abb. 2 sind die Details der Wellenfrontformen für jeden Modus unterschiedlich, aber die Spike-Synchronisation zwischen den Modi ist sehr stark und präzise. (Unten) Eine erweiterte Ansicht des Anfangsteils der Amplitude und Phase des Modus zeigt die Effizienz der Synchronisation – Synchronisation findet statt.

Natürlich werden (26) und (27) als idealisiertes veranschaulichendes Bild der kritisch synchronisierten Speicherzustandsbildung im phasen-amplitudengekoppelten Netzwerk (11) und (12) verwendet. In der Praxis können im Gehirn die Parameter des Netzwerks (11) und (12), einschließlich Frequenzen, Anregungen und anderer Parameter eines Einzelmodus-Hamiltonoperators (6), zwischen den Modi unterschiedlich sein. Aber selbst in diesem Fall folgt die Bildung eines kritisch synchronisierten Zustands dem gleichen oben beschriebenen Verfahren und erfordert, dass für alle Modi die Gesamteingaben für die Phase und die Amplitudenteile (\({\bar{\omega }}_i\) und \( {\bar{\gamma }}_i\)) erzeugen zusammen die gleiche effektive Frequenz \(\omega _s\), die die Beziehung erfüllt

Wo

Insgesamt kann der kritisch synchronisierte Speicher gebildet werden, indem eine Schleife aus nur zwei Modi erstellt wird. Dies erfordert natürlich möglicherweise eine zu große Amplitudenkopplung und führt nicht zu der Flexibilität und Robustheit einer Multimode-Kopplung mit kleineren Anpassungsschritten der Amplituden-Phasen-Kopplungsparameter. Die Abbildungen 2 und 3 zeigen zwei Beispiele für Netzwerksynchronisation mit effektiven Frequenzen, die die ursprüngliche effektive Single-Mode-Frequenz ohne sensorische Eingabe reproduzieren. Es wurden zehn Modi mit den gleichen Parametern angezeigt: \(w_i^a = w_i^\phi = \sqrt{5}\), \(\psi _i = 2\arctan {(1/3)}\), \(\ phi _i^c =\arctan {(1/2)}\), \(w_i = 1/2\), aber mit einer Menge gleichmäßig verteilter Häufigkeiten \(\omega _i\), (mit einem Mittelwert von 1 und a Standardabweichung von 0,58–0,59). Die Netzwerkkopplung \(w_{ij}\) und \(\delta _{ij}\) wurde ebenfalls aus einem Wertebereich (von 0 bis 0,2 für \(w_{ij}\) und \(-\pi) ausgewählt /2\) zu \(\pi /2\) für \(\delta _{ij}\)).

(Links) Schematische Darstellung eines typischen mehrschichtigen neuronalen Netzwerks, in dem Verbindungsgewichte durch unterschiedliche Pfadbreite angezeigt werden. (Rechts) Schematische Darstellung eines kritisch synchronisierten WETCOW-inspirierten flachen neuronalen Netzwerks, in dem die Amplitudengewichtungsfaktoren wiederum durch unterschiedliche Pfadbreiten dargestellt werden, ein zusätzlicher Phasenparameter jedoch das Verhalten nichtplanarer wiederkehrender Pfade steuert. Das Zusammenspiel der Amplituden-Phasen-Synchronisation, das sich in der Nichtplanarität eines flachen neuronalen Netzwerks zeigt, das aus einer einzigen Schicht synchronisierter Schleifen besteht, ermöglicht effizientere Berechnungen, Speicheranforderungen und Lernfähigkeiten als mehrschichtige tiefe ARCSes herkömmlicher KI /ML neuronale Netze.

Auch hier ist die Synchronisation für eine reine Phasenkopplung (\(\delta _{ij}\) gleich \(-\pi /2\) oder \(\pi /2\)) sehr ineffizient und erfolgt nur als Ergebnis von ein Auftreten erzwungener Schwingungen mit gemeinsamer Frequenz in einigen Teilen des Netzwerks oder im gesamten Netzwerk, abhängig von den Details der Kopplungsparameter. Die Amplitudenkopplung von Hodgkin-Huxley- und ähnlichen Neuronen ist sogar noch weniger effektiv als die reine Phasenkopplung, da sie nicht einmal die oszillierende und wellenartige Ausbreitungsnatur der Signale unterhalb des Schwellenwerts berücksichtigt, die zum Eingang und zur kollektiven Erzeugung des Spitzenausgangs beitragen. Daher sind die Ausdrücke (28) bis (30) nicht auf HH- und LIF-Modelle anwendbar, da Phaseninformationen sowie Frequenzabhängigkeit bei diesen Modellen verloren gehen und durch Ad-hoc-Sätze von Schwellenwerten und Zeitkonstanten ersetzt werden.

Im Gegensatz zum Mangel an Effizienz, Flexibilität und Robustheit, den diese hochmodernen, nur auf Phase und Amplitude beschränkten Ansätze zeigen, zeigt das vorgestellte Speichermodell, dass ein kritisches Verhalten auftritt, wenn sowohl Phase als auch Amplitude zusammenwirken Das Auftauchen im nichtlinearen System (9) führt zu einer effizienten, flexiblen und robusten Synchronisation, die für das menschliche Gedächtnis charakteristisch ist und für jede Art von Codierung geeignet ist, sei es Geschwindigkeit oder Zeit.

Das vorgestellte kritisch synchronisierte Gedächtnismodell basierend auf der Theorie schwach evaneszenter Gehirnwellen – WETCOW60,61,62 – weist mehrere sehr wichtige Eigenschaften auf. Erstens ermöglicht das Vorhandensein sowohl der Amplituden-\(w_{ij}\)- als auch der Phasen-\(\delta_{ij}\)-Kopplung den Aufbau effektiver und genauer rekurrenter Netzwerke, die kein umfangreiches und zeitaufwändiges Training erfordern . Der standardmäßige Backpropagation-Ansatz kann sowohl hinsichtlich der Berechnungen als auch des Speicherbedarfs und des großen Kommunikationsaufwands sehr teuer sein und ist daher möglicherweise schlecht für die Hardwarebeschränkungen in Computern und neuromorphen Geräten geeignet78. Mit dem WETCOW-basierten Modell ist es jedoch einfach, ein kleines flaches Netzwerk zu konstruieren, das das durch jede Eingabebedingung erzeugte Spitzensignal reproduziert, indem es das Zusammenspiel der Amplituden-Phasen-Kopplung (19) bis (20) und die expliziten analytischen Bedingungen für die Spitzengeschwindigkeit nutzt (13) und (15) als Funktion der Kritikalität. Die unter Verwendung dieser Analysebedingungen aufgebauten flachen neuronalen Netze liefern sehr genaue Ergebnisse mit sehr geringem Trainingsaufwand und sehr geringem Speicherbedarf.

Der Vergleich eines schematischen Diagramms für den typischen Arbeitsablauf eines herkömmlichen mehrschichtigen neuronalen ARCSe-Netzwerks mit einem Diagramm für das kritisch synchronisierte WETCOW-inspirierte flache neuronale Netzwerk ist in Abb. 4 dargestellt. Für das traditionelle mehrschichtige neuronale ARCSe-Netzwerk ist das Diagramm (linkes Feld) dargestellt ) enthält die Verbindungsgewichte, die durch Variation der Pfadbreite angenähert werden. Das schematische Diagramm für das kritisch synchronisierte WETCOW-inspirierte flache neuronale Netzwerk weist zusätzlich zu den Amplitudengewichtungsfaktoren (die wiederum durch variierende wiederkehrende Pfadbreiten dargestellt werden) einen zusätzlichen Phasenparameter auf, der durch die Nichtplanarität der Verbindungspfade angezeigt wird. Das Vorhandensein von Nichtplanarität in einem einschichtigen (flachen) amplitudenphasensynchronisierten neuronalen Netzwerk ermöglicht effizientere Berechnungen, Speicheranforderungen und Lernfähigkeiten als mehrschichtige tiefe ARCSes herkömmlicher neuronaler KI/ML-Netzwerke.

Die Nichtplanarität des in Abb. 4 gezeigten, von WETCOW inspirierten, kritisch synchronisierten flachen neuronalen Netzwerks veranschaulicht und unterstreicht einen weiteren wichtigen Vorteil im Vergleich zu den herkömmlichen mehrschichtigen neuronalen ARCSe-Netzwerken. Es ist bekannt, dass die herkömmlichen mehrschichtigen Deep-Learning-ARCSe-Neuronalnetzwerkmodelle unter dem Phänomen des katastrophalen Vergessens leiden – ein Deep-ARCSe-Neuronalnetzwerk, das sorgfältig trainiert und hin und her massiert wird, um eine wichtige Aufgabe auszuführen, kann dabei unerwartet seine Generalisierungsfähigkeit verlieren Aufgabe, nachdem zusätzliches Training für eine neue Aufgabe durchgeführt wurde79,80,81. Dies geschieht normalerweise, weil eine neue Aufgabe die vorherigen Gewichtungen überschreibt, die in der Vergangenheit gelernt wurden. Dies bedeutet, dass kontinuierliches Lernen die Modellleistung für die vorherigen Aufgaben verschlechtert oder sogar zerstört. Dies ist ein enormes Problem, was bedeutet, dass das traditionelle tiefe neuronale ARCSe-Netzwerk eine sehr schlechte Wahl für die Funktion eines kontinuierlichen Lernenden darstellt, da es ständig das zuvor erlernte Wissen vergisst und einem Bombardement neuer Informationen ausgesetzt ist. Da jede neue Information, die dem traditionellen mehrschichtigen Deep-Learning-ARCSe-Neuronalnetzwerk hinzugefügt wird, unweigerlich die Netzwerkgewichte verändert, die auf derselben Ebene beschränkt sind und mit dem gesamten zuvor angesammelten Wissen geteilt werden, das durch harte Trainingsarbeit entstanden ist, ist dieses katastrophale Vergessensphänomen im Allgemeinen keine Überraschung. Die Nichtplanarität des kritisch synchronisierten WETCOW-inspirierten flachen neuronalen Netzwerks bietet eine zusätzliche Möglichkeit, neues Wissen mit einer anderen Phasen-Amplituden-Wahl außerhalb der Ebene zu kodieren und so zuvor gesammeltes Wissen zu bewahren. Dadurch eignet sich das kritisch synchronisierte WETCOW-inspirierte flache neuronale Netzwerkmodell besser für den Einsatz in einem kontinuierlichen Lernszenario.

Ein weiterer wichtiger Vorteil der WETCOW-Algorithmen ist ihre numerische Stabilität, die sie auch bei umfangreichem Training robust macht. Da das System (19) und (20) das gesamte Spektrum der Dynamik, von linearen Schwingungen bis hin zu Spitzen, in perfekt differenzierbarer Form beschreibt, ist es perfekt differenzierbar. Sie unterliegen daher nicht einer der größten Einschränkungen aktueller Standardmodelle – der Nichtdifferenzierbarkeit der Spitzen-Nichtlinearität für LIF-Modelle (und ähnliche Modelle), deren Ableitung überall Null ist, außer bei \(U = \Theta\) und gerade bei \(U=\Theta\) sind die Ableitungen nicht nur groß, sondern streng genommen auch nicht definiert.

Die Leistung und Genauigkeit WETCOW-basierter Lernansätze lässt sich leicht anhand zweier häufig verwendeter Datenbanken demonstrieren: MNIST82 und Fashion-MNIST83. Sowohl die ursprüngliche handgeschriebene Ziffern-MNIST-Datenbank Abb. 5 (oben) als auch eine MNIST-ähnliche Modeproduktdatenbank – Datensatz der Artikelbilder von Zalando, der als direkter Ersatz für den ursprünglichen MNIST-Datensatz konzipiert ist – Abb. 5 (unten) enthält 60.000 Trainingsbilder und 10.000 Testbilder. Jedes einzelne Bild ist ein Graustufenbild mit \(28\times 28\) Pixeln, das einem einzelnen Etikett aus 10 verschiedenen Etikettenklassen zugeordnet ist.

(Oben) Mehrere Beispielbilder aus der MNIST-Datenbank handgeschriebener Ziffern. (Unten) Mehrere Beispielbilder aus der MNIST-ähnlichen Modeproduktdatenbank von Zalandos Artikelbildern, die als direkter Ersatz für den ursprünglichen MNIST-Datensatz konzipiert sind.

Die Ergebnisse für unser WETCOW-basiertes Modell für ein flaches rekurrentes neuronales Netzwerk, das auf die handgeschriebenen MNIST-Ziffern Abb. 5 (oben) und die MNIST-Modebilder Abb. 5 (unten) angewendet wird, sind in Tabelle 1 zusammengefasst. In beiden Fällen wurden die Netzwerke für \ generiert. (7\times 7\) heruntergesampelte Bilder wurden verschoben und auf das gemeinsame Referenzsystem neu skaliert. Für jeden der Datensätze zeigt Tabelle 1 zwei Einträge. Der erste entspricht einem anfänglichen Aufbau eines wiederkehrenden Netzwerks, das nur eine einzige Iteration umfasst, ohne Rückausbreitung und Umschulungsschritte. In beiden Fällen führt dieser erste Schritt zu einer sehr guten Anfangsgenauigkeit, die den Endergebnissen einiger der tiefen ARCSes84, 85 entspricht oder diese sogar übertrifft. Der zweite Eintrag für jeden Datensatz zeigt die höchste erreichte Genauigkeit und die entsprechenden Trainingszeiten. Beide Einträge bestätigen, dass zum Erreichen von Genauigkeiten, die um Größenordnungen kürzere Trainingszeiten erfordern, höher sind als die Genauigkeiten, die mit einem der tiefen ARCSes erreicht werden.

In diesem Artikel werden Argumente und Testergebnisse vorgestellt, die zeigen, dass die kürzlich entwickelte, auf Physik basierende Theorie der Wellenausbreitung im Kortex – die Theorie der schwach evaneszenten Gehirnwellen – WETCOW60,61,62 – sowohl einen theoretischen als auch rechnerischen Rahmen bietet, um die Adaptivität besser zu verstehen. Flexibilität, Robustheit und Effektivität des menschlichen Gedächtnisses und können daher bei der Entwicklung neuartiger Lernalgorithmen von entscheidender Bedeutung sein. Diese neuartigen Algorithmen ermöglichen möglicherweise das Erreichen einer extremen Dateneffizienz und adaptiven Widerstandsfähigkeit in dynamischen Umgebungen, die für biologische Organismen charakteristisch sind. Die Testbeispiele, die auf unseren WETCOW-inspirierten Algorithmen basieren, zeigen eine hervorragende Leistung (um Größenordnungen schneller als aktuelle hochmoderne Deep-ARCSe-Methoden) und Genauigkeit (übertreffen die Genauigkeit aktueller hochmoderner Deep-ARCSe-Methoden) und Es kann davon ausgegangen werden, dass sie gegenüber katastrophalem Vergessen widerstandsfähig sind und in Echtzeit wahrnehmen, lernen, Entscheidungen treffen und vorhersagen können. Aufgrund der sehr effizienten, schnellen, robusten und sehr präzisen Spike-Synchronisation sind die WETCOW-basierten Algorithmen in der Lage, in Echtzeit auf neuartige, unsichere und sich schnell ändernde Bedingungen zu reagieren und fundierte Entscheidungen auf der Grundlage kleiner Datenmengen zu ermöglichen kurze Zeithorizonte. Die WETCOW-basierten Algorithmen können die Unsicherheitsquantifizierung für Daten mit hoher Spardichte, großer Größe, gemischten Modalitäten und unterschiedlichen Verteilungen umfassen und werden die Grenzen der Verallgemeinerung außerhalb der Verteilung verschieben.

Der Artikel stellt Ideen vor, wie Prinzipien extrahiert werden können, die in aktuellen neuronalen Netzwerkansätzen nicht verfügbar sind und nach denen biologisches Lernen durch wellendynamische Prozesse in neuroanatomischen Strukturen erfolgt, und stellt wiederum einen neuen Rahmen für die Gestaltung und Umsetzung hocheffizienter und präziser Technik bereit Analoga dieser Prozesse und Strukturen, die bei der Gestaltung neuartiger Lernkreisläufe von entscheidender Bedeutung sein könnten.

Die während der aktuellen Studie verwendeten und/oder analysierten Datensätze sind auf begründete Anfrage beim entsprechenden Autor erhältlich.

Hodgkin, AL & Huxley, AF Eine quantitative Beschreibung des Membranstroms und seiner Anwendung auf die Leitung und Erregung in Nerven. J. Physiol. (Lond.) 117, 500–544 (1952).

Artikel CAS PubMed Google Scholar

Johnston, D. & Wu, SM-S. Grundlagen der zellulären Neurophysiologie (Ein Bradford-Buch) gebundene Ausgabe. (Ein Bradford-Buch, 1994).

Google Scholar

Giannari, A. & Astolfi, A. Modelldesign für Netzwerke heterogener Hodgkin-Huxley-Neuronen. Neurocomputing 496, 147–157. https://doi.org/10.1016/j.neucom.2022.04.115 (2022).

Artikel Google Scholar

Strassberg, AF & DeFelice, LJ Einschränkungen des Hodgkin-Huxley-Formalismus: Auswirkungen der Einzelkanalkinetik auf die Transmembranspannungsdynamik. Neuronale Berechnung. 5, 843–855 (1993).

Artikel Google Scholar

Meunier, C. & Segev, I. Den Anwalt des Teufels spielen: Ist das Hodgkin-Huxley-Modell nützlich?. Trends Neurosci. 25, 558–563 (2002).

Artikel CAS PubMed Google Scholar

Yamazaki, K., Vo-Ho, V.-K., Bulsara, D. & Le, N. Spiking neuronale Netze und ihre Anwendungen: Eine Übersicht. Gehirnwissenschaft. 12, 863 (2022).

Artikel PubMed PubMed Central Google Scholar

Fitzhugh, R. Impulse und physiologische Zustände in theoretischen Modellen der Nervenmembran. Biophys. J. 1, 445–466 (1961).

Artikel CAS PubMed PubMed Central ADS Google Scholar

Nagumo, J., Arimoto, S. & Yoshizawa, S. Eine aktive Impulsübertragungsleitung, die Nervenaxone simuliert. Proz. IRE 50, 2061–2070. https://doi.org/10.1109/jrproc.1962.288235 (1962).

Artikel Google Scholar

Morris, C. & Lecar, H. Spannungsschwingungen in der Muskelfaser des Seepocken-Riesen. Biophys. J. 35, 193–213 (1981).

Artikel CAS PubMed PubMed Central ADS Google Scholar

Izhikevich, EM Einfaches Modell von Spike-Neuronen. IEEE Trans. Neuronales Netz. 14, 1569–1572 (2003).

Artikel CAS PubMed Google Scholar

Zenke, F. & Ganguli, S. SuperSpike: Überwachtes Lernen in mehrschichtigen Spike-Neuronalen Netzen. Neuronale Berechnung. 30, 1514–1541 (2018).

Artikel MathSciNet PubMed PubMed Central MATH Google Scholar

Kaiser, J., Mostafa, H. & Neftci, E. Synaptische Plastizitätsdynamik für tiefes kontinuierliches lokales Lernen (DECOLLE). Vorderseite. Neurosci. 14, 424 (2020).

Artikel PubMed PubMed Central Google Scholar

Tavanaei, A., Ghodrati, M., Kheradpisheh, SR, Masquelier, T. & Maida, A. Deep Learning in spikenden neuronalen Netzen. Neuronales Netz. 111, 47–63 (2019).

Artikel PubMed Google Scholar

Bellec, G. et al. Eine Lösung für das Lerndilemma für wiederkehrende Netzwerke von Spike-Neuronen. Nat. Komm. 11, 3625 (2020).

Artikel PubMed PubMed Central ADS Google Scholar

Hunsberger, E. & Eliasmith, C. Training zum Aufbau tiefer Netzwerke für neuromorphe Hardware. arXiv:1611.05141. https://doi.org/10.13140/RG.2.2.10967.06566 (2016).

Sengupta, A., Ye, Y., Wang, R., Liu, C. & Roy, K. Gehen Sie tiefer in das Spiken neuronaler Netze ein: VGG und Restarchitekturen. Vorderseite. Neurosci. 13, 95 (2019).

Artikel PubMed PubMed Central Google Scholar

Rueckauer, B., Lungu, I.-A., Hu, Y., Pfeiffer, M. & Liu, S.-C. Konvertierung kontinuierlich bewerteter tiefer Netzwerke in effiziente ereignisgesteuerte Netzwerke zur Bildklassifizierung. Vorderseite. Neurosci. 11, 682 (2017).

Artikel PubMed PubMed Central Google Scholar

Xu, Q. et al. Hierarchisches Spike-basiertes Modell für eine effiziente Bildklassifizierung mit verbesserter Merkmalsextraktion und -kodierung. IEEE Trans. Neuronales Netz. Lernen. Syst. 20, 1–9 (2022).

CAS Google Scholar

Shen, J., Zhao, Y., Liu, JK & Wang, Y. HybridSNN: Kombination der Stärken von Biomaschinen durch Förderung adaptiver Spike-Neuronalnetze. IEEE Trans. Neuronales Netz. Lernen. Syst. 20, 1–15 (2021).

Google Scholar

Kheradpisheh, SR, Ganjtabesh, M., Thorpe, SJ & Masquelier, T. Stdp-basierte tiefe Faltungs-Neuronale Netze mit Spikes zur Objekterkennung. Neuronales Netz. 99, 56–67 (2018).

Artikel PubMed Google Scholar

Kim, S., Park, S., Na, B. & Yoon, S. Spiking-yolo: Spiking-Neuronales Netzwerk zur energieeffizienten Objekterkennung. Proz. AAAI Conf. Artif. Intel. 34, 11270–11277 (2020).

Google Scholar

Zhou, S., Chen, Y., Li, X. & Sanyal, A. Deep ScNN-basierte Echtzeit-Objekterkennung für selbstfahrende Fahrzeuge mithilfe von Lidar-Zeitdaten. IEEE Access 8, 76903–76912 (2020).

Artikel Google Scholar

Luo, Y. et al. Siamsnn: Spike-basiertes siamesisches Netzwerk für energieeffiziente Objektverfolgung in Echtzeit. arXiv:2003.07584 (arXiv-Vorabdruck) (2020).

Bertinetto, L., Valmadre, J., Henriques, JF, Vedaldi, A. & Torr, PH Vollständig gefaltete siamesische Netzwerke zur Objektverfolgung. In Computer Vision–ECCV 2016 Workshops: Amsterdam, Niederlande, 8.–10. und 15.–16. Oktober 2016, Proceedings, Teil II 14, 850–865 (Springer, 2016).

Patel, K., Hunsberger, E., Batir, S. & Eliasmith, C. Ein neuronales Spike-Netzwerk für die Bildsegmentierung. arXiv:2106.08921 (arXiv-Vorabdruck) (2021).

Rasmussen, D. Nengodl: Kombination von Deep Learning und neuromorphen Modellierungsmethoden. Neuroinformatik 17, 611–628 (2019).

Artikel PubMed Google Scholar

Rostami, A., Vogginger, B., Yan, Y. & Mayr, CG E-prop zu SpiNNaker 2: Erkundung des Online-Lernens beim Spiken von RNNs auf neuromorpher Hardware. Vorderseite. Neurosci. 16, 1018006 (2022).

Artikel PubMed PubMed Central Google Scholar

Müller Cleve, SF et al. Lesen von Braille-Buchstaben: Ein Maßstab für die räumlich-zeitliche Mustererkennung auf neuromorpher Hardware. Vorderseite. Neurosci. 16, 951164 (2022).

Artikel PubMed PubMed Central Google Scholar

Lee, ST & Bae, JH Untersuchung von Deep-Spiking-Neuronalen Netzwerken unter Verwendung von gegateten Schottky-Dioden als synaptische Geräte. Mikromaschinen (Basel) 13, 25 (2022).

Google Scholar

Paul, A., Tajin, MAS, Das, A., Mongan, WM & Dandekar, KR Energieeffiziente Erkennung von Atemwegsanomalien bei Frühgeborenen. Elektronik (Basel) 11, 25 (2022).

Google Scholar

Petschenig, H. et al. Klassifizierung von Whisker-Ablenkungen aufgrund evozierter Reaktionen im somatosensorischen Barrel-Cortex mit neuralen Netzwerken mit Spikes. Vorderseite. Neurosci. 16, 838054 (2022).

Artikel PubMed PubMed Central Google Scholar

Patino-Saucedo, A., Rostro-Gonzalez, H., Serrano-Gotarredona, T. & Linares-Barranco, B. Flüssigkeitszustandsmaschine auf SpiNNaker für räumlich-zeitliche Klassifizierungsaufgaben. Vorderseite. Neurosci. 16, 819063 (2022).

Artikel PubMed PubMed Central Google Scholar

Li, K. & Ncipe, JC Biologisch inspirierte Pulssignalverarbeitung für Intelligenz am Rande. Vorderseite. Artif. Intel. 4, 568384 (2021).

Artikel PubMed PubMed Central Google Scholar

Syed, T., Kakani, V., Cui, X. & Kim, H. Erforschung optimierter neuronaler Spitzennetzarchitekturen für Klassifizierungsaufgaben auf eingebetteten Plattformen. Sensoren (Basel) 21, 25 (2021).

Artikel Google Scholar

Fil, J. & Chu, D. Minimales Spike-Neuron zur Lösung von Multilabel-Klassifizierungsaufgaben. Neuronale Berechnung. 32, 1408–1429 (2020).

Artikel MathSciNet PubMed MATH Google Scholar

Saucedo, A., Rostro-Gonzalez, H., Serrano-Gotarredona, T. & Linares-Barranco, B. Ereignisgesteuerte Implementierung von Deep-Spiking-Faltungs-Neuronalen Netzen für die überwachte Klassifizierung mithilfe der neuromorphen Plattform SpiNNaker. Neuronales Netz. 121, 319–328 (2020).

Artikel Google Scholar

Liu, G., Deng, W., Xie, X., Huang, L. & Tang, H. Kontrolle auf menschlicher Ebene durch direkt trainierte Deep-Spiking-Q-Netzwerke. IEEE Trans. Cybern. 20, 20 (2022).

Google Scholar

Zhang, M. et al. Gleichgerichtete lineare postsynaptische Potentialfunktion für die Rückausbreitung in tiefen neuronalen Netzwerken. IEEE Trans. Neuronales Netz. Lernen. Syst. 33, 1947–1958 (2022).

Artikel PubMed Google Scholar

Kwon, D. et al. On-Chip-Training von Spike-Neuronennetzen mithilfe angenäherter Backpropagation mit analogen synaptischen Geräten. Vorderseite. Neurosci. 14, 423 (2020).

Artikel PubMed PubMed Central Google Scholar

Lee, J., Zhang, R., Zhang, W., Liu, Y. & Li, P. Direkte Feedback-Ausrichtung auf Spike-Train-Ebene: Sidestepping-Backpropagation für das On-Chip-Training von Spike-Neuronalen Netzen. Vorderseite. Neurosci. 14, 143 (2020).

Artikel CAS PubMed PubMed Central Google Scholar

Meng, Q. et al. Training viel tieferer neuronaler Netze mit Spikes mit einer kleinen Anzahl von Zeitschritten. Neuronal. Netw. 153, 254–268 (2022).

Artikel PubMed Google Scholar

Chen, Y., Du, J., Liu, Q., Zhang, L. & Zeng, Y. Robuste und energieeffiziente Ausdruckserkennung basierend auf verbesserten tiefen ResNets. Biomed. Technik. (Berl.) 64, 519–528 (2019).

Artikel PubMed Google Scholar

Pfeiffer, M. & Pfeil, T. Deep Learning mit Spiking-Neuronen: Chancen und Herausforderungen. Vorderseite. Neurosci. 12, 774 (2018).

Artikel PubMed PubMed Central Google Scholar

Stromatias, E. et al. Robustheit des Spitzenverhaltens von Deep Belief Networks gegenüber Rauschen und reduzierter Bitgenauigkeit neuroinspirierter Hardwareplattformen. Vorderseite. Neurosci. 9, 222 (2015).

Artikel PubMed PubMed Central Google Scholar

Thiele, JC, Bichler, O. & Dupret, A. Ereignisbasiertes, zeitskaleninvariantes, unbeaufsichtigtes Online-Deep-Learning mit STDP. Vorderseite. Berechnen. Neurosci. 12, 46 (2018).

Artikel PubMed PubMed Central Google Scholar

Neftci, E., Das, S., Pedroni, B., Kreutz-Delgado, K. & Cauwenberghs, G. Ereignisgesteuerte kontrastive Divergenz zur Verstärkung neuromorpher Systeme. Vorderseite. Neurosci. 7, 272 (2013).

PubMed Google Scholar

Kim, Y. & Panda, P. Überprüfung der Batch-Normalisierung für das Training von Deep-Spiking-Neuronalen Netzen mit geringer Latenz von Grund auf. Vorderseite. Neurosci. 15, 773954 (2021).

Artikel PubMed PubMed Central Google Scholar

Zou, C. et al. Ein Scatter-and-Gather-Spikeing-Faltungs-Neuronales Netzwerk auf einer rekonfigurierbaren neuromorphen Hardware. Vorderseite. Neurosci. 15, 694170 (2021).

Artikel PubMed PubMed Central Google Scholar

Liu, F. et al. SSTDP: Überwachte, vom Spike-Timing abhängige Plastizität für ein effizientes Spike-Training neuronaler Netzwerke. Front Neurosci 15, 756876 (2021).

Artikel PubMed PubMed Central Google Scholar

Zhang, L. et al. Eine kosteneffiziente Hochgeschwindigkeits-VLSI-Architektur für die Spike-Inferenz von Faltungs-Neuronalen Netzwerken mithilfe von Zeitschritt-Binär-Spike-Maps. Sensoren (Basel) 21, 25 (2021).

CAS ADS Google Scholar

Zhan, Q., Liu, G., Xie, X., Sun, G. & Tang, H. Effektiver Transfer-Lernalgorithmus beim Spiken neuronaler Netze. IEEE Trans. Cybern. 52, 13323–13335 (2022).

Artikel PubMed Google Scholar

Detorakis, G. et al. Neuronaler und synaptischer Array-Transceiver: Ein vom Gehirn inspiriertes Computer-Framework für eingebettetes Lernen. Vorderseite. Neurosci. 12, 583 (2018).

Artikel PubMed PubMed Central Google Scholar

Guo, W., Fouda, ME, Yantir, HE, Eltawil, AM & Salama, KN Unbeaufsichtigtes adaptives Gewichtsbeschneiden für energieeffiziente neuromorphe Systeme. Vorderseite. Neurosci. 14, 598876 (2020).

Artikel PubMed PubMed Central Google Scholar

Miranda, EJ Memristoren für neuromorphe Schaltkreise und Anwendungen der künstlichen Intelligenz. Materialien (Basel) 13, 25 (2020).

Artikel Google Scholar

Gale, EM Neuromorphe Berechnung mit Spiking-Memristoren: Gewöhnung, experimentelle Instanziierung von Logikgattern und ein neuartiges sequenzsensitives Perzeptronmodell. Faraday Discuss 213, 521–551 (2019).

Artikel CAS PubMed ADS Google Scholar

Esser, SK et al. Faltungsnetzwerke für schnelles, energieeffizientes neuromorphes Computing. Proz. Natl. Acad. Wissenschaft. USA 113, 11441–11446 (2016).

Artikel CAS PubMed PubMed Central ADS Google Scholar

Davidson, S. & Furber, SB Vergleich künstlicher und spikender neuronaler Netze auf digitaler Hardware. Vorderseite. Neurosci. 15, 651141 (2021).

Artikel PubMed PubMed Central Google Scholar

Gerstner, W., Kistler, WM, Naud, R. & Paninski, L. Neuronale Dynamik: Von einzelnen Neuronen zu Netzwerken und Kognitionsmodellen (Cambridge University Press, 2014).

Buchen Sie Google Scholar

Sardi, S., Vardi, R., Sheinin, A., Goldental, A. & Kanter, I. Neue Arten von Experimenten zeigen, dass ein Neuron als mehrere unabhängige Schwellenwerteinheiten fungiert. Wissenschaft. Rep. 7, 18036 (2017).

Artikel PubMed PubMed Central ADS Google Scholar

Galinsky, VL & Frank, LR Universelle Theorie der Gehirnwellen: Von linearen Schleifen zu nichtlinearen synchronisierten Spitzen und kollektiven Gehirnrhythmen. Physik. Rev. Res. 2(023061), 1–23 (2020).

Google Scholar

Galinsky, VL & Frank, LR Gehirnwellen: Entstehung lokalisierter, anhaltender, schwach evaneszenter kortikaler Schleifen. J. Cogni. Neurosci. 32, 2178–2202 (2020).

Artikel Google Scholar

Galinsky, VL & Frank, LR Kollektives synchrones Spitzenverhalten in einem Gehirnnetzwerk gekoppelter nichtlinearer Oszillatoren. Physik. Rev. Lett. 126, 158102. https://doi.org/10.1103/PhysRevLett.126.158102 (2021).

Artikel MathSciNet CAS PubMed PubMed Central ADS Google Scholar

Seth, AK & Bayne, T. Theorien des Bewusstseins. Nat. Rev. Neurosci. 23, 439–452 (2022).

Artikel CAS PubMed Google Scholar

Humeau, Y. & Choquet, D. Die nächste Generation von Ansätzen zur Untersuchung des Zusammenhangs zwischen synaptischer Plastizität und Lernen. Nat. Neurosci. 22, 1536–1543 (2019).

Artikel CAS PubMed Google Scholar

Miller, SM & Sahay, A. Funktionen von im Erwachsenenalter geborenen Neuronen bei der Störung und Indexierung des Hippocampusgedächtnisses. Nat. Neurosci. 22, 1565–1575 (2019).

Artikel CAS PubMed PubMed Central Google Scholar

Feng, S. & Duarte, MF Wenige, lernbasierte Erkennung menschlicher Aktivitäten. Expertensystem. Appl. 138, 112782. https://doi.org/10.1016/j.eswa.2019.06.070 (2019).

Artikel Google Scholar

Wang, Y., Yao, Q., Kwok, JT & Ni, LM Verallgemeinerung anhand einiger Beispiele. ACM-Computing. Überleben. 53, 1–34. https://doi.org/10.1145/3386252 (2020).

Artikel Google Scholar

Drori, I. et al. Ein neuronales Netzwerk löst, erklärt und generiert universitäre mathematische Probleme durch Programmsynthese und Lernen mit wenigen Schüssen auf menschlicher Ebene. Proz. Natl. Acad. Sci.https://doi.org/10.1073/pnas.2123433119 (2022).

Artikel PubMed PubMed Central Google Scholar

Walsh, R., Abdelpakey, MH, Shehata, MS & Mohamed, MM Automatisierte Klassifizierung menschlicher Zellen in spärlichen Datensätzen mithilfe von Few-Shot-Learning. Wissenschaft. Rep. 12, 2924 (2022).

Artikel CAS PubMed PubMed Central ADS Google Scholar

Galinsky, VL & Frank, LR Kritische Gehirnwellendynamik neuronaler Lawinen. Vorderseite. Phys.https://doi.org/10.3389/fphy.2023.1138643 (2023).

Artikel Google Scholar

Galinsky, VL & Frank, LR Neuronale Lawinen: Sandhaufen selbstorganisierter Kritikalität oder kritische Dynamik von Gehirnwellen?. Vorderseite. Physik. 18, 45301. https://doi.org/10.1007/s11467-023-1273-7 (2023).

Artikel Google Scholar

Galinsky, VL & Frank, LR Neuronale Lawinen und kritische Dynamik von Gehirnwellen. arXiv:2111.07479 (eprint) (2021).

Kuramoto, Y. Selbstmitnahme einer Population gekoppelter nichtlinearer Oszillatoren. In Mathematical Problems in Theoretical Physics, Band 39 von Lecture Notes in Physics (Hrsg. Araki, H.) 420–422 (Springer, Berlin, 1975). https://doi.org/10.1007/BFb0013365.

Kapitel Google Scholar

Kuramoto, Y. & Battogtokh, D. Koexistenz von Kohärenz und Inkohärenz in nichtlokal gekoppelten Phasenoszillatoren. Nichtlineares Phänomen. Komplexes System. 5, 380–385 (2002).

Google Scholar

Kuramoto, Y. Reduktionsmethoden, angewendet auf nicht lokal gekoppelte Oszillatorsysteme. In Nichtlineare Dynamik und Chaos: Wohin gehen wir von hier aus? (Hrsg. Hogan, J. et al.) 209–227 (CRC Press, 2002).

Google Scholar

Kulkarni, A., Ranft, J. & Hakim, V. Synchronisation, Stochastizität und Phasenwellen in neuronalen Netzwerken mit räumlich strukturierter Konnektivität. Vorderseite. Berechnen. Neurosci. 14, 569644 (2020).

Artikel PubMed PubMed Central Google Scholar

Kim, R. & Sejnowski, TJ Starke inhibitorische Signale liegen einer stabilen zeitlichen Dynamik und einem stabilen Arbeitsgedächtnis in neuronalen Netzen mit Spikes zugrunde. Nat. Neurosci. 24, 129–139 (2021).

Artikel CAS PubMed Google Scholar

Neftci, EO, Mostafa, H. & Zenke, F. Ersatzgradientenlernen in neuronalen Spiking-Netzwerken: Die Leistungsfähigkeit der Gradienten-basierten Optimierung auf neuronale Spiking-Netzwerke übertragen. IEEE-Signalprozess. Mag. 36, 51–63 (2019).

Artikel Google Scholar

Kirkpatrick, J. et al. Überwindung des katastrophalen Vergessens in neuronalen Netzen. Proz. Natl. Acad. Wissenschaft. USA 114, 3521–3526 (2017).

Artikel MathSciNet CAS PubMed PubMed Central MATH ADS Google Scholar

Kemker, R., McClure, M., Abitino, A., Hayes, T. & Kanan, C. Messung des katastrophalen Vergessens in neuronalen Netzen (2017). arXiv:1708.02072.

Ramasesh, VV, Dyer, E. & Raghu, M. Anatomie des katastrophalen Vergessens: Versteckte Darstellungen und Aufgabensemantik (2020). arXiv:2007.07400.

LeCun, Y., Cortes, C. & Burges, C. Mnist handschriftliche Zifferndatenbank. ATT Labs [Online]. http://yann.lecun.com/exdb/mnist2 (2010).

Xiao, H., Rasul, K. & Vollgraf, R. Fashion-mnist: Ein neuartiger Bilddatensatz zum Benchmarking von Algorithmen für maschinelles Lernen (2017). arXiv:1708.07747 [cs.LG].

Xiao, H., Rasul, K. & Vollgraf, R. Eine mnistische Modeproduktdatenbank. Benchmark – Github. https://github.com/zalandoresearch/fashion-mnist (2022). Zugriff am 21. Mai 2022.

MNIST-Datenbank. Mnist-Datenbank – Wikipedia, die freie Enzyklopädie (2022). Zugriff am 31. Juli 2022.

Referenzen herunterladen

LRF und VLG wurden durch NIH Grant R01 AG054049 unterstützt.

Center for Scientific Computation in Imaging, University of California in San Diego, La Jolla, CA, 92037-0854, USA

Vitaly L. Galinsky & Lawrence R. Frank

Zentrum für funktionelle MRT, University of California in San Diego, La Jolla, CA, 92037-0677, USA

Lawrence R. Frank

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

VG und LF haben den Haupttext des Manuskripts geschrieben. Alle Autoren haben das Manuskript überprüft.

Korrespondenz mit Vitaly L. Galinsky.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.

Siehe Abb. 6, 7, 8, 9, 10, 11, 12 und 13.

Die Amplitude und Phase eines einzelnen Modus für \(c_r=0,125\).

Die Amplitude und Phase eines einzelnen Modus für \(c_r=0,25\).

Die Amplitude und Phase eines einzelnen Modus für \(c_r=0,5\).

Die Amplitude und Phase eines einzelnen Modus für \(c_r=0,75\).

Die Amplitude und Phase eines einzelnen Modus für \(c_r=0,945\).

Die Amplitude und Phase eines einzelnen Modus für \(c_r=0,99\).

Die Amplitude und Phase eines einzelnen Modus für \(c_r=0,995\).

Die Amplitude und Phase eines einzelnen Modus für \(c_r=0,9975\).

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative-Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht durch gesetzliche Vorschriften zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Galinsky, VL, Frank, LR Kritisch synchronisierte Gehirnwellen bilden eine effektive, robuste und flexible Grundlage für das menschliche Gedächtnis und Lernen. Sci Rep 13, 4343 (2023). https://doi.org/10.1038/s41598-023-31365-6

Zitat herunterladen

Eingegangen: 11. Januar 2023

Angenommen: 10. März 2023

Veröffentlicht: 16. März 2023

DOI: https://doi.org/10.1038/s41598-023-31365-6

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.