Ein neuer Lernansatz, der sich an den rekursiven Strukturen des Gehirns orientiert, wurde in einer Studie vorgestellt. Die Autoren berichten, dass das Verfahren namens adjoint propagation (AP) Fehlersignale aus den wiederkehrenden Dynamiken ableitet und gleichzeitig mit den Vorwärtsinferenzsignalen verarbeitet. Ziel sei es, ein Lernverfahren zu schaffen, das sowohl neurobiologischen Vorgaben entspricht als auch für technische Anwendungen skalierbar ist.

Prinzip der adjointen Propagation

Nach Angaben der Forscher entstehen Fehlersignale im Rahmen des AP‑Frameworks natürlicherweise aus der Rückkopplung innerhalb von rekurrenten Netzwerken. Diese Signale werden parallel zum Vorwärtsfluss propagiert, wodurch ein simultanes Lernen ermöglicht wird, das nicht auf dem externen Feedback des klassischen Backpropagation‑Algorithmus beruht.

Modularer Aufbau und Skalierbarkeit

Das Konzept nutzt die Modularität von Multi‑Region‑Recurrent‑Neural‑Network‑Modellen (MR‑RNN). Jeder Modul‑RNN kann eigenständig konvergieren, was das Training beschleunigt und die Skalierbarkeit auf größere Aufgabenstellungen erhöht. Die Autoren betonen, dass diese Struktur die Integration mehrerer kognitiver Aufgaben in einem einzigen Netzwerk erlaubt.

Vergleich mit Backpropagation

In den durchgeführten Benchmark‑Tests erreichte das AP‑Modell Genauigkeiten, die mit denen von mit Backpropagation trainierten Netzwerken vergleichbar sind. Gleichzeitig eliminiert das Verfahren das biologisch unwahrscheinliche Feedback, das für die herkömmliche Backpropagation erforderlich ist.

Robustheit und Mehrfachaufgaben

Die Studie weist darauf hin, dass das Training über lange Epochen hinweg stabil bleibt und die Leistung nicht abnimmt. Zudem ermöglicht das AP‑Framework die gleichzeitige Fehlerpropagation für mehrere Aufgaben, was mit Beobachtungen aus der Neurowissenschaft übereinstimmt, in denen das Gehirn Ressourcen flexibel verteilt.

Implikationen für KI und Neurowissenschaften

Die Autoren sehen in ihrem Ansatz eine Brücke zwischen künstlichen Lernsystemen und biologischen Lernprinzipien. Sie argumentieren, dass das Verfahren zu energieeffizienten intelligenten Systemen führen könnte und gleichzeitig als mechanistische Theorie experimentelle Forschungen im Bereich der Neurowissenschaften unterstützen kann.

Dieser Bericht basiert auf Informationen von eLife, lizenziert unter Creative Commons BY 4.0 (Open Access). Wissenschaftliche Inhalte, offen zugänglich.

Privacy Protocol

Wir verwenden CleanNet Technology für maximale Datensouveränität. Alle Ressourcen werden lokal von unseren gesicherten deutschen Servern geladen. Ihre IP-Adresse verlässt niemals unsere Infrastruktur. Wir verwenden ausschließlich technisch notwendige Cookies.
Für Cookies die über das CleanNet hinausgehen, bitte 3. Cookies aktivieren, ansonsten wird alles standardmäßig blockiert. Für mehr Infos die Datenschutzseite lesen.

Core SystemsTechnisch notwendig
External Media (3.Cookies)Maps, Video Streams,Google Analytics etc.
Analytics (Lokal mit Matomo)Anonyme Metriken
Datenschutz lesen