Ein neuer Lernansatz, der sich an den rekursiven Strukturen des Gehirns orientiert, wurde in einer Studie vorgestellt. Die Autoren berichten, dass das Verfahren namens adjoint propagation (AP) Fehlersignale aus den wiederkehrenden Dynamiken ableitet und gleichzeitig mit den Vorwärtsinferenzsignalen verarbeitet. Ziel sei es, ein Lernverfahren zu schaffen, das sowohl neurobiologischen Vorgaben entspricht als auch für technische Anwendungen skalierbar ist.
Prinzip der adjointen Propagation
Nach Angaben der Forscher entstehen Fehlersignale im Rahmen des AP‑Frameworks natürlicherweise aus der Rückkopplung innerhalb von rekurrenten Netzwerken. Diese Signale werden parallel zum Vorwärtsfluss propagiert, wodurch ein simultanes Lernen ermöglicht wird, das nicht auf dem externen Feedback des klassischen Backpropagation‑Algorithmus beruht.
Modularer Aufbau und Skalierbarkeit
Das Konzept nutzt die Modularität von Multi‑Region‑Recurrent‑Neural‑Network‑Modellen (MR‑RNN). Jeder Modul‑RNN kann eigenständig konvergieren, was das Training beschleunigt und die Skalierbarkeit auf größere Aufgabenstellungen erhöht. Die Autoren betonen, dass diese Struktur die Integration mehrerer kognitiver Aufgaben in einem einzigen Netzwerk erlaubt.
Vergleich mit Backpropagation
In den durchgeführten Benchmark‑Tests erreichte das AP‑Modell Genauigkeiten, die mit denen von mit Backpropagation trainierten Netzwerken vergleichbar sind. Gleichzeitig eliminiert das Verfahren das biologisch unwahrscheinliche Feedback, das für die herkömmliche Backpropagation erforderlich ist.
Robustheit und Mehrfachaufgaben
Die Studie weist darauf hin, dass das Training über lange Epochen hinweg stabil bleibt und die Leistung nicht abnimmt. Zudem ermöglicht das AP‑Framework die gleichzeitige Fehlerpropagation für mehrere Aufgaben, was mit Beobachtungen aus der Neurowissenschaft übereinstimmt, in denen das Gehirn Ressourcen flexibel verteilt.
Implikationen für KI und Neurowissenschaften
Die Autoren sehen in ihrem Ansatz eine Brücke zwischen künstlichen Lernsystemen und biologischen Lernprinzipien. Sie argumentieren, dass das Verfahren zu energieeffizienten intelligenten Systemen führen könnte und gleichzeitig als mechanistische Theorie experimentelle Forschungen im Bereich der Neurowissenschaften unterstützen kann.
Dieser Bericht basiert auf Informationen von eLife, lizenziert unter Creative Commons BY 4.0 (Open Access). Wissenschaftliche Inhalte, offen zugänglich.
