Wir freuen uns über jede Rückmeldung. Ihre Botschaft geht nur an das Administrator Team. Danke fürs Mitmachen, das zur Verbesserung des Systems oder der Inhalte beitragen kann. Ihre Nachricht (optional mit Ihrer E-Mail):
unbekannter Gast

Neuer Ansatz für eine biologische Programmiersprache#

Neue Erkenntnisse von Forschern rund um die TU Graz-Informatiker Wolfgang Maass und Robert Legenstein zu neuronaler Informationsverarbeitung im Gehirn könnten effizientere AI-Methoden ermöglichen. #

Die TU Graz-Informatiker Robert Legenstein und Wolfgang Maass arbeiten mit anderen Forschenden daran, AI einen großen Schritt weiter zu bringen.
Die TU Graz-Informatiker Robert Legenstein und Wolfgang Maass arbeiten mit anderen Forschenden daran, AI einen großen Schritt weiter zu bringen.
© Lunghammer - TU Graz

Konkret ist es den Forschenden gelungen, das Entstehen und Interagieren zwischen sogenannten „Assemblies“ mathematisch zu modellieren. Dabei handelt es sich um Neuronenverbände im Gehirn, die die Grundlage für höhere kognitive Fähigkeiten bilden wie beispielsweise dem Denken, dem Vorstellungsvermögen, dem Argumentieren, Planen oder der Sprachverarbeitung. Besseres Verständnis für die Funktionsweise des Gehirns

Der kanadische Neurowissenschaftler Donald H. Hebb hat bereits 1949 postuliert, dass sich Neuronen zu solchen Verbänden zusammenschließen, also gemeinsam aktiv sind, um einzelne Wörter oder Symbole, aber auch ganzheitliche „Konzepte“ zu kodieren. „Die Existenz von Assemblies verdichtete sich allerdings erst in den letzten Jahren und unsere Modelle bauen auf den jüngsten Ergebnissen aus der Hirnforschung auf“, erklärt Maass.

Assemblies sind fließende Gebilde, die sich ständig neu organisieren, um Umweltreize zu verarbeiten, diesen eine symbolische Bedeutung geben, sie strukturieren und in Wissen umwandeln. Diese Anpassungsfähigkeit – auch Plastizität genannt – liefert dem Gehirn die Möglichkeit, über die begrenzte Verarbeitungskapazität hinwegzukommen und eine „unbegrenzte“ Anzahl von Mustern zu bilden.

Die Ergebnisse tragen nicht nur zu einem besseren Verständnis des Gehirns bei – sie könnten auch zu neuen effizienten AI-Methoden führen, da sie die Vorteile der zwei Hauptansätze in der AI-Forschung miteinander verbinden – der symbolistische und der konnektionistische.

Symbolistische vs. Konnektionistische Informationsverarbeitung#

Algorithmen in Symbolsystemen basieren auf definierten Regeln (Wenn-/Dann-Befehle) und logischen Formeln, und überzeugen durch ihre Abstraktionsfähigkeit – also einerseits die Fähigkeit zur Verallgemeinerung sowie andererseits die Fähigkeit, allgemeine Zusammenhänge auf konkrete Sachverhalte anzuwenden. Sie sind daher prädestiniert für eine leichte Anwendung auf ganz neue Situationen. Symbol-basierte Systeme müssen aber aufwendig programmiert werden und lassen sich nicht mittels großer Datenmengen für anspruchsvolle Anwendungen trainieren, wie das bei neuronalen Netzwerken möglich ist. Diese bestehen aus kleinen miteinander vernetzten und lernfähigen Recheneinheiten, die sich selbst organisieren und im Verbund komplexe Probleme schnell lösen können. Die Lernfähigkeit neuronaler Netzwerke hat den konnektionistischen Ansatz für die aktuelle AI-Forschung und für moderne AI-Anwendungen attraktiver gemacht. Allerdings haben neuronale Netzwerke Schwierigkeiten bei jenen Aufgaben, die in den Trainingsmengen nicht vorkommen.

„Menschliche“ Gehirnarchitektur für Maschinen#

Die vorgestellten Assembly-Modelle zielen nun darauf ab, die Abstraktionsfähigkeit mit der Lernfähigkeit zu kombinieren. „Es handelt sich dabei um neuronale Netzwerke, die mit ihren Assemblies symbolartig arbeiten. Als Paradigma dient uns das menschliche Gehirn, das auch beides miteinander kombiniert“, so Legenstein.

Die Arbeiten, an denen auch Forschende der University of Nottingham, der University of California, Berkeley und dem Georgia Institute of Technology beteiligt sind, fließen teilweise ins Human Brain Project ein (HBP) – dieser europaweite interdisziplinäre Forschungsverbund arbeitet seit 2015 daran, das menschliche Gehirn elektronisch nachzubauen und seine Funktionen zu simulieren. Wolfgang Maass und sein Team sind darin für das Arbeitspaket „Principles of Brain Computation“ verantwortlich.

Originalpublikationen:#

STDP Forms Associations between Memory Traces in Networks of Spiking Neurons
Christoph Pokorny, Matias J Ison, Arjun Rao, Robert Legenstein, Christos Papadimitriou, Wolfgang Maass
Cerebral Cortex, Volume 30, Issue 3, March 2020, Pages 952–968.
DOI: 10.1093/cercor/bhz140

A Model for Structured Information Representation in Neural Networks of the Brain
Michael G. Müller, Christos H. Papadimitriou, Wolfgang Maass, Robert Legenstein
eNeuro 7 May 2020, 7 (3) ENEURO.0533-19.2020;
DOI: 10.1523/ENEURO.0533-19.2020

Brain computation by assemblies of neurons
Christos H. Papadimitriou, Santosh S. Vempala, Daniel Mitropolsky, Michael Collins, Wolfgang Maass
Proceedings of the National Academy of Sciences Jun 2020, 202001893;
DOI: 10.1073/pnas.2001893117
Die Pressemeldung der Columbia University zu diesem Paper

Kontakt#

TU Graz | Institute of Theoretical Computer Science
Wolfgang MAASS
Em.Univ.-Prof. Dipl.-Ing. Dr.rer.nat.
Tel.: +43 316 873 5822
maass@igi.tugraz.at

Robert LEGENSTEIN
Assoc.Prof. Dipl.-Ing. Dr.techn.
Tel.: +43 316 873 5824
legi@igi.tugraz.at