Studium, Ausbildung und Beruf

web uni-protokolle.de
 powered by
NachrichtenLexikonProtokolleBücherForenDienstag, 21. Januar 2020 

Die Aha-Erlebnisse neuronaler Computer

17.11.1999 - (idw) Bayerische Julius-Maximilians-Universität Würzburg

Neuronale Netzwerke sind eines der Forschungsgebiete am Institut für Theoretische Physik der Universität Würzburg. Im Vordergrund steht dabei die Fähigkeit der Netzwerke, anhand von Beispielen zu lernen.

Computer sind dem Menschen überlegen, wenn es gilt, schnell zu rechnen oder feste, logische Regeln anzuwenden. Aber viele Aufgaben des Alltags lassen sich nicht ohne weiteres in ein einfaches Regelwerk fassen. Wenn es etwa darum geht, Gesichter in einer Menschenmenge zu erkennen oder eine unleserliche Handschrift zu entziffern, dann erreichen selbst die aufwendigsten Computerprogramme nicht annähernd die Leistungsfähigkeit des Menschen. Und auch der modernste Roboter könnte es in der Koordination seiner Bewegungen nicht mit dem winzigen Gehirn einer Stubenfliege aufnehmen.

Ein Grund für die Überlegenheit des Gehirns ist seine Lernfähigkeit. Es passt sich ständig wechselnden Gegebenheiten an und ist dabei in der Lage, früher gemachte Erfahrungen auf neue Situationen zu übertragen. Seit einigen Jahrzehnten versucht man, dieses Prinzip auch bei der Entwicklung neuer Rechnerkonzepte umzusetzen.

Dazu der Würzburger Physiker Dr. Michael Biehl: "Künstliche neuronale Netzwerke bestehen - wie ihre biologischen Vorbilder - aus vielen miteinander verbundenen Schaltelementen oder Modell-Neuronen. Ein solches Netzwerk beantwortet eine Eingabe, zum Beispiel das digitalisierte Bild einer handgeschriebenen Ziffer, mit einer Ausgabe, nämlich der erkannten Ziffer. Die Antwort hängt von der Stärke der Verbindungen zwischen den Neuronen ab. Durch die Anpassung dieser so genannten Gewichte kann das System lernen: Sie werden so lange verändert, bis das Netz eine Reihe von Beispielen mit der gewünschten Ausgabe beantwortet. War der Lernvorgang erfolgreich, dann klassifiziert das Netzwerk auch neue Daten richtig - es verallgemeinert."

Wenn sich Physiker mit neuronalen Netzwerken befassen, dann geht es weniger um Anwendungen als um die Theorie der Lernvorgänge, etwa um die Frage, wieviele Beispieldaten typischerweise für eine bestimmte Aufgabe benötigt werden. Hochdimensionale Daten, zum Beispiel digitalisierte Fotos, erfordern die Anpassung sehr vieler Gewichte. Wie bei vielen anderen Systemen mit einer großen Zahl von veränderlichen Größen können auch hier Methoden der Statistischen Mechanik angewendet werden. Dieser Zweig der Physik befasst sich zum Beispiel mit dem kooperativen Verhalten der Atome eines Gases, das bei einer Druckerhöhung plötzlich in den flüssigen Zustand übergeht.

Solche Phasenübergänge treten interessanterweise auch beim Lernen in neuronalen Netzwerken auf: So kann deren Verallgemeinerungsfähigkeit bis hin zu einer bestimmten Anzahl von Beispielen stagnieren, um dann sprunghaft anzusteigen, wenn noch einige wenige Daten hinzukommen. Diese "Aha-Erlebnisse" von neuronalen Computern wurden bisher nur anhand einiger einfacher Modellsituationen studiert. Im Rahmen eines von der Deutschen Forschungsgemeinschaft geförderten Projektes wollen Dr. Biehl und die Würzburger Physiker Prof. Dr. Wolfgang Kinzel und Dr. Georg Reents die Untersuchungen nun auf Szenarien ausdehnen, die den Lernproblemen aus der Praxis näher kommen. Ein wesentliches Ziel ist die Entwicklung verbesserter Lernverfahren, welche die Beispieldaten möglichst effektiv nutzen.

Weitere Informationen: Dr. Michael Biehl, T (0931) 888-5865, Fax (0931) 888-5141, E-Mail:
biehl@physik.uni-wuerzburg.de
uniprotokolle > Nachrichten > Die Aha-Erlebnisse neuronaler Computer

ImpressumLesezeichen setzenSeite versendenDruckansicht

HTML-Code zum Verweis auf diese Seite:
<a href="http://www.uni-protokolle.de/nachrichten/id/54090/">Die Aha-Erlebnisse neuronaler Computer </a>