1/31 university of paderborn projektgruppe kimas – neuronale netze in mas projektgruppe kimas nn...
TRANSCRIPT
Projektgruppe KIMAS – Neuronale Netze in MAS 1/31
UNIVERSITY OF
PADERBORN
Projektgruppe KIMASNN in MAS
10.09.2003
Thomas Heinen
Projektgruppe KIMAS – Neuronale Netze in MAS 2/31
UNIVERSITY OF
PADERBORNInhalt
Motivation + Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit
Projektgruppe KIMAS – Neuronale Netze in MAS 3/31
UNIVERSITY OF
PADERBORNMotivation
Was ist das Besondere an künstlichen neuronalen Netzen ? Natürliches Lernprinzip anpassungsfähig
Was für Anwendungen ? Mustererkennung Regelung Einordnung von Text, Bildern, … (sogenanntes Clustering) usw.
Projektgruppe KIMAS – Neuronale Netze in MAS 4/31
UNIVERSITY OF
PADERBORNDefinitionsversuche
DARPA, 1988:
“A neural network is a system composed of many simple processing elements operating in parallel whose function is determined by network structure, connection strengths, and the processing performed at computing elements or nodes”
FAQ der comp.ai.neural-nets:
“An ANN is a network of many very simple processors, each possibly having a local memory. The units are connected by unidirectional communication channels, which carry numeric data. The units operate only on their local data and on the inputs they receive via the connection”
Projektgruppe KIMAS – Neuronale Netze in MAS 5/31
UNIVERSITY OF
PADERBORNRandbedingungen
Viele Trainingsdaten
Gegebenenfalls jemanden, der das Lernen überwacht
Genug Zeit zum Lernen Gut ausbalancierte Trainingsdaten
Neuronale Netze sind bei gewissen Randbedingungen am leistungsfähigsten:
Projektgruppe KIMAS – Neuronale Netze in MAS 6/31
UNIVERSITY OF
PADERBORNDas Panzer-Problem
„Panzer gefunden“ ? „kein Panzer“ !?
Keine Erfolgsstory:
Projekt zur Panzererkennung der DARPA (80er Jahre)
Die volle Story unter http://neil.fraser.name/writing/tank/
Projektgruppe KIMAS – Neuronale Netze in MAS 7/31
UNIVERSITY OF
PADERBORNInhalt
Motivation + Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit
Projektgruppe KIMAS – Neuronale Netze in MAS 8/31
UNIVERSITY OF
PADERBORNGeschichte: 1942-1955
Erste Betrachtungen 1942 von McCulloch/Pitts: Untersuchung der Fähigkeiten von NN
Beweis, daß NN jede arithmetische/logische Funktion lösen
Donald Hebb beschreibt eine universelle Lernregel 1949 Noch immer Basis vieler moderner Ansätze
Weitere psychologische und neuropsychologische Arbeiten
Projektgruppe KIMAS – Neuronale Netze in MAS 9/31
UNIVERSITY OF
PADERBORNGeschichte: 1955-1969
Das „Perzeptron“ als einfache Architektur eines NN wird entwickelt.
Erster echter Neurocomputer 1957 (Mark I Perceptron) Gewichte mit 512 motorbetriebenen Potentiomentern
Erkennung einfacher Ziffern mit 20*20 Sensoren
Erste Neurocomputing-Firma „Memistor Corporation“
Glaube, universelle Lernprinzipien entdeckt zu haben Fehleinschätzung und erstes Motivationstief
Projektgruppe KIMAS – Neuronale Netze in MAS 10/31
UNIVERSITY OF
PADERBORNGeschichte: 1969-1984
Minsky/Papert untersuchen das „Perzeptron“ 1969 theoretisch Schock: Nicht alle Probleme lösbar („XOR-Problem“)
Warum? Erläutere ich im 5. Abschnitt des Vortrags …
Diese Erkenntnis lässt es fast 15 Jahre still werden um die NN
Weitergehende theoretische Forschung Backpropagation Lernregel
Stereosehen mit Neuronalen Netzen
Hopfield-Netze, Neocognitron, ART und viele andere
Projektgruppe KIMAS – Neuronale Netze in MAS 11/31
UNIVERSITY OF
PADERBORNGeschichte: 1984-
Schwierige Optimierungsaufgaben als praxistaugliche Beispiele Traveling Salesman Problem durch Hopfield
Backpropagation wird verbessert (ab 1986) Höheres Lerntempo durch ausgefeilte Optimierungen
Viele Anwendungen werden erschlossen: NN lernen das Vorlesen von Text
Neurocomputer von Siemens
Robotikanwendungen
Projektgruppe KIMAS – Neuronale Netze in MAS 12/31
UNIVERSITY OF
PADERBORNInhalt
Motivation + Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit
Projektgruppe KIMAS – Neuronale Netze in MAS 13/31
UNIVERSITY OF
PADERBORNDas Original
Neuronen im Gehirn: Abertausendfach verbunden:
2.000 – 150.000 Eingangssignale
1.000 – 10.000 Ausgangssignale
Geschätzte 110 Milliarden Neuronen
Elektrische Signalisierung
Umfangreiche chemische Einflüsse:
Neurotransmitter (Serotonin, Taurin, …)
Neuropeptide (Endorphine, …)
Projektgruppe KIMAS – Neuronale Netze in MAS 14/31
UNIVERSITY OF
PADERBORNDie Fälschung
Neuronen im Computer: Geringere Ein- und Ausgangszahlen:
10 – 100 Eingangssignale
noch weniger Ausgangssignale
100 – 10.000 Neuronen insgesamt
Signalisierung durch Numerische Werte
Chemie meist nicht berücksichtigt
Aufteilung: Eingabeschicht
Verdeckte Schichten
Ausgabeschicht
Projektgruppe KIMAS – Neuronale Netze in MAS 15/31
UNIVERSITY OF
PADERBORNInhalt
Motivation Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit
Projektgruppe KIMAS – Neuronale Netze in MAS 16/31
UNIVERSITY OF
PADERBORNKomponenten: Neuronen
Begriff für eine „Recheneinheit“ in einem Neuronalen Netz
Nur „lokale Sicht“ auf Vorgänger im Netz und sich selbst
Bekommt mehrere Eingaben, berechnet einen Ausgabewert
Berechnung erfolgt durch verschiedenen Funktionen
Projektgruppe KIMAS – Neuronale Netze in MAS 17/31
UNIVERSITY OF
PADERBORNKomponenten: Funktionen
Aggregationsfunktion
Fassen Eingangssignale zusammen zu einem Wert (z.B. Summe).
Gegebenenfalls wird das Ergebnis noch skaliert
Aktivierungsfunktion
Berechnet den Ausgabewert.
Verschiedene Funktionen: binär, linear, sigmoid („s-förmig“)
Projektgruppe KIMAS – Neuronale Netze in MAS 18/31
UNIVERSITY OF
PADERBORNKomponenten: Topologie
Art des Verbindungsschemas bestimmt Funktion des Netzes
Verschiedenste Arten von Topologien: Vollständig verbundene Netze
Jedes Neuron einer Schicht hat Verbindungen zu allen der vorherigen.
Vorwärtsgerichtete Netze
Es gibt immer nur Verbindungen Richtung Ausgabeschicht
Rekurrente Netze
Ausgaben werden auch an Vorgängerzellen zurückgegeben
Projektgruppe KIMAS – Neuronale Netze in MAS 19/31
UNIVERSITY OF
PADERBORNKomponenten: Gewichte
Eingaben haben eine Priorität, ein sogenanntes „Gewicht“
Jeder Eingabewert wird mit seinem Gewicht multipliziert
Diese Werte faßt die Aggregationsfunktion zusammen.
Vorgänger können auch ignoriert werden (Nullgewicht) Selber Effekt wie eine fehlende Verbindung zum Vorgänger
Meist werden die Gewichte als Adjazenzmatrix gespeichert. Berechnungsvorgang dann durch Matrizenmultiplikation
Projektgruppe KIMAS – Neuronale Netze in MAS 20/31
UNIVERSITY OF
PADERBORNKomponenten: Lernregel
Bisherige verändert sich nichts beim NN. Woher kommt das „Lernen ?“ Fehler bei der Erkennung werden durch das Netz zurückgeleitet.
Dabei werden die bestehenden Gewichte der Verbindungen geändert.
Fehler werden von außen durch Trainer signalisiert: Richtig / Falsch
Prozentualer Wert der Richtigkeit
Komplexere Beschreibungen der Abweichung („Fehlervektor“)
„Lernregeln“ berechnen die Gewichtsänderung abhängig vom signalisierten Fehler.
Projektgruppe KIMAS – Neuronale Netze in MAS 21/31
UNIVERSITY OF
PADERBORNInhalt
Motivation Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit
Projektgruppe KIMAS – Neuronale Netze in MAS 22/31
UNIVERSITY OF
PADERBORNHebbsche Lernregel
Entwickelt schon 1949 von Donald Hebb Urvater der meisten moderneren Lernverfahren
Parameter:
wij Gewichtsänderung der Verbindung von Neuron i zu Neuron j
oi Ausgabe der Vorgängerzelle i aj Aktivierung der Nachfolgezelle j
n Lerngeschwindigkeit (Konstanter Wert)
Projektgruppe KIMAS – Neuronale Netze in MAS 23/31
UNIVERSITY OF
PADERBORNPerzeptron: Einstufig
Eine der ersten Strukturen in der Forschung zu Neuronalen Netzen Eingabe ist mit Sensormatrix verbunden Einsatz einer binären Aktivierung (Ausgabe „ja“ und „nein“)
Mathematisch formuliert:
Durch den Raum der Eingaben wird eine Ebene gelegt, die die „falschen“
von den „richtigen“ Aussagen trennt
Projektgruppe KIMAS – Neuronale Netze in MAS 24/31
UNIVERSITY OF
PADERBORNPerzeptron: Das XOR-Problem
Untersuchung des Perzeptrons war der Stolperstein der NN 1969:
Erkenntnis, daß nicht alle Probleme „linear separierbar“ sind
Die XOR-Funktion wird dann wahr, wenn die Eingaben gleich sind
Nicht durch eine Linie aufzuteilen Die Funktion ist nicht abzubilden.
Folgerung von Minsky `69:
Perzeptrons können nur linear separierbare Probleme lösen
Projektgruppe KIMAS – Neuronale Netze in MAS 25/31
UNIVERSITY OF
PADERBORNPerzeptron: zweistufig
Neuron Nr.6 bekommt die Funktion eines AND: Gewichte zum Neuron 6 sind jeweils fest auf 0.3
Das sechste Neuron wird erst bei 0.3 * 3 = 0.9 wahr
Projektgruppe KIMAS – Neuronale Netze in MAS 26/31
UNIVERSITY OF
PADERBORNPerzeptron: Akzeptanzbereiche
Einfaches Perzeptron:
Akzeptanz durch lineare Separierung
Zweistufiges Perzeptron:
Komplexere Akzeptanz durch logische
Verknüpfungen
Damit ist klar, daß die Folgerung von Minsky und Papert falsch war.
Projektgruppe KIMAS – Neuronale Netze in MAS 27/31
UNIVERSITY OF
PADERBORNInhalt
Motivation Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit
Projektgruppe KIMAS – Neuronale Netze in MAS 28/31
UNIVERSITY OF
PADERBORNPro
Biologisch motiviert
Intelligenz durch Imitation der Natur, wenngleich in abgespeckter Form
(Vernachlässigung der Chemie, kleinere Dimensionen)
Sehr anpassungsfähig
Neuronale Netze können als sogenanntes online-Lernverfahren auch nach dem Training noch lernen. Viele andre Lernverfahren sind dagegen „offline“
(zum Beispiel Genetische Algorithmen)
Projektgruppe KIMAS – Neuronale Netze in MAS 29/31
UNIVERSITY OF
PADERBORNContra
Relativ hoher Trainingsaufwand
In unserem Fall müßte man im Training vermutlich hunderte Spiele durchlaufen lassen.
Probleme der Flexibilität
Bei einer Strategieänderung des „Gegners“ wäre eine neue Trainingsphase das beste => wieder hunderte Spiele.
Projektgruppe KIMAS – Neuronale Netze in MAS 30/31
UNIVERSITY OF
PADERBORNDas Fazit vom Fazit
Neuronale Netze sind keine generelle Lösung Wir sollten eine Kombination von Lernverfahren nutzen
Beispielsweise schnelle offline-Lernverfahren für generelle Strategien
Neuronale Netze für schnelle Anpassungen
Projektgruppe KIMAS – Neuronale Netze in MAS 31/31
UNIVERSITY OF
PADERBORNWerbung :)
In der Ausarbeitung wesentlich mehr Stoff: Details zu natürlichen NN
Kategorisierung von Neuronalen Netzen
Zwei weitere, modernere Lernregeln
Neuronale Netze und Genetische Algorithmen im Zusammenspiel