fachbereich mathematik und informatik: startseite - vertei lte ......freie universität berlin -...
TRANSCRIPT
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
l kVerteilte Ereigniserkennung in Sensornetzenin Sensornetzen
Verteidigung der Diplomarbeit
N D i lNorman Dziengel
[email protected]‐berlin.de
10. Dezember 2007
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
A dAgenda
• Motivation, Grundlagen • Verteilte Erkennung
• Verwandte Arbeiten
• Bewegungsmuster
• Auswertung
• Zusammenfassung, Ausblick
• Lokale Erkennung, Klassifizierer • Demo
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 2/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
M ti tiMotivation
• Sensornetzpotential nutzen (von zentraler zur dezentralen Auswertung)
• Sensornetze sollen autark (netzintern) und verteilt Ereignisse erkennen
⇒ verringerte Sendelast
⇒ verbesserte Ereigniserkennung im Vgl zur lokalen Erkennung (?)⇒ verbesserte Ereigniserkennung im Vgl. zur lokalen Erkennung (?)
• Hardwareredundanz soll in der verteilten Ereigniserkennung wertschöpfend
genutzt werden
• Optimierung der Erkennungsraten im Vgl. zum Fence Monitoring
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 3/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
G dl
• Scatterweb MSB‐430 inkl. MSB‐S, MSB‐T
Grundlagen
• Bewegungsmuster mit Daten des Beschleunigungssensors MMA7260 erkennen
• Automatische Kalibrierung des Sensors
Beschleunigung Zitterbereich− Beschleunigung, Zitterbereich
• Anpassungsfähig
− Variable Musteranzahl, Mustertypen, Merkmale
• Automatisiertes Training
• Lokale Ereigniserkennung ist Grundlage für verteilte EreigniserkennungLokale Ereigniserkennung ist Grundlage für verteilte Ereigniserkennung
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 4/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
V dt A b it / Z t l E t h idVerwandte Arbeiten / Zentrale Entscheidung
Überwachung von Vulkanaktivitäten [Werm06]
Quellen:[Rud06] Rudloff, A., Lauterjung, J., Zschau, J. Der Deutsche Beitrag zur Einrichtung eines Tsunami‐Frühwarnsystems. In: Notfallvorsorge (Walhalla‐Verlag), Heft 1/2006, S. 10‐12, 2006.[W 06] W All G M i i V l i E i i h Wi l S N k 2006 h // h d d / d / j/ l /
GITEWS [Rud06]
[Werm06] WernerAllen, G. Monitoring Volcanic Eruptions with a Wireless Sensor Network. 2006. http://www.eecs.harvard.edu/~mdw/proj/volcano/[Jaf06] Jafari, R., Noshadi, H., Ghiasi,S., Sarrafzadeh,M. Adaptive Medical Feature Extraction for Resource Constrained Distributed Embedded Systems. In: Proceedings of the 4th annual IEEE international conference on Pervasive Computing and Communications Workshops, Page: 506 , 2006.
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 5/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
V dt A b it / D t l E t h idVerwandte Arbeiten / Dezentrale Entscheidung
Fence Monitoring [Wit07]Fence Monitoring [Wit07]
Battlefield Surveillance [Bok06]
Quellen:[Bok06] Bokareva, T., Hu, W., Kanhere,S., Ristic, B., Gordon, N., Bessel, T., Rutten, M., Jha, S. Wireless Sensor Networks for Battlefield Surveillance. In: Proceedings of The Land Warfare Conference, LWC, 2006.[D 07] D t M S N t k R h G 2007 El t i l d C t E i i D t t U i it f Wi i M di 2007
SensIT [Dua07]
[Dua07] Duarte, M. Sensor Networks Research Group, 2007. Electrical and Computer Engineering Department University of Wisconsin‐Madison, 2007. [Wit07] Wittenburg G., Terfloth K., Villafuerte, F. L., Naumowicz, T., Ritter, H., Schiller, J. Fence Monitoring ‐ Experimental Evaluation of a Use Case for Wireless Sensor Networks. In: European Workshop on Wireless Sensor Networks, Delft, Niederlande, 2007
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 6/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
A dAgenda
Motivation, Grundlagen • Verteilte Erkennung
Verwandte Arbeiten
• Bewegungsmuster
• Auswertung
• Zusammenfassung, Ausblick
• Lokale Erkennung, Klassifizierer • Demo
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 7/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
B tBewegungsmuster
• Muster sollen einfach sein => ermöglicht hohe VersuchszahlMuster sollen einfach sein => ermöglicht hohe Versuchszahl
• Muster sollen nachvollziehbar sein => geometrische 2D‐Muster
• Vorrichtung zur Stabilisierung des Sensorknotens g g
• Musterdefinition: gleichförmige Bewegung ohne Pause, ohne Eigenrotation
Ausführung der Musterbewegungen
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 8
Ausführung der Musterbewegungen auf gedruckter Vorlage
Musterdefinitionen
/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
L k l E k G bk tLokale Erkennung ‐ Grobkonzept
Muster‐bearbeitung
SampleSample‐bearbeitung
3. Erkennungsphase2. Trainingsphase1. Kalibrierungssphase
Messdaten
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 9/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
L k l E k K tLokale Erkennung ‐ Konzept
Kl i Kl ifi i
Merkmalsauswahl
Klassengenerierung Klassifizierung
MerkmalsextraktionMuster‐bearbeitung
Normierung
Nachbearbeitung
SegmentierungParameterSample‐
VorverarbeitungKalibrierung
3. Erkennungsphase2. Trainingsphase1. Kalibrierungssphase
bearbeitung
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 10
Messdaten
/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
L k l E k D t b itLokale Erkennung – Datenverarbeitung
8090
100
ung
[%]4. Merkmalbildung1. Rohdaten
20304050607080
rmie
rte
Besc
hleu
nigu
468
²]
010
0 25 50 75 100 125 150 175
Wer
tnor
SamplesKreis sortiert (x) Viereck sortiert (x)
Dreieck sortiert (x) Berg sortiert (x)
2. Tiefpassfilter
-8-6-4-202
Besc
hleu
nigu
ng [m
/s
Dreieck sortiert (x) Berg sortiert (x)
mal
swer
te
5. Merkmalsauswahl
21 451 881 1310 1740 2169 2599 3029 3458 3888Zeit [ms]Kreis (x) Viereck (x)
Dreieck (x) Bogen (x)
80
100
te
[%]
0
20
40
Nor
mie
rte
Mer
m
3. Normierung
0
20
40
60
80
21 451 881 1310 1740 2169 2599 3029 3458 3888
Wer
t-no
rmie
rtBe
schl
euni
gung
[ 12
34
56
78
Histogrammmerkmale
Ausgewähltes MerkmalKreis (x)Quadrat (x)Dreieck (x)B ( )
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 11
21 451 881 1310 1740 2169 2599 3029 3458 3888Zeit [ms]Kreis normiert (x) Viereck normiert (x)
Dreieck normiert (x) Bogen normiert (x)
Bogen (x)
/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
Kl t / Kl ifi i• Alle Informationen für eine Klassifizierung auf einem Sensor
Klassengenerator / Klassifizierer
=> Trainingsdaten + Musterdaten
• Einfacher Algorithmus mit minimaler Fließkommazahlnutzung
h k l b l h ( l k l )• Leicht skalierbarer Algorithmus (Klassen, Merkmale)
=> Euklidischer Abstand geeignet (einfach + skalierbar) x2
re al
featur
Merkm
( ) ( ) x
[RPo06] [Dud01]
feature
kNN (einfach, viel Speicher) k‐Means (einfach, viel Speicher)überwachter K‐Means(einfach, wenig Speicher)
x1
Q ll
Merkmal
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 12
Quellen:[RPo06] Polikar, R. Pattern Recognition. In: Wiley Encyclopedia of Biomedical Engineering, 2006.[Dud01] Duda, R. O., Hart, P. E., Stork, D. G. Pattern Classification. In: A Wiley‐Interscience, 2001.
/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
A dAgenda
Motivation, Grundlagen • Verteilte Erkennung
Verwandte Arbeiten
Bewegungsmuster
• Auswertung
• Zusammenfassung, Ausblickg g
Lokale Erkennung, Klassifizierer
g,
• Demo
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 13/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
V t ilt E k B i i lVerteilte Erkennung ‐ Beispiel
Musterbewegung: Klassifizierung: Verteilte Auswertung:
Dreieck
Viereck DreieckBeispielereignis: Drei Dreiecke
Dreieck
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 14/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
V t ilt E k K tVerteilte Erkennung ‐ Konzept
TRAINDATA‐DISTRIBUTION
DISTRIBUTION
EVALUATIONDaten‐verteiltung
Muster‐bearbeitung
MusterendeWartend
Sample‐bearbeitung
hl b h k h
Bewegung
IDLE
0 H ll h
(Stop)
2. Trainingsphase1. Kalibrierungssphase 3. Erkennungsphase0. Hellophase
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 15
Messdaten
/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
V t ilt E k F kk tVerteilte Erkennung ‐ Funkkonzept
TRAINDATA‐DISTRIBUTION
DISTRIBUTION
EVALUATIONDaten‐verteiltung
OFF OFF Muster‐
MusterendeWartend
bearbeitung
hl b h
HELLO
k h
BewegungOFF OFF
0 H ll h
OFF
(Stop)
IDLE
Sample‐bearbeitung
2. Trainingsphase1. Kalibrierungssphase 3. Erkennungsphase0. Hellophase
Funkchip inaktiv
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 16
Funkchip aktivMessdaten
/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
V t ilt E k F i bVerteilte Erkennung ‐ Fusionsebenen
Omnibusmodell:
• Verwendet Fusionsebenen um verteilte Ansätze zu definieren
Signalverarbeitung Merkmalsextraktion KlassifizierungBearbeitungs‐ebenen
Sensordaten Merkmale KlassenFusionsebenen
SensITFence Monitoring
Battlefield Surveillance
GITEWSVulkanaktivitäten
Projekte
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 17/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
V t ilt E k F i th dVerteilte Erkennung ‐ Fusionsmethoden
Methode 1: Klassifizierungsfusion
Mehrheits‐
Sensorknoten 1 Merkmalsextraktion k‐Means Klassifizierung
EntscheidSensorknoten 2 Merkmalsextraktion k‐Means Klassifizierung...
.
.
.
.
.
.
Sensorknoten 1 Fusionsergebnis
Sensorknoten n Merkmalsextraktion k‐Means Klassifizierung
Methode 2: Merkmalsfusion
Sensorknoten 1 MerkmalsextraktionFusionsergebnis
Referenz‐vektoren
Fusions‐vektor
k‐Means KlassifizierungSensorknoten 2 Merkmalsextraktion
.
.
.
.
.
.Bearbeitung innerhalb eines Sensorknotens
Sensorknoten 1
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 18
Sensorknoten n MerkmalsextraktionBearbeitung innerhalb eines SensorknotensFunkübertragung zu anderen Sensorknoten
/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
V t ilt E k E it t F i th dVerteilte Erkennung – Erweiterte Fusionsmethoden
• Methode 1 – KlassifikationsfusionMethode 1 Klassifikationsfusion− Geringer Kommunikationsaufwand (Klassen werden ausgetauscht 1 Byte)− Mehrheitsentscheid
• Methode 2 – Merkmalsfusion− Kommunikationsaufwand hängt von Merkmalszahl ab− Fusion aller Merkmale führt zur Berechnung einer gemeinsamen Klasseg g
• Methode 3 – Kooperative Fusion (nutzt Methode 1 und 2)− Keine eindeutige Mehrheit in der Klassifikationsfusion =>
=> Merkmalsfusion
• Methode 4 – Kooperative Fusion mit Vetorecht (nutzt Methode 1 und 2)− Bei minimaler Uneinigkeit der Sensorknoten =>
=> Merkmalsfusion
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 19/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
V t ilt E k P k t dVerteilte Erkennung ‐ Paketversendung
DISTRIBUTE: Mustererkennung abgeschlossenDISTRIBUTE: Mustererkennung abgeschlossenjeder versendet seine Daten
ASK: Fehlen Daten, werden diese angefordert
REPLY: Versendung der angeforderten Daten
PaketverlustSensorknotenErkennungsdaten (Klassen oder Merkmale)Datensendung
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 20
Zeit
/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
Verteilte Erkennung Implementierung
Samplebearbeitung Samplebearbeitung
Training ErkennungSystem rekalibrierenHello
Verteilte Erkennung ‐ Implementierung
Reset Segmentierung Segmentierung
groß
VorverarbeitungVorverarbeitungjederzeit möglich
groß
Nachbearbeitung Nachbearbeitung
Muster Stop
Mus
ter
zu
Muster StopVollständigeKalibrierung
Mus
ter
zu
MerkmalsextraktionMerkmalsextraktion
tes
Mus
terBeschleunigungs-
kalibrierungBeschleunigungs-
kalibrierung
tes
Mus
ter
t
Samplingintervall-kalibrierung
Klassifizierung
Klassengeneration
näch
st
näch
st
been
det
ibri
erun
g be
ende
tTraindata-Distribution
Distribution
Management
Training oder
alle Klassen trainiert
Tra
inin
g b
Kal
i
Evaluation
Funkchip inaktiv
InhaltVerteilteKomponenten
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 21
Kalibrierung beendet TrainingTraining oder
Mustererkennung MustererkennungFunkchip aktiv
/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
A dAgenda
Motivation, Grundlagen Verteilte Erkennung
Verwandte Arbeiten
Bewegungsmuster
• Auswertung
• Zusammenfassung AusblickBewegungsmuster
Lokale Erkennung, Klassifizierer
• Zusammenfassung, Ausblick
• Demo
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 22/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
A t V h fb tAuswertung ‐ VersuchsaufbautenFence Monitoring (Vergleichsarbeit)• Verteilte und lokale Ereigniserkennung durch Schwellenwertfindung• Verteilte und lokale Ereigniserkennung durch Schwellenwertfindung • Probanden müssen klettern, treten, lehnen etc. • Überklettern löst Alarm aus, 90 Versuche
Lange Nacht der Wissenschaft 2007• Stand der Entwicklung wird vorgestellt und evaluiert
[Witf07]
Stand der Entwicklung wird vorgestellt und evaluiert• Probanden sind Besucher der Messe, 280 Versuche(jeder Proband durfte alle vier Muster mind. einmal erzeugen)
Verteilter Versuchk f d b d• Projektfremde Probanden erzeugen Muster
• Lokale Auswertung, 480 Versuche• Verteilte Auswertung, 160 Versuche
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 23
Quellen:[Witf07] Wittenburg, G. Fence Monitoring ‐ A Use Case for Wireless Sensor Networks ‐ AG Computer Systems & Telematics ‐ Freie Universität Berlin. http://cst.mi.fu‐berlin.de/projects/FenceMonitoring/
/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
A t / E b i L k lAuswertung / Ergebnisse ‐ Lokal
Di K ktkl ifik ti t ( l ) i t d V hält iDie Korrektklassifikationsrate (engl.: accuracy) ist das Verhältnis aller korrekt klassifizierten Ereignisse zu allen Ereignissen.
83%89%
80
90
100Systemvergleich lokaler Erkennungssysteme
2.
51%50
60
70
80
%
1. Halbzeit• echtes Mustererkennungssystem
2 Ab b
1.
20
30
402. Abgabe
• Normierungsbereich vergrößert• div. Bugs behoben
0
10
Fence Monitoring (lokal) Lange Nacht der Wissenschaft 2007
Optimiertes System
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 24
Korrektklassifikationsrate
/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
A t / E b i V t iltAuswertung / Ergebnisse ‐ Verteilt
94% 96% 95% 96%100
Systemvergleich verteilter Erkennungssysteme94% 96% 95%
707580859095100
59%
404550556065
%
5101520253035
05
Fence Monitoring (verteilt)
Klassifikationsfusion Merkmalsfusion Kooperative Fusion Kooperative Fusion ‐Vetorecht Korrektklassifikationsrate
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 25/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
A t / E b i Ch l iAuswertung / Ergebnis‐Chronologie
89%96%
90
100
Lokale vs. verteilte Erkennung
59%
83%
70
80
90
51%59%
40
50
60
%
10
20
30
0
Fence Monitoring (lokal)
Fence Monitoring (verteilt)
Lange Nacht der Wissenschaft 2007
(lokal)
Optimiertes System (lokal)
Kooperative Fusion ‐ Vetorecht
(verteilt)Korrektklassifikationsrate
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 26/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
E b i Th ti h K ik ti f dErgebnisse – Theoretischer KommunikationsaufwandMerkmale werden von allen außer vom Anfordernden verschickt
= K * n + (1 - p) * (R + (M + m) * (n-1) )
Es müssen Merkmalsdaten angefordert werden, wenn 1‐p > 0
Merkmalsdatenmenge hängt von Anzahl Knoten und Merkmalen ab
Bk
Jeder Sensor versendet seine Klassifikationsdaten
M th d l i h d D t l b i hParams Beschreibung der anfallenden Bytegrößen
Bk Anfallende Datenmenge bei der Kooperationsmethode
K = 21 B Größe eines Paketes mit Klassifikationsdaten 700
800
Methodenvergleich des Datenvolumen bei sechs Merkmalen
Kooperative Fusion (p=90%) (Methode 3+4)
n Anzahl Sensorknoten
p Wahrscheinlichkeit, dass der Sensorknoten mit Klassifikationsdaten die Klassifikationsfusion durchführt
300
400
500
600
k By
tes /
Ere
igni
s
)
Kooperative Fusion (p=79%) (Methode 3+4)
Kooperative Fusion (p=50%) (Methode
R = 14 B Größe eines Broadcast‐Anfragepakets, das eine Merkmalsfusion zusätzlich initiiert
M = 20 B Paketgröße des Antwortpaketes ohne Merkmale0
100
200
300B k3+4)
Merkmalsfusion (Methode 2)
Klassifikationsfusion h d 1
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 27
m Anzahl Merkmale 1 2 3 4 5 6 7 8 9 1011121314151617181920Anzahl Sensorknoten
(Methode 1)
/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
A t / E b i R t bilitätAuswertung / Ergebnisse – Rentabilität
Korrektklassifikationsrate pro versendetes Byte in % bei drei Sensorknoten
1,081Koop. Vetorecht (p=60,6%) (Methode 4)
1,411Kooperative Fusion (p=93,1%) (Methode 3)
1 488
1,230
Kl ifik ti f i (M th d 1)
Merkmalsfusion (Methode 2)
1,488
0,000 0,500 1,000 1,500 2,000
Klassifikationsfusion (Methode 1)
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 28
Korrektklassifikationsrate pro Byte in %
/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
E l tiEvaluation
• Verteilte Ereigniserkennung hat höhere Korrektklassifikationsrate
als lokale Ereigniserkennung ( +7% bei 160 Versuchen )
• Methode 1 Klassifikationsfusion
zeigt höchste Rentabilität aufgrund niedrigstem Kommunikationsaufwand
• Methode 2 Merkmalsfusion
Korrektklassifikationsrate (95,9%) wird empfohlen, verringert Kommunikationsaufwand
• Methode 3 Kooperationsfusionp
Kompromiss zwischen Methode 1 und Methode 2
• Methode 4 Kooperationsfusion mit Vetorechtp
Beste Korrektklassifikationsrate (96,3%), aber höchster Kommunikationsaufwand
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 29/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
Z fZusammenfassung
• Verteilte Ereigniserkennung in Sensornetzen ist realisierbar
• Merkmalsfusion wird in bisherigen Projekten nicht oder nur inkonsequent untersucht
• Merkmalsfusion erzielt geringfügig bessere Erkennungsraten als Klassifikationsfusion
• Kooperationsfusionen können das Datenaufkommen optimieren und maximieren
Korrektklassifikationsrate
• Methodenwahl hängt von p (Wahrsch. erfolgr. Klassifizierung) und m (Merkmalszahl) ab
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 30/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
A bli kAusblick
• Implementierung weiterer Merkmalstypen
• Externes Trainingssystem möglich
• Einbeziehung ergänzender SensorenEinbeziehung ergänzender Sensoren
• Dynamische Sensorknotenverwaltung
• Wahlsystem für Auswertungskonten
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 31/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
D k & F ?Danke & Fragen ?
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 32
Demo =>
/32
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
D M k l f iDemo ‐MerkmalsfusionLokale Ereigniserkennung
Musterdefinitionen
Verteilte Ereigniserkennung
MerkmalsfusionMerkmalsfusion
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 33
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
A dAgenda
Motivation, Grundlagen Verteilte Erkennung
Verwandte Arbeiten
Bewegungsmuster
Auswertung
Zusammenfassung, AusblickBewegungsmuster
Lokale Erkennung, Klassifizierer
Zusammenfassung, Ausblick
Demo
• Reservefolien
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 34
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
R f liReservefolien
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 35
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
P t l t• Postulat 1:
Annahme: Muster Informationen werden durch Trainingsdaten erhalten
Postulate
– Annahme: Muster ‐ Informationen werden durch Trainingsdaten erhalten
• Postulat 2: – Charakteristische Feature‐Vektor für Muster können berechnet werden. – Warnung: curse of dimensionality
• Postulat 3: – Low intraclass distance ‐ High interclass distanceLow intraclass distance High interclass distance.
• Postulat 4:– Komplexe Muster können in kleinere, abhängige Teile zerlegt werden.
l b d d– Beispiel: nebeneinander sitzende Tutoren…
• Postulat 5: – Komplexe Muster haben spezifische Strukturenp p– Beispiel :Gesichter im Raum finden
• Postulat 6: Zwei Muster sind ähnlich, wenn Ihre Features ähnlich sind!
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 36
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
O i i ld t I t ti 1 d 2Originaldaten, Integration 1 und 2
Beschleunigungsdaten vor und nach Offsetkorrektur
Erste Integration: Geschwindigkeitsdaten vor und nach
Zweite Integration: Positionsdaten vor und nach
4
5
1
1,5
m/s
]
Offsetkorrektur
0,30,40,5
Offsetkorrektur
-1
0
1
2
3
unig
ung
[m/s
²]
-1
-0,5
0
0,5
Ges
chw
indi
gkei
t [m
-0,3-0,2
-0,10
0,1
0,2
Posit
ion
[m]
-6
-5
-4
-3
-2
Besc
hleu
-1,5
11 239 467 695 923 1151 1379 1607 1835
G
Zeit [ms]Geschwindigkeit XGeschwindigkeit YGeschwindigkeit X korrigiert
-0,5-0,4
11 239 467 695 923 1151 1379 1607 1835
Zeit [ms]Position XPosition YP iti X k i i t6
11 239 467 695 923 1151 1379 1607 1835Zeit [ms]
Beschleunigung X Beschleunigung YBeschleunigung X korrigiert Beschleunigung Y korrigiert
Geschwindigkeit X korrigiertGeschwindigkeit Y korrigiert
Position X korrigiertPosition Y korrigiert
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 37
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
M t it / h Off tk ktMuster mit / ohne Offsetkorrektur
Ergebnis der gemeinsamen Achsendarstellung von X/Y: Kreisdarstellung vor und nach Offsetkorrektur (Durchmesser ca 32 cm)
0,3
0,4
Offsetkorrektur (Durchmesser ca. 32 cm)
0
0,1
0,2
[m]
-0,3
-0,2
-0,1-0,2 -0,1 0 0,1 0,2 0,3 0,4 0,5 0,6
Y-A
chse
-0,4X-Achse [m]
X/Y-Positions-Daten Korrigierte X/Y-Positions-Daten
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 38
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
KlQuellen:
[RPo06]
Klassengrenzen Polikar, R. Pattern Recognition.In: Wiley Encyclopedia of Biomedical Engineering, 2006.
Beispiel für optimistische Klassengrenzen und 2D Vektoren2D‐Vektoren
[RPo06] [RPo06]
Abgrenzungsproblem ist nicht einfach lösbar, da sich Klassengrenzen überschneiden
[RPo06] [RPo06]
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 39
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
T i i fQuellen:
[Dud01]
Trainingsumfang Duda, R. O., Hart, P. E., Stork, D. G. Pattern Classification.In: A Wiley‐Interscience, 2001.
[Dud01] [Dud01]
Übertrainiertes System mit einer schlechten Performanz
Hohe Genauigkeit der Klassifizierung und hohe Performanz mittels generalisierter Klassengrenze
[Dud01] [Dud01]
Klassengrenze
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 40
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
A ß itQuellen:
[Dud01]
Außenseiter Duda, R. O., Hart, P. E., Stork, D. G. Pattern Classification.In: A Wiley‐Interscience, 2001.
Ein Außenseiter (rot umrandet) muss korrekt [Dud01]
( )zugeordnet oder zurückgewiesen werden
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 41
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
Kl ifi ikNN‐Algorithmus
Klassifizierer
1. Initialisierung: Vorgabe der Cluster mit E Elementen2. Abstandsberechnung: Abstand unbekanntes Muster zu allen Mustern berechnen3. Sortiere: Alle Abstände werdend er Größe nach sortiert4. kNN: finde die k kürzesten Abstände zu einer Klasse
Euklidischer Abstand d:
k‐means‐Algorithmus
1. Initialisierung: (Zufällige) Auswahl von k (gegebenen) Clusterzentren2. Zuordnung: Jedes Muster wird nächsten liegenden Clusterzentrum zugeordnet3. Neuberechnung: Für jedes Cluster Clusterzentren neu berechnen3. Neuberechnung: Für jedes Cluster Clusterzentren neu berechnen4. Wiederholung: Zuordnung der Objekte geändert? Zuordnung, Abbruch sonst
• Cluster kann leer bleiben => man startet den k‐means‐Algorithmus neu.
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 42
g• „quick'n'dirty“, praktisch fast immer gute Resultate
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
G dl d F i k tGrundlegende Fusionskonzepte
Gleiche Nutzinformationen• Mittelwertbildung
Verschiedene Nutzinformationen• Simuliert Konkurrierende Integration
Quellen:[R 07]
[Rus07]
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 43
[Rus07]Ruser, H., Puente León, F. Informationsfusion ‐ Eine Übersicht.In: Technisches Messen 74, Oldenburg Verlag, 2007.
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
St d d d ll d M t kStandardmodell der Mustererkennung
[Nie03]
[Nie03]Ni H Kl ifik ti M t
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 44
Niemann, H. Klassifikation von Mustern.Springer‐Verlag, Berlin 1983.
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
O ib d lOmnibusmodel
OmnibusmodellOmnibusmodell:• Basiert auf Klassischem Mustererkennungsmodell• Verwendet Fusionsebenen um verteilte Ansätze zu definieren
[Rus07]
Quellen:[R 07]
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 45
[Rus07]Ruser, H., Puente León, F. Informationsfusion ‐ Eine Übersicht.In: Technisches Messen 74, Oldenburg Verlag, 2007.
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
Abbild O ib d ll f E k tAbbildung von Omnibusmodell auf Erkennungssystem
Omnibusmodell Mustererkennungssystem
[Rus07]
[Nie03]
g y
ElementeWahrnehmungSignalverarbeitung
VorverarbeitungSegmentierung
MerkmalsextraktionNachbearbeitung
MerkmalsextraktionMustererkennung
NormierungMerkmalsextraktion
KontextverarbeitungEntscheidung
KlassifizierungEntscheidung
SteuerungRessourceneinsatz
beliebiges übergeordnetes System zurVerwaltung von Ressourcen sowie dieAlarm- und Handlungsinstanz
Q ll
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 46
Quellen:[Rus07] Ruser, H., Puente León, F. Informationsfusion ‐ Eine Übersicht. In: Technisches Messen 74, Oldenburg Verlag, 2007.[Nie03] Niemann, H. Klassifikation von Mustern. Springer‐Verlag, Berlin 1983.
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
Off tbildOffsetbildung
Vereinfachte Darstellung des Beschleunigungssignals vor und nach der Offsetbildung
[Sei07]
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 47
Seifert, K., Camacho, O. Implementing Positioning Algorithms Using Accelerometers. Application Note.In: Freescale Semiconductor, Inc., 2007.
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
Id d Kl ifi iIdee der Klassifizierung
Klassifikation unbekannter Muster mit Featurevektoren (konkret: euklidischer Abstand)
25
30
35
egröße
( )
10
15
20
mierte Feature
0
5
10
2 4 5 6 4 7
Norm
x2 x4 x5 x6 y4 y7Verschiedene Features der X‐ und Y‐Achse bilden für jede Musterklasse
einen VektorKreis Dreieck Berg unbekanntes Muster Quadrat
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 48
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
St H tStop‐Hysterese
Bewegung Stop-Hysterese Musterende
beschleunigestop
beschleunige Musterendestop
Stop
stop N * stop beschleunige+ Bewegungs-eintrittsparameter
stop:beschleunige:
Sample ist im ZitterbereichSample ist nicht im Zitterbereichbeschleunige:
Bewegungseintrittsparameter:
N:Eingabe:
Sample ist nicht im ZitterbereichSchwellwert, der für eine erste Bewegung überschritten werden mussmaximale StopsSamples
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 49
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
K t t B hl i h tKonstante Beschleunigungshysterese
beschleunige Neue Stopposition
BewegungKonstante
BeschleunigungHysterese
Neue Stop-Position
beschleunigebeschleunigekonstant
beschleunigestop
Stop
Neue Stoppositionberechnet
beschleunigekonstant M * beschleunige
konstant
beschleunige+ Bewegungs-eintrittsparameter
Beschleunige konstant:beschleunige:
Beschleunige genauso wie im letzten SampleSample ist nicht im Zitterbereichg
Bewegungseintrittsparameter:
M:Eingabe:
pSchwellwert, der für eine erste Bewegung überschritten werden mussmaximale konstante BeschleunigungenSamples
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 50
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
A t t S tibeschleunige
SegmentierungSamplebearbeitung
beschleunige
beschleunigestop
Automat ‐ Segmentierung
Bewegung Stop-Hysterese Musterendebeschleunige
stop
stop
stop N * stop
beschleunige
beschleunige
neue Stoppositionberechnet Segmentierung
Vorverarbeitungbeschleunige+ Bewegungs-eintrittsparameter
Neue Stopposition
M * beschleunige
Konstante Beschleunigung
Hysterese
beschleunige
beschleunigekonstant
g g
Musterende
stop
StopNachbearbeitung
MusterendeM beschleunigekonstant
beschleunigekonstantH
es gilt: N < M
Musterende
Alle grünen Pfeile entsprechen exakt dem selben Vorgang: Musterende
stop:beschleunige konstant:
beschleunige:
Sample ist im ZitterbereichBeschleunige genauso wie im letzten SampleSample ist nicht im Zitterbereich
Alle roten Pfeile entsprechen exakt dem selben Vorgang: Beschleunigungs- oder Stopsample trifft ein
Alle violetten Pfeile entsprechen exakt dem selben Vorgang: verlasse Vorverarbeitung und betrete Segmentierung
beschleunige:Bewegungseintrittsparameter:
N:M:
Eingabe:
Sample ist nicht im ZitterbereichSchwellwert, der für eine erste Bewegung überschritten werden mussmaximale Stopsmaximale konstante BeschleunigungenSamples
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 51
verlasse Vorverarbeitung und betrete Segmentierung
Historienfunktion: merke letzten ZustandH
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
R h ktfi dRuhepunktfindung
1. Messwert
l d
Zitterbereich
Folgende Messwerte
Neuer Nullpunkt
Originalnullpunkt
a)
Fester Zitterbereich der Stop-Hysterese
b)
este tte be e c e Stop yste ese
a) beschreibt schematisch die Berechnung des Nullpunktes mit der „Stop‐Hysterese“
b) beschreibt schematisch die Berechnung des Nullpunktes mitb) beschreibt schematisch die Berechnung des Nullpunktes mit der „Konstante Beschleunigung‐Hysterese“
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 52
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
D t üb t lität ( t ilt)Datenübertragungsqualität (verteilt)
100
60
70
80
90
rtra
gung
en in
%97 % aller Versuche der verteilten
20
30
40
50
60lg
reic
he D
aten
über Erkennung konnten nach erfolgreicher
Datenübertragung ausgewertet werden.
0
10
20
Erfo
Datenübertragung misslungenDatenübertragung misslungen
Erfolgreiche Datenübertragung
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 53
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
A t t S ti (i kl R di )Automat – Segmentierung (inkl. Radio)
stop
beschleunigeSegmentierung
Samplebearbeitungbeschleunige
beschleunigestopOFF
Bewegung Stop-Hysterese Musterendebeschleunige
stop
stop N * stop Vorverarbeitungbeschleunige+ Bewegungs-
beschleunigekonstant
beschleunige
neue Stoppositionberechnet Segmentierung
stop
g geintrittsparameter
IDLE Neue Stopposition
M * beschleunigekonstant
Konstante BeschleunigungHysterese
beschleunigekonstant
Musterende
stop
Stop
es gilt: N < M
NachbearbeitungMusterende
IDLE
H
es gilt: N < M
Funkchip inaktiv Funkchip aktiv
Die Samplebearbeitung der Erkennungsphase ist um die verteilten Erkennungszustände
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 54
p g g p g„Idle“ und „Off“ erweitert. Zusätzlich werden die Funkchipaktivitäten aufgezeigt.
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
K tKennwerte
• richtig positiv: wird verwendet wenn ein gesuchtes Muster korrekt klassifiziert wird• richtig positiv: wird verwendet, wenn ein gesuchtes Muster korrekt klassifiziert wird
• richtig negativ: wird verwendet, wenn ein gesuchtes Muster nicht vorliegt und dies korrekt festgestellt wird
• falsch positiv: wird verwendet, wenn ein gesuchtes Muster gefunden wird, obwohl es nicht vorliegt
• falsch negativ: wird verwendet, wenn das gesuchte Muster nicht korrekt klassifiziert wird, obwohl es vorliegt
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 55
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
K tKennwerteDie Sensitivität (engl.: sensitivity) wird als das Verhältnis von richtig erkannten Mustern eines Typs zu allen bisher aufgetretenen Mustern dieses Typs definiert. Dies entspricht der Wahrscheinlichkeit, dass ein gesuchtes Muster richtig erkannt wird wenn es auftritt.
Die Spezifität (engl.: specificity) wird als das Verhältnis von richtig erkannten anderen Mustern zu allen anderen erzeugten Mustern definiert. Dies entspricht der Wahrscheinlichkeit, dass es keinen Fehlalarm gibt
Die Relevanz (engl.: positive predictive value) beschreibt das Verhältnis von richtig erkannten Mustern eines Typs zu allen bisher richtig d f l h k di i i h d h h i li hk i d i h koder falsch erkannten Mustern dieses Typs. Dies entspricht der Wahrscheinlichkeit, dass ein gesuchtes Muster, wenn es erkannt
wird, richtig erkannt werden wird.
Die Segreganz (engl.: negative predictive value) ist das Verhältnis von korrekt nicht erkannten eines Typs zu allen bisher korrekt oder nicht korrekt erkannten Nichtauftreten des Musters. Dies entspricht der Wahrscheinlichkeit, dass ein gesuchtes Muster, wenn es als „nicht erkannt“ bewertet wird, diese Aussage richtig ist.
Die Korrektklassifikationsrate (engl.: accuracy) ist der Anteil aller richtig klassifizierten Objekte. Mit der Korrektklassifikationsrate werden die Aussagen der Kennwerte Sensitivität, Spezifität, Relevanz und Segreganz zusammengefasst.
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 56
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
K t L N ht 2007 (l k l)Kennwerte ‐ Lange Nacht 2007 (lokal)
90
100
50
60
70
80
%
Sensitivität
S f
20
30
40
50% Spezifität
Relevanz
Segreganz
Korrektklassifikationsrate
0
10
Kreis Viereck Dreieck Bogen Mittelwert
Korrektklassifikationsrate
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 57
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
K t ti i t S t (l k l)Kennwerte – optimiertes System (lokal)
90
100
50
60
70
80
%
Sensitivität
10
20
30
40
50%
Spezifität
Relevanz
Segreganz
0
10
Kreis Viereck Dreieck Bogen Mittelwert
Korrektklassifikationsrate
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 58
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
K t V l i h l k l S tKennwerte – Vergleich lokaler Systeme
80
90
100
50
60
70
%
Sensitivität
Spezifität
20
30
40 Relevanz
Segreganz
Korrektklassifikationsrate
0
10
Fence Monitoring (lokal) Lange Nacht der Wissenschaft 2007
Optimiertes System
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 59
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
A t Kl ifik ti f i ( t ilt)Auswertung Klassifikationsfusion (verteilt)
100
60
70
80
90
%
Sensitivität
20
30
40
50Spezifität
Relevanz
Segreganz
0
10
20
Kreis Viereck Dreieck Bogen Mittelwert
Korrektklassifikationsrate
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 60
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
A t M k l f i ( t ilt)Auswertung Merkmalsfusion (verteilt)
100
60
70
80
90
%
Sensitivität
S ifität
20
30
40
50
% Spezifität
Relevanz
Segreganz
k kl f k
0
10
Kreis Viereck Dreieck Bogen Mittelwert
Korrektklassifikationsrate
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 61
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
A t Kl ifik ti f i ( t ilt)Auswertung Klassifikationsfusion (verteilt)
859095
100
455055606570758085
%
1015202530354045
05
10
Fence Monitoring (verteilt)
Klassifikationsfusion Merkmalsfusion Kooperative Fusion Kooperative Fusion -Vetorecht
Sensitivität Spezifität Relevanz Segreganz Korrektklassifikationsrate
Kennwertevergleich zur Bewertung der vorgestellten verteilten Methoden dieser Arbeit mit Fence Monitoring
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 62
g
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
K t V l i h ll S tKennwerte – Vergleich aller Systeme
80
90
100
30
40
50
60
70
%
0
10
20
30
Fence Monitoring Fence Monitoring Lange Nacht der Optimiertes System Kooperative Fusion -g(lokal)
g(verteilt)
gWissenschaft 2007
(lokal)
p y(lokal)
pVetorecht (verteilt)
Sensitivität Spezifität Relevanz Segreganz Korrektklassifikationsrate
V l i h d t F M it i S t it d i di A b itVergleich des gesamten Fence Monitoring Systems mit den in dieser Arbeit vorgestellten lokalen und erkennungstechnisch besten verteilten System.
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 63
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
D t l b i 22 M k lDatenvolumen bei 22 Merkmalen (theoretisches p)
700
800
900
Kooperative Fusion (p=90%) (Methode 3+4)
300
400
500
600
Byte
s / E
reig
nis
Kooperative Fusion (p=79%) (Methode 3+4)
Kooperative Fusion (p=50%) (Methode 3+4)
Merkmalsfusion (Methode 2)
0
100
200
300
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
B Merkmalsfusion (Methode 2)
Klassifikationsfusion (Methode 1)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20Anzahl Sensorknoten
Spezifischer Methodenvergleich des Datenvolumens bei 22Spezifischer Methodenvergleich des Datenvolumens bei 22 Merkmalen mit theoretischer primärer Auswertungsquote der Methode 3 bzw. 4
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 64
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
D t l b i h M k lDatenvolumen bei sechs Merkmalen(spezifisches p)
700
Koop Fusion Vetorecht
300
400
500
600
/ E
reig
nis
Koop. Fusion - Vetorecht (p=60,6%) (Methode 4)
Kooperative Fusion (p=93,1%) (Methode 3)
0
100
200
300
Byte
s
Merkmalsfusion (Methode 2)
Klassifikationsfusion (Methode 1)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Anzahl Knoten
S ifi h M th d l i h d D t l b i h M k lSpezifischer Methodenvergleich des Datenvolumens bei sechs Merkmalen. p wird mittels Versuchen konkret ermittelt
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 65
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
D t l b i 15 M k lDatenvolumen bei 15 Merkmalen(spezifisches p)
800
400
500
600
700
Erei
gnis
Koop. Fusion Vetorecht (p=60,6%) (Methode 4)
Kooperative Fusion (p=93,1%)
100
200
300
400
Byte
s / E Kooperative Fusion (p 93,1%)
(Methode 3)
Merkmalsfusion (Methode 2)
Klassifikationsfusion (Methode 1)
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Anzahl Knoten
Klassifikationsfusion (Methode 1)
Spezifischer Methodenvergleich des Datenvolumens bei 15 Merkmalen mit spezifischem p der Methode 3 und 4
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 66
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
P j kt t t P b A tProjektvertraute Personen verbessern Auswertung
9,0
10,0
Vergleich von Kennwertverbesserungen (in Prozentpunkten) durch projektvertraute Personen
4,0
5,0
6,0
7,0
8,0%
0,0
1,0
2,0
3,0
,
lokale Erkennung Klassifikationsfusion Merkmalsfusion Kooperative Fusion Kooperative Fusion lokale Erkennung Klassifikationsfusion Merkmalsfusion Kooperative Fusion Kooperative Fusion -Vetorecht
Sensitivitätszuwachs Spezifitätszuwachs
Relevanzzuwachs Segreganzzuwachs
Korrektklassifikationsratenzuwachs Mittelwertzuwachs
Das System wurde von der projektinterne Person trainiert und erreicht durch diese Person die besten Kennwerte.
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 67
Freie Universität Berlin - Institut für Mathematik und Informatik - AG Technische Informatik
K t t it l k l d t ilt
Streuweite erzielter Kennwerte der lokalen
Kennwertstreuweiten lokal und verteilt
Streuweite erzielter Kennwerte der lokalen Erkennung der jeweiligen Probanden (ein projektinterner Proband, drei projektfremde Probanden)
90
95
100
95
100
Probanden)
75
80
85%
80
85
90
95
%
70Sensitivität Spezifität Relevanz Segreganz Korrektkl.Rate
Mittelwert70
75
80
Sensitivität Spezifität Relevanz Segreganz Korrektkl. RateMittelwert
Streuweite erzielter gemittelter Kennwerte der verteilten Erkennung der jeweiligen Probanden (ein projektinterner Proband drei projektfremde Probanden)
10.12.2007 Norman Dziengel ‐ Verteilte Ereigniserkennung in Sensornetzen 68
Proband, drei projektfremde Probanden)