Benutzer:Wolfgang Ihloff/Filterung und Behandlung von Messwertausbrechern in drahtlosen Sensornetzen

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Einführung[Bearbeiten | Quelltext bearbeiten]

Technologischer Fortschritt im Bereich der VLSI, MEMS und der drahtlosen Kommunikation haben neue Dimensionen der Miniaturisierung, Verbilligung, Energieeinsparung und Mikrosensorik geschaffen. Auf Grund der Größe und der geringen Kosten solcher Sensoren entstehen neue Anwendungsgebiete und die Messungen können in bisher nicht gekannter Genauigkeit, Größenordnung und an bisher unzugänglichen Plätzen durchgeführt werden. Netze solcher Sensoren werden als drahtlose Sensornetze bezeichnet und versprechen eine grundlegende Veränderung in zivilen, wissenschaftlichen, industriellen und militärischen Anwendungen.

Das Problem der robusten Datenaggregation liegt darin begründet, dass technische Defekte und Angreifer leicht auftreten bzw. leicht eingreifen können. Zum einen können Daten während des Transports von den Knoten zur Basisstation modifiziert werden. Dieses Problem kann mit kryptographischen Methoden behoben werden und die robuste Datenaggregation beschäftigt sich nicht mit diesem Teilgebiet. Zum anderen können Angreifer die Sensoren bezüglich ihrer Messwerte beeinflussen indem zum Beispiel an einen Temperatursensor ein entflamtes Feuerzeug gehalten wird. Diese Art von Angriff kann regelmäßg bei den geplanten Einsatzfeldern nicht ausgeschlossen werden und diese Art des Eingriffs kann durch die cryptographischen Methoden nicht erkannt werden. Ein verschlüsselter manipulierter Messwert wird trotzdem gemeldet. Der in der englischen Literatur gebräuchliche Begriff "resilient aggregation" wurde von David Wagner in seinem SASN 2004 Paper geprägt. Auf Deutsch kommt dem der Begriff der Robusten Aggregation nahe. Dabei werden Messwertausbrecher je nach Methode gefiltert oder anderweitig behandelt um damit Einwirkungen durch Störer oder Angreifer und technische Defekte möglichst zu erkennen oder aber zumindest die Auswirkungen auf die Aussagekraft der aggregierten Messwerte möglichst gering zu halten.

Ansätze[Bearbeiten | Quelltext bearbeiten]

Im folgenden wollen wir auf die unserer Meinung nach vielversprechendsten Ansätze eingehen:

David Wagners Ansatz[Bearbeiten | Quelltext bearbeiten]

SASN Oktober 2004, Median nutzen statt Durchschnitt, min, max

  • Vorteil: Leicht zu realisieren
  • Nachteil: Nur gut bei wenigen kompromittierten Blättern

RANBAR[Bearbeiten | Quelltext bearbeiten]

FAIR[Bearbeiten | Quelltext bearbeiten]

CORA[Bearbeiten | Quelltext bearbeiten]

Vergleich[Bearbeiten | Quelltext bearbeiten]

Kriterien:

  • Hardwareaufwand
  • Energiebedarf
  • Rechenzeit
  • Speicherplatz
  • Implementierungsaufwand
  • Zusammenwirken mit anderen Maßnahmen

Bewertung der vorgestellten Ansätze[Bearbeiten | Quelltext bearbeiten]

Seit David Wagner 2004 darauf hinwies, dass Auswertungen Messdaten mit min, max oder avg nicht robust gegen Messwertausbrecher sind, die von einem Angreifer oder durch eine technischen Defekt verursacht werden, sind viele weiterführende Konzepte etstanden, die über den einfachen Ansatz den Median zu nutzen weit hinausgehen.

Quellen[Bearbeiten | Quelltext bearbeiten]

  • Pétar Schaffer, István Vajda. CORA: Correlation-based Resilient Aggregation in Sensor Networks, MSWIM’07, October 22-26, 2007, Chania, Crete Island, Greece.
  • FAIR: Fuzzy-based Aggregation providing In-network Resilience for real-time Wireless Sensor Networks
  • Levente Buttyán, Péter Schaffer, István Vajda. RANBAR: RANSAC-Based Resilient Aggregation in Sensor Networks, SASN’06, October 30, 2006, Alexandria, Virginia, USA.