Container (Informatik)

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Ein Container (auch Collection) in der Informatik ist ein abstraktes Objekt, das Elemente des gleichen Typs speichert. Je nach Anforderungen verwendet man dabei unterschiedliche Datenstrukturen, um einen Container zu realisieren. Beispiele für Container sind Arrays oder Listen, eine detailliertere Auflistung ist auf der Seite der Datenstrukturen zu finden.

Speicher- und Rechenzeitbedarf[Bearbeiten]

Speicher- und Rechenzeitbedarf
  Array Dynamisches
Array
Verkettete
Liste
Balancierter
Baum
Hashtabelle
Wahlfreier Zugriff O(1) O(1) O(n) O(n) N/A[1]
Einfügen/Löschen am Anfang N/A O(1)[2][3] O(1) O(log n) O(1) [4]
Einfügen/Löschen am Ende N/A O(1)[2] O(1)[5]
Einfügen/Löschen mittig N/A O(n) suche +
O(1)[6]
Suche O(n) O(n) O(n) O(log n) O(1)
Mittlere Speicherplatzverschwendung 0 O(n) O(n) O(n) O(n)

Die verschiedenen Datenstrukturen haben unterschiedliche Eigenschaften in Bezug auf Speicher- und Rechenzeitbedarf beim Einfügen neuer Elemente, Löschen bereits in der Datenstruktur vorhandener Elemente oder der Suche nach einem bestimmten Element. In Arrays und Listen kann Neues in konstanter Zeit – in Landau-Notation \mathcal{O}(1) – eingefügt werden, die Suche nach bereits im Container eingelagerten Daten kann jedoch im ungünstigsten Fall \mathcal{O}(n) – ein Sichten des gesamten Datenbestands – erfordern.

Wird als Container hingegen ein balancierter Baum, wie AVL- oder Rot-Schwarz-Bäume, verwendet, erfordern alle Operationen Zeit \mathcal{O}(\log n). Für eine Suche muss nur noch ein kleiner Teil des Datenbestands gesichtet werden, das Einfügen neuer Daten hingegen erfordert einen etwas größeren Aufwand.

Anmerkungen und Einzelnachweise[Bearbeiten]

  1. Nicht sinnvoll möglich, da die Reihenfolge in der Hashtabelle von der Hashfunktion abhängt.
  2. a b amortisiert
  3. Wenn ein zyklisches Array verwendet wird.
  4. amortisierte erwartete Laufzeit, zum Beispiel mit Kuckucks-Hashing.
  5. Unter der Annahme, dass die verlinkte Liste sich einen Pointer der Datenendposition merkt, sonst muss erst das Ende der Liste mit dem Zeitaufwand O(n) ermittelt werden.
  6. Gerald Kruse. CS 240 Lecture Notes: Linked Lists Plus: Complexity Trade-offs. Juniata College. Spring 2008.

Siehe auch[Bearbeiten]