Deep Web

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Clear Web, Deep Web und Dark Web im Vergleich

Das Deep Web (auch Hidden Web oder Invisible Web) bzw. Verstecktes Web bezeichnet den Teil des World Wide Webs, der bei einer Recherche über normale Suchmaschinen nicht auffindbar ist. Im Gegensatz zum Deep Web werden die über Suchmaschinen zugänglichen Webseiten Clear Web, Visible Web (Sichtbares Web) oder Surface Web (Oberflächenweb) genannt. Das Deep Web besteht zu großen Teilen aus themenspezifischen Datenbanken (Fachdatenbanken) und Webseiten. Zusammengefasst handelt es sich um Inhalte, die nicht frei zugänglich sind, und/oder Inhalte, die nicht von Suchmaschinen indiziert werden oder die nicht indiziert werden sollen.

Arten des Deep Web

[Bearbeiten | Quelltext bearbeiten]

Nach Sherman & Price (2001)[1] werden fünf Typen des Invisible Webs unterschieden:

  1. „Opaque Web“ (undurchsichtiges Web)
  2. „Private Web“ (privates Web)
  3. „Proprietary Web“ (Eigentümer-Web)
  4. „Invisible Web“ (unsichtbares Web)
  5. „Truly invisible Web“ (tatsächlich unsichtbares Web).

Das Opaque Web (engl. opaque zu dt.: undurchsichtig) sind Webseiten, die indiziert werden könnten, zurzeit aber aus Gründen der technischen Leistungsfähigkeit oder Aufwand-Nutzen-Relation nicht indexiert werden (Suchtiefe, Besuchsfrequenz).

Suchmaschinen berücksichtigen, insbesondere bei umfangreichen Websites, häufig nicht alle Verzeichnisebenen und Unterseiten. Beim Erfassen von Webseiten steuern Webcrawler über Links zu den folgenden Webseiten. Webcrawler sind nicht in der Lage, eigenständig zu navigieren. Sie können sich sogar in komplexen Verzeichnisstrukturen verirren und haben dann Schwierigkeiten beim Erfassen von Seiten (Durchsuchen von Texten, Bildern, Links und anderen relevanten Daten zur Indexierung) oder bei der Rückkehr zur Startseite. Aus diesem Grund oder aufgrund von erschöpftem Crawling-Budget[2] berücksichtigen Suchmaschinen oft höchstens fünf oder sechs Verzeichnisebenen. Liegen umfangreiche oder relevante Dokumente in tieferen Hierarchieebenen werden sie demnach in vielen Fällen von Suchmaschinen nicht gefunden.

Dazu kommen Dateiformate, die nur teilweise erfasst werden können (zum Beispiel PDF-Dateien, Google indexiert nur einen Teil einer PDF-Datei und stellt den Inhalt als HTML zur Verfügung).

Außerdem sind ständig aktualisierte Datenbestände, wie Online-Messdaten, betroffen. Webseiten ohne Hyperlinks oder Navigationssystem, unverlinkte Webseiten, Einsiedler-URLs oder „Orphan-Seiten“ (orphan engl. für Waise) fallen ebenfalls darunter.

Das private Web beschreibt Webseiten, die indiziert werden könnten, aber aufgrund von Zugangsbeschränkungen des Webmasters nicht indexiert werden.

Dies können Webseiten im Intranet (interne Webseiten) sein, aber auch passwortgeschützte Daten (Anmeldung mit Login und Passwort⁣), Zugang nur für bestimmte IP-Adressen, Schutz vor einer Indizierung durch den Robots Exclusion Standard (auch bekannt als robots.txt) oder Schutz vor einer Indizierung durch die Meta-Tag-Werte „noindex“, „nofollow“ und „noimageindex“ im Quelltext der Webseite.

Proprietary Web

[Bearbeiten | Quelltext bearbeiten]

Mit Proprietary Web sind Webseiten gemeint, die indexiert werden könnten, allerdings nur nach Anerkennung einer Nutzungsbedingung oder durch die Eingabe eines Passwortes zugänglich sind (kostenlos oder kostenpflichtig).

Derartige Webseiten sind üblicherweise erst nach einer Identifizierung (webbasierte Fachdatenbanken, Paywalls bei Online-Medien) abrufbar.

Unter das Invisible Web fallen Webseiten, die rein technisch gesehen indexiert werden könnten, jedoch aus kaufmännischen oder strategischen Gründen nicht indexiert werden – wie zum Beispiel Datenbanken mit einem Webformular.

Truly Invisible Web

[Bearbeiten | Quelltext bearbeiten]

Mit Truly Invisible Web werden Webseiten bezeichnet, die aus technischen Gründen (noch) nicht indexiert werden können. Das können Datenbankformate sein, die vor dem WWW entstanden sind (einige Hosts), Dokumente, die nicht direkt im Browser angezeigt werden können, Nicht-Standardformate (zum Beispiel Flash), genauso wie Dateiformate, die aufgrund ihrer Komplexität nicht erfasst werden können (Grafikformate). Dazu kommen komprimierte Daten oder Webseiten, die nur über eine Benutzernavigation, die Grafiken (Image Maps) oder Skripte (Frames) bedient werden können.

Dynamisch erstellte Datenbank-Webseiten

[Bearbeiten | Quelltext bearbeiten]

Webcrawler bearbeiten fast ausschließlich statische Datenbank-Webseiten und können viele dynamische Datenbank-Webseiten nicht erreichen, da sie tiefer liegende Seiten nur durch Hyperlinks erreichen können. Jene dynamischen Seiten erreicht man aber oft erst durch Ausfüllen eines HTML-Formulars, was ein Crawler momentan noch nicht bewerkstelligen kann.

Kooperative Datenbankanbieter erlauben Suchmaschinen über Mechanismen wie JDBC einen Zugriff auf den Inhalt ihrer Datenbank, gegenüber den (normalen) nicht-kooperativen Datenbanken, die den Datenbankzugriff nur über ein Such-Formular bieten.

Hosts und Fachdatenbanken

[Bearbeiten | Quelltext bearbeiten]

Hosts sind kommerzielle Informationsanbieter, die Fachdatenbanken unterschiedlicher Informationsproduzenten innerhalb einer Oberfläche bündeln. Manche Datenbankanbieter (Hosts) oder Datenbankproduzenten selbst betreiben relationale Datenbanken, deren Daten nicht ohne eine spezielle Zugriffsmöglichkeit (Retrieval-Sprache, Retrieval-Tool) abgerufen werden können. Webcrawler verstehen weder die Struktur noch die Sprache, die benötigt wird, um Informationen aus diesen Datenbanken auszulesen. Viele Hosts sind seit den 1970er-Jahren als Online-Dienst tätig und betreiben in ihren Datenbanken teilweise Datenbanksysteme, die lange vor dem WWW entstanden sind.

Beispiele für Datenbanken: Bibliothekskataloge (OPAC), Börsenkurse, Fahrpläne, Gesetzestexte, Jobbörsen, Nachrichten, Patente, Telefonbücher, Webshops, Wörterbücher.

Schätzung der Datenmenge

[Bearbeiten | Quelltext bearbeiten]

Nach einer Studie[3] der Firma BrightPlanet, die im Jahr 2001 veröffentlicht wurde, ergeben sich für das Deep Web folgende Eigenschaften:

Die geschätzte Datenmenge des Deep Web ist etwa 400- bis 550-mal größer als die des Surface Web. Allein 60 der größten Websites im Deep Web enthalten etwa 7.500 Terabyte an Informationen, was die Menge des Surface Web um den Faktor 40 übersteigt. Es existieren angeblich mehr als 200.000 Deep-Websites. So haben laut der Studie Webseiten aus dem Deep Web durchschnittlich 50 % mehr Zugriffe pro Monat und seien öfter verlinkt als Webseiten aus dem Surface Web. Das Deep Web sei auch die am schnellsten wachsende Kategorie von neuen Informationen im Web. Trotzdem sei der im Internet suchenden Öffentlichkeit das Deep Web kaum bekannt. Mehr als die Hälfte des Deep Web sei in themenspezifischen Datenbanken angesiedelt.

Da BrightPlanet mit DQM2 eine kommerzielle Suchhilfe anbietet, ist die (möglicherweise stark überschätzte) Größenangabe mit großer Vorsicht zu betrachten. Die von BrightPlanet geschätzte Datenmenge des Deep Web[4] muss um einige Daten bereinigt werden, um einen möglichst präzisen Überblick zu ermöglichen:

  • Dubletten aus Bibliothekskatalogen, die sich überschneiden
  • Datensammlung des National Climatic Data Center (361 Terabyte)
  • Daten der NASA (296 Terabyte)
  • weitere Datensammlungen (bspw. National Oceanographic Data Center & National Geophysical Data Center, Right to know Network, Alexa)

Anhand der Anzahl der Datensätze zeigt sich, dass die Studie die Größe des Deep Web um das Zehnfache überschätzt. Allerdings hat allein der Informationsanbieter LexisNexis mit 4,6 Milliarden Datensätzen mehr als die Hälfte der Anzahl der Datensätze des Suchmaschinenprimus Google. Das Deep Web ist daher sicher weitaus größer als das Oberflächenweb.

In einer Untersuchung der University of California, Berkeley aus dem Jahr 2003 wurden folgende Werte als Umfang des Internets ermittelt: Surface Web – 167 Terabyte, Deep Web – 91.850 Terabyte.[5] Die gedruckten Bestände der Library of Congress in Washington, eine der größten Bibliotheken der Welt, umfassen 10 Terabyte.

Laut dem BSI geht man inzwischen davon aus, dass die Größe des Deepwebs ca. 90 % des gesamten Internets ausmacht.[6]

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Gary Price: The Invisible Web: uncovering information sources search engines can’t see. CyberAge Books, Medford, N.J. 2001, ISBN 0-910965-51-X (englisch).
  2. Handbuch für Websiteinhaber zur Verwaltung des Crawling-Budgets. In: Google Search Central. Google, abgerufen am 20. Juli 2024.
  3. Michael K. Bergman: The Deep Web: Surfacing Hidden Value. In: The Journal of Electronic Publishing, Jahrgang 7, 2001, Nr. 1
  4. Internet Archive Wayback Machine (Memento vom 14. März 2006 im Internet Archive)
  5. Internet (Memento vom 15. Oktober 2004 im Internet Archive) sims.berkeley.edu
  6. publisher: Darknet und Deep Web – wir bringen Licht ins Dunkle. Abgerufen am 29. Januar 2024.