Einleitung

Das World Wide Web (WWW) hat die Gesellschaft und die Wirtschaft in den letzten Jahren erheblich beeinflusst und verändert. So beläuft sich beispielsweise die Summe des weltweiten E-Commerce-Umsatzes mittlerweile auf 17,9 Billionen EUR in 2006 und die Gesamtmenge der Daten im Internet auf 281 Milliarden Gigabyte in 2007, jeweils mit anhaltend steigender Tendenz.

Das ständig wachsende Datenaufkommen macht es immer schwieriger, relevante Informationen zu finden, darauf zuzugreifen und diese sinnvoll wiederzuverwerten, ob nun als Privatperson oder als Unternehmen. Wie wichtig dabei dieses Knowledge-Management in Zukunft für eine erfolgreiche Informationsgesellschaft sein wird, lässt sich leicht erahnen.

Das nützlichste Werkzeug beim Suchen und Verwenden von Informationen sind zurzeit Suchmaschinen. Mit den auf Schlagwörtern basierenden Suchmaschinen wie z.B. Google sind allerdings einige Probleme verbunden. Sie liefern eine hohe Trefferzahl, leider aber auch oft geringe Genauigkeit, denn zu viele Suchergebnisse sind letztendlich genauso unbrauchbar wie zu wenige. Außerdem können Wortdoppelbedeutungen nicht unterschieden werden und die Ergebnisse sind stets nur auf einzelnen Webseiten zu finden. Benötigen wir Informationen, die sich über mehrere Webseiten verteilen, müssen wir die Informationen selbst einzeln entnehmen und zusammenfügen.

Natürlich gibt es heute bereits Software, die Text verarbeiten, Rechtschreibung prüfen oder die Wörter zählen kann. Geht es aber darum, die Bedeutung von Sätzen zu interpretieren und daraus brauchbare Informationen für den Nutzer zu extrahieren, so sind alle verfügbaren Programme stark limitiert, wenn nicht gar unbrauchbar. Das Hauptproblem ist, dass der Großteil der Daten im Internet zum Lesen und Deuten durch den Menschen konzipiert ist und von Maschinen respektive Computern weder interpretiert noch weiter verarbeitet werden können.

Eine Lösungsmöglichkeit wäre, die Inhalte so zu belassen, wie sie heute sind und die Maschinen mittels künstlicher Intelligenz und Computerlinguistik zu verbessern. Die Wissenschaft verfolgt diesen Ansatz schon einige Zeit, allerdings wurde bis auf einige kleine Verbesserungen kein wesentlicher Durchbruch erreicht.

Ein anderer Ansatz ist, die Inhalte des World Wide Web so darzustellen, dass sie leichter von Maschinen interpretiert und verarbeitet werden können. Genau diese Vision entwarf der Erfinder des Internets, Tim Berners-Lee, als er im März 1989 versuchte, das CERN-Management vom Nutzen eines globalen Hypertext-Systems zu überzeugen. Seine Vision verfolgte zwei Ziele: Zum einen das Internet zu einem hoch kollaborativen Medium zu machen und zum anderen es verständlicher zu machen, um so selbst Maschinen das Interpretieren und Verarbeiten der Inhalte zu ermöglichen.

Die Abbildung zeigt Tim Berners-Lees originales Diagramm zu seiner Vision. MESH war damals sein Arbeitstitel, aus dem bei der praktischen Umsetzung 1990 das World Wide Web wurde.

Die Abbildung zeigt, dass Tim Berners-Lee ursprüngliche Vision mehr beinhaltete als das bloße Abrufen von HTML-Dokumenten von Webservern. Die Abbildung stellt auch Relationen wie etwa “includes”, “wrote” und “describes” zwischen den einzelnen Informationselementen dar. Diese Relationen – auch als Metadaten zu bezeichnen – finden so im heutigen Internet noch keine Anwendung, sind aber gleichzeitig der Schlüssel, damit Maschinen die im Internet verfügbaren Informationen interpretieren und verarbeiten können.

Wenn Sie chronologisch weiterlesen möchten, sollten Sie jetzt die Definition des semantischen Webs lesen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.