Suchstrategien im Internet-The Deep Web

Aus MHWiki
Wechseln zu: Navigation, Suche

M. Schenk, E. Schulz (Juni 2014)P. Uhle (September 2014)

Inhaltsverzeichnis

Suchstrategien im Internet – The Deep Web

Das Internet wird heutzutage als Massenmedium bezeichnet. Die Anzahl der verfügbaren Informationen wächst rasant durch den einfachen Zugriff auf das Internet von fast jedem Computer aus rund um die Welt. Die Möglichkeit der aktiven Mitgestaltung wirkt attraktiv, denn mittlerweile benutzt mehr als ein Drittel der Menschheit das Internet mindestens einmal am Tag. Dabei werden deren Suchanfragen bei marktführenden Suchmaschinen, die zur Navigation im Internet benötigt werden, auf täglich mehr als 100 Millionen geschätzt. [1] Mittlerweile ist das Wort “ googeln“ nicht nur in den Duden aufgenommen worden, sondern auch zum Synonym für Recherche geworden. Geht es darum, möglichst schnell und eine große Menge an Informationen zu bekommen, so führt der Weg meist ins Internet und zur bekannten Suchmaschine. Jedoch ist die Menge der Daten im Internet enorm, sodass sich die Suche wie die Suche nach der Nadel im Heuhaufen gestaltet, sucht man etwas Spezielles mit qualitativ hochwertigem Anspruch. Das richtige "Suchen" und "Finden" ist zur wichtigen Kompetenz in der Informationsgesellschaft geworden. Für die effiziente Recherche im Internet braucht es gezielte Suchstrategien, um genau das zu finden, was man sucht und um im "Deep Web" nicht verloren zu gehen. Aber auch der Datenschutz und das Urheberecht spielen mittlerweile zunehmend eine Rolle.

Informationskompetenz

Konfrontiert mit den stetig zunehmenden Informationsmassen werden Methoden benötigt, um gezielt an hochwertige und gewünschte Informationen zu gelangen und wie man diese sinnvoll und gebündelt einsetzen kann. Der gesamte Prozess, der dahinter steht, wird „Informationskompetenz“ genannt. Spezifischer bedeutet dies, dass derjenige, der ein Informationsbedürfnis besitzt, den ganzen Vorgang der Informationsbeschaffung versteht. Dieser beginnt bei der Erkenntnis, dass jenes Informationsbedürfnis besteht, bis zur Lokalisierung, Auswertung und Weiterverarbeitung der Informationen, was deutlich über das einfach Suchen und Finden hinausgeht. [2]

Das „Invisible Web“ oder „Deep Web“

Die Begriffe „Invisible Web" oder „Deep Web“ bedeuten übersetzt das „Unsichtbare Web“ oder das „Tiefe Web“ und implizieren, dass das Internet deutlich größer ist als das, was wir einsehen und worauf wir im Alltag zurückgreifen können. Denn in der Realität bleibt der größte Teil unentdeckt und kann selbst von den Suchmaschinen nicht vollständig erfasst werden. Es wird davon ausgegangen, dass das „Invisible Web“ bis zu fünfhundert Mal größer ist als das, worauf wir täglich Zugriff haben. [3]

Allgemeine Definition

Das Deep Web bezeichnet den Bereich des Internets, der von keiner normalen Suchmaschine gefunden wird. Dieser Bereich setzt sich zusammen aus verschlüsselten Daten und passwortgeschützten Bereichen. Allerdings versteht man unter dem Deep Web auch geheimste Algorithmen von Google, Datenbestände der NASA, Internetpräsenzen von Geheimdiensten oder versteckte Chatforen von Missbrauchsopfern. [4]

Definition nach Sherman/Price (2001)

Sherman und Price definieren das „Invisible Web“ als Informationen, die sich zwar im World Wide Web befinden, aber durch allgemeine Suchmaschinen nicht gefunden werden können aufgrund von technischen Hindernissen oder absichtlichen Ausschluss aus dem Index. Sie machen folgende Unterteilung in die vier Typen der Unsichtbarkeit

Opaque Web

Zum einen gibt es das „Opaque Web“ (undurchsichtige Web). Es besteht zum Großteil aus Dateien die nicht in einem Index vorhanden sind und setzt sich aus schwer zugänglichem Material zusammen. Auch wenn die Suchmaschinen den Großteil dieser Dateien finden können und diese auch indexieren können, machen sie dies trotzdem nicht. Diese fehlende Indexierung und Auffindung hat drei verschiedene Gründe, die nachfolgend dargestellt werden sollen. [5]

Depth of Crawl

Unter Depth of Crawl versteht man die Tiefe, in die vorgedrungen wird um Informationen zu suchen. Das Crawling, also das Auffinden und Festhalten, der Dateien ist sehr Ressourcen aufwendig und zusätzlich kostenintensiv. Je tiefer eine Suchmaschine in einen Informationspool vordringen muss, desto teurer wird diese Suche und die folgende Indexierung. Die meisten Suchmaschinen bewegen sich deshalb meist nur auf einer oberflächlichen Ebene, um auf diesem Wege Kosten und vor allem Ressourcen zu sparen. Suchmaschinen durchsuchen dann beispielsweise rund 5000 Seiten nach Informationen und versuchen, das gewünschte Ergebnis zu erzielen. Auch wenn dies eine große Menge an Informationen ist, kann es immer noch sein, dass genau die eine, gewünschte Information nicht vorhanden ist. Durch diese oberflächliche und unzureichende Suche entstand und wächst das Deep Web. [6]

Frequency of Crawl

Ein weiterer Grund für die Entstehung des undursichtigen Webs ist die sogenannte „Frequency of Crawl“, die Frequenz oder die Häufigkeit mit der nach Informationen gesucht wird. Die Zahl der Internetseiten steigt täglich an und wächst dabei ins Unermessliche. Suchmaschinen sind in der Lage pro Tag maximal 10 Millionen Seiten zu durchsuchen, neu zu indexieren und abzuspeichern. Diese Tatsache alleine wäre schon Grund genug, um die Entstehung des Deep Webs zu erklären. Erschwerend kommt allerdings noch hinzu, dass sich auch bekannte und bestehende Internetseiten ständig aktualisieren. Suchmaschinen können also eine Internetseite nicht nur einmal besuchen und anschließend davon ausgehen, dass sich die Informationen nicht mehr aktualisieren. Es ist also zusätzlich zum Aufspüren neuer Internetseiten erforderlich, die bereits bekannten Internetseiten stetig zu aktualisieren und auf dem neuesten Stand zu halten. Eine weitere Problematik bei Suchmaschinen, die zur Entstehung des „Invisible Webs“ beiträgt, ist die mangelnde Auffindbarkeit neuer Internetseiten. Die meisten neuen Webseiten werden von den Suchmaschinen meist nicht wahrgenommen, da es im Internet zu wenig oder keine Verweise auf diese Seiten gibt. Für die Suchmaschinen sind diese dann einfach nicht vorhanden. Eine allgemeine Eingabe in Google resultiert schnell in mehreren Millionen Ergebnissen. Manche davon sind durchaus nützlich, viele davon sind jedoch leider nicht zu gebrauchen. Diese Problematik erschwert die Arbeit der Suchmaschinen zusätzlich und ist ein weiterer Faktor für das Deep Web. Je mehr Ergebnisse angezeigt werden, desto mehr nutzlose Ergebnisse sind vorhanden und positionieren die nützlichen Ergebnisse an das Ende der Liste oder sorgen gar für das komplette Verschwinden dieser. Dieser Problematik kann man durch die richtige Suchmaschine oder durch den Einsatz von Filtern Abhilfe schaffen. [7]

Private Web

Das Private Web beschäftigt sich größtenteils mit den indexierten Internetseiten, die dann an die Suchmaschinen ausgegliedert werden. Beim privaten Web gibt es drei Möglichkeiten sich dem Raster der Suchmaschinen zu entziehen. Die erste Möglichkeit ist der Schutz der eigenen Dateien mit einem Passwort und einem Nutzernamen. Suchmaschinen sind nicht in der Lage sich bei Anmeldeportalen anzumelden und die Dateien hinter der Anmeldung auszulesen. Die zweite Möglichkeit ist die Verwendung des robots.txt Dateiformats. Hierbei wird den Suchmaschinen der Zugang zum Dokument verboten. Die dritte Möglichkeit ähnelt der im vorherigen Abschnitt erwähnten Möglichkeit im Ansatz etwas. Hierbei wird der „no index tag“ verwendet, um auf diese Art und Weise das Lesen des Dokuments durch die Suchmaschine zu unterbinden.

Propriatary Web:

Der Zugang zum „Propriatary Web“ ist nur durch die Zustimmung zu speziellen Bedingungen, wie zum Beispiel einer Registrierung möglich. Die Crawler, also die Suchmaschinen, können sich nicht automatisch bei einer Internetseite registrieren und haben aus diesem Grund keine Zugriffsmöglichkeit auf die Dateien. Weiterhin gibt es die Möglichkeit, Informationen nur nach erfolgreicher Zahlung zu erhalten. Auch dies ist den Suchmaschinen nicht möglich und führt dann zum Verlust dieser Informationen bei der Trefferliste. [8]

Truly Invisible Web

Das „Truly Invisible Web“ oder auch das sogenannte wirklich unsichtbare Web. Aus unterschiedlichen technischen Gründen können Suchmaschinen in diesem Fall das gewünschte Material nicht finden. Dabei handelt es sich meistens um Web- oder Dokumentenformate, die von den Suchmaschinen nicht gelesen werden können. Diese Dateien enthalten meistens nur wenig oder gar keinen Text und fallen damit durch das Raster der Suchmaschinen. Sie werden daraufhin nicht aufgenommen, bei Suchanfragen nicht beachtet und sind daher ein Teil des Deep Webs. Beim „Truly Invisible Web“ ist es wichtig zu beachten, dass die Informationen, die nicht aus einer Datenbank kommen und daher nicht mit einem Schlüssel ausgegeben werden können unsichtbar sind. Die Crawler verstehen diese unbekannte Struktur des Dokuments und der Datenbank nicht und haben daher keinen Zugriff auf die Inhalte des Dokuments. [9]

Unterscheidung nach Pedly (2001)

Eine etwas andere Unterscheidung nimmt Pedly vor. Er nennt das „Opaque Web“ beispielsweise „Almost Visible Web“. Neu dazu kommt bei ihm der Begriff „Vanishing Web“. Hierbei handelt es sich um Seiten, die plötzlich aus dem Internet verschwinden und nicht mehr auffindbar sind. Das oben genannte „Proprietary Web“ spaltet Pedly in nochmals zwei verschiedene Formen auf: Zum einen gibt es das „Gated Web“, welches Seiten sind, die eine Registrierung benötigen. Zum anderen das „Professional Web“. Dies sind kostenpflichtige Datenbanken. [10]

Vorurteile in der Bevölkerung gegenüber des Deep Webs

Wie viele andere, wenig bekannte Bereiche, ist auch das Deep Web geprägt von Vorurteilen. Eine weit verbreitete Meinung ist, dass Menschen, die sich im Deep Web aufhalten oder dort Inhalte besitzen, meist absichtlich diese Anonymität suchen um sich oder ihre Geheimnisse gezielt zu verstecken. Durch einseitige und mangelhafte Recherche seitens unterschiedlicher Printmedien entstehen so schnell negative Eindrücke und der Begriff des Dark Nets findet hier den Ursprung. Die dunkle Seite des Deep Webs also, auf der sich, so die Vorurteile, nur Verbrecher und gefährliche Menschen treffen würden. [11]

Der Zugang zum Deep Web – The Onion Router (TOR)

Um diesen Vorurteilen entgegen zu treten, soll die folgende Beschreibung und Darstellung des Dark Web Zugangs „TOR“ dienen. „The Onion Router“ wurde ursprünglich für das amerikanische Verteidigungsministerium entwickelt und stellt heute den wohl bekanntesten Zugang in das Deep Web dar. Paradox am „The Onion Router“ ist die Tatsache, dass er durch die Zugangsmöglichkeit zum geheimen und anonymen Deep Web eigentlich ein Problem für die Polizei darstellt und auch für Google ein ernstzunehmender Gefahrenfaktor für die hauseigene Suchmaschine ist. Trotz dieser Gefahren wird „The Onion Router“ vom amerikanischen Staat sowie auch von Google unterstützt und finanziell gefördert. Der Grund dafür ist sehr simpel. Auch wenn „TOR“ eine Gefahr für den amerikanischen Staat darstellt, kann dieser sich diesen Zugang auch zu Nutze machen und ihn bei unterschiedlichen Ermittlungen einsetzen. Es wäre nicht das erste Mal in der Geschichte des Deep Webs, dass eine Drogenplattform mithilfe von „TOR“ gesprengt wird. Auch für Google ist die stetige Beteiligung und Unterstützung an „TOR“ ausgesprochen wichtig. Das Unternehmen verspricht sich mithilfe des „The Onion Router“ Zugang zu riesigen und bisher unbekannten Datenschätzen, die nach der erfolgreichen Bergung in die eigene Google-Datenbank eingepflegt und den Milliarden Nutzern zur Verfügung gestellt werden können. [12]

Funktionsweise und Benutzung: The Onion Router

Die Funktionsweise von „TOR“ ist sehr umfassend und komplex, trotzdem soll nachfolgend ein kurzer Einblick in die Funktionsweise gegeben werde. Bei „TOR“ werden die eingegeben Informationen verschlüsselt und anonym über mehrere unterschiedliche Server geschickt. Es gibt für diese Suchmaschine weder eine Anleitung noch eine Einführung. Während die bekannten Internetadressen, wie zum Beispiel „http://www.google.de“ ausschließlich aus Buchstaben bestehen, bestehen die Adressen bei „TOR“ aus Zahlen und Buchstabenkombinationen, aus denen man nicht herauslesen kann um welche Seite es sich handelt. Zusätzlich dazu gibt es keine Topleveldomain die den Standort der Datenbank anzeigt. In Deutschland ist die Topleveldomain meistens „.de“, dies ist bei „TOR“ nicht der Fall. „TOR“ war ursprünglich für Journalisten gedacht, um ihre Informationen zu generieren oder bestehende Informationen vor der Öffentlichkeit geheim zu halten. Mittlerweile ist es aber die beste Möglichkeit, um als Nutzer unbekannt und auch unerkannt zu bleiben. Das Angebot auf den über „TOR“ erreichbaren Internetseiten ist breitgefächert und reicht von Drogen, Gewalt und Sex über unveröffentlichte Forschungsergebnisse bis hin zur FBI-Akte von J.F. Kennedy. Um ein Angebot innerhalb des Deep Webs in Anspruch zu nehmen, benötigt man in den meisten Fällen Geld. Da dies jedoch, um die Anonymität zu wahren, nicht per Kreditkarte oder Überweisung abgewickelt werden kann, gibt es eine ausschließlich für das Deep Web entwickelte Währung. Die sogenannten Bitcoins, sind das einzige Zahlungsmittel um auf den Internetseiten des Deep Webs zu bezahlen. Unter Bitcoins versteht man ein globales Zahlungssystem in Form von virtuellem Geld, bei dem kryptografische Techniken zum Einsatz kommen. 100 US-Dollar entsprechen hierbei ungefähr 0,155 Bitcoins. [13]

Das Deep Web als Gefahr für den Suchmaschinenriesen Google

Trotz der oben genannten Vorteile in der Unterstützung für „The Onion Router“, stellt das Deep Web für Google eine nicht zu unterschätzende Gefahr dar. „Don’t be evil“ – so wirbt Google für die Nutzung der hauseigenen Suchmaschine und suggeriert gleichzeitig, dass die Nutzung des Deep Webs „evil“, also böse, sei. Man ist sich der Existenz des Deep Webs im Klaren und möchte die Nutzer davon abhalten, sich von ihrer gewohnten Suchmaschine abzukehren und den großen Datenschätzen des Deep Webs zuzuwenden. Dies soll gelingen, indem man von Beginn an den Begriff des Deep Webs negativ behaftet. Die unzähligen, einseitigen und stark dramatisierten Berichterstattungen unterschiedlicher Printmedien kommen Google hierbei natürlich zu Gute. Das Problem von Google in Bezug auf das Deep Web, ist allerdings ein selbst verursachtes Problem. Durch den wachsenden Einfluss und die stetige Neugierde, die Google gegenüber den Daten seiner Kunden entwickelt hat, haben immer mehr Nutzer das Bedürfnis ihre Daten zu verschlüsseln und vor dem Zugriff durch Google zu bewahren. Sollten immer mehr Nutzer ihre Daten verschlüsseln und diese nicht mehr für Google zugänglich sein, schrumpfen natürlich der Einflussbereich und zusätzlich auch die Einnahmen erheblich. [14]

Suchmittel im Internet

Welche Suchdienste gibt es, um sich im unübersichtlichen Internet erfolgreich fortzubewegen? Im Folgenden werden nun fünf Dienste vorgestellt, von denen einige weit verbreitet sind, andere wiederum oftmals vernachlässigt werden, da sie nicht so weit verbreitet und bekannt sind.

Universalsuchmaschinen

Zu den Universalsuchmaschinen gehören bekannte Domains wie http://www.google.de, http://www.yahoo.de oder http://www.bing.de. Ihre amerikanischen Äquivalente enden mit .com und sollten bei englischsprachigen Recherchen berücksichtigt werden. Diese Art von Suchmaschine ist zu wählen, wenn aktuelle Fakten oder viele Informationen benötigt werden.

Zur Arbeitsweise lässt sich sagen, dass der komplette Text von Internetseiten durch automatisch arbeitende Programme durchsucht wird. Das Programm beginnt bei einer bekannten Internetseite und durchsucht dann diejenigen, die per Link mit dieser Internetseite verknüpft sind. Dies setzt sich dann weiter fort. Dieser Vorgang wird in der Fachsprache Crawling genannt. Die dabei gesammelten Daten werden in Datenbanken gespeichert. Dieser Vorgang wird Indexierung genannt. Dies bedeutet folglich, dass eine Eingabe eines Suchbegriffs ein Durchsuchen des Suchmaschinenindex darstellt. Da dieser ständig aktualisiert wird, sind die Informationen, die von solchen Suchmaschinen gefunden werden, meist auf aktuellem Stand. Jedoch werden nur Seiten gefunden, die durch einen Link erreichbar sind. Ebenso werden nur bestimmte Dateiformate gefunden. [15] So kann es also sein, dass eine Seite zwar im Internet existiert, aber von den Universalsuchmaschinen nicht gefunden werden kann. Zudem kann es sein, dass eine Seite zwar von hoher Qualität ist, jedoch durch ihre Neuheit oder unzureichende Verlinkung mit anderen Seiten, auf den hintersten Seiten der Ergebnisliste erscheint. Da die meisten Nutzer sich keine Hundert Internetseiten ansehen werden, kann solch eine Seite auch unentdeckt bleiben.

Spezialsuchmaschinen

Spezialsuchmaschinen sind Suchmaschinen, die sich auf ein bestimmtes Themengebiet konzentrieren. Sie basieren auf einem sogenannten Index oder einem Katalog und zeigen ausschließlich Ergebnisse aus dem vorher gewählten, speziellen Bereich an. Spezialsuchmaschinen führen zu umfangreichen und ausgesprochen guten Ergebnissen. Allerdings gilt es zu beachten, dass man eine entsprechende Spezialsuchmaschine erst finden muss, bevor man zu den gewünschten Ergebnissen kommt. Nach dem Auffinden der Suchmaschine ist es dann allerdings kein Problem mehr und die Ergebnisse werden schnell und zuverlässig dargestellt. Durch die wachsende Komplexität der Fragestellungen und die steigenden Ansprüche an die Suchmaschinen, steigt auch die Nachfrage nach den Spezialsuchmaschinen. Ein Beispiel für die digitale Wissenschaft wäre zum Beispiel die Seite „http://www.MeKND.de“ des Hochschulzentrums in Nordrhein-Westfalen. [16]

Metasuchmaschinen

Metasuchmaschinen funktionieren auf den ersten Blick genau wie herkömmliche Suchmaschinen. Man gibt seine Anfrage in das Suchfeld ein und erhält daraufhin die Ergebnisse. Wichtig anzumerken ist hierbei allerdings, dass die Metasuchmaschinen keinen eigenen Index besitzen und auf die Vorarbeit von anderen Diensten, also Suchmaschinen, angewiesen sind und sich diese zu Nutze machen. Metasuchmaschinen leiten die vom Nutzer eingegeben Anfrage an verschiedene Suchdienste (bspw. Spezialsuchmaschinen, Linksammlungen oder Nachschlagewerke) weiter und diese liefern dann der Metasuchmaschine, die durch den Suchvorgang gefundenen Treffer. Die Metasuchmaschine sammelt diese Treffer anschließend und stellt sie dem Nutzer in einer einheitlichen Trefferleiste dar. Metasuchmaschinen ermöglichen das Auffinden von größeren Informationsmengen durch die gleichzeitige Suche in verschiedenen Suchdiensten. Allerdings muss man bei Metasuchmaschinen in den meisten Fällen Einschränkungen bei der Suchfunktion und bei der Treffergenauigkeit hinnehmen. Zusätzlich werden die Metasuchmaschinen zu Teilen durch Werbung finanziert. . [17]

Thematische Verzeichnisse

Thematische Verzeichnisse werden auch Linksammlungen genannt. Hierbei handelt es sich um Informationen, die von hochwertiger Qualität sind und sich auf ein bestimmtes Thema beziehen, da sie von Menschen ausgesucht und anschließend in einem Index gespeichert wurden. Hier werden die Links meist in systematischen Klassifikationssystemen gespeichert, die sich hierarchisch in Hauptkategorien und Unterkategorien oder Themengebiete untergliedern lassen. Um die gewünschten Links zum gesuchten Thema zu finden, kann diese Gliederung systematisch durchgeschaut werden oder auch eine auf jener Seite eingebaute Suchmaschine benutzt werden. Diese durchsucht dann nur dieses Verzeichnis, indem sie beispielsweise auf die Kurzbeschreibung der unterschiedlichen Links zurückgreift. Thematische Verzeichnisse eigen sich dafür, einen ersten Überblick über das zu behandelnde Thema zu gewinnen. Jedoch ist an dieser Stelle zu nennen, dass es thematischen Verzeichnissen an Aktualität mangeln kann, da die Links manuell von Menschen überprüft werden. [18] Dies kann einiges an Zeit beanspruchen und deshalb nicht mehrmals in kurzer Zeit vorgenommen werden. So kann es durchaus der Fall sein, dass ein Link beispielsweise nicht mehr existiert, wenn man auf ihn zugreifen will.

Eine Alternative zu den Linklisten sind Social-Bookmarking-Dienste. Hier besteht die Möglichkeit, Links mit verschiedenen Schlagwörtern auf einer zentralen Internetseite mit Zugang für alle abzuspeichern. Da sich daran viele verschiedene Nutzer beteiligen, kann so eine gewisse Aktualität der Links gewährleistet werden, da diese immer wieder aufs Neue überprüft und erneuert werden.

Virtuelle Fachbibliotheken und Fachdatenbanken

Virtuelle Fachbibliotheken und Fachdatenbanken können bei der Suche nach relevanten wissenschaftlichen Informationen helfen. So kann durch Ersteres der Bestand von Bibliotheken (z.B. Bücher, Zeitschriften, Aufsätze etc.) über das Internet abgefragt werden. Fachdatenbanken ermöglichen einem eine gezielte Recherche nach bestimmten Autoren oder spezieller Literatur. Sie sind unabhängig vom Bestand der Bibliothek und bieten auch Aufsätze oder Kapitel aus Zeitschriften, Berichte oder auch Publikationen von Hochschulen an. Diese Dokumente sind meistens nicht über allgemeine Suchmaschinen zu finden, da die Anzahl der Suchergebnisse zu hoch ist, damit diese speziellen Seiten angezeigt werden können. Bei Fachdatenbank ist außerdem eine gezielte Suche nach Verfassern oder thematisch zusammengehöriger Literatur möglich. Diese Datenbanken sind meist über das Hochschulnetz zugänglich, manche jedoch auch über den normalen Internetzugang. [19] Ein Beispiel wäre http://www.fachportal-paedagogik.de. . [20]

Alternative Suchmaschinen

Browser Agents

Die sogenannten Browser Agents arbeiten mit einem herkömmlichen Web Browser, wie zum Beispiel Google Chrome oder Mozilla Firefox zusammen, um die Kapazität dieses Browsers zu erhöhen. Dabei fokussieren sich die Browser Agents ausschließlich auf die Suchfunktion. Die Vorgehensweise ist relativ simpel. Die Browser Agents automatisieren den Suchprozess, in dem ausgewählte Ressourcen analysiert und angeboten werden. Diese Vorauswahl bezieht sich vor allem auf Texte. Nach dem dieser Scan abgeschlossen ist, kann der Browser Agent die Texte nach den Schlagwörtern scannen und die gewünschten Ergebnisse herausfiltern. [21]

Client – Based Search Tools

Eine weitere, alternative Suchmaschine sind die Client – Based Search Tools. Dies sind computerbasierte Suchmaschinen, die sich den individuellen Bedürfnissen des Nutzers anpassen. Vor der Nutzung dieses Programmes ist ein Download und eine Installation auf dem Computer erforderlich. Die Installation führt zu einer deutlichen Verbesserung und vor allem zu einer Beschleunigung des Suchvorgangs. Die Client– Based Search Tools durchsuchen mehrere Seiten gleichzeitig und es ist durch eine Vorauswahl möglich, die Suche einzuschränken oder an die persönlichen Wünsche anzupassen. Eine weitere nützliche Funktion dieses Tools ist die automatische Aussortierung von sogenannten „toten Links“. Darunter versteht man die Verlinkungen auf andere Datenbanken oder Internetseiten, die nicht mehr existieren oder sich geändert haben. Vorgänge, die ohne Ergebnis bleiben würden. [22]

Suchtechniken

Bei der Suche im Internet mit Suchmaschinen ist es wichtig, auf genaue Formulierungen zu achten, um den Suchbereich eingrenzen, bzw. erweitern zu können. Durch unterschiedliche Suchwortangaben kann es zu völlig verschiedenen Ergebnissen kommen. Mit der simplen Eingabe eines Stichwortes in einer Suchmaschine bleibt die Recherche meist unvollständig und oft auch erfolglos. Oft geben Internetnutzer nur 1-2 Wörter an, schauen sich auch nur die ersten paar Treffer an und vernachlässigen alle anderen Ergebnisse. Dabei finden Suchmaschinen wie z.B. Google längst nicht alle Inhalte und Informationen, die im Internet zu finden sind. So können sie z.B. die Inhalte von Datenbanken nicht als separate Suchergebnisse anzeigen, da diese nur über eine Internetadresse (die der Datenbank) verfügen. Um auf diese versteckten Informationen, das „Deep Web“, zugreifen zu können braucht man Geduld und Erfahrung mit der Internetrecherche. Zugriff auf solche versteckten Informationen bekommt man zum Beispiel über Metasuchmaschinen, diese greifen auf die Ergebnisse verschiedener Suchmaschinen zu und zeigen diese an. Zudem kann man mit verschiedenen alternativen Suchmaschinen (s. Spezialsuchmaschinen, thematische Verzeichnisse, virtuelle Fachbibliotheken) arbeiten und so viel mehr Ergebnisse auffinden. Bei der Suche mit Suchmaschinen ist es wichtig, nicht völlig planlos vorzugehen und nach irgendwelchen Begriffen zu suchen, sondern mit einer Strategie zu arbeiten. Im Folgenden soll es um verschiedene Suchtechniken für Suchmaschinen gehen.

Suchtechniken in Suchmaschinen

Grundsätzlich unterscheidet man bei der Eingabe in Suchmaschinen zwischen der freien Eingabe mit spezieller Syntax und der menüunterstützten Eingabe. [23] Bei der ersten Möglichkeit kann man verschiedene Sonderbefehle eingeben (dazu später mehrsiehe Kapitel XX), sie ist deswegen wesentlich flexibler. Allerdings ist diese Möglichkeit auch wesentlich anspruchsvoller. Diese Sonderbefehle sind nicht bei allen Suchmaschinen gleich, d.h. man muss also die genauen Befehle für die genutzte Suchmaschine kennen, um die Suche effektiver gestalten zu können. Man kann so die Anzahl der Ergebnisse entweder einschränken oder auch vergrößern. Bei der zweiten Möglichkeit existiert schon ein vorgegebenes Suchraster. Dieses macht die Sache zwar einfacher, schränkt aber gleichzeitig ein. Im Folgenden werden einige Suchtechniken und Suchoperatoren vorgestellt.

Suchoperatoren und Suchtechniken

Boolesche Operatoren: Über die Booleschen Operatoren AND, OR und NOT kann die Suche spezifiziert werden. Mit ihnen kann man unterschiedliche Suchbegriffe miteinander kombinieren, bzw. einen Begriff ausschließen. [24]

Über UND/AND kann man Suchbegriffe miteinander verknüpfen, sodass alle eingegebenen Begriffe im Suchergebnis vorkommen müssen. Diese Verknüpfung funktioniert bei Suchmaschinen wie Google und Yahoo schon automatisch, wenn man die Wörter hintereinander schreibt. Über diesen Operator werden die Suchergebnisse also eingeschränkt. Bsp.: Karlsruhe Krankenhaus / Karlsruhe AND Krankenhaus

Über ODER/OR kann man Synonyme angeben, d.h. ein Ergebnis muss entweder Wort A oder B enthalten. Es wird also eine größere Menge an Suchergebnissen angezeigt, da gleichzeitig nach beiden Begriffen gesucht wird. Mit diesem Operator kann man z.B. auch in zwei verschiedenen Sprachen suchen. Bsp.: Klinik OR Krankenhaus

Über NICHT/NOT kann man einen Begriff ausschließen. Die Suche wird also eingeschränkt. Bei Google funktioniert dieser Operator bspw. über ein „–“ vor dem zu ignorierenden Begriff, bei Yahoo dagegen über den Operator NOT. Bsp.: Google: Virus –Computer Yahoo: Virus NOT Computer

Vgl.[ https://support.google.com/websearch/answer/136861?hl=de Operatoren für Google Suche]

Nachbarschaftsoperator: Wenn Begriffe im Ergebnis nah beieinanderstehen stehen sollen kann man den Nachbarschaftsoperator „*“ verwenden. Es werden dann Ergebnisse angezeigt, bei denen diese Begriffe zusammen verwendet werden. Bsp.: Krankenhaus *Karlsruhe

Phrasensuche: Eine weitere Möglichkeit, um die Suche genauer zu gestalten, ist die sogenannte Phrasensuche. Bei ihr wird eine exakte Wortfolge, also eine Phrase, gesucht. Es werden also keine Suchergebnisse angezeigt, die nicht den feststehenden Begriff betreffen. Eine Phrase wird über Anführungszeichen angegeben. Bsp.: „Pädagogische Hochschule Karlsruhe“

Klammern: Über Klammern kann man komplexere Anfragen stellen. Sie werden ähnlich wie in mathematischen Formeln gebraucht und können mit verschiedenen anderen Suchbefehlen und Suchoperatoren verknüpft werden. Bsp. :(„Karlsruhe Krankenhaus“ OR „Krankenhaus Karlsruhe“) AND Anfahrt Solche Anfragen können natürlich noch wesentlich komplizierter sein und auch noch weitere Operatoren enthalten.

Suchbefehle: Eine weitere Möglichkeit, um Suchergebnisse einzuschränken, ist die Eingabe von Suchbefehlen. Mit diesen kann man z.B. nur einen bestimmten Dokumententyp oder nur innerhalb einer bestimmten Seite suchen. Es ist wichtig, keine Abstände zwischen die Suchbefehle und die angegebenen Wörter, Seiten oder Dokumententypen zu setzen. Sonst funktioniert die Suche nicht. Solche Suchbefehle funktionieren auch nicht bei allen Suchmaschinen. === Erweiterte Benutzung (bei Google und anderen Suchmaschinen) === Es kann zusätzlich zur einfachen Such-Syntax eine erweiterte Syntax in die Suchmaske eingegeben bzw. größtenteils auch über die „erweiterte Suche“ zusammengeklickt werden. Folgende teils undokumentierte Schlüsselbegriffe sind derzeit bekannt. Diese Schlüsselbegriffe werden durch einen Doppelpunkt „:“ gekennzeichnet.

Google-Schlüsselbegriffe
Schlüsselbegriff Funktionsweise
cache: Gibt nur die von Google gespeicherten Seiten aus. Das kann zum Beispiel bei Portalen mit häufig wechselnden Inhalten nützlich sein. Der Link, den man bei Google findet, führt manchmal auf eine Seite, deren Inhalte sich inzwischen geändert haben oder gar gelöscht wurden. Die Inhalte sind aber über einen bestimmten Zeitraum noch bei Google gespeichert und können dort gelesen werden.
define: Durchsucht Internet-Enzyklopädien wie Wikipedia und andere nach einer Definition des Suchbegriffes.
filetype: oder ext: Sucht nach Dokumenten mit bestimmten Dateiendungen. Beispiel: Geschäftsbericht filetype:xls . Möglich sind grundsätzlich alle Dateiendungen. Google kann derzeit aber nur in folgende Formate „reinschauen“: PS, PDF, AI, DOC, PPT, XLS, SWF, sowie alle textbasierten Dateien wie RTF, TXT, ASP, PHP, CGI, HTML, LOG, INI, JS und so weiter.
inanchor: Sucht nach den Begriffen nur in Links. Oftmals führt ein Link mit einer bestimmten Bezeichnung präziser zu einem Ziel, als wenn die Bezeichnung irgendwo im Text vorkommt.
allinanchor: Wie inanchor:, wobei mehrere Begriffe angegeben werden können und diese alle im Text vorkommen müssen.
info: Gibt Informationen zu einer bestimmten Seite zurück. Die Informationen bestehen aus der Google-typischen Darstellung eines Suchergebnisses mit Titellink, Snippet und (Sub-) Domain sowie einer Reihe von Links zu Abfragen mit anderen Schlüsselbegriffen. Beispiel: info:google.com
inurl: Gibt Seiten zurück, bei denen der Suchbegriff in der URL auftaucht. Beispiel: Vorlage:Zeile
intitle: Sucht nach Dokumenten, bei denen der oder die Suchbegriffe nur im Titel der Datei vorkommen. Beispiel: Vorlage:Zeile
intext: Sucht nach Dokumenten, bei denen der oder die Suchbegriffe nur im Text der Datei vorkommen. Beispiel: Vorlage:Zeile
link: Gibt alle Seiten aus, die auf eine bestimmte Seite verlinken. Beispiel: link:wikipedia.org
Diese Ausgabe kann dazu verwendet werden, um den Page Rank zu optimieren oder verwandte Seiten zu finden.
site: Mit diesem Schlüsselbegriff lässt sich die Suche auf eine bestimmte Domain eingrenzen, zum Beispiel falls eine Website keine eigene Suchfunktion hat (Beispiel: Vorlage:Zeile) oder zur Suche innerhalb einer Top-Level-Domain.
related: Sucht nach ähnlichen Seiten (Beispiel: related:de.wikipedia.org)

Unterstützung für die Internetrecherche

Bei der Internetrecherche ist es sinnvoll, strategisch vorzugehen:

Vorüberlegungen

Vor einer Suche im Internet sollte man immer Vorüberlegungen anstellen. Wo könnte die Information zu finden sein? Gibt es vielleicht Alternativen zur Suche im Internet: Bibliotheken, Telefonanrufe, usw.? Manchmal kann man sich Informationen auch viel leichter beschaffen und muss keine langwierige und komplizierte Suche im Internet starten.

Vorarbeiten

Hat man sich dann tatsächlich für eine Internetrecherche entschieden, sollte man nicht einfach wild drauf los suchen, sondern sich zunächst noch einmal Gedanken machen. Auf welchen Seiten könnten Informationen zu diesem Thema zu finden sein? Gibt es spezielle Suchmaschinen oder Enzyklopädien zu dem Thema? Ein solches quellenorientiertes Vorgehen schränkt zunächst die Seiten ein, auf denen man suchen muss. Der nächste Schritt ist die Erstellung eines Suchrasters. In diesem werden Kernbegriffe, Über- und Unterbegriffe, Synonyme und fremdsprachige Äquivalente zum zu recherchierenden Thema festgehalten. Man erstellt sich also eine Art Suchraster mit einer Übersicht über das Thema und seine Teilaspekte.

Thema: Nutzungsverhalten von Jugendlichen in sozialen Netzwerken
Kernbegriffe Nutzungsverhalten Jugendliche Soziale Netzwerke
Synoynme Teenager, Heranwachsende,… Internetplattform,…
Oberbegriffe Nutzungsverhalten Soziale Netzwerke
Unterbegriffe Verhaltensweise, Konsumverhalten Facebook, Twitter, …
Fremdsprachige Äquivalente consumer behavior

Ein solches Suchschema kann für komplexere Suchanfragen sehr sinnvoll sein, auch wenn man nicht alles ausfüllen kann. Man hat nun eine viel größere Anzahl an Suchbegriffen, aus denen man schöpfen kann und kann umfangreichere Suchanfragen starten.

Recherchearbeit

Bei der tatsächlichen Suche sollte man v.a. auf richtige Grammatik und Rechtschreibung achten, da sonst manche Ergebnisse nicht angezeigt werden. Um die Anzahl der Ergebnisse einzuschränken oder zu vergrößern kann man die bereits zuvor erwähnten Suchbefehle und Suchtechniken anwenden.

Bewertung der Suchergebnisse

Anschließend muss es zur Bewertung der gefundenen Suchergebnisse kommen. Es ist notwendig das Gefundene zu hinterfragen und mit anderen Quellen abzugleichen. Folgende Kriterien können dabei angewandt werden:

Wirkt die Seite seriös?
Ist sie übersichtlich gestaltet?
Ist sie sinnvoll gegliedert?

Werden die Quellen (korrekt) angegeben?
Sind die inhaltlichen Informationen richtig und objektiv dargestellt?
Ist die Argumentation schlüssig und wissenschaftlich fundiert?

Ist der Titel der Website seriös?
Von woher stammt die Website?

Wird die verantwortliche Person/Institution genannt? Ist diese/r als wissenschaftliche(r) Experte/in bekannt?

Wann wurde die Seite erstellt?
Wird sie regelmäßig aktualisiert?

Darf die Quelle zitiert werden?
Sind die Informationen frei verfügbar?
Tipp: Man sollte den Quellenbeleg am besten gleich aufschreiben.

Hilfeseiten und Lehrgänge

Um weitere Informationen zur sinnvollen Recherche im Internet zu erhalten, kann man unterschiedliche Möglichkeiten und Angebote nutzen. Oft werden Kurse von Bibliotheken oder Volkshochschulen angeboten. In Karlsruhe bietet z.B. die Badische Landesbibliothek im Rahmen der „Teaching Library“ regelmäßig Schulungen an. Auch gibt es eine Menge Online-Tutorials, die beispielsweise von Universitäten erstellt wurden und bequem von zu Hause aus genutzt werden können. Als Beispiel kann hier die Internetseite der Universität Düsseldorf genannt werden (http://www.ub.uni-duesseldorf.de/home/ik/dot) oder auch die der Universität Münster (http://lotse.uni-muenster.de). Auf den Internetseiten der Universitätsbibliothek Freiburg oder auch Bielefeld kann man zudem per Chat Experten zu diesem Thema befragen (http://www.ub.uni-freiburg.de, http://www.ub.uni-bielefeld.de).Speziell für jüngere Nutzer kann die Seite http://www.internet-abc.de empfohlen werden. Hier werden grundlegende Informationen zum Thema Internet und Recherche vermittelt. Als kinderfreundliche Suchmaschinen sind http://www.blindekuh.de, http://www.fragfinn.de oder auch http://www.milkmoon.de bekannt. Ein Wissensportal ist z.B. http://www.helles-köpfchen.de. Vgl. Landesanstalt für Medien Nordrhein-Westfalen o.J. S. 15

Kritik an Google

Dass Google nicht das einzige Suchmittel ist, um an Informationen zu gelangen, wurde oben deutlich gemacht. Jedoch wird diese Suchmaschinen so oft wie keine andere benutzt, wie man aus dem Neologismus "googeln" schließen kann. Unter anderem weil Google nicht alles finden kann, sollte auf andere Suchmittel zurückgegriffen werden. Aber auch die Benutzung von mehreren unterschiedlichen Quellen hilft, einen objektiveren Blick auf einen Sachverhalt zu gewinnen. Im Folgenden sollen nun weitere Kritikpunkte zur Suchmaschine Google genannt werden.

Googles Erfolgsgeschichte

Bis zum Jahr 2000 war Google noch ein Geheimtipp, der bis 2001 zu einem ernstzunehmenden Konkurrenten der bisher etablierten Suchmaschinen wurde. Bis 2005 gelang der Suchmaschine schließlich der Durchbruch in nahezu allen Ländern. Im Jahre 2006 betrug der Anteil der Suchanfragen in Deutschland bereits 85 Prozent, Yahoo erreichte im Vergleich dazu gerade mal 4 Prozent. In den USA lag zu diesem Zeitpunkt der Suchanteil Googles bei 45 Prozent. Allein in den asiatischen Ländern ist Google weniger bekannt. Gründe für den großen Erfolg gibt es einige: Zunächst einmal überzeugte Google durch die Schnelligkeit und Übersichtlichkeit bei der Suche. Waren die Benutzer damals noch über ein Modem unterwegs, dann war die Schnelligkeit durch die Überlastung der konkurrierenden Seiten mit anderen Inhalten schnell eingeschränkt. Auch die einfache Suchbox, die auf das wichtigste fokussiert, nämlich die Suche, bietet einen Vorteil. Die Einfachheit der Suche überzeugte die Nutzer. Eine erweiterte Suche war damals noch nicht verfügbar. Allein der Button „Auf gut Glück“ existierte als Alternative und suggerierte eine hohe Ergebnisqualität durch den Verzicht auf zusätzliche Filterfunktionen. Auch die Tatsache, dass Google als nichtkommerziell eingeschätzt wurde, schien vorteilhaft. In der Anfangszeit war dies tatsächlich der Fall, da noch genug Startkapital vorhanden war. Als 2002 Textwerbung, die sogenannten „AdWords“ eingeführt wurden, verwechselten sie viele Nutzer trotz Kennzeichnung mit Ergebnissen für ihre Suchanfragen. War Google bis 2003 noch sogenannter „Pure Player“, also ausschließlich Suchmaschine, so änderte sich dies durch das Hinzufügen des Google-Mail Dienstes, einer Shopping-Suche, eines Fotodienstes (Picasa), Maps, Kalender und vielem mehr. Eine Übersicht kann unter der Website http://www.10jahregoogle.de/ eingesehen werden. [25]

Funktionsweise von Google

Zur Arbeitsweise der Universalsuchmaschinen wurde unter dem Punkt 2.1 schon berichtet. Google speziell verwendet eine Technologie namens PageRank, welche alle Seiten bewertet, die mit anderen Websites verlinkt sind, um eine Ergebnisliste erstellen zu können. Schließlich wird diesen Websites ein bestimmter Wert zugeordnet. So erscheinen danach die am häufigsten erwähnten und ausgewählten Seiten weiter oben auf der Suchergebnisliste. Je größer das Internet nun ist, desto effizienter arbeitet dieses Programm, da immer mehr Referenzwerte verwendet werden können. Diese Technologie wird jedoch immer häufiger kritisiert. Denn laut Expertenmeinung kann bei diesem Verfahren technische Manipulation stattfinden, verfüge man über das Know-How, gezielt Verlinkungen auf Seiten zu platzieren. Zudem würden die besten Plätze, das heißt die obersten und zuerst angesehenen Ergebnisse, auch für Geld verkauft. Auch die fehlende Transparenz aufgrund der geistigen Eigentumsrechte bezüglich des Zustandekommens des Rankings wird kritisch gesehen. So sei die Darstellung der Ergebnisse aus diesem Grund keineswegs objektiv. [26]

„Vergoogelung“ des Internets

Der Begriff „Vergoogelung“ taucht seit 2003 auf. Damit soll die ständig wachsende Dominanz von Google im Bereich Werbung, Software, geographischen Diensten, E-Mail, Verlagswesen und Online-Handel ausgedrückt werden. So besitzt Google, beginnend mit der Einführung seit 2003, einen eigenen Mail-Dienst, eine Shopping-Suche (Froogle), einen Fotodienst (Picasa), Google Maps, Kalender und einiges mehr. Dabei soll zudem die Monopolstellung, die dieser Konzern mittlerweile inne hat, kritisiert werden. So würden neue Suchmaschinen kaum eine Konkurrenz für Google darstellen, da auch sie Googles „PageRank“ Technologie imitieren würden. [27]

Auswahl der Inhalte

Ein weiterer Kritikpunkt sei der von Google angebotene Inhalt. So seien die dort an erster Stelle erscheinenden Seiten meist auf ein großes Publikum ausgerichtet und bestehen somit aus bekannten Quellen, womit das Suchergebnis nicht vielfältig sei und nur den „Status Quo“ repräsentiere. Hat man zum Beispiel das Suchwort „Terrorismus“ nach den Geschehnissen am 11. September eingegeben, waren das Ergebnis die Quellen, die auch schon in den Medien vertreten waren. Darunter waren beispielsweise die offizielle Seite der Regierung mit http://www.whitehouse.gov, die Seite des FBI (Federal Bureau of Investigation) oder der CNN (Cable News Network). [28]

Auch wird die Meinung vertreten, dass die von Google angebotenen Ergebnisse vorsortiert seien. Diese Sortierung geschehe auf Basis von persönlichen Einstellungen oder dem Suchverlauf des Benutzers, welche aus früheren Suchanfragen ermittelt werden, um das Suchergebnis optimal an den Benutzer anzupassen. So würden zum Beispiel Seiten, die man häufig besucht weiter vorne auf der Ergebnisliste aufgeführt. So könne man Suchmaschinen darauf „trainieren“, dass immer nur eine bestimmte Perspektive angezeigt werde. Besuche man nun zunächst nur Seiten von Pelzgegnern, so würden dementsprechend bei der Suchanfrage auch Seiten von diesen an oberster Stelle aufgeführt. [29] Hier besteht somit die Gefahr, nur eine bestimmte Perspektive zu sehen, die dann die eigene darstellt. So fehlt die Möglichkeit durch unterschiedliche Informationen, auch auf andere Sichtweisen zu stoßen.

Somit könne man von einer Änderung von der „Befragungs-orientierten zur Registrierungs-orientierten Interaktivität“ sprechen. Wählten die Nutzer früher aus einem großen allgemeinen Informationsangebot aus, wie das zum Beispiel in Bibliotheken der Fall ist, so sei die Information heutzutage bei der Nutzung von Suchmaschinen bereits durch Programme vorsortiert. [30]

Google als scheinbar kostenlose „Suchmaschine“

Da der Nutzer kein Geld für die Benutzung der Suchmaschine Google bezahlen muss, außer der für den jeweiligen Internetanbieter, scheint sie kostenlos zur Verfügung zu stehen. Doch Datenschützer warnen, dass als Gegenleistung personenbezogene Daten von Benutzern gesammelt werden. Es wird von einem „Dienst-gegen-Profil“-Modell gesprochen, sodass Werbung zielgerichteter an den Nutzer herangetragen werden kann. Damit wird bei dem Nutzer Werbung direkt betrieben. [31] Dass dies der Fall sein könnte, kann jeder aus eigener Erfahrung beurteilen: Gerade hat man sich auf einer Online-Verkaufsseite nach einem neuen Toaster umgesehen, sogleich findet man beim Besuch anderer Seiten von Google unterstützte Werbung für eben dieses Produkt gut sichtbar am Seitenrand. Dies wird dadurch möglich, da jeder Nutzer „Informationstupfer“ (zum Beispiel Interessen und Vorlieben) bei jeder Suchanfrage hinterlässt. [32] Da diese aus Suchanfragen gefiltert werden und durch die zusätzliche Ermittlung der IP-Adresse, somit der geographischen Lage des Nutzers, kann ein exaktes Werbeprofil des Nutzers erstellt werden. Da jedoch in diesem Bereich nur wenig Transparenz herrsche, fehlten die Selbstbestimmungsmöglichkeiten, die über einen selbst vorhandenen persönlichen Daten einsehen und verwalten zu können.

Hendrik Speck [33] geht sogar so weit, dass er Suchmaschinen als „Verkaufsmaschinen“ bezeichnet, da der Begriff Suchmaschine irreführend sei und medienpolitisch kaum hinterfragt werde. Er bezieht sich dabei auf die Gewinneinnahmen der Suchmaschinen: So bestünden diese größtenteils aus dem Verkauf von direkter Werbung, Sponsorenergebnissen oder sogar bezahlten Ergebnislisten. Jedoch nur aus einem sehr geringen Anteil aus Suchtechnologien und Suchdienstleistungen, was man eigentlich vermuten würde.

Aus diesen Gründen sollte jeder, der Suchmaschinen zur Suche einsetzt möchte, kritisch reflektieren, inwieweit die Suche für den angestrebten Nutzen effektiv ist, wie deren Funktionsweise ist und welche Folgen für die eigene Privatsphäre entstehen.

Urheberrecht

Bei der Beschaffung und Verwendung von Informationen im Internet ist es wichtig, das Urheberrecht nicht zu verletzen. Nach dem Urheberrechtsgesetz gilt: „Die Urheber von Werken der Literatur, Wissenschaft und Kunst genießen für ihre Werke Schutz nach Maßgabe dieses Gesetzes.“[34]. Nach diesem Gesetz hat ein Urheber das Recht an seinem (künstlerischen) Werk, d.h. es darf nicht so einfach von Anderen kopiert, bearbeitet bzw. veröffentlicht werden. Er muss ein Nutzungsrecht erteilen, also die Verwendung seines geistigen Eigentums erlauben. Das gilt auch für Inhalte im Internet, diese sind ebenfalls durch das Urheberrecht geschützt, es gibt es strenge Gesetze, die die Verbreitung und Nutzung von digitalen Inhalten regeln.

Urheberrechte im Alltag

Die Nutzung von urheberrechtlich geschützten Werken ist über s.g. Lizenzen geregelt. Diese legen fest, was mit dem geistigen Eigentum des Urhebers gemacht werden darf und was nicht. Sie können also auch die nahezu freie Benutzung eines Werkes erlauben. Außerdem erlaubt das Urheberrechtsgesetz auch Kopien von geschützten Werken für den Privatgebrauch. Andere Ausnahmen im Urheberrechtsgesetz sind z.B. auch Sammlungen für Kirchen-, Schul-, oder Unterrichtsgebrauch, bzw. die Berichterstattung von Tagesereignissen. [35] Wichtig ist aber immer, die Quelle der Information, bzw. des Inhaltes anzugeben. Sonst entsteht absichtlich oder unabsichtlich ein Plagiat, das je nach Situation ernsthafte Konsequenzen nach sich ziehen kann.

Urheberrechte für digitale Medien

Die Digitalisierung hat zu zwei unterschiedlichen Bewegungen in Bezug auf das Urheberrecht geführt. Die Einen fordern (völlige) Freiheit, die Anderen Beschränkungen im Umgang mit digitalen Medien[36]

Das Deep Web im Schulunterricht

Der Artikel beschreibt ausführlich die unterschiedlichen Ansichtsweisen, Funktionen und Möglichkeiten des Deep Webs. Welchen Nutzen hat diese Form des Internets allerdings für den Schulunterricht der Schule?

Umsetzung im Unterricht

Durch die fehlenden Anleitungen und den geringen Support bei den Suchanfragen, im Vergleich zu den bekannten Suchmaschinen, fördert das Deep Web und die Suche nach Informationen in diesem das selbstständige Lernen und das eigenständige Beschaffen von Informationen. Die Solidaritätsfähigkeit wird dahingehend gefördert, dass sich die SchülerInnen mit anderen SchülerInnen in einer Gruppe zusammenfinden müssen und so gemeinsam die Informationen aus dem Deep Web entnehmen. Jeder der SchülerInnen hat seinen ganz persönlichen Fokus bei der Informationssuche und wird sich mit der Gruppen solidarisieren müssen, um am Ende das Gruppenziel zu erreichen. Durch die unterschiedlichen Suchmaschinen, mit ihren verschiedenen Eigenschaften, hat das Deep Web einen hohen Grad an Interaktivität und fordert die SchülerInnen zum eigenständigen Nachdenken und zum Verknüpfen von Arbeitsschritten heraus. Entscheidend ist hierbei, dass die SchülerInnen das Deep Web, vergleichbar mit einer Rally, selbstständig entdecken. Sie finden sich selbst zurecht und suchen nach den Informationen, die sie für ihre gegenwärtige Aufgabe brauchen. Hierbei ist zu beachten, dass sich der Lehrer zurückhält und nur als Ansprechpartner bei Problemen weiterhilft. Weiterhin wird bei der Arbeit mit dem Deep Web das sinnhafte Lernen der SchülerInnen gefördert. Diese müssen selbstständig entscheiden welche Informationen relevant und welche irrelevant sind. Dadurch entwickeln sie sehr schnell ein Gespür für die Wertigkeit der Informationen und können diese Fähigkeit in ihrer weiteren Schullaufbahn nutzen.
Ein Kennzeichen von vielen Schulbüchern und den darin enthaltenen Quellen ist die pädagogische Vorselektion durch den Verlag oder die Bildungseinrichtungen. Das Deep Web vermittelt den SchülerInnen Informationen, ohne diese vorher pädagogisch aufzubereiten. Sie erhalten Zugang zu Quellen, Akten und Bildern die nicht für die Fragestellung im Geschichtsbuch angepasst wurden. Zusätzlich dazu zeugen diese Informationen von hoher Authenzität und mit Blick auf die noch nicht veröffentlichten Forschungsergebnisse von hoher Aktualität. Zusätzlich ist es den SchülerInnen möglich selbst Teil des Deep Webs zu werden und Daten zum bereits vorhanden Pool hinzuzufügen und damit interaktiv am Leben des Internets teilzunehmen.

Vorarbeit durch die Lehrperson

Das Zurechtfinden im Deep Web erfordert allerdings eine Vorarbeit durch den Lehrer. In mehreren Stufen sollten die Grundlagen der Suchstrategien im Internet erläutert und ausprobiert werden. Ohne zu wissen wie man im Deep Web an Informationen gelangt, ist es sehr schwierig sich dort zurechtzufinden und Ergebnisse zu erzielen. Weiterhin sollte eine Sensibilisierung für die Informationen stattfinden. Dies kann mit Hilfe eines Kriterienkatalogs zur Beurteilung der Qualität der Informationen gemacht werden. Die SchülerInnen sollen nützliche von unnützlichen Informationen unterscheiden können. Nur so können sie sich im Deep Web zurechtfinden. Zusätzlich sollte die Lehrperson den SchülerInnen eine bestimmte Anzahl von verlässlichen Seiten im Deep zur Verfügung zu stellen, um den Einstieg zu erleichtern und für garantierte Erfolgserlebnisse zu sorgen.

Belege

Literatur

Abedinpour, Reza-Nima (2013): Digitale Gesellschaft und Urheberrecht. Leistungsschutzrechte und Verwertungsrechte im digitalen Raum. Berlin: LIT VERLAG Dr. W. Hopf.

Babiak, Ulrich (1997): Effektive Suche im Internet. Suchstrategien, Methoden, Quellen.Köln: O'Reilly Verlag.

Dominikowski, Thomas (2013): Zur Geschichte der Suchmaschinen in Deutschland. In: Lewandowski, Dirk (Hg.): Handbuch Internet-Suchmaschinen. Suchmaschinen zwischen Technik und Gesellschaft. Berlin: Akademische Verlagsgesellschaft.

Landesanstalt für Medien Nordrhein-Westfalen (o.J.): Mit Medien leben: gewusst wie! Ausgabe 3: Recherchieren und Informieren- aber richtig! Börje Haln: Wuppertal.

Lobet-Maris, Claire (2010): Vom Vertrauen zur Spurenauswertung. Eine neue Sicht der Technikfolgenabschätzung. In: Becker, Konrad/Stalder, Felix (Hg.): Deep Search. Politik des Suchens jenseits von Google. Bonn: Studienverlag.

Rogers, Richard (2010): Sichtbarkeit. Zur Frage der Vergoogelung. Hin zu einer unkritisierbaren Maschine? In: Becker, Konrad/Stalder, Felix (Hg.): Deep Search. Politik des Suchens jenseits von Google. Bonn: Studienverlag.

Sherman, Chris und Price, Gary (2001): The Invisivle Web. Uncovering Information Sources Search Engines Can’t See. Information Today, Inc., 143 Old Marlton Pike, Medford, New Jersey 08055.

Speck, Hendrik (2007): Suchmaschinen als Gralshüter. In: Eberspächer, Jörg/Holtel, Jörg (Hg.): Suchen und Finden im Internet. Berlin/Heidelberg: Springer-Verlag.

Weilenmann, Anne-Katharina (2012): Fachspezifische Internetrecherche. Für Bibliothekare, Informationsspezialisten und Wissenschaftler. Berlin/Boston: Walter de Gruyter.

Weblinks

Bundesministerium der Justiz und für Verbraucherschutz (1965): Gesetz über Urheberrecht und verwandte Schutzrechte (Urheberrechtsgesetz). UrhG, vom 01.10.2013,Online verfügbar unter http://www.gesetze-im-internet.de/urhg/BJNR012730965.html# BJNR012730965BJNG000101377, zuletzt geprüft am 01.04.2014

Deterding, Sebastian/ Otto, Philipp (2007): Urheberrecht und Digitalisierung. Herausforderungen und Redaktionen. Hg. v. Bundeszentrale für politische Bildung. Online verfügbar unter http://www.bpb.de/gesellschaft/medien/urheberrecht/63358/urheberrecht-und-digitalisierung, zuletzt aktualisiert am 15.01.2008, zuletzt geprüft am 01.01.2014. Die Presse, Print Ausgabe (22.06.2014): http://diepresse.com/home/techscience/internet/3825043/Deep-Web_In-den-dunklen-Ecken-des-Internets (Stand: 17.09.2014) Djordjevic, Valie (2007): Urheberrecht im Alltag. Bundeszentrale für politische Bildung. Online verfügbar unter http://www.bpb.de/gesellschaft/medien/urheberrecht/63409/urheberrecht-im-alltag, zuletzt geprüft am 03.04.2014.

Djordjevic, Valie (2007): Lizenzen. Klassiker und Alternativen. Bundeszentrale für politische Bildung. Online verfügbar unter http://www.bpb.de/gesellschaft/medien/urheberrecht/63416/lizenzen, zuletzt geprüft am 03.04.2014

Frankfurter Allgemeine Zeitung, ePaper: http://diepresse.com/home/techscience/internet/3825043/Deep-Web_In-den-dunklen-Ecken-des-Internets (Stand: 17.09.2014)


Kreutzer, Till (2008): Bis hierher – und nicht weiter? Wie das Urheberrecht unser Leben beeinflusst. Bundeszentrale für politische Bildung. Online verfügbar unter http://www.bpb.de/gesellschaft/medien/urheberrecht/63340/einfuehrung, zuletzt geprüft am 03.03.2014 Rieß, Uli (2013): Wegweiser durch das Darknet. Online verfügbar unter: Chip.de: http://www.chip.de/artikel/Darknet-Das-Tor-ins-Deep-Web_63227067.html (Stand: 17.09.2014)


Universitätsbibliothek der Universität Bielefeld (2014): Online verfügbar unter www.ub.uni-bielefeld.de/biblio/search/help/nutzen.htm (Stand 17.09.2014)

Zentrale für Unterrichtsmedien im Internet e.V.: http://www.zum.de/psm/pdf/internet_im_gu.pdf (Stand: 17.09.2014)

Einzelnachweise

  1. Vgl. Speck 2007, S. 115
  2. Vgl. Weilenmann 2012, S.16
  3. Vgl. Weilenmann 2012, S.19
  4. vgl. http://diepresse.com/home/techscience/internet/3825043/Deep-Web_In-den-dunklen-Ecken-des-Internets
  5. vgl. Sherman, Chris und Gary Price 2001, S. 70-74
  6. vgl. Sherman, Chris und Gary Price 2001, S. 70-74
  7. vgl. Sherman, Chris und Gary Price 2001, S. 70-74
  8. vgl. Sherman, Chris und Gary Price 2001, S. 70-74
  9. vgl. Sherman, Chris und Price, Gary 200s1, S. 70-74
  10. Vgl. ebd. S. 19
  11. vgl. http://www.chip.de/artikel/Darknet-Das-Tor-ins-Deep-Web_63227067.html
  12. vgl. http://www.chip.de/artikel/Darknet-Das-Tor-ins-Deep-Web_63227067.html
  13. vgl. http://www.chip.de/artikel/Darknet-Das-Tor-ins-Deep-Web_63227067.html
  14. vgl. http://www.chip.de/artikel/Darknet-Das-Tor-ins-Deep-Web_63227067.html
  15. Vgl. www.ub.uni-bielefeld.de/biblio/search/help/nutzen.htm
  16. www.ub.uni-bielefeld.de/biblio/search/help/nutzen.htm
  17. www.ub.uni-bielefeld.de/biblio/search/help/nutzen.htm
  18. Vgl. ebd.
  19. Vgl. ebd.
  20. www.ub.uni-bielefeld.de/biblio/search/help/nutzen.htm
  21. vgl. Sherman, Chris und Price, Gary 2001, S.79
  22. vgl. Sherman, Chris und Price, Gary 2001, S.79
  23. Vgl. Ulrich Babiak 1997, S. 112-113
  24. Vgl. Ulrich Babiak 1997, S. 113-115
  25. Vgl. Dominikowski 2013, S.13f.
  26. Vgl. Lobet-Maris 2010, S.92
  27. Vgl. Rogers 2010, S.193
  28. Vgl. ebd. S.197
  29. Vgl. ebd. S.201
  30. Vgl. ebd. S.195
  31. Vgl. ebd. S.194
  32. Vgl. Lobet-Maris 2010, S. 95
  33. Speck 2007, S. 115
  34. vgl. Bundesministerium der Justiz und für Verbraucherschutz (1965),S.10.
  35. vgl. Bundesministerium der Justiz und für Verbraucherschutz (1965), S. S.23-32.
  36. vgl. Deterding, Sebastian; Otto, Philipp (2007): Urheberrecht und Digitalisierung. Herausforderungen und Redaktionen.
Meine Werkzeuge
Namensräume
Varianten
Aktionen
MENÜ
Werkzeuge