27,95 €
inkl. MwSt.
Versandkostenfrei*
Versandfertig in 1-2 Wochen
payback
0 °P sammeln
  • Broschiertes Buch

Bachelorarbeit aus dem Jahr 2010 im Fachbereich Informatik - Wirtschaftsinformatik, Note: 1.3, Technische Universität Dresden, Sprache: Deutsch, Abstract: Das rasante Wachstum des Internets hält kontinuierlich an und verknüpft eine unvorstellbar großeMenge an Daten. Schon lange ist es auf eine Größe angewachsen, bei der eine sinnvolle Nutzungohne automatisierte Hilfsmittel nicht mehr möglich ist. Zwar ist aufgrund der dezentralenStruktur des Internets eine genaue Berechnung des existenten Datenumfangs kaum möglich, erhobeneSchätzungen versuchen aber einen Eindruck davon zu vermitteln. So…mehr

Produktbeschreibung
Bachelorarbeit aus dem Jahr 2010 im Fachbereich Informatik - Wirtschaftsinformatik, Note: 1.3, Technische Universität Dresden, Sprache: Deutsch, Abstract: Das rasante Wachstum des Internets hält kontinuierlich an und verknüpft eine unvorstellbar großeMenge an Daten. Schon lange ist es auf eine Größe angewachsen, bei der eine sinnvolle Nutzungohne automatisierte Hilfsmittel nicht mehr möglich ist. Zwar ist aufgrund der dezentralenStruktur des Internets eine genaue Berechnung des existenten Datenumfangs kaum möglich, erhobeneSchätzungen versuchen aber einen Eindruck davon zu vermitteln. So besagt eine Studieder IDC, dass sich die digitalen Informationen bereits 2006 auf 161 Exabyte belief. Vorhersagenüber die weitere Entwicklung gehen davon aus, dass diese Masse sich bis 2010 von 161 auf 988Exabytes mehr als versechsfacht hat. Außerdem ergab die Studie, dass ca. 95% der Daten imInternet in unstrukturierter Form vorliegen. Diese nutzbringend zu verarbeiten, stellt eine großeHerausforderung dar (Gantz, 2007). Eine effektive Suche nach relevanten Informationen in dieserdigitalen Welt bildet den Grundstein der Informationsgewinnung.Kurz nach der Erfindung des World Wide Webs galt in den Jahren 1991 bis 1994 das "Browsen"als die dominierende Fortbewegungsmethode in diesen Netz. Parallel dazu entwickelten sichdie ersten Webcrawler, welche die Dokumente des Internets automatisch durchsuchen und in Datenbankenindexierten. Die automatische Volltextsuche wurde möglich. Mit dieser neuen Optionwandelte sich das Suchverhalten der Nutzer. Anstatt zu erraten, welche Listeneinträge am passendstensind, konnten nun Suchbegriffe eingegeben und die Relevanz einzelner Treffer einer Ergebnislisteüberprüft werden. Die Geschwindigkeit des Suchens wurde durch dieses neue Konzepterheblich erhöht, nicht aber die Geschwindigkeit des Findens. Denn auch die Anzahl der potentiellrelevanten Ergebnisse stieg deutlich an (Buzinkay, 2006, S. 177).So durchsuchen Webcrawler stetig das Netz nach relevanten Informationen. Doch bleibt ihnender größte Teil des World Wide Webs verborgen und nur ein Teil der tatsächlich vorhandenenDokumente kann gefunden werden. Darüber hinaus liefert eine konkrete Suchabfrage eine so unfassbargroße Menge an Treffern, dass die Wahrscheinlichkeit eines Fundes beim ersten Ergebnisder Wahrscheinlichkeit eines Lottogewinns nahe kommt. Durch Mehrdeutigkeiten im Text, dieKomplexität und die schiere Masse des WWW stoßen traditionelle Suchmaschinen schnell an ihreGrenzen (Sack, 2010, S. 14).