17,95 €
inkl. MwSt.
Versandkostenfrei*
Versandfertig in 1-2 Wochen
payback
0 °P sammeln
  • Broschiertes Buch

Studienarbeit aus dem Jahr 2008 im Fachbereich Informatik - Internet, neue Technologien, Note: 1,0, Martin-Luther-Universität Halle-Wittenberg (Institut für Informatik), Veranstaltung: Seminar über Datenbanken, XML und Suchmaschinen, Sprache: Deutsch, Abstract: Die Wandlung vom klassischen Web 1.0 zum Web 2.0 bildet den Rahmen dieser Ausarbeitung. Im klassischen Web 1.0 lag der Fokus auf der einfachen Nutzung von veröffentlichten Inhalten. Die Generierung und Bereitstellung von Inhalten war nur relativ wenigen Internetnutzern vorbehalten. Ein Grund war unter anderem die hohen Kosten. Das Web…mehr

Produktbeschreibung
Studienarbeit aus dem Jahr 2008 im Fachbereich Informatik - Internet, neue Technologien, Note: 1,0, Martin-Luther-Universität Halle-Wittenberg (Institut für Informatik), Veranstaltung: Seminar über Datenbanken, XML und Suchmaschinen, Sprache: Deutsch, Abstract: Die Wandlung vom klassischen Web 1.0 zum Web 2.0 bildet den Rahmen dieser Ausarbeitung. Im klassischen Web 1.0 lag der Fokus auf der einfachen Nutzung von veröffentlichten Inhalten. Die Generierung und Bereitstellung von Inhalten war nur relativ wenigen Internetnutzern vorbehalten. Ein Grund war unter anderem die hohen Kosten. Das Web 2.0 lässt sich durch veränderte Technologien und Kosten als Kernpunkte charakterisieren. Daraus hat sich ein enorm gestiegener Anteil an Inhalten, die von Nutzern generiert wurden, ergeben. Während 1998 noch ungefähr 3,7 Millionen Websites existierten, sind es 2008 schon ungefähr 165 Millionen. In dieser Menge von Websites agieren Suchmaschinen. Ein Beispiel dafür ist Google. Mit einem Marktanteil von ca. 90% ist Google die größte Suchmaschine Deutschlands. 1998 beantwortete Google weltweit noch 10.000 und 2007 schon 200 Millionen Suchanfragen pro Tag. Nutzer versuchen ihre generierten Inhalte durch verschiedene Techniken der Suchmaschinen-Optimierung optimal zu positionieren. Suchmaschinen werden dabei oft durch so genannten Web Spam manipuliert. Insgesamt entstehen Vertrauens- und Qualitätsprobleme im Web. Aus diesen Betrachtungen ergeben sich neue Anforderungen an Suchmaschinen bezüglich der Bewertung von Webinhalten. Nutzer sollen zu einer Suchanfrage nur passende und zusätzlich vertrauensvolle Websites als Suchergebnis geliefert bekommen. Ziel dieser Arbeit ist die Darstellung des TrustRank-Algorithmus zur Identifikation von vertrauensvollen Websites.Kapitel 2 behandelt zunächst die wesentlichen Grundlagen zum Verständnis der Thematik. Es wird der Zusammenhang zwischen Suchmaschine, Ranking, formalem Web Modell und Web Spam dargestellt. In Kapitel 3 folgt die Herleitung der Komponenten des TrustRank-Algorithmus. Die Ausführungen werden dabei zusätzlich an einem Beispiel verdeutlicht. Abschließend enthält Kapitel 4 eine Bewertung des TrustRank-Algorithmus.[...]
Hinweis: Dieser Artikel kann nur an eine deutsche Lieferadresse ausgeliefert werden.
Autorenporträt
Raoul Privenau wurde 1982 in Halle an der Saale geboren. Nach seiner Hochschulreife entschied sich der Autor für ein Studium der Wirtschaftsinformatik an der Martin-Luther-Universität Halle-Wittenberg. Das Diplomstudienfach schloss er im Jahr 2011 erfolgreich mit der Gesamtnote 1,4 ab.
Während seiner Studienzeit spezialisierte sich der Autor auf die Bereiche Softcomputing, E-Business sowie Datenbanken und erwarb darüber hinaus fundierte Kenntnisse im Operations Research und der Volkswirtschaftslehre. Im Rahmen verschiedener langjähriger wissenschaftlicher Nebentätigkeiten sammelte der Autor vor allem Erfahrungen in den Bereichen Web-Engineering und IT-Sicherheit. Zurzeit ist der Autor als Anwendungsentwickler in der Energiebranche beschäftigt.
Die durch die spezifischen Studieninhalte entwickelte sich beim Autor ein verstärktes Interesse für künstliche neuronale Netze und Softwaretechnik, woraus die Thematik dieses Buches entstanden ist.