32,00 €
inkl. MwSt.
Versandkostenfrei*
Versandfertig in 2-4 Wochen
payback
0 °P sammeln
  • Broschiertes Buch

Im Bereich der medienwissenschaftlichen Inhaltsanalyse stellt die Themenanalyse einen wichtigen Bestandteil dar. Für die Analyse großer digitaler Textbestände hinsichtlich thematischer Strukturen ist es deshalb wichtig, das Potenzial automatisierter computergestützter Methoden zu untersuchen. Dabei müssen die methodischen und analytischen Anforderungen der Inhaltsanalyse beachtet werden und es muss abgebildet werden, welche auch für die Themenanalyse gelten.In dieser Arbeit werden die Möglichkeiten der Automatisierung der Themenanalyse und deren Anwendungsperspektiven untersucht. Dabei wird…mehr

Produktbeschreibung
Im Bereich der medienwissenschaftlichen Inhaltsanalyse stellt die Themenanalyse einen wichtigen Bestandteil dar. Für die Analyse großer digitaler Textbestände hinsichtlich thematischer Strukturen ist es deshalb wichtig, das Potenzial automatisierter computergestützter Methoden zu untersuchen. Dabei müssen die methodischen und analytischen Anforderungen der Inhaltsanalyse beachtet werden und es muss abgebildet werden, welche auch für die Themenanalyse gelten.In dieser Arbeit werden die Möglichkeiten der Automatisierung der Themenanalyse und deren Anwendungsperspektiven untersucht. Dabei wird auf theoretische und methodische Grundlagen der Inhaltsanalyse und auf linguistische Theorien zu Themenstrukturen zurückgegriffen, um Anforderungen an eine automatische Analyse abzuleiten. Den wesentlichen Beitrag stellt die Untersuchung der Potenziale und Werkzeuge aus den Bereichen des Data- und Text-Minings dar, die für die inhaltsanalytische Arbeit in Textdatenbanken hilfreich und gewinnbringend eingesetzt werden können.
Hinweis: Dieser Artikel kann nur an eine deutsche Lieferadresse ausgeliefert werden.
Autorenporträt
Niekler, AndreasAndreas Niekler, Dr. Ing., geb. 1979, ist seit 2009 wissenschaftlicher Mitarbeiter am Institut für Informatik der Universität Leipzig in der Abteilung Automatische Sprachverarbeitung. Er entwickelt computergestützte Verfahren für sozialwissenschaftliche Inhaltsanalysen, u. a. für das Forschungsprojekt "Postdemokratie und Neoliberalismus" und für die interaktive Analyseplattform Leipzig Corpus Miner (LCM). Der Schwerpunkt liegt dabei auf Verfahren des maschinellen Lernens und der Datenverwaltung. Zuvor lehrte er im Bereich Medien an der Hochschule für Technik, Wirtschaft und Kultur Leipzig (HTWK) sowie der Leipzig School of Media (LSoM) mit dem Schwerpunkt medienneutrale Datenhaltung.