Statt 32,00 €**
27,99 €
**Preis der gedruckten Ausgabe (Broschiertes Buch)

inkl. MwSt. und vom Verlag festgesetzt.
Sofort per Download lieferbar
  • Format: PDF

Im Bereich der medienwissenschaftlichen Inhaltsanalyse stellt die Themenanalyse einen wichtigen Bestandteil dar. Für die Analyse großer digitaler Textbestände hinsichtlich thematischer Strukturen ist es deshalb wichtig, das Potenzial automatisierter computergestützter Methoden zu untersuchen. Dabei müssen die methodischen und analytischen Anforderungen der Inhaltsanalyse beachtet werden und es muss abgebildet werden, welche auch für die Themenanalyse gelten. In dieser Arbeit werden die Möglichkeiten der Automatisierung der Themenanalyse und deren Anwendungsperspektiven untersucht. Dabei wird…mehr

Produktbeschreibung
Im Bereich der medienwissenschaftlichen Inhaltsanalyse stellt die Themenanalyse einen wichtigen Bestandteil dar. Für die Analyse großer digitaler Textbestände hinsichtlich thematischer Strukturen ist es deshalb wichtig, das Potenzial automatisierter computergestützter Methoden zu untersuchen. Dabei müssen die methodischen und analytischen Anforderungen der Inhaltsanalyse beachtet werden und es muss abgebildet werden, welche auch für die Themenanalyse gelten. In dieser Arbeit werden die Möglichkeiten der Automatisierung der Themenanalyse und deren Anwendungsperspektiven untersucht. Dabei wird auf theoretische und methodische Grundlagen der Inhaltsanalyse und auf linguistische Theorien zu Themenstrukturen zurückgegriffen, um Anforderungen an eine automatische Analyse abzuleiten. Den wesentlichen Beitrag stellt die Untersuchung der Potenziale und Werkzeuge aus den Bereichen des Data- und Text-Minings dar, die für die inhaltsanalytische Arbeit in Textdatenbanken hilfreich und gewinnbringend eingesetzt werden können.
Autorenporträt
Andreas Niekler, Dr. Ing., geb. 1979, ist seit 2009 wissenschaftlicher Mitarbeiter am Institut für Informatik der Universität Leipzig in der Abteilung Automatische Sprachverarbeitung. Er entwickelt computergestützte Verfahren für sozialwissenschaftliche Inhaltsanalysen, u. a. für das Forschungsprojekt "Postdemokratie und Neoliberalismus" und für die interaktive Analyseplattform Leipzig Corpus Miner (LCM). Der Schwerpunkt liegt dabei auf Verfahren des maschinellen Lernens und der Datenverwaltung. Zuvor lehrte er im Bereich Medien an der Hochschule für Technik, Wirtschaft und Kultur Leipzig (HTWK) sowie der Leipzig School of Media (LSoM) mit dem Schwerpunkt medienneutrale Datenhaltung.