Die zentrale Zielsetzung des Buches besteht darin zu zeigen, daß die Fundamente der Lexikologie und Wortbildungstheorie sinnvoll durch kognitiv-linguistische Prinzipien bereichert werden können. Dazu wird der allgemeinsprachliche englische Computerwortschatz untersucht. Grundlage bildet ein aus Wörterbuch- und Internetquellen zusammengestelltes Korpus von über 700 Lexemen. Dieser lexikalisch hochproduktive Bereich erweist sich als besonders geeignet, um die theoretisch ausgearbeiteten kognitiven Prinzipien - Metaphorizität, Ikonizität, perzeptuelle Salienz, kognitive Modelle, Kategorisierung, konzeptuelle Relationen, Analogie und sprachliche/kognitive Ökonomie - empirisch zu verifizieren. Als entscheidende Charakteristik des Computerwortschatzes stellt sich der im Vergleich zum Allgemeinwortschatz relativ hohe Anteil an semantischen Prozessen heraus. Lexemmetaphern sind dabei sowohl in quantitativer wie auch in qualitativer Hinsicht prominent. Der Großteil kann metaphorischenKonzepten zugeordnet werden, wobei "COMPUTERS ARE HUMAN BEINGS" das weitaus umfangreichste darstellt. Repräsentativ für den Computerwortschatz sind somit anthropomorphische Metaphern (host, client), aber auch food metaphors (cookie, strudel) und Metaphern für virtuelle Phänomene (bookmark, thumb). Als effektivste Methode zur Analyse von (neuen) Lexemen und Bedeutungen erweist sich ein integrierter Ansatz, der neben morphologischen auch semantische, phonologische und kognitive Aspekte einbezieht.