Sprich mit mir: Das Potenzial digitaler Sprachsysteme Sprachgesteuerte Assistenten gehören längst zu unserem Alltag. Wir fragen Siri, wie das Wetter wird, bitten Google Home darum, den Fernseher einzuschalten oder erstellen mit Alexa die Einkaufsliste. Wie diese Technologien entstanden, wie sie funktionieren und welche Chancen und Gefahren damit verbunden sind, erklärt der renommierte Wissenschaftsjournalist und ZEIT-Redakteur Christoph Drösser in diesem Sachbuch. - Was die Revolution der künstlichen Intelligenz revolutionierte: neuronale Netze und Deep Learning - Wie man die Dinge zum Reden bringt: Der aktuelle Stand der Computerlinguistik und Sprachsteuerung - Echt oder gefälscht? Roboterjournalismus und Fake-News-Generatoren in den sozialen Medien - Risiken für den Datenschutz: Wer hört zu und was passiert mit unseren Daten? - Ist der freie Austausch von Informationen gefährdet? Ein kritischer Blick auf die Marktmacht der Internetgiganten Mensch und Maschine im Dialog: vom Schachroboter zum intelligenten Assistenten Unsere Handys, Smart Speaker und andere sprechende Geräte klingen so menschlich, dass wir gar nicht anders können, als den Maschinen eine eigene Persönlichkeit zu unterstellen. Wie "lernt" ein Gerät eigentlich zu verstehen und zu sprechen? Und wohin wird die Entwicklung der digitalen Sprachsysteme führen? Das erläutert Christoph Drösser und befragt Experten und Expertinnen aus der Informatik und KI-Forschung. Dabei blickt er auch zurück auf kuriose Erfindungen wie den »Schachtürken«, einen angeblich selbst denkenden Schachroboter, oder das Computerprogramm ELIZA von Joseph Weizenbaum, das einen Psychotherapeuten simulierte. »Wenn die Dinge mit uns reden« ist ein packendes Buch über die Faszination sprechender Maschinen - informativ und voller Aha-Momente, nicht nur für Technikfans!
Frankfurter Allgemeine Zeitung | Besprechung von 06.11.2020Trainierte Neuronen
Christoph Drösser gibt einen Überblick über sprechende Maschinen
Sie schalten auf Zuruf das Licht an und regulieren die Heizung, sie beantworten Kundenanfragen, setzen Twitter-Nachrichten in die Welt, generieren Sportnachrichten und schreiben Gedichte - digitale Sprachsysteme bevölkern das Internet der Menschen und Dinge. Oft wissen wir, wenn wir es mit einem "Bot" - einem sprechenden oder schreibenden Sprachroboter - zu tun haben. Aber garantiert ist das nicht. In standardisierten Textformen wie Fußballberichten oder Service-Dialogen geben sich die programmierten Autoren und Gesprächspartner oft schon ganz menschlich. Auch die Literatur ist gegen die Automatisierung nicht immun. Auf Websites wie www.bot-or-not.de können Lyrikfreunde tippen, ob die präsentierten Gedichte von Menschen oder Algorithmen stammen. Nicht immer fällt die Entscheidung leicht.
Wie die Sprachsysteme Sätze generieren, über welche Intelligenz sie verfügen und wie weit es mit ihrer Sprachfähigkeit wirklich her ist, beschreibt der Wissenschaftsjournalist Christoph Drösser in gut lesbarem Stil. Eingestreut sind Interviews mit Forschern und Entwicklern. Der Autor geht nicht sehr in die Tiefe, liefert aber einen informativen Überblick über die aktuelle computerlinguistische Landschaft.
In technischer Hinsicht kann das angesichts der enormen Dynamik in diesem Bereich nur eine Momentaufnahme sein. Doch die linguistischen, philosophischen und gesellschaftspolitischen Fragen, die die digitalen Systeme aufwerfen, sind nicht an aktuelle Modelle gebunden. Sie gehen mindestens zurück bis zu den Tagen des britischen Mathematikers Alan Turing. Er entwarf den nach ihm benannten Test, um die Frage zu beantworten, wann man Computer intelligent nennen kann: Beim Turing-Test kommuniziert ein Mensch schriftlich mit einem Gegenüber, von dem er nicht weiß, ob Mitmensch oder Computerprogramm. Kann er die Äußerungen der Maschine nicht als solche enttarnen, muss man ihr Intelligenz attestieren. Viele der heutigen Systeme bestehen den Turing-Test - ob schriftlich oder mündlich - zumindest streckenweise.
Aber ist es überhaupt angemessen, einer Maschine schon deshalb Sprachfähigkeit und Intelligenz zuzuschreiben, weil sie Symbole regelkonform handhaben kann? Diese Frage, die KI-Forscher seit Jahrzehnten beschäftigt, zieht sich durch das gesamte Buch. Sie hat eine neue Aktualität bekommen, denn die maschinelle Sprachverarbeitung wird einerseits immer leistungsfähiger. Andererseits hat sich der Sprachbegriff, der ihr zugrunde liegt, radikal verändert. Bis in die 2000er Jahre hinein fütterten Linguisten die Computer mit komplizierten grammatischen Regeln samt Wortschatz; sie scheiterten aber immer wieder an sprachlichen und alltagsweltlichen Komplexitäten, die sich der Kodierung durch Algorithmen entzogen.
Mittlerweile geht der Trend in eine ganz andere Richtung: Neuere Systeme sind Simulationen neuronaler Netze, die mit Hilfe riesiger Textmengen so lange trainiert werden, bis sie die sprachlichen Muster weitgehend korrekt "verstehen" und selbst neue produzieren können. Dem liegen keine Regeln zugrunde, sondern statistische Wahrscheinlichkeiten, die die Wortfolgen und ihre grammatischen Formen bestimmen. Die Berechnungen im Inneren der neuronalen Netze können dabei auch von ihren Konstrukteuren im Detail nicht nachvollzogen werden.
Zu den Produkten dieses maschinellen Lernens, die Drösser vorstellt, gehört der englischsprachige Textgenerator GPT 2 (Generative Pretrained Transformer), der seit dem letzten Jahr frei zugänglich ist. Trainiert mit acht Millionen Websites, kann er eingegebene Anfangssätze eigenständig zu Texten weiterspinnen. Was dabei herauskommt, demonstriert der Autor anhand von Geschichten, die sich innerhalb der einzelnen Passagen kaum von menschlichen Erzeugnissen unterscheiden. Allerdings fehlt der rote Faden, was den Texten eine bizarre Note verleiht. Diese Unfähigkeit, stimmige Plots zu bilden, ist ein Defizit, das momentan alle Sprachsysteme teilen. Ein weiteres besteht im mangelnden Weltwissen: Ein digitaler Sprachassistent kann Pizza bestellen und wortreich über sie reden, aber wie sie schmeckt, weiß er nicht. Dass sich diese Mängel durch noch mehr Trainingsdaten beheben lassen, bezweifeln Drössers Gesprächspartner. Vor diesem Hintergrund verdient der Zweig der KI-Forschung, der die Entstehung von Sprachen durch Simulation erforscht, besonderes Interesse: Hier lassen Wissenschaftler sensorbestückte Roboter, die anfangs nur über eine kognitive Minimalausstattung verfügen, in einer Laborwelt interagieren. Herausfinden will man, ob sie auf dieser Basis eine Sprache entwickeln, die in ihrer physischen Umgebung "geerdet" ist. Bis jetzt ist das reine Grundlagenforschung, aber die Anfänge sind vielversprechend. Dass der Autor auf diesen Forschungsbereich nicht eingeht, ist ein kleines Manko in einem sonst lesenswerten Buch.
WOLFGANG KRISCHKE.
Christoph Drösser: "Wenn die Dinge mit uns reden". Von Sprachassistenten, dichtenden Computern und Social Bots.
Dudenverlag, Berlin 2020. 158 S., geb., 16,- [Euro].
Alle Rechte vorbehalten. © F.A.Z. GmbH, Frankfurt am Main
Christoph Drösser gibt einen Überblick über sprechende Maschinen
Sie schalten auf Zuruf das Licht an und regulieren die Heizung, sie beantworten Kundenanfragen, setzen Twitter-Nachrichten in die Welt, generieren Sportnachrichten und schreiben Gedichte - digitale Sprachsysteme bevölkern das Internet der Menschen und Dinge. Oft wissen wir, wenn wir es mit einem "Bot" - einem sprechenden oder schreibenden Sprachroboter - zu tun haben. Aber garantiert ist das nicht. In standardisierten Textformen wie Fußballberichten oder Service-Dialogen geben sich die programmierten Autoren und Gesprächspartner oft schon ganz menschlich. Auch die Literatur ist gegen die Automatisierung nicht immun. Auf Websites wie www.bot-or-not.de können Lyrikfreunde tippen, ob die präsentierten Gedichte von Menschen oder Algorithmen stammen. Nicht immer fällt die Entscheidung leicht.
Wie die Sprachsysteme Sätze generieren, über welche Intelligenz sie verfügen und wie weit es mit ihrer Sprachfähigkeit wirklich her ist, beschreibt der Wissenschaftsjournalist Christoph Drösser in gut lesbarem Stil. Eingestreut sind Interviews mit Forschern und Entwicklern. Der Autor geht nicht sehr in die Tiefe, liefert aber einen informativen Überblick über die aktuelle computerlinguistische Landschaft.
In technischer Hinsicht kann das angesichts der enormen Dynamik in diesem Bereich nur eine Momentaufnahme sein. Doch die linguistischen, philosophischen und gesellschaftspolitischen Fragen, die die digitalen Systeme aufwerfen, sind nicht an aktuelle Modelle gebunden. Sie gehen mindestens zurück bis zu den Tagen des britischen Mathematikers Alan Turing. Er entwarf den nach ihm benannten Test, um die Frage zu beantworten, wann man Computer intelligent nennen kann: Beim Turing-Test kommuniziert ein Mensch schriftlich mit einem Gegenüber, von dem er nicht weiß, ob Mitmensch oder Computerprogramm. Kann er die Äußerungen der Maschine nicht als solche enttarnen, muss man ihr Intelligenz attestieren. Viele der heutigen Systeme bestehen den Turing-Test - ob schriftlich oder mündlich - zumindest streckenweise.
Aber ist es überhaupt angemessen, einer Maschine schon deshalb Sprachfähigkeit und Intelligenz zuzuschreiben, weil sie Symbole regelkonform handhaben kann? Diese Frage, die KI-Forscher seit Jahrzehnten beschäftigt, zieht sich durch das gesamte Buch. Sie hat eine neue Aktualität bekommen, denn die maschinelle Sprachverarbeitung wird einerseits immer leistungsfähiger. Andererseits hat sich der Sprachbegriff, der ihr zugrunde liegt, radikal verändert. Bis in die 2000er Jahre hinein fütterten Linguisten die Computer mit komplizierten grammatischen Regeln samt Wortschatz; sie scheiterten aber immer wieder an sprachlichen und alltagsweltlichen Komplexitäten, die sich der Kodierung durch Algorithmen entzogen.
Mittlerweile geht der Trend in eine ganz andere Richtung: Neuere Systeme sind Simulationen neuronaler Netze, die mit Hilfe riesiger Textmengen so lange trainiert werden, bis sie die sprachlichen Muster weitgehend korrekt "verstehen" und selbst neue produzieren können. Dem liegen keine Regeln zugrunde, sondern statistische Wahrscheinlichkeiten, die die Wortfolgen und ihre grammatischen Formen bestimmen. Die Berechnungen im Inneren der neuronalen Netze können dabei auch von ihren Konstrukteuren im Detail nicht nachvollzogen werden.
Zu den Produkten dieses maschinellen Lernens, die Drösser vorstellt, gehört der englischsprachige Textgenerator GPT 2 (Generative Pretrained Transformer), der seit dem letzten Jahr frei zugänglich ist. Trainiert mit acht Millionen Websites, kann er eingegebene Anfangssätze eigenständig zu Texten weiterspinnen. Was dabei herauskommt, demonstriert der Autor anhand von Geschichten, die sich innerhalb der einzelnen Passagen kaum von menschlichen Erzeugnissen unterscheiden. Allerdings fehlt der rote Faden, was den Texten eine bizarre Note verleiht. Diese Unfähigkeit, stimmige Plots zu bilden, ist ein Defizit, das momentan alle Sprachsysteme teilen. Ein weiteres besteht im mangelnden Weltwissen: Ein digitaler Sprachassistent kann Pizza bestellen und wortreich über sie reden, aber wie sie schmeckt, weiß er nicht. Dass sich diese Mängel durch noch mehr Trainingsdaten beheben lassen, bezweifeln Drössers Gesprächspartner. Vor diesem Hintergrund verdient der Zweig der KI-Forschung, der die Entstehung von Sprachen durch Simulation erforscht, besonderes Interesse: Hier lassen Wissenschaftler sensorbestückte Roboter, die anfangs nur über eine kognitive Minimalausstattung verfügen, in einer Laborwelt interagieren. Herausfinden will man, ob sie auf dieser Basis eine Sprache entwickeln, die in ihrer physischen Umgebung "geerdet" ist. Bis jetzt ist das reine Grundlagenforschung, aber die Anfänge sind vielversprechend. Dass der Autor auf diesen Forschungsbereich nicht eingeht, ist ein kleines Manko in einem sonst lesenswerten Buch.
WOLFGANG KRISCHKE.
Christoph Drösser: "Wenn die Dinge mit uns reden". Von Sprachassistenten, dichtenden Computern und Social Bots.
Dudenverlag, Berlin 2020. 158 S., geb., 16,- [Euro].
Alle Rechte vorbehalten. © F.A.Z. GmbH, Frankfurt am Main
Perlentaucher-Notiz zur F.A.Z.-Rezension
Rezensent Wolfgang Krischke empfiehlt das Buch des Wissenschaftsjournalisten Christoph Drösser. Gut lesbar erörtert der Autor laut Krischke die Sprachkompetenz von Maschinen, ihre Entwicklung und ihre Grenzen. Das Buch taugt laut Rezensent weniger als Tiefenanalyse zum Thema denn als Überblicksdarstellung über die "aktuelle computerlinguistische Landschaft". Für Krischke bietet es dennoch spannende Ausführungen und Beispiele zum Fortschritt im Bereich maschinellen Lernens. Die KI-Forschung kommt im Buch laut Krischke dagegen leider zu kurz.
© Perlentaucher Medien GmbH
© Perlentaucher Medien GmbH
Rezensent Wolfgang Krischke empfiehlt das Buch des Wissenschaftsjournalisten Christoph Drösser. Gut lesbar erörtert der Autor laut Krischke die Sprachkompetenz von Maschinen, ihre Entwicklung und ihre Grenzen. Das Buch taugt laut Rezensent weniger als Tiefenanalyse zum Thema denn als Überblicksdarstellung über die "aktuelle computerlinguistische Landschaft". Für Krischke bietet es dennoch spannende Ausführungen und Beispiele zum Fortschritt im Bereich maschinellen Lernens. Die KI-Forschung kommt im Buch laut Krischke dagegen leider zu kurz.
© Perlentaucher Medien GmbH
© Perlentaucher Medien GmbH