Der bekannte Visionär und Herausgeber der Internetzeitschrift »Edge« John Brockman fragt die führenden Wissenschaftler, Philosophen und Künstler unserer Zeit, was sie von denkenden Maschinen halten. Stephen Hawking warnt davor, dass die Weiterentwicklung der Künstlichen Intelligenz das Ende der Menschheit bedeute. Andere hingegen feiern das neue Zeitalter der Superintelligenz, da menschliche Kapazitäten mittels intelligenter Maschinen enorm ausgeweitet würden. Sicher ist, dass KI aus dem Bereich der Science-Fiction Einzug in die Realität, ja in unseren Alltag gefunden hat. Mit Beiträgen u.a. von Steven Pinker, Martin Rees, Rolf Dobelli, George Dyson, Hans Ulrich Obrist, Gerd Gigerenzer, Andrian Kreye und Haim Harari. »Eine äußerst anregende Lektüre.« Brain Pickings
Dieser Download kann aus rechtlichen Gründen nur mit Rechnungsadresse in A, B, CY, D, DK, EW, E, FIN, F, GR, IRL, I, L, M, NL, P, S, SLO, SK ausgeliefert werden.
Frankfurter Allgemeine Zeitung | Besprechung von 07.10.2017Intelligente Fragen zur KI
Google-Chef Sundar Pichai hat gerade eine ganze Serie neuer Produkte vorgestellt, die im Kern eines gemeinsam haben: Sie setzen stärker als jemals zuvor darauf, mit Hilfe Künstlicher Intelligenz (KI) die Wünsche der Kunden noch besser zu erfüllen. Es geht um Übersetzungen zwischen verschiedenen Sprachen, passendere Suchergebnisse und mehr: Die Technik präsentiert sich in immer konkreteren Ausprägungen immer näher am Konsumenten. Klar ist, da sind sich die Fachleute einig, dass diese Entwicklung längst nicht abgeschlossen ist, ja vielleicht erst an ihrem Anfang steht.
Auf die Frage, was da auf uns zukommen könnte und wie gefährlich oder wünschenswert das sei, geben die Beiträge des jüngsten von John Brockman, Gründer der Internetzeitschrift "Edge", herausgegebenen Sammelbands interessante und anregende Antworten. Prominente Physiker, Neurowissenschaftler, Mathematiker, Philosophen, Informatiker, Medienfachleute sind unter den Beiträgern, auch führende KI-Fachleute wie Peter Norvig und Stuart Russell. Die Ansichten sind durchaus verschieden, einige Autoren widmen sich der nahen Zukunft, andere spekulieren darüber, welche Rolle KI in fünfzig oder hundert Jahren spielen wird.
Zum Beispiel geht es um das, was gelegentlich als Allgemeine Künstliche Intelligenz oder "Superintelligenz" beschrieben wird - einen Computer, der das menschliche Gehirn in allen Bereichen überflügelt. Die Diskussion darüber ist schwierig und häufig unergiebig, weil sie von ziemlich willkürlichen Annahmen ausgeht. Eliezer Yudkowsky, Mitgründer der Denkfabrik "Machine Intelligence Reseach Institute", meint etwa, dass eine entscheidende Frage sei, welche Präferenzen und daraus abgeleiteten Ziele eine solche Superintelligenz verfolge, weil vermutlich passieren werde, was ein kognitiv leistungsfähigerer Akteur, als wir es sind, sich vornimmt. Das ist einerseits plausibel, andererseits ist nicht klar, wieso beispielsweise ein schlauer Computer einen "emotionalen Groll gegenüber Menschen" entwickeln sollte, wie Yudkowsky überlegt. Oder warum ein solcher Computer überhaupt ein Interesse daran haben könnte, dass er existiert oder nicht.
Der Informatiker Rodney Brooks, zehn Jahre lang Direktor des renommierten KI-Forschungslabors am MIT, illustriert eine weitere Schwierigkeit der Diskussion über Künstliche Intelligenz: das Fehlen einer hinreichend scharfen Definition dessen, worum es geht. Denken und Intelligenz seien "Kofferwörter", schreibt er und bezieht sich damit auf einen Ausdruck des verstorbenen KI-Vordenkers Marvin Minsky: "Wörter, in die wir viele Dinge packen, so dass wir abgekürzt über komplexe Fragen sprechen können". Weder sei aber klar, was eigentlich Intelligenz ist, noch was Denken bedeutet - und übrigens auch nicht, was eigentlich "künstlich" meint.
Brooks unterscheidet dann zwischen Performanz und Kompetenz und formuliert: "Die Kofferwörter werden verwendet, um sowohl spezifische Leistungsnachweise (Performanz) von Maschinen als auch die allgemeine Kompetenz von Menschen abzudecken." Seiner Ansicht nach unterläuft dabei ein Kategorienfehler. Er selbst neigt darum keineswegs zu bedrohlichen KI-Szenarien. Die Sorge, eine außer Kontrolle gerate Künstliche Intelligenz könne die Menschheit unterwerfen, beurteilt er als "nicht einmal entfernt wohlbegründet". Mit Blick auf den Fortschritt der vergangenen Jahre sei das, als würde man "den Aufstieg effizienterer Verbrennungsmotoren sehen und überstürzt zu der Schlussfolgerung gelangen, dass Warp-Antriebe in greifbarer Nähe liegen".
ala.
John Brockman (Hrsg.): "Was sollen wir von Künstlicher Intelligenz halten?"
Fischer Taschenbuch Verlag, Frankfurt am Main 2017. 624 S., br., 16,99 [Euro].
Alle Rechte vorbehalten. © F.A.Z. GmbH, Frankfurt am Main
Google-Chef Sundar Pichai hat gerade eine ganze Serie neuer Produkte vorgestellt, die im Kern eines gemeinsam haben: Sie setzen stärker als jemals zuvor darauf, mit Hilfe Künstlicher Intelligenz (KI) die Wünsche der Kunden noch besser zu erfüllen. Es geht um Übersetzungen zwischen verschiedenen Sprachen, passendere Suchergebnisse und mehr: Die Technik präsentiert sich in immer konkreteren Ausprägungen immer näher am Konsumenten. Klar ist, da sind sich die Fachleute einig, dass diese Entwicklung längst nicht abgeschlossen ist, ja vielleicht erst an ihrem Anfang steht.
Auf die Frage, was da auf uns zukommen könnte und wie gefährlich oder wünschenswert das sei, geben die Beiträge des jüngsten von John Brockman, Gründer der Internetzeitschrift "Edge", herausgegebenen Sammelbands interessante und anregende Antworten. Prominente Physiker, Neurowissenschaftler, Mathematiker, Philosophen, Informatiker, Medienfachleute sind unter den Beiträgern, auch führende KI-Fachleute wie Peter Norvig und Stuart Russell. Die Ansichten sind durchaus verschieden, einige Autoren widmen sich der nahen Zukunft, andere spekulieren darüber, welche Rolle KI in fünfzig oder hundert Jahren spielen wird.
Zum Beispiel geht es um das, was gelegentlich als Allgemeine Künstliche Intelligenz oder "Superintelligenz" beschrieben wird - einen Computer, der das menschliche Gehirn in allen Bereichen überflügelt. Die Diskussion darüber ist schwierig und häufig unergiebig, weil sie von ziemlich willkürlichen Annahmen ausgeht. Eliezer Yudkowsky, Mitgründer der Denkfabrik "Machine Intelligence Reseach Institute", meint etwa, dass eine entscheidende Frage sei, welche Präferenzen und daraus abgeleiteten Ziele eine solche Superintelligenz verfolge, weil vermutlich passieren werde, was ein kognitiv leistungsfähigerer Akteur, als wir es sind, sich vornimmt. Das ist einerseits plausibel, andererseits ist nicht klar, wieso beispielsweise ein schlauer Computer einen "emotionalen Groll gegenüber Menschen" entwickeln sollte, wie Yudkowsky überlegt. Oder warum ein solcher Computer überhaupt ein Interesse daran haben könnte, dass er existiert oder nicht.
Der Informatiker Rodney Brooks, zehn Jahre lang Direktor des renommierten KI-Forschungslabors am MIT, illustriert eine weitere Schwierigkeit der Diskussion über Künstliche Intelligenz: das Fehlen einer hinreichend scharfen Definition dessen, worum es geht. Denken und Intelligenz seien "Kofferwörter", schreibt er und bezieht sich damit auf einen Ausdruck des verstorbenen KI-Vordenkers Marvin Minsky: "Wörter, in die wir viele Dinge packen, so dass wir abgekürzt über komplexe Fragen sprechen können". Weder sei aber klar, was eigentlich Intelligenz ist, noch was Denken bedeutet - und übrigens auch nicht, was eigentlich "künstlich" meint.
Brooks unterscheidet dann zwischen Performanz und Kompetenz und formuliert: "Die Kofferwörter werden verwendet, um sowohl spezifische Leistungsnachweise (Performanz) von Maschinen als auch die allgemeine Kompetenz von Menschen abzudecken." Seiner Ansicht nach unterläuft dabei ein Kategorienfehler. Er selbst neigt darum keineswegs zu bedrohlichen KI-Szenarien. Die Sorge, eine außer Kontrolle gerate Künstliche Intelligenz könne die Menschheit unterwerfen, beurteilt er als "nicht einmal entfernt wohlbegründet". Mit Blick auf den Fortschritt der vergangenen Jahre sei das, als würde man "den Aufstieg effizienterer Verbrennungsmotoren sehen und überstürzt zu der Schlussfolgerung gelangen, dass Warp-Antriebe in greifbarer Nähe liegen".
ala.
John Brockman (Hrsg.): "Was sollen wir von Künstlicher Intelligenz halten?"
Fischer Taschenbuch Verlag, Frankfurt am Main 2017. 624 S., br., 16,99 [Euro].
Alle Rechte vorbehalten. © F.A.Z. GmbH, Frankfurt am Main
In dem Sammelband äußern sich 180 Wissenschaftler jeder Couleur zum Thema: kontrovers, kompetent - wird ein Standardwerk. Thomas Vasek P.M. Magazin 20170901