Emotionale künstliche Intelligenz gilt als Schlüsseltechnologie der Zukunft. Künstliche Systeme sollen mitfühlend sein und Empathie in uns auslösen. Doch wie erkennen und verarbeiten künstliche Systeme menschliche Emotionen? Können sie echte Gefühle und Empathie empfinden? Führt die Entwicklung schmerzempfindlicher Roboter in der Biorobotik zur Auflösung der Grenze hin zu biologischen Organismen? Haben wir auch moralische Pflichten gegenüber Robotern, die unser Mitgefühl rühren? Und was ist von Roboterliebe und Sexrobotern zu halten?Die Expertin für Maschinenethik Catrin Misselhorn diskutiert die ethischen und technischen Aspekte dieser Fragen an anschaulichen Beispielen aus der Praxis und gibt einen Überblick über neue Tendenzen der emotionalen Künstlichen Intelligenz, sozialen Robotik und Biorobotik.
Perlentaucher-Notiz zur F.A.Z.-Rezension
Rezensentin Manuela Lenzen nähert sich mit der Wissenschaftstheoretikerin Catrin Misselhorn dem Thema Emotionen im Bereich der Künstlichen Intelligenz. Ein weites, komplexes Feld, durch das sie die Autorin sachlich und anschaulich geleitet, auch wenn es manchmal etwas nach Lehrbuch riecht, wie Lenzen einräumt. Der Weg führt Lenzen über Emotionstheorien und die automatische Emotionserkennung in der Terrorbekämpfung, in der Altenpflege und im pädagogischen Bereich bis zu Sexrobotern. Die Autorin scheint all das kritisch zu betrachten, auch wenn sie nicht immer die von Lenzen erwarteten moralischen Fragen stellt. Zum Verständnis der Entwicklungen auf dem Gebiet der "fühlenden" Maschinen trägt der Band auf alle Fälle bei, versichert die Rezensentin.
© Perlentaucher Medien GmbH
© Perlentaucher Medien GmbH
Frankfurter Allgemeine Zeitung | Besprechung von 05.05.2021Gefühle machen es Maschinen auch nicht leicht
Was will denn dieser Lächelmund besagen? Catrin Misselhorn macht mit den Versuchen bekannt, Künstlicher Intelligenz das Erkennen und Simulieren von Emotionen beizubringen.
Maschinen haben keine Emotionen. Auch niedliche Roboter mit großen Kulleraugen empfinden nichts. Dennoch sind Emotionen in der Künstliche-Intelligenz-Forschung ein großes Thema. "Affective Computing" oder "Emotionale Künstliche Intelligenz" heißt das Gebiet, in dem es darum geht, die Gefühle von Menschen zu vermessen und künstliche Systeme zu bauen, die diese erkennen und passend darauf reagieren können. Es ist ebenso unübersichtlich wie attraktiv: Für die Ergebnisse dieser Forschung interessieren sich Militär, Polizei und Geheimdienste ebenso wie die Unterhaltungs-, die Werbe- und die Sexindustrie. Catrin Misselhorn, Professorin für Wissenschaftstheorie und Technikphilosophie in Stuttgart, hat es nun unternommen, das Feld in einem schmalen Band zu kartieren. Sachlich und gut verständlich, wenn auch manchmal etwas lehrbuchhaft, führt sie durch Emotionstheorien, erklärt die Verfahren zur Emotionserkennung und berichtet von den Verwirrungen, die künstliche Systeme anrichten, die so tun, als hätten sie Gefühle.
Erst einmal diskutiert die Autorin die gängigen psychologischen Emotionstheorien und ihre Verwendbarkeit für die KI-Forschung. Emotionstheorien, in denen das Erleben besonders wichtig ist - die Angst, die einen überfällt, wenn sich nachts von hinten Schritte nähern -, sind weniger geeignet als solche, die Emotionen vor allem als eine Art von Bewertungen betrachten. Denn Bewertungen lassen sich in Algorithmen fassen, das subjektive Erleben nicht.
Auf dem Hintergrund eines so vereinfachten Verständnisses von Emotionen gilt es dann, Systemen beizubringen, menschliche Emotionen zu erkennen. Zuerst schloss die Forschung, wie Misselhorn zeigt, an ältere Versuche an, Menschen darauf zu trainieren, die Emotionen anderer besonders präzise zu erfassen, wie sie etwa der Psychologe Paul Ekman unternommen hat. Aktuell werden Algorithmen zur Emotionserkennung in Verfahren des maschinellen Lernens mit großen Mengen an Daten trainiert, etwa Bildern von Gesichtern mit emotionalem Ausdruck, die zuvor von Menschen betrachtet und klassifiziert wurden.
Die Ergebnisse sind umstritten. Oft funktionieren die Algorithmen nur bei Gesichtern, die gut ausgeleuchtet von vorn zu sehen sind. Bei weißen Gesichtern sind sie manchmal zuverlässiger als bei farbigen, weil die Trainingsdaten mehr Bilder weißer Menschen umfassten. Vor allem aber, so beschreibt es Misselhorn, sind Algorithmen nicht in der Lage, den Zusammenhang zu erfassen, in dem ein Gesichtsausdruck auftritt. Dieser ist aber zentral, um zu erkennen, ob zum Beispiel ein Grinsen lustig oder eher ironisch ist. Ähnlich unsicher seien die Ergebnisse auch bei Versuchen, Emotionen an der Stimme, der Verwendung positiver oder negativer Ausdrücke in den sozialen Medien oder anhand von physiologischen Reaktionen wie dem Blutdruck oder dem elektrischen Hautwiderstand zu bestimmen.
Obwohl die automatische Emotionserkennung also nach wie vor alles andere als sicher gelingt, wird an Systemen gearbeitet, die die Konzentration von Schülern im Unterricht überwachen, das Erkennen von Terroristen erleichtern, die Belastbarkeit von Bewerbern oder die psychische Gesundheit von Versicherungsnehmern einschätzen, Computerspiele spannender und Werbung effektiver und Kunden durchsichtiger machen sollen. Siebzehn Einträge umfasst die eindrucksvolle Tabelle, in der Misselhorn die möglichen Verwendungen automatischer Emotionserkennung und -manipulation zusammengetragen hat - natürlich ohne Anspruch auf Vollständigkeit.
Leider erfährt der Leser nicht, inwieweit diese Systeme schon zur Anwendung kommen. Und auch über ihre Auswirkungen kann Misselhorn nur Vermutungen anstellen: Menschen, die wissen, dass sie permanent beobachtet und ihre Emotionen analysiert werden, verändern ihr Selbstverständnis und ihr Verhalten, so die Autorin. Im Extrem könnte der Mensch sich in Zukunft gezwungen sehen, sich im öffentlichen Raum nicht nur unauffällig, sondern auch stets künstlich gut gelaunt zu bewegen.
Der Umgang mit den Möglichkeiten automatisierter Emotionserkennung ist derzeit die gesellschaftspolitisch relevanteste, aber nicht die einzige Baustelle im Bereich der "Emotionalen Künstlichen Intelligenz". Eine andere ist die Frage, wie die Roboter, Avatare und Bots der Zukunft ausgestattet sein sollen. Künstliche Systeme empfinden nichts, aber sollten sie so tun, als ob? Misselhorn berichtet etwa vom Projekt NIKA, in dem Forschende in der Altenpflege mit einem Roboter experimentieren, der basale Emotionen erkennen und durch Gesten, Haltung und die Farbe seiner Augen selbst Emotionen simulieren soll. Die Emotionserkennung gelingt einer Studie zufolge in Ansätzen, die Interaktion von Mensch und Maschine ist aber weit von einer natürlichen entfernt. Mögen Menschen Systeme, die Emotionen vorspielen, eigentlich lieber als neutrale Maschinen? Die Datenlage scheint bislang zu dünn, um das zu beantworten.
Könnte es Maschinen geben, die Emotionen nicht nur vorspielen, sondern tatsächlich empfinden? Die dann vielleicht auch echtes Mitleid haben könnten? Es ist ein etwas abseitiges Gebiet, aber auch dazu wird geforscht. Misselhorn sieht die erfolgversprechendsten Ansätze dazu im Bereich neuer synthetischer Materialien, die biologischem Leben möglichst nahekommen, und in Experimenten mit Stammzellen, die nach am Computer entwickelten Plänen zusammengesetzt werden. Ob Versuche, künstliche Emotionen zu schaffen, jemals erfolgreich sein werden, ist allerdings völlig offen. Die naheliegende Frage, ob es moralisch vertretbar wäre, erlebnisfähige und damit auch leidensfähige Maschinen zu bauen, stellt die Autorin nicht.
Stattdessen diskutiert sie, ob unser Umgang mit den gefühllosen, aber Gefühle vorspielenden Maschinen moralisch relevant ist. Hat, wer einen menschenähnlichen Roboter misshandelt, einen zweifelhaften Charakter oder ein gutes Unterscheidungsvermögen? Ersteres, so Misselhorn, denn vermutlich beschädige der Mensch mit solchem Handeln seine Fähigkeiten zu Empathie und Moral auch gegenüber seinen Mitmenschen.
Im letzten Kapitel des Buches handelt Misselhorn vom Umgang mit Sexrobotern. Auch hier überwiegen ihre Bedenken. Diese Maschinen seien dazu angetan, Frauen zu verdinglichen. Und sie könnten dazu führen, andere Menschen in Liebesbeziehungen ebenfalls wie Roboter zu behandeln, in letzter Konsequenz könne sich der Mensch beginnen, sich selbst als eine Art Maschine zu betrachten.
Vor Emotionaler Künstlicher Intelligenz kann die Autorin deshalb am Ende nur warnen: wegen der Überwachung, die Systeme zur Emotionserkennung ermöglichen, und wegen der Verwirrung, die scheinbar fühlende Maschinen unter Menschen anrichten könnten. Vieles ist in diesem Bereich noch unverstanden, viele Entwicklungen stehen erst am Anfang. Deshalb kommt Misselhorns vielseitiges Buch zur richtigen Zeit: Es hilft, diese Entwicklungen besser zu verstehen.
MANUELA LENZEN
Catrin Misselhorn: "Künstliche Intelligenz und Empathie". Vom Leben mit Emotionserkennung,
Sexrobotern & Co.
Reclam Verlag, Stuttgart, 2021.
181 S., br., 12,- [Euro].
Alle Rechte vorbehalten. © F.A.Z. GmbH, Frankfurt am Main
Was will denn dieser Lächelmund besagen? Catrin Misselhorn macht mit den Versuchen bekannt, Künstlicher Intelligenz das Erkennen und Simulieren von Emotionen beizubringen.
Maschinen haben keine Emotionen. Auch niedliche Roboter mit großen Kulleraugen empfinden nichts. Dennoch sind Emotionen in der Künstliche-Intelligenz-Forschung ein großes Thema. "Affective Computing" oder "Emotionale Künstliche Intelligenz" heißt das Gebiet, in dem es darum geht, die Gefühle von Menschen zu vermessen und künstliche Systeme zu bauen, die diese erkennen und passend darauf reagieren können. Es ist ebenso unübersichtlich wie attraktiv: Für die Ergebnisse dieser Forschung interessieren sich Militär, Polizei und Geheimdienste ebenso wie die Unterhaltungs-, die Werbe- und die Sexindustrie. Catrin Misselhorn, Professorin für Wissenschaftstheorie und Technikphilosophie in Stuttgart, hat es nun unternommen, das Feld in einem schmalen Band zu kartieren. Sachlich und gut verständlich, wenn auch manchmal etwas lehrbuchhaft, führt sie durch Emotionstheorien, erklärt die Verfahren zur Emotionserkennung und berichtet von den Verwirrungen, die künstliche Systeme anrichten, die so tun, als hätten sie Gefühle.
Erst einmal diskutiert die Autorin die gängigen psychologischen Emotionstheorien und ihre Verwendbarkeit für die KI-Forschung. Emotionstheorien, in denen das Erleben besonders wichtig ist - die Angst, die einen überfällt, wenn sich nachts von hinten Schritte nähern -, sind weniger geeignet als solche, die Emotionen vor allem als eine Art von Bewertungen betrachten. Denn Bewertungen lassen sich in Algorithmen fassen, das subjektive Erleben nicht.
Auf dem Hintergrund eines so vereinfachten Verständnisses von Emotionen gilt es dann, Systemen beizubringen, menschliche Emotionen zu erkennen. Zuerst schloss die Forschung, wie Misselhorn zeigt, an ältere Versuche an, Menschen darauf zu trainieren, die Emotionen anderer besonders präzise zu erfassen, wie sie etwa der Psychologe Paul Ekman unternommen hat. Aktuell werden Algorithmen zur Emotionserkennung in Verfahren des maschinellen Lernens mit großen Mengen an Daten trainiert, etwa Bildern von Gesichtern mit emotionalem Ausdruck, die zuvor von Menschen betrachtet und klassifiziert wurden.
Die Ergebnisse sind umstritten. Oft funktionieren die Algorithmen nur bei Gesichtern, die gut ausgeleuchtet von vorn zu sehen sind. Bei weißen Gesichtern sind sie manchmal zuverlässiger als bei farbigen, weil die Trainingsdaten mehr Bilder weißer Menschen umfassten. Vor allem aber, so beschreibt es Misselhorn, sind Algorithmen nicht in der Lage, den Zusammenhang zu erfassen, in dem ein Gesichtsausdruck auftritt. Dieser ist aber zentral, um zu erkennen, ob zum Beispiel ein Grinsen lustig oder eher ironisch ist. Ähnlich unsicher seien die Ergebnisse auch bei Versuchen, Emotionen an der Stimme, der Verwendung positiver oder negativer Ausdrücke in den sozialen Medien oder anhand von physiologischen Reaktionen wie dem Blutdruck oder dem elektrischen Hautwiderstand zu bestimmen.
Obwohl die automatische Emotionserkennung also nach wie vor alles andere als sicher gelingt, wird an Systemen gearbeitet, die die Konzentration von Schülern im Unterricht überwachen, das Erkennen von Terroristen erleichtern, die Belastbarkeit von Bewerbern oder die psychische Gesundheit von Versicherungsnehmern einschätzen, Computerspiele spannender und Werbung effektiver und Kunden durchsichtiger machen sollen. Siebzehn Einträge umfasst die eindrucksvolle Tabelle, in der Misselhorn die möglichen Verwendungen automatischer Emotionserkennung und -manipulation zusammengetragen hat - natürlich ohne Anspruch auf Vollständigkeit.
Leider erfährt der Leser nicht, inwieweit diese Systeme schon zur Anwendung kommen. Und auch über ihre Auswirkungen kann Misselhorn nur Vermutungen anstellen: Menschen, die wissen, dass sie permanent beobachtet und ihre Emotionen analysiert werden, verändern ihr Selbstverständnis und ihr Verhalten, so die Autorin. Im Extrem könnte der Mensch sich in Zukunft gezwungen sehen, sich im öffentlichen Raum nicht nur unauffällig, sondern auch stets künstlich gut gelaunt zu bewegen.
Der Umgang mit den Möglichkeiten automatisierter Emotionserkennung ist derzeit die gesellschaftspolitisch relevanteste, aber nicht die einzige Baustelle im Bereich der "Emotionalen Künstlichen Intelligenz". Eine andere ist die Frage, wie die Roboter, Avatare und Bots der Zukunft ausgestattet sein sollen. Künstliche Systeme empfinden nichts, aber sollten sie so tun, als ob? Misselhorn berichtet etwa vom Projekt NIKA, in dem Forschende in der Altenpflege mit einem Roboter experimentieren, der basale Emotionen erkennen und durch Gesten, Haltung und die Farbe seiner Augen selbst Emotionen simulieren soll. Die Emotionserkennung gelingt einer Studie zufolge in Ansätzen, die Interaktion von Mensch und Maschine ist aber weit von einer natürlichen entfernt. Mögen Menschen Systeme, die Emotionen vorspielen, eigentlich lieber als neutrale Maschinen? Die Datenlage scheint bislang zu dünn, um das zu beantworten.
Könnte es Maschinen geben, die Emotionen nicht nur vorspielen, sondern tatsächlich empfinden? Die dann vielleicht auch echtes Mitleid haben könnten? Es ist ein etwas abseitiges Gebiet, aber auch dazu wird geforscht. Misselhorn sieht die erfolgversprechendsten Ansätze dazu im Bereich neuer synthetischer Materialien, die biologischem Leben möglichst nahekommen, und in Experimenten mit Stammzellen, die nach am Computer entwickelten Plänen zusammengesetzt werden. Ob Versuche, künstliche Emotionen zu schaffen, jemals erfolgreich sein werden, ist allerdings völlig offen. Die naheliegende Frage, ob es moralisch vertretbar wäre, erlebnisfähige und damit auch leidensfähige Maschinen zu bauen, stellt die Autorin nicht.
Stattdessen diskutiert sie, ob unser Umgang mit den gefühllosen, aber Gefühle vorspielenden Maschinen moralisch relevant ist. Hat, wer einen menschenähnlichen Roboter misshandelt, einen zweifelhaften Charakter oder ein gutes Unterscheidungsvermögen? Ersteres, so Misselhorn, denn vermutlich beschädige der Mensch mit solchem Handeln seine Fähigkeiten zu Empathie und Moral auch gegenüber seinen Mitmenschen.
Im letzten Kapitel des Buches handelt Misselhorn vom Umgang mit Sexrobotern. Auch hier überwiegen ihre Bedenken. Diese Maschinen seien dazu angetan, Frauen zu verdinglichen. Und sie könnten dazu führen, andere Menschen in Liebesbeziehungen ebenfalls wie Roboter zu behandeln, in letzter Konsequenz könne sich der Mensch beginnen, sich selbst als eine Art Maschine zu betrachten.
Vor Emotionaler Künstlicher Intelligenz kann die Autorin deshalb am Ende nur warnen: wegen der Überwachung, die Systeme zur Emotionserkennung ermöglichen, und wegen der Verwirrung, die scheinbar fühlende Maschinen unter Menschen anrichten könnten. Vieles ist in diesem Bereich noch unverstanden, viele Entwicklungen stehen erst am Anfang. Deshalb kommt Misselhorns vielseitiges Buch zur richtigen Zeit: Es hilft, diese Entwicklungen besser zu verstehen.
MANUELA LENZEN
Catrin Misselhorn: "Künstliche Intelligenz und Empathie". Vom Leben mit Emotionserkennung,
Sexrobotern & Co.
Reclam Verlag, Stuttgart, 2021.
181 S., br., 12,- [Euro].
Alle Rechte vorbehalten. © F.A.Z. GmbH, Frankfurt am Main
»Allein Misselhorns Anekdoten davon, wie weit die Simulation von Empathie in Maschinen schon fortgeschritten ist, lesen sich wie ein Thriller. [...] Was sie selbst geliefert hat, ist ein erster Ausblick auf einen Technologiesprung, der die Auswirkungen sozialer Medien und aktueller Überwachungs- und Manipulationstechnologien weit in den Schatten stellen könnte. [...] Catrin Misselhorn bringt mit ihrem Blick einer europäischen Maschinenethikerin genau die nötige Portion Zweifel und Widerspruch in den Diskurs, der die weitere Entwicklung begleiten muss.« Süddeutsche Zeitung, 16.03.2021 »Es zeuge von Menschlichkeit, auch in Maschinen ein echtes Gegenüber sehen zu können. Es kann aber auch zu Problemen führen. Die Maschinen-Ethikerin spricht diese und viele andere Fragen rund um das Leben mit KI an - und regt an, das Thema weiterzuverfolgen und weiterzudenken.« SRF2 Kultur, »Das Sachbuch-Trio«, 12.04.2021 »Sachlich und gut verständlich - ein vielseitiges Buch zur richtigen Zeit: Eshilft, die Entwicklungen besser zu verstehen.« Frankfurter Allgemeine Zeitung, 05.05.2021 »Catrin Misselhorn zeigt sehr genau auf, welchen KI-gesteuerten Beeinflussungen wir heute schon ausgeliefert sind - wenn wir nicht wachsam sind.« Ö1 »Kontext«, 04.06.2021 »Ein großartiges Buch« SRF Kultur, 13.04.2022