80,99 €
inkl. MwSt.
Versandkostenfrei*
Versandfertig in über 4 Wochen
Melden Sie sich für den Produktalarm an, um über die Verfügbarkeit des Produkts informiert zu werden.

  • Gebundenes Buch

Natural General Intelligence aims to provide a bridge between the theories of those who study biological brains and the practice of those who are seeking to build artificial brains.

Produktbeschreibung
Natural General Intelligence aims to provide a bridge between the theories of those who study biological brains and the practice of those who are seeking to build artificial brains.
Autorenporträt
Christopher Summerfield is Professor of Cognitive Neuroscience at the University of Oxford and a Research Scientist at Deepmind UK. His work focusses on the neural and computational mechanisms by which humans make decisions.
Rezensionen

Frankfurter Allgemeine Zeitung - Rezension
Frankfurter Allgemeine Zeitung | Besprechung von 14.04.2023

Wie künstliche Systeme lernen sollten
Christopher Summerfield möchte KI-Entwicklung und Neurowissenschaften enger zusammenführen

Die Fotografie zeigt Chicken Nuggets, die so angeordnet sind, dass sich die Umrisse der Kontinente auf einer Weltkarte ergeben, und darüber der Satz: "Wie schön die Erde doch aus dem All aussehen kann!" Für diese Pointe sorgte GPT-4, das neueste Sprachmodell von OpenAI, das noch größer als seine Vorgänger ist, mit Texten und Bildern umgehen und sogar Witze erklären kann. Der Prompt mit der Weltkarte sei witzig, so ist es in der Dokumentation zu GPT-4 zu lesen, weil es sich um eine "unerwartete Juxtaposition von Text und Bild" handle.

Die heutigen KI-Systeme sind zwar klug im Labor, aber nicht auf der Straße, schreibt Christopher Summerfield, sie kommen mit wohldefinierten Problemen zurecht, nicht aber mit der Komplexität der Welt, wie sie nun einmal ist. Sein neues Buch ist vor GPT-4 erschienen, dennoch dürfte er die These aufrechterhalten: Den Fortschritten der Chatbots zum Trotz gibt es bislang keine wirklich überzeugende allgemeine Künstliche Intelligenz. Das zeigen nach wie vor die seltsamen Fehler, die auch den großen Sprachmodellen unterlaufen.

Summerfield ist Professor für Kognitive Neurowissenschaft an der Universität Oxford und Forscher bei Google DeepMind. Er interessiert sich vor allem dafür, wie Menschen lernen und das Gelernte in neuen Situationen anwenden. Dazu stellt er seinen Versuchspersonen nicht nur die üblichen Aufgaben, die am Bildschirm zu lösen sind, er simuliert menschliches Lernen auch in Computerprogrammen. Summerfield kennt also beide Seiten: die natürliche Intelligenz und die Möglichkeiten und Grenzen der KI. Derzeit bestehe große Unsicherheit und Aufregung darüber, wie es mit der KI weitergehen könnte, konstatiert er, und empfiehlt die natürliche Intelligenz, insbesondere die Ergebnisse der Hirnforschung, als Muster und Blaupause für die Künstliche Intelligenz zu betrachten. Mit seinem Buch will er dazu beitragen, die Kluft zwischen Neurowissenschaften und KI-Forschung zu verringern. Dazu hat er zusammengetragen, wo sich die Forschungsfelder nahekommen und wie sie bereits voneinander lernen.

Aber könnte Künstliche Intelligenz nicht auf einem ganz anderen Weg realisiert werden, als die Evolution ihn genommen hat? Wann immer ein größerer Fortschritt in der Leistungsfähigkeit der künstlichen Systeme erzielt ist, wird genau dies verkündet: Man habe nun den entscheidenden Faktor gefunden und müsse das Ganze nur noch ein bisschen ausarbeiten und "skalieren", also größer und leistungsfähiger machen. Das funktioniert in vielen Bereichen immer besser, aber noch immer nicht gut genug. Forscher schauen deshalb gerade wieder genauer auf die natürlichen intelligenten Systeme, auf Menschen und Tiere, auf ihre kognitiven Fähigkeiten und darauf, wie diese realisiert sind.

Vergessen gehört zum Lernen

Der Titel von Summerfields Buch spielt auf den Heiligen Gral der KI-Forschung an: die allgemeine Intelligenz. Bislang sind die künstlichen Systeme Spezialisten: Auch wenn man GPT-4 mit Texten und Bildern füttern kann, das DeepMinds-Programm Gato hundert verschiedene Aufgaben beherrschen soll - darunter Fragen beantworten, Bilder generieren und einen Roboterarm steuern -, kommen sie an die Fähigkeit von Menschen, sich in neuen Situationen zu orientieren, nicht heran.

Um die Flexibilität der menschlichen Intelligenz künstlich zu realisieren, dürfte es helfen, so Summerfield, sich genauer anzuschauen, wie intelligentes Verhalten in den Netzwerken biologischer Gehirne realisiert ist. Allerdings ist das nicht so einfach, denn auch hier ist, wie der Autor konstatiert, noch viel Forschung nötig. Nur selten können KI-Forscher bislang einfach zu den Neurowissenschaftlern gehen und sich dort eine Liste der nötigen Erkenntnisse abholen.

Summerfield beginnt seine Tour durch KI und Neurowissenschaften ganz klassisch mit einem Rückblick auf die überoptimistischen Anfänge der KI-Forschung und den Aufstieg des maschinellen Lernens, der Transformer-Architektur, auf der auch GPT-4 beruht, und der Foundation Models, die in neuem Maßstab aus nicht annotierten Daten lernen können und in ganz verschiedenen Bereichen einsetzbar sind.

Dann nimmt er sich die Eigenheiten der menschlichen Intelligenz vor, diskutiert die wichtigsten philosophischen Versuche, "den Geist" auf den Begriff zu bringen, etwa die Idee einer Sprache des Geistes, und die aus der Psychologie stammenden Unterscheidung von schnellem und langsamem, implizitem und explizitem, unbewusstem und bewusstem Denken. Das Problem für die künstlichen Systeme könnte nach ihm gerade darin bestehen, dass diese zu logisch sind, zu wenig vergessen, zu wenig verallgemeinern, abstrahieren und bewerten.

Manchmal allerdings stellen Forscher fest, dass künstliche neuronale Netzwerke ganz ähnliche Strukturen ausbilden, wie sie in biologischen Gehirnen nachweisbar sind. Solche Ähnlichkeiten könnten ein Hinweis darauf sein, dass man hier so etwas wie allgemeine Organisationsprinzipien von Intelligenz gefunden hat. So könnten künstliche neuronale Netzwerke auch als Modelle biologischer Gehirne und ihrer Aktivitäten fungieren. KI-Forscher schauen in die Neurowissenschaften, um mögliche Baupläne für ihre Systeme zu finden, und die Neurowissenschaftler schauen zurück, möchten wissen, ob diese Systeme sich verhalten wie Mensch oder Tier. Vor allem das bestärkende Lernen, reinforcement learning, ist nach Summerfield der Natur abgeschaut, es ist sowohl eine Theorie darüber, wie Tiere lernen, als auch ein Modell, wie künstliche Systeme lernen sollten.

Wie konstruiert man Bedürfnisse?

Ausführlich widmet sich der Autor den "Voreinstellungen", mit denen Menschen das Leben anfangen: So nehmen gerade kleine Kinder nicht einfach alles wahr, sondern haben eine Vorliebe für Augen und menschliche Stimmen; sie "wissen", dass Dinge nicht aufhören zu existieren, wenn sie kurz verdeckt sind. Für den Kognitionspsychologen leitet sich daraus die Frage ab, welche Vorgaben man einem künstlichen System machen muss, damit es gut lernen kann.

Hinzu kommt: Menschen und Tiere sind in der Welt unterwegs, weil sie Interessen und Bedürfnisse haben. Diese in künstlichen Systemen nachzubauen ist eine bislang ungelöste Herausforderung. Schon weil sich die Vielfalt der menschlichen Ziele und ihr Verhältnis zueinander kaum ausbuchstabieren lässt. Was geschieht, wenn man da nicht aufpasst, zeigt die antike Fabel von Midas, erinnert Summerfield: Viel Gold zu besitzen mag man für ein erstrebenswertes Ziel halten, doch sich zu wünschen, alles, was man berührt, möge sich in Gold verwandeln, wird spätestens beim Essen problematisch. Vielleicht benötigen also auch künstliche Systeme, wenn sie intelligent sein sollen, einen Mix aus eigenen Interessen und Anstößen und Grenzen von außen.

Kaum eine Rolle spielt bei Summerfield hingegen das Forschungsfeld der verkörperten Intelligenz. Nach diesem Ansatz brauchen künstliche Systeme auch einen - echten oder zumindest simulierten - Körper, um Intelligenz von menschenähnlicher Flexibilität zu erreichen.

Es ist faszinierend, zu verfolgen, wie detailliert die Anleihen der KI-Forschung bei den Neurowissenschaften zum Teil sind. Summerfields Buch dürfte das einzige sein, dass derzeit einen so umfassenden Überblick dazu bietet. Und ebenso faszinierend ist es, zu sehen, welche Herausforderungen noch immer nicht gemeistert sind. Etwa ein Gedächtnis zu modellieren, das, wie das menschliche, Neues lernt, ohne das Alte zu vergessen, das Alte im Licht neuer Erfahrungen aber neu interpretieren kann. Drei große Problemkreise macht Summerfield für die KI-Forschung aus: aus wenigen Daten und mit wenigen Versuchen zu lernen, kontinuierlich zu lernen und zu lernen, wie man lernt.

Viele, vermutlich die meisten Erkenntnisse der Neurowissenschaften haben bislang kaum Einfluss auf die KI-Forschung, resümiert der Autor - empfiehlt sie aber dringend als Inspiration für die Zukunft der KI. Sein Buch macht eindrucksvoll deutlich, wie komplex und wie wenig verstanden das Phänomen Intelligenz noch immer ist und wie viel zu einem künstlichen intelligenten System auch dann noch fehlt, wenn man große Datenmengen und leistungsfähige Rechner zur Verfügung hat.

Ob es bei der Entwicklung der KI wirklich hilft, das Gehirn besser zu verstehen, oder ob sich nicht doch ganz andere, davon unabhängige Techniken finden lassen, ist derzeit allerdings alles andere als ausgemacht. Sicher ist, dass auf diesem Weg noch viele grundlegende Fragen zu klären sind, darunter auch die, was denn eigentlich genau unter einer allgemeinen Intelligenz zu verstehen ist und welche Art von intelligenten Maschinen wir zu welchen Zwecken eigentlich haben möchten. MANUELA LENZEN

Christopher Summerfield: "Natural General Intelligence". How understanding the brain can help us build AI.

Oxford University Press, Oxford 2022. 352 S., geb., 54,50 Euro.

Alle Rechte vorbehalten. © F.A.Z. GmbH, Frankfurt am Main
…mehr