Traditionell tragen der Hersteller und der Betreiber einer Maschine die Verantwortung für die Folgen ihres Betriebs. Autonome, lernende Maschinen, die auf neuronalen Netzwerken, genetischen Algorithmen und Agentenarchitekturen basieren, erzeugen eine neue Situation. Der Hersteller oder Betreiber der Maschine kann in diesen Fällen das Verhalten der Maschine grundsätzlich nicht mehr voraussehen. Er kann daher weder rechtlich noch moralisch dafür verantwortlich gemacht werden. In dieser Arbeit wird untersucht, ob und unter welchen Bedingungen der Maschine selbst die Verantwortung für die Folgen ihres Handelns zugeschrieben werden kann. Dabei wird Personalität in einer historischen und soziologischen Perspektive untersucht. Es zeigt sich, dass die Verbindung zwischen "Mensch sein " und Personalität nicht so eng ist, wie oft angenommen wird. Alle menschlichen Kulturen kennen nichtmenschliche, quasipersonale Entitäten: Götter, Dämonen, Totengeister, heilige Idole. Andererseits wurde und wird Menschen oft die volle Personalität abgesprochen. Diese Untersuchung zeigt, wie sich daraus ein Argument zugunsten der Verantwortungsfähigkeit der Maschine ableiten lässt. Der Autor war über ein Jahrzeht lang als Softwareentwickler und Dozent für Programmiersprachen an der Universität Kassel tätig und lehrt derzeit Philosophie an der Lingnan Universität, Hong Kong.