15,99 €
inkl. MwSt.
Sofort per Download lieferbar
  • Format: PDF

Bachelorarbeit aus dem Jahr 2020 im Fachbereich Philosophie - Praktische (Ethik, Ästhetik, Kultur, Natur, Recht, ...), Universität Zürich, Sprache: Deutsch, Abstract: Die Kernfrage der Diskussion lautet: Ist eine superintelligente KI wirklich so gefährlich, wie von Bostrom prophezeit? Diese Arbeit zeigt nicht nur auf, wie Superintelligenz entstehen kann, was für Fähigkeiten sie besitzt oder auf welchem Weg sie versuchen könnte, die Macht zu ergreifen. Sie versucht auch eine Alternative darzulegen die darauf beruht, dass eine superintelligente Instanz nicht im animalischen Sinn nach…mehr

Produktbeschreibung
Bachelorarbeit aus dem Jahr 2020 im Fachbereich Philosophie - Praktische (Ethik, Ästhetik, Kultur, Natur, Recht, ...), Universität Zürich, Sprache: Deutsch, Abstract: Die Kernfrage der Diskussion lautet: Ist eine superintelligente KI wirklich so gefährlich, wie von Bostrom prophezeit? Diese Arbeit zeigt nicht nur auf, wie Superintelligenz entstehen kann, was für Fähigkeiten sie besitzt oder auf welchem Weg sie versuchen könnte, die Macht zu ergreifen. Sie versucht auch eine Alternative darzulegen die darauf beruht, dass eine superintelligente Instanz nicht im animalischen Sinn nach Selbsterhaltung, Vermehrung und damit einhergehenden Dominanz strebt, Ohne Frage wird die Weiterentwicklung künstlicher Intelligenz eines der Gebiete sein, welches in den nächsten Jahren und Jahrzehnten im Mittelpunkt der Computerforschung steht. Nicht nur Visionäre, sondern vor allem wirtschaftliche Interessenten wollen von neuesten Technologien profitieren und erhoffen sich durch fortschrittliche KIs Optimierungen in der Produktion, Vermarktung, Zielsetzung und anderen Bereichen. Doch kommen die Forscher jemals an den Punkt, an dem sie die Möglichkeit besitzen eine KI zu entwickeln, die so intelligent ist, dass sie als superintelligent bezeichnet werden könnte? Wie müssten wir uns eine maschinelle Superintelligenz vorstellen und wichtiger, wird diese aus intrinsischer Motivation dem Menschen gefährlich werden? Die Diskussion bezieht sich zu grossen Teilen auf Nick Bostroms Theorie aus seinem Buch “Superintelligenz”. Diese besagt, dass eine Superintelligenz mit grosser Wahrscheinlichkeit das Ende der Menschheit bedeuten würde. Dieser Position werden Argumente gegenübergestellt, die Bostroms Aussagen in Frage stellen und andere Möglichkeiten und Gedanken aufzeigen.