14,99 €
14,99 €
inkl. MwSt.
Erscheint vor. 02.10.25
payback
0 °P sammeln
14,99 €
14,99 €
inkl. MwSt.
Erscheint vor. 02.10.25

Alle Infos zum eBook verschenken
payback
0 °P sammeln
Als Download kaufen
14,99 €
inkl. MwSt.
Erscheint vor. 02.10.25
payback
0 °P sammeln
Jetzt verschenken
14,99 €
inkl. MwSt.
Erscheint vor. 02.10.25

Alle Infos zum eBook verschenken
payback
0 °P sammeln
  • Format: ePub

Produktdetails
  • Verlag: Vintage Publishing
  • Erscheinungstermin: 2. Oktober 2025
  • Englisch
  • ISBN-13: 9781529964677
  • Artikelnr.: 72837135

Dieser Download kann aus rechtlichen Gründen nur mit Rechnungsadresse in A, B, BG, CY, CZ, D, DK, EW, E, FIN, F, GR, HR, H, IRL, I, LT, L, LR, M, NL, PL, P, R, S, SLO, SK ausgeliefert werden.

  • Herstellerkennzeichnung
  • Die Herstellerinformationen sind derzeit nicht verfügbar.
Autorenporträt
Eliezer Yudkowsky (Author)
Eliezer Yudkowsky is the co-founder of the Machine Intelligence Research Institute (MIRI), and the founder of the field of AI alignment research. He is one of the most influential thinkers and writers on the topic of AI risk, and his TIME magazine op-ed of 2023 is largely responsible for sparking the current concern and discussion around the potential for human extinction.

Nate Soares (Author)
Nate Soares is the president of MIRI and one of its seniormost researchers. He has been working in the field of AI alignment for over a decade, after previous experience at Microsoft and Google.