-22%11
46,99 €
59,99 €**
46,99 €
inkl. MwSt.
**Preis der gedruckten Ausgabe (Broschiertes Buch)
Sofort per Download lieferbar
payback
23 °P sammeln
-22%11
46,99 €
59,99 €**
46,99 €
inkl. MwSt.
**Preis der gedruckten Ausgabe (Broschiertes Buch)
Sofort per Download lieferbar

Alle Infos zum eBook verschenken
payback
23 °P sammeln
Als Download kaufen
59,99 €****
-22%11
46,99 €
inkl. MwSt.
**Preis der gedruckten Ausgabe (Broschiertes Buch)
Sofort per Download lieferbar
payback
23 °P sammeln
Jetzt verschenken
59,99 €****
-22%11
46,99 €
inkl. MwSt.
**Preis der gedruckten Ausgabe (Broschiertes Buch)
Sofort per Download lieferbar

Alle Infos zum eBook verschenken
payback
23 °P sammeln
  • Format: PDF

Dominik Koch weist in seinen Studien nach, dass es mit Hilfe der k-Nächsten-Nachbarn möglich ist, die Ergebnisse anderer Klassifikationsverfahren so zu verbessern, dass sie wieder eine Konkurrenz zu dem meist dominierenden Random Forest darstellen. Das von Fix und Hodges entwickelte k-Nächste-Nachbarn-Verfahren ist eines der simpelsten und zugleich intuitivsten Klassifikationsverfahren. Nichtsdestotrotz ist es in den meisten Fällen in der Lage, ziemlich gute Klassifikationsergebnisse zu liefern. Diesen Informationsgehalt der k-Nächsten-Nachbarn kann man sich zu Nutze machen, um bereits…mehr

Produktbeschreibung
Dominik Koch weist in seinen Studien nach, dass es mit Hilfe der k-Nächsten-Nachbarn möglich ist, die Ergebnisse anderer Klassifikationsverfahren so zu verbessern, dass sie wieder eine Konkurrenz zu dem meist dominierenden Random Forest darstellen. Das von Fix und Hodges entwickelte k-Nächste-Nachbarn-Verfahren ist eines der simpelsten und zugleich intuitivsten Klassifikationsverfahren. Nichtsdestotrotz ist es in den meisten Fällen in der Lage, ziemlich gute Klassifikationsergebnisse zu liefern. Diesen Informationsgehalt der k-Nächsten-Nachbarn kann man sich zu Nutze machen, um bereits etablierte Verfahren zu verbessern. In diesem Buch werden die Auswirkungen der k-Nächsten-Nachbarn auf den Boosting-Ansatz, Lasso und Random Forest in Bezug auf binäre Klassifikationsprobleme behandelt.

Der Inhalt

n Grundlagen der k-Nächsten-Nachbarn

n Vorstellung der zu erweiternden Klassifikationsverfahren

n

Benchmarking anhand von simulierten Daten

n Anwendung der modifizierten Verfahren auf reale Datensätze

Die Zielgruppen

·

Dozierende und Studierende der Mathematik, insbesondere der Statistik

Der Autor

Dominik Koch absolvierte das Statistik-Studium der Ludwig-Maximilians-Universität in München als Jahrgangsbester. Seit 2013 ist er als statistischer Berater (Schwerpunkt: Automobilindustrie und Bankenbranche) tätig. Im Rahmen seiner Publikationstätigkeit ar

beitet er auch weiterhin eng mit dem statistischen Institut der Ludwig-Maximilians-Universität zusammen.

Dieser Download kann aus rechtlichen Gründen nur mit Rechnungsadresse in A, B, BG, CY, CZ, D, DK, EW, E, FIN, F, GR, HR, H, IRL, I, LT, L, LR, M, NL, PL, P, R, S, SLO, SK ausgeliefert werden.

Autorenporträt
Dominik Koch absolvierte das Statistik-Studium der Ludwig-Maximilians-Universität in München als Jahrgangsbester. Seit 2013 ist er als statistischer Berater (Schwerpunkt: Automobilindustrie und Bankenbranche) tätig. Im Rahmen seiner Publikationstätigkeit arbeitet er auch weiterhin eng mit dem statistischen Institut der Ludwig-Maximilians-Universität zusammen.