Verbesserung von Klassifikationsverfahren
Details
Dominik Koch weist in seinen Studien nach, dass es mit Hilfe der k-Nächsten-Nachbarn möglich ist, die Ergebnisse anderer Klassifikationsverfahren so zu verbessern, dass sie wieder eine Konkurrenz zu dem meist dominierenden Random Forest darstellen. Das von Fix und Hodges entwickelte k-NächsteNachbarn-Verfahren ist eines der simpelsten und zugleich intuitivsten Klassifikationsverfahren. Nichtsdestotrotz ist es in den meisten Fällen in der Lage, ziemlich gute Klassifikationsergebnisse zu liefern. Diesen Informationsgehalt der k-Nächsten-Nachbarn kann man sich zu Nutze machen, um bereits etablierte Verfahren zu verbessern. In diesem Buch werden die Auswirkungen der k-Nächsten-Nachbarn auf den Boosting-Ansatz, Lasso und Random Forest in Bezug auf binäre Klassifikationsprobleme behandelt.
Autorentext
Dominik Koch absolvierte das Statistik-Studium der Ludwig-Maximilians-Universität in München als Jahrgangsbester. Seit 2013 ist er als statistischer Berater (Schwerpunkt: Automobilindustrie und Bankenbranche) tätig. Im Rahmen seiner Publikationstätigkeit arbeitet er auch weiterhin eng mit dem statistischen Institut der Ludwig-Maximilians-Universität zusammen.
Inhalt
Grundlagen der k-Nächsten-Nachbarn.- Vorstellung der zu erweiternden Klassifikationsverfahren.- Benchmarking anhand von simulierten Daten.- Anwendung der modifizierten Verfahren auf reale Datensätze.
Weitere Informationen
- Allgemeine Informationen
- GTIN 09783658114756
- Auflage 1. Aufl. 2016
- Sprache Deutsch
- Genre Stochastik & Mathematische Statistik
- Lesemotiv Verstehen
- Größe H210mm x B148mm x T14mm
- Jahr 2015
- EAN 9783658114756
- Format Kartonierter Einband
- ISBN 978-3-658-11475-6
- Veröffentlichung 03.12.2015
- Titel Verbesserung von Klassifikationsverfahren
- Autor Dominik Koch
- Untertitel Informationsgehalt der k-Nächsten-Nachbarn nutzen
- Gewicht 326g
- Herausgeber Springer Fachmedien Wiesbaden
- Anzahl Seiten 224