Near-Optimal Data-Driven l1-Regularization
Details
l1-Regularisierung ist ein allgemein bekannter Ansatz um unterbestimmte Gleichungssysteme zu lösen. Der Anteil der Regularisierung wird von einem Regularisierungsparameter kontrolliert. Obwohl es bereits zahlreiche Techniken gibt, diesen Parameter zu wählen, ist die korrekte Wahl nach wie vor eine Herausforderung. In dieser Arbeit schlagen wir einen datengestützten Ansatz vor, der nicht auf Wissen über den Rauschpegel beruht. Die Idee ist den Regularisierungsparameter von LASSO durch eine greedy Lösung, die von OMP berechnet wurde, zu schätzen. Folglich können wir die Vorteile eines greedy Ansatzes, die aus seiner einfachen Implementierbarkeit und seiner rechnerischen Geschwindigkeit bestehen, ausnutzen. Außerdem vermeiden wir bestimmte Nachteile, zum Beispiel, dass inkorrekte Entscheidungen getroffen werden. Zusätzlich profitieren wir von den positiven Aspekten der LASSO, welche dünnbesetzte Lösungen erzeugt. Wir geben konkrete Fehlerabschätzungen für die, von den verschiedenen Algorithmen rekonstruierten, Vektoren an und zeigen theoretisch, dass durch eine optimale Wahl des Regularisierungsparameters LASSO und OMP den gleichen Fehler erzielen können.
Autorentext
Judith Wewerka studierte von 2012-2018 an der Technischen Universität München Mathematik. Im Bachelor belegte sie Informatik als Nebenfach und im Master fokussierte sie sich auf Mathematics in Data Science. Im Rahmen dieses Masters ist die vorliegende Masterarbeit entstanden.
Weitere Informationen
- Allgemeine Informationen
- GTIN 09786202216876
- Sprache Deutsch
- Genre Weitere Mathematik-Bücher
- Größe H220mm x B150mm x T7mm
- Jahr 2018
- EAN 9786202216876
- Format Kartonierter Einband
- ISBN 978-620-2-21687-6
- Veröffentlichung 14.11.2018
- Titel Near-Optimal Data-Driven l1-Regularization
- Autor Judith Wewerka
- Gewicht 185g
- Herausgeber AV Akademikerverlag
- Anzahl Seiten 112