Vorgehensmodell zur Verbesserung der Datenqualität in Data Warehouses
Details
Datenqualität spielt die entscheidende Rolle beim Aufbau eines Data Warehouses. Die vorliegende Arbeit gibt einen Überblick über mögliche Methoden und Algorithmen aus software-technischer Sicht zur Qualitätsverbesserung und zeigt ein mögliches Vorgehensmodell zur Verbesserung der Datenqualität. Als Ergebnis wird der Prototyp eines Frameworks zur Verbesserung der Datenqualität vorgestellt. Im Mittelpunkt dieser Arbeit stehen die Methoden und Algorithmen, die vor allem in den Phasen des Data Profiling und des Data Cleaning sinnvoll erscheinen. Dabei ist gerade die Nutzung eines flexibel einsetzbaren Frameworks bei der Entwicklung und Datenqualitätssicherung unterschiedlicher Anwendungssysteme notwendig, um die Datenqualität an jeder Schnittstelle und in jeder Lebensphase eines Anwendungssystems langfristig zu verbessern und zu überprüfen.
Autorentext
Sönke Cordts, Prof. Dr. rer. pol.: Studium der Wirtschaftsinformatik an der Fachhochschule Flensburg und MBA-Studium Daten- und Informationsmanagement an der Universität Hamburg, Promotion im Jahr 2009. Seit 2008 Professor für Wirtschaftsinformatik, Schwerpunkt Datenbanken und Betriebsinformatik an der Fachhochschule Stralsund.
Weitere Informationen
- Allgemeine Informationen
- GTIN 09783838109145
- Genre Sonstige Informatikbücher
- Sprache Deutsch
- Anzahl Seiten 120
- Herausgeber Südwestdeutscher Verlag für Hochschulschriften AG Co. KG
- Größe H220mm x B150mm x T8mm
- Jahr 2015
- EAN 9783838109145
- Format Kartonierter Einband
- ISBN 978-3-8381-0914-5
- Veröffentlichung 13.09.2015
- Titel Vorgehensmodell zur Verbesserung der Datenqualität in Data Warehouses
- Autor Sönke Cordts
- Untertitel Datenqualitt im Data Warehouse
- Gewicht 197g