Data Mining
Details
In vielen, insbesondere größeren Unternehmen entstehen in kurzen Zeiträumen Terabyte von Daten, bspw. über das Kaufverhalten von Kunden, über Produkte oder über Informationsbedürfnisse. Diese umfangreichen Datenbestände beinhalten wertvolle Information für Entscheider und erfordern die Anwendung von anspruchsvollen mathematisch-statistischen Verfahren zur Datenanalyse. Mit den mathematisch-statistischen Verfahren, die unter Data Mining-Verfahren zusammengefasst werden, sind wertvolle vorverarbeitende aber auch entscheidungsunterstützende Datenanalysen möglich. In diesem Buch wird eine Anwendungsarchitektur für Data Mining entwickelt. Ein wesentlicher Beitrag besteht in der systematischen Aufarbeitung von Data Mining-Verfahren und deren anwendungsbezogene Einordnung in die Data Mining-Anwendungsarchitektur (DMA).
Autorentext
Dr. habil. Helge Petersohn ist wissenschaftliche Mitarbeiterin an der Universität Leipzig und Beraterin der NH Consult GmbH. NHC ist ein Spin-off des Instituts für Wirtschaftsinformatik der Universität Leipzig und verfügt über umfangreiche Beratungs- und Entwicklungskompetenz zu Prozessmanagement und Workflowsteuerung im E-Government-Umfeld und befasst sich in Forschung und Praxis mit dem Thema Prozess Mining. Die Mitarbeiter der NHConsult GmbH können in der Vergangenheit sowohl auf wissenschaftliche Arbeiten als auch Projekte zur praktischen Umsetzung in öffentlichen Verwaltungen verweisen.
Klappentext
In vielen, insbesondere größeren Unternehmen entstehen in kurzen Zeiträumen Terabyte von Daten, bspw. über das Kaufverhalten von Kunden, über Produkte oder über Informationsbedürfnisse. Diese umfangreichen Datenbestände beinhalten wertvolle Information für Entscheider und erfordern die Anwendung von anspruchsvollen mathematisch-statistischen Verfahren zur Datenanalyse. Mit den mathematisch-statistischen Verfahren, die unter Data Mining-Verfahren zusammengefaßt werden, sind wertvolle vorverarbeitende aber auch entscheidungsunterstützende Datenanalysen möglich. In diesem Buch wird eine Anwendungsarchitektur für Data Mining entwickelt. Ein wesentlicher Beitrag besteht in der systematischen Aufarbeitung von Data Mining-Verfahren und deren anwendungsbezogene Einordnung in die Data Mining-Anwendungsarchitektur (DMA).
Zusammenfassung
"Die beste Behandlung (inhaltlich, Umfang, Darstellung) von Data Mining, die ich kenne." Prof. Dr. Thomas Schmidt, FH Flensburg "In diesem Buch wird die Thematik 'Data Mining' erstmalig umfassend und in einer sehr guten Mischung aus Theorie und Anwendungsbezug dargestellt!!! Für das Thema Data Mining hatte mir noch ein geeignetes Buch gefehlt. Das Buch von Petersohn füllt genau diese Lücke!" Prof. Dr. Mathias Hinkelmann, Hochschule der Medien Stuttgart "Eine ausgezeichnete Darstellung der Methoden und des praktischen Einsatzes von Data-Mining-Verfahren. Eines der wenigen sehr guten Bücher in Deutsch! Daher für die Studierenden bestens geeignet." Prof. Dr. H. Ritz, FH Gießen-Friedberg "Mit dieser Publikation ist mir eine verständliche und für den Lernenden nachvollziehbare Darstellung in die Hand gegeben worden, die für viele 'Hintergrund-Prozesse' in der Kommunikationstechnologie unverzichtbar ist." Prof. Dr.-Ing. habil. Werner Bärwald, TU Dresden "Eine sehr ausführliche, wissenschaftlich fundierte Aufarbeitung des Themas." Prof. Klaus Rinner, FH Nürnberg "systematische Aufarbeitung der Verfahren; methodisch-didaktisch wertvoll; praxisbezogen." Prof. Dr. Morgeneier, FH Jena "Das Buch bietet eine sehr gute Übersicht; viele Methoden werden besprochen. [...]" Prof. Dr. Georg Ohmayer, FH Weihenstephan "Das Buch bietet einen guten Überblick über Data Mining. [...]." Prof. Dr. Jürgen Cleve, Hochschule Wismar "Das Buch gibt einen sehr guten Überblick über die Möglichkeiten von Data Mining." Prof. Dr. Rainer Schwenkert, FH München "Gibt das Themengebiet mit vielen neuen Forschungsergebnissen wider." Prof. Dr. G. Gramlich, FH Ulm
Leseprobe
" 2 Datenselektion und Datenaufbereitung (S. 40-41)
2.1 Datenselektion
2.1.1 Data Warehouse als Datenbasis für Data Mining
2.1.1.1 Komponenten eines Data Warehouse
In frühen Phasen der Datenbankdiskussion dominierte die Auffassung, daß ein Datenbanksystem allumfassend und im Zentrum aller Anwendungssysteme eines Unternehmens stehen sollte. Es galt solche Probleme wie z.B. Redundanz und Datenabhängigkeit zu lösen. Diese Ansicht mußte korrigiert werden, denn die Anforderungen an Datenbanksysteme für operative Anwendungen unterscheiden sich sehr stark von denen, die an Management Support Systeme (MSS) gestellt werden.
Operative Systeme sind auf die Verarbeitung von Transaktionen ausgerichtet, um spezielle Funktionsbereiche schnell und präzise mit Steuerungsdaten versorgen zu können. Sie werden täglich aktualisiert. Die wichtige Bezugsgröße Zeit geht verloren. Die Daten sind für das Auffinden inhaltlicher Zusammenhänge ungenügend aufbereitet. In einem Data Warehouse lassen sich die Datenbestände zu einer einheitlichen Informationsbasis aufbereiten. Damit besteht separat zu den OLTP-Systemen eine Datenbasis für den dispositiven und strategischen Bereich. Der Data Warehouse-Begriff wurde von INMON geprägt. Er beschreibt ein Data Warehouse als subjektorientierte, integrierte, zeitbezogene und dauerhafte Datensammlung zur Unterstützung von Managemententscheidungen.
Ein Data Warehouse (auch: Atomic Database, Decision Support System Foundation, Information Warehouse, Business Information Resource, Reporting Database und Data Market) beinhaltet die unternehmensindividuelle Hardund Softwaresystemlösung, um Daten aus internen und externen Informationsquellen in regelmäßigen Zeitabständen so zu speichern, daß diese für den Endbenutzer (vorwiegend Analysten und Manager) zugänglich, verständlich und für unternehmensweite Auswertungen mit Hilfe verschiedener Tools verfügbar sind.61,62 Ein Data Warehouse bezieht seine Daten aus den operativen Quelldaten, Webdaten (Logfiles) oder sonstigen Quellen über eine Import-/ Sammelkomponente und die Vermittlungskomponente (vgl. Abbildung 18).
Die Import-/Sammelkomponente verbindet Daten verschiedener Quellen und übernimmt die Übertragung der Daten in die Data Warehouse-Datenbank. In Intervallen werden über diese Komponente die Daten des Data Warehouse aktualisiert. Die Vermittlungskomponente ist für die Zuordnung und Steuerung zwischen den Datenbeständen und den einzelnen Analysewerkzeugen verantwortlich. Die für die Import-/Sammelkomponente und Vermittlungskomponente erforderliche Software basiert physisch auf Middleware und logisch auf einer Metadatenbank. Die Metadatenbank steht somit über den verfügbaren Daten und Anwendungen.
Das dort enthaltene Wissen muß übersichtlich abgelegt und verwaltet werden. Dafür eignen sich bereits bekannte Verfahren zur Prozeßmodellierung wie bspw. die erweiterten ereignisgesteuerten Prozeßketten und Vorgangskettendiagramme.63 Jeder Prozeß einer Unternehmung kann mit diesen Verfahren auf verschiedenen Abstraktionsebenen abgebildet werden. Die Metadatenbank von Data Warehouse-Lösungen hat eine Repository-Funktion zu übernehmen.
Sie umfaßt zum einen Ausschnitte der verschiedenen Prozeß- und Datenmodelle der operativen Ebene, zum anderen sollte sie die Analyseprozeßmodelle, insbesondere der strategischen Ebene, beinhalten. Die aufgabenorientierte Verknüpfung dieser Modelle ermöglicht die strukturierte mehrdimensionale Modellierung von Daten für das Data Warehouse."" Für die Übernahme der Daten in ein Data Warehouse werden ETL-Tools eingesetzt."
Inhalt
1;Vorwort;6
2;Inhalt;8
3;1. Motivation und Entwicklung der Data Mining - Architektur;14
3.1;1.1. Inhalt und Ziel des Buches;14
3.2;1.2. Theoretische Grundlagen zum Data …
Weitere Informationen
- Allgemeine Informationen
- GTIN 09783486577150
- Sprache Deutsch
- Auflage 05001 A. 1. Auflage
- Größe H240mm x B170mm x T19mm
- Jahr 2005
- EAN 9783486577150
- Format Kartonierter Einband
- ISBN 978-3-486-57715-0
- Veröffentlichung 21.09.2005
- Titel Data Mining
- Autor Helge Petersohn
- Untertitel Verfahren, Prozesse, Anwendungsarchitektur
- Gewicht 585g
- Herausgeber De Gruyter Oldenbourg
- Anzahl Seiten 330
- Lesemotiv Verstehen
- Genre Informatik