Neues Buch zu SPSS - Schendera (2007) "SPSS für Datenqualität"

classic Classic list List threaded Threaded
1 message Options
Reply | Threaded
Open this post in threaded view
|

Neues Buch zu SPSS - Schendera (2007) "SPSS für Datenqualität"

NOREPLY-58
Datenqualität kommt vor Analysequalität. Dieses Buch stellt erstmalig im
deutschsprachigen Raum die wichtigsten Kriterien für Datenqualität mit
SPSS für Windows und Macintosh vor, u.a. Vollständigkeit,
Einheitlichkeit, Doppelte, Missings, Ausreißer und Plausibilität. Die
vorgestellten Lösungen basieren auf jahrelanger Erfahrung mit SPSS und
sind auf Didaktik, Verständlichkeit und Qualität angelegt. Abschließend
finden Sie diverse Empfehlungen für die Kommunikation von
wissenschaftlichen Ergebnissen. Vermeiden Sie klassische Fehler wie z.B.
"höchstsignifikant".

Datenqualität ist nicht alles, aber ohne Qualität der Daten ist alles
nichts. Oft genug werden die Daten vor Analysen gar nicht oder wenn, nur
oberflächlich auf Korrektheit überprüft. Dieses Buch versucht, die
essentielle Notwendigkeit der Qualität von Daten transparent zu machen
und SPSS Anwendern Lösungen zur Behebung häufig auftretender Probleme an
die Hand zu geben. Das Buch führt zunächst ein in Kriterien und
Maßnahmen zur Gewährleistung einer definierbaren und nachweisbaren
optimalen Datenqualität mit SPSS. Das Buch ist so allgemein gehalten,
dass die zusammengestellten Kriterien auf SPSS Datensätze, aber im
Prinzip auch auf Data Warehouses (z.B. mittels Clementine im Kapitel 16)
angewandt werden können. Das Buch durchzieht eine stringente Logik,
enthält unzählige Beispiele (z.B. die Rolle von Ausreißern bei der
Entdeckung des Ozonloches über der Antarktis) und ist jedem SPSS und
Clementine Anwender zu empfehlen. Kapitel 1 führt in die am häufigsten
auftretenden Problembereiche ein, z.B. Vollständigkeit, Einheitlichkeit,
Doppelte, Missings, Ausreißer und Plausibilität. Ein erstes,
schematisches Konzept verdeutlicht die Zusammenhänge der Kriterien
untereinander und die grundsätzliche Bedeutung der Qualität von Daten.
Weitere Kriterien für die Qualität von Daten, sowie ihre Kommunikation
werden in den Kapiteln 13 und 19 vorgestellt. Kapitel 2 skizziert
grundsätzliche Rahmenbedingungen zur Herstellung von Datenqualität, u.a.
Ressourcen, die Priorisierung von Zielen (Relevanz) und Kontrolle durch
Protokolle (SPSS Syntax). Kapitel 3 beschreibt erste
Kontrollmöglichkeiten der Vollständigkeit von Datensätzen, Fällen
(Zeilen), Variablen (Spalten) und Werten bzw. Missings. Kapitel 4 stellt
zahlreiche Möglichkeiten vor, Uneinheitlichkeit zu identifizieren bzw.
in numerischen Werten, Zeiteinheiten und Strings zu vereinheitlichen.
Kapitel 5 führt in das Problemfeld des Erkennens, Interpretierens und
(ggf.) Ausfilterns von mehrfachen Werten bzw. Datenzeilen ein. Kapitel 6
stellt das Umgehen mit fehlenden Daten (Missings) vor. Nach der
Beurteilung von Missings im Hinblick auf Ursachen (Muster), Folgen,
Ausmaß und Mechanismen werden zahlreiche Methoden der Rekonstruktion und
des Ersetzen von Missings beschrieben: U.a. über die Cold
deck-Imputation, zufallsbasierte bzw. logische Ansätze, univariate
Schätzung, multivariate Ähnlichkeit (Hot deck-Imputation) oder auch
multivariate Schätzung (z.B. Missing Value Analysis). Kapitel 7
erläutert das Erkennen, Interpretieren und Umgehen von bzw. mit
Ausreißern. Im Zusammenhang mit den Merkmalen von Ausreißern wird
zunächst die besonderen Rolle der Erwartungshaltung ("Frames")
diskutiert. Im Anschluss an die Identifikation von univariaten bzw.
multivariaten Ausreißern über Maße, Regeln, Tests und Diagramme werden
Möglichkeiten des Umgehens mit Ausreißern vorgestellt. Kapitel 8
beschreibt qualitative und quantitative Ansätze zur Überprüfung der
Plausibilität. Die Überprüfung der Qualität von Daten in der Praxis wird
zunächst an einer einzelnen Variablen erläutert (mit Beispielen für eine
kategoriale Variable, eine Stringvariable und eine metrische Variable).
Im Anschluss daran wird die Überprüfung der multivariaten Qualität von
Daten anhand eines qualitativen, sowie eines genuin quantitativen
Ansatzes (Anomalie-Ansatz) vorgestellt. Kapitel 9 stellt das effiziente
Überprüfen mehrerer Variablen und Kriterien mittels Prüfregeln vor.
Dieses Kapitel stellt den seit SPSS 14 verfügbaren (sofern lizenziert),
mächtigen Menüpunkt "Validierung" bzw. die SPSS Prozedur VALIDATEDATA
vor. Das Kapitel führt zunächst in die Ansteuerung per Maus ein;
abschließend wird auf die Erweiterung durch selbstgeschriebene
Prüfprogramme in SPSS Syntax übergegangen. Kapitel 10 umfasst zahlreiche
weitere Beispiele für das Überprüfen mehrerer Werte, Zeilen und Spalten
in einem Datensatz auf einmal. Von besonderem Interesse dürften u.a. die
zahlreichen Varianten der vorgestellten Zählvariablen (Counter) sein.
Kapitel 11 umfasst zahlreiche weitere Beispiele für die Arbeit mit
mehreren (separaten) Datensätzen auf einmal. Von besonderem Interesse
dürften u.a. die diversen Makros zum Screenen, Aufteilen oder auch
Zusammenfügen mehrerer Datensätze sein. Auch werden diverse
Anwendungsmöglichkeiten der Optionen des SPSS Befehls DATASET
vorgestellt. Kapitel 12 befasst sich mit zeit- bzw. datumsbezogenen
Problemen, und ihrem Erkennen und Lösen. Von besonderem Interesse dürfte
u.a. der Abschnitt zum Zeitstempel sein. Kapitel 13 stellt weitere
Kriterien für die Qualität von Daten vor, u.a. Menge, Eindeutigkeit,
Relevanz, Genauigkeit oder auch Verständlichkeit. Die weiteren Kapitel
enthalten u.a. eine kleine Übungsaufgabe (Kapitel 14), ein
Programmbeispiel für die Umsetzung einer ersten Strategie (Kapitel 15),
Hinweise für SPSS Syntax und Datenqualität in Clementine (Kapitel 16)
und Macintosh User (Kapitel 17), sowie eine Checkliste
(Prüfdokumentation). Kapitel 16 demonstriert insbesondere, wie
Clementine über das Einbinden von SPSS Syntax und Prozeduren allgemein
und insbesondere hinsichtlich der Gewährleistung von Datenqualität
erweitert werden kann. Clementine Anwender könnten es evtl. von Vorteil
finden, dass sie über die Knoten "SPSS Transform" und "SPSS Output" über
SPSS Syntax und Prozeduren in der Lage sind, die Performanz von
Clementine im Hinblick auf die kriteriengeleitete Überprüfung und
Gewährleistung von Datenqualität deutlich zu erweitern, und zwar sowohl
durch das Einbinden von einfachen SPSS Funktionen (wie z.B. REPLACE),
komplexen, von Anwendern entwickelten Syntaxprogrammen, als auch über
das Einbinden der Performanz spezieller SPSS Prozeduren, wie z.B.
VALIDATEDATA. Das Kapitel zu Clementine wurde auf der Grundlage der
Version 11.1 verfasst. Kapitel 18 enthält eine kopierfähige Liste
ausgewählter Kriterien, anhand der Anwender die Art und Weise der
Umsetzung von Qualitätskriterien protokollieren können. Kapitel 19
stellt kommentierte Kriterien für die Kommunikation der Qualität von
Daten, Erhebungen und Analysen zusammen, u.a. die korrekte
Interpretation und Kommunikation des Signifikanz-Konzepts. Ein separates
Kapitel ist den "Todsünden" professionellen Arbeitens vorbehalten. Das
Buch wurde für SPSS Version 15 geschrieben (einschl. den neuen Menüs
"Ungewöhnliche Fälle identifizieren..." (DETECTANOMALY) und "Data
Preparation" bzw. "Data Validation" (VALIDATEDATA). "Datenmanagement mit
SPSS" (Schendera, 2005) und "Datenqualität mit SPSS" sind als einander
ergänzende Handbücher konzipiert. "Datenmanagement mit SPSS" führt in
die SPSS Syntax einschließlich einem ersten Programmieren von Makros
ein; "Datenqualität mit SPSS" umfasst darauf aufbauend eine
vielschichtige und praxisorientierte Anwendung der SPSS Syntax auf die
Überprüfung von Daten und der Optimierung ihrer Qualität.

Bereits sehr gute Rezensionen in Fachzeitschriften.

=====================
To manage your subscription to SPSSX-L, send a message to
[hidden email] (not to SPSSX-L), with no body text except the
command. To leave the list, send the command
SIGNOFF SPSSX-L
For a list of commands to manage subscriptions, send the command
INFO REFCARD