QUIZ - Texte for Gecko Kapitel 4 PDF

Summary

This document analyzes data quality and data analysis, focusing on the importance of high-quality data for business intelligence and business analytics. It discusses typical problems arising from poor data quality in businesses. The document also introduces the 1:10:100 rule, highlighting the escalating costs of poor data maintenance.

Full Transcript

**ERST PUTZEN, DANN ANALYSIEREN!** Im letzten Kapitel haben wir uns mit der Datenanalyse befasst, insbesondere mit Business Intelligence und Business Analytics. Dabei sind wir immer davon ausgegangen, dass die Daten, die eine Organisation sammelt, qualitativ hochwertig sind. Aber was wäre, wenn sie...

**ERST PUTZEN, DANN ANALYSIEREN!** Im letzten Kapitel haben wir uns mit der Datenanalyse befasst, insbesondere mit Business Intelligence und Business Analytics. Dabei sind wir immer davon ausgegangen, dass die Daten, die eine Organisation sammelt, qualitativ hochwertig sind. Aber was wäre, wenn sie es NICHT sind? Was nützen uns massenhafte Datensätze, wenn sie fehlerhaft oder unvollständig sind? I n diesem Kapitel tauchen wir in die Welt der Datenqualität und Datenbereinigung ein -- entscheidende Aspekte, die darüber bestimmen, wie vertrauenswürdig und nützlich unsere Daten tatsächlich sind. Unsere Leitfragen sind: „**Was sind die Merkmale von Datenqualität?**" und „**Welche Methoden gibt es, zur Sicherung einer guten Datenqualität?**". Wir ergründen, wie Organisationen durch die Implementierung von robusten Datenbereinigungsprozessen nicht nur ihre Effizienz steigern, sondern auch ihre analytischen Fähigkeiten verbessern können. **EXPLAINER VIDEO GFF: „Datenqualität und Datenbereinigung:** **TYPISCHE PROBLEME DURCH SCHLECHTE DATENQUALITÄT IN UNTERNEHMEN** Nachstehend sehen Sie klassische Probleme, die bei schlechter Datenqualität innerhalb einer Organisation entstehen können: - **Falsche Lagerbestände:\ ***Beispiel: Ein Einzelhändler bestellt zu wenig Ware und verpasst Umsätze während der Hochsaison.* - **Ungenau adressierte Rechnungen:\ ***Beispiel: Ein Unternehmen verschickt Rechnungen an falsche Adressen und\ Zahlungen bleiben aus.* - **Fehlerhafte Kundenkontakte:\ ***Beispiel: Ein Call-Center hat alte Telefonnummern, was zu verpassten Verkaufschancen führt.* - **Inkorrekte Kreditbewertungen:\ ***Beispiel: Eine Bank vergibt Kredite an nicht kreditwürdige Kunden wegen falscher Daten.* - **Veraltete Mitarbeiterdaten:\ ***Beispiel: Ein Unternehmen kann wichtige Informationen nicht an Mitarbeiter kommunizieren, führt zu Informationsmängeln.* - **Fehlerhafte Produktdaten im Online-Shop:\ ***Beispiel: Kunden erhalten falsche Produkte, was zu Rücksendungen und Unzufriedenheit führt.* - **Schlecht gepflegte Kundendatenbank:\ ***Beispiel: Marketingaktionen erreichen die falschen Zielgruppen, Geld wird verschwendet.* - **Unstimmige Finanzberichte:\ ***Beispiel: Falsche Zahlen führen zu schlechten Investitions-entscheidungen und Verlusten.* - **Falsche Bestelldaten in der Fertigung:\ ***Beispiel: Produktion fehlerhafter Teile, die nachgearbeitet werden müssen, erhöht Kosten.* - **Ungenauigkeiten in der Gehaltsabrechnung:\ ***Beispiel: Mitarbeiter werden falsch bezahlt, was zu Unzufriedenheit und rechtlichen Problemen führt.* - **Fehlerhafte medizinische Patientendaten:\ ***Beispiel: Falsche Behandlungen werden durchgeführt und gefährden die Patienten-gesundheit.* - **Inkorrekte Versicherungsansprüche:\ ***Beispiel: Versicherungen leisten aufgrund falscher Informationen Zahlungen an Kunden, was zu finanziellen Verlusten führt.* - **Fehler in der Lieferkette:\ ***Beispiel: Falsche Bestandsdaten führen zu Über- oder Unter-versorgung in der Lieferkette.* - **Doppelte Kundendatensätze:\ ***Beispiel: Mehrfachansprachen desselben Kunden führen zu Irritationen und Imageverlust.* - **Falsche Standortdaten:\ ***Beispiel: Lieferungen erreichen nicht den richtigen Standort, verursachen Verzögerungen und zusätzliche Kosten.\ * **\ ** **DIE 1:10:100-REGEL** Im Jahr 1992 präsentierten George Labovitz und Yu Sang Chang ein Konzept, das unsere Sicht auf Datenqualität nachhaltig verändert hat: die 1:10:100-Regel (Jones, 2024). Diese Regel verdeutlicht die eskalierenden Kosten schlechter Datenverwaltung in einfacher Weise und zeigt auf, wie teuer es ist, Probleme mit der Datenqualität zu ignorieren. Jahrzehnte später bestätigt sich dieser Grundsatz nicht nur, sondern gewinnt auch zunehmend an Bedeutung, da immer mehr Unternehmen auf datengetriebene Strategien setzen. Die 1:10:100-Regel bricht die Kostenstruktur des Datenqualitätsmanagements in drei Stufen herunter: - **Vorbeugung (1 \$ pro Datensatz)** - **Korrektur (10 \$ pro Datensatz)** - **Versagen (100 \$ pro Datensatz)** Als die 1:10:100-Regel ursprünglich eingeführt wurde, hatten Unternehmen es in erster Linie mit kleineren, in isolierten Systemen gespeicherten Datensätzen zu tun. Durch die rasante Zunahme von Daten durch das Internet der Dinge, Big Data, Cloud Computing und vernetzte Systeme sind die Kosten schlechter Datenqualität seither drastisch gestiegen. **\ ** **DIE VIER SÄULEN GUTER DATENQUALITÄT** Um sicherzustellen, dass Ihre Daten tatsächlich eine Unterstützung und kein Hindernis darstellen, müssen sie vier wesentliche Kriterien erfüllen: Genauigkeit, Vollständigkeit, Verlässlichkeit und Relevanz. - **Genauigkeit:** Daten müssen präzise und eindeutig sein. - **Vollständigkeit:** Die Daten in einem Datensatz müssen vollständig sein. - **Verlässlichkeit:** Daten müssen sowohl inhaltlich richtig als auch konsistent sein. - **Relevanz:** Daten müssen für die zugrundeliegenden Aufgaben relevant sein. **METHODEN ZUR VERBESSERUNG DER DATENQUALITÄT** Die Verbesserung der Datenqualität in einer Datenbank ist entscheidend, um zuverlässige Analysen und Geschäftsentscheidungen zu ermöglichen. Nachstehend finden Sie typische Qualitätssicherungsmethoden, die von der IT-Abteilung in der Praxis angewandt wird. - **Daten-Profilierung** - **Datenbereinigung** - **Datenanreicherung** - **Datenvalidierung** - **Datenintegration** - **Datenmigration** - **Implementierung von Data Governance** - **Regelmäßige Audits** - **Schulung der Mitarbeiter** **BATCHVERARBEITUNG UND ECHTZEITVERARBEITUNG** Sobald Ihre Daten bereinigt sind, ist es die größte Herausforderung, sie auch sauber zu halten. Es ist entscheidend, Qualitätskontrollen in Ihre Arbeitsprozesse zu integrieren, sowohl für die Batch- als auch für die Echtzeitverarbeitung, um durchgehend hohe Standards zu gewährleisten. - **Batchverarbeitung**: Diese Methode dient dazu, große Datensätze in regelmäßigen Abständen zu bereinigen. - **Echtzeitverarbeitung:** Hier werden die Daten sofort bei ihrer Eingabe ins System überprüft. **DATA GOVERNANCE** **Data Governance** ist der Sammelbegriff für alle Maßnahmen, die eine Organisation setzt, um die Qualität, Verfügbarkeit und Sicherheit ihrer Daten zu gewährleisten. Ein gut strukturiertes **Data-Governance-Framework** ist in einer Organisationdie Basis für ein effektives Datenmanagement. Ein solches Framewirk definiert: - wie Daten erfasst werden, - wie sie gespeichert werden, - wie sie zugänglich gemacht werden und - wie sie genutzt werden sollen. Das Framework ist nicht nur ein Regelwerk, sondern auch [eine Anleitung für den verantwortungsbewussten Umgang mit Unternehmensdaten]. Data Governance sorgt dafür, dass gesetzliche Bestimmungen und Datenschutzrichtlinien eingehalten werden. Das wiederum minimiert das Risiko von Datenmissbrauch. Zudem ermöglicht sie eine bessere Entscheidungsfindung. iSchließlich fördert sie die Transparenz in der Datenverarbeitung, was das Vertrauen sowohl interner als auch externer Stakeholder in die Datenintegrität stärkt. \-\-\-\-\-\-\-\-\-\-\-\-\-\-- **DATENQUALITÄT UND DATENBEREINIGUNG** In diesem Teil geht es vor allem um die Datenqualität. Aber was ist damit überhaupt gemeint. Gute Datenqualität liegt vor, wenn die Daten geNAU, VOLLständig, verLÄSSlich und relevant für die Aufgaben, die Sie damit durchführen, sind. Beispiel. Sie planen eine Marketingkampagne und verwendet dafür die Kundendaten, die Sie in den letzten Jahren gesammelt haben. Szenario 1: Ihre Datenbank enthält aktuelle, vollständige Informationen über jeden Kunden: Namen, Adressen, Telefonnummern und E-Mail-Adressen sind pico belle fehlerfrei erfasst. Außerdem sind Kaufhistorie und Interessen der Kunden präzise dokumentiert. Hier handelt es sich um gute Datenqualität und wenn Sie nun eine Marketingkampagne starten, stehen die Chancen gut, dass Sie Angebote machen werden, die genau auf die Bedürfnisse und Vorlieben Ihrer Kunden abgestimmt sind und sie auch tatsächlich erREICHEN.  Szenario 2: Ihre Kundendaten sind veraltet und unvollständig. Viele E-Mail-Adressen führen ins Leere, Telefonnummern sind nicht mehr in Betrieb, und bei einigen Einträgen fehlen wichtige Informationen wie der Nachname. Außerdem sind die Interessen der Kunden nicht klar definiert, oder sie beruhen auf veralteten Informationen. Hier handelt es sich um SCHLECHTE Datenqualität und wenn Sie mit DEN Daten eine Marketingkampagne starten, erreicht Ihre Botschaft viele Ihrer Zielkunden gar nicht. Und Diejenigen, DIE sie erreicht, bekommen von Ihnen möglicherweise Angebote, die für sie völlig irrelevant sind. Ich wiederhole also: Gute Datenqualität liegt vor, wenn die Daten geNAU, VOLLständig, verLÄSSlich -- also nicht ‚inhaltlich falsch' oder antiquiert sind - und schließlich „relevant für die Aufgaben, die Sie damit durchführen wollen" sind. Das sind unsere Filterkriterien. GUTE Datenqualität ermöglicht uns herausragende Erfolge, während SCHLECHTE Datenqualität im BESTEN Fall zu verpassten Gelegenheiten führt und im schlimmsten Fall sogar rechtliche Konsequenzen nach sich ziehen kann, insbesondere in sensiblen Bereichen wie Datenschutz und Compliance. Wir wollen also gute Datenqualität. Wie kommen wir dazu? Erstens, in dem wir Regeln festlegen, die von VORNHEREIN die Wahrscheinlichkeit erhöhen, dass wir in der Organisation hauptsächlich releVANTE Daten sammeln und dass es ungeeignete Daten gar nicht erst in die Datenbank schaffen. Und zweitens durch Datenbereinigung. Bei der Datenbereinigung verbessern wir die Qualität unseres existierenden Datenpools, in dem diese Daten von Fehlern, DupliKATEN und Inkonsistenzen -- also Widersprüchen und Unstimmigkeiten - gesäubert werden. 1\. Datenbewertung: Dazu müssen Ihre Datenanalysten als erstes verstehen, welche Daten Sie überhaupt HABEN und in welchem Zustand sie sich befinden. Sind diese Daten vollständig oder gibt es Lücken. Sind die Daten inhaltlich richtig oder gibt es offensichtliche Fehler? Sind sie aktuell oder antiquiert? 2\. Festlegung von Regeln und Standards: Jetzt legt Ihr IT-Team in Abstimmung mit den END-Usern der Daten -- zum Beispiel Ihrer Produktionsabteilung, Ihrer Marketingabteilung, Ihrer Finanzabteilung, und so weiter -- Kriterien dafür fest, was als ‚saubere' Daten gelten. Bei Daten, die für das Customer Relationship Management relevant sind, könnte zum Beispiel vereinbart werden, dass jeder Kundendatensatz „Name", „Adresse", „Telefonnummer" und „E-Mail-Adresse" enthalten muss. Außerdem könnte man die Regel festlegen, dass jeder Kundendatensatz mindestens einmal pro Jahr auf Aktualität überprüft wird. Und so weiter. 3\. Reinigung: Jetzt beginnt die eigentliche Bereinigung. Das kann zum Beispiel das Entfernen von Duplikaten, das Korrigieren von Fehlern, das Auffüllen von fehlenden Werten und das Standardisieren von Datenformaten beinhalten. Hier kann Datenqualitätsmanagement-Software sehr hilfreich sein, vor allem, wenn GROSSE Datenmengen bereinigt werden müssen. 4\. Verifizierung: Nach der Bereinigung sollten Ihre Datenanalysten überprüfen, ob die Daten den festgelegten Qualitätsstandards aus Schritt 2 entsprechen. Bei großen Datenmengen macht man das meistens mittels Stichproben oder mit Hilfe von Qualitätskontrollsoftware. 5\. Kontinuierliche Überwachung und Wartung: Datenbereinigung ist -- LEIDER -kein einmaliger Prozess. Ihre Datenanalysten werden regelmäßig überprüfen müssen, um die Qualität Ihrer Daten auch weiterhin Ihren Qualitätsstandards entspricht. So schaut's nämlich aus!

Use Quizgecko on...
Browser
Browser