Data Quality Management

Mit intelligenten Algorithmen

Data Quality Management
IQI® Data Quality Managment

Data Quality Management (auch bekannt als Datenqualitätsmanagement) ist ein Betriebsprozess zur kontinuierlichen Überwachung und Optimierung der Qualität geschäftskritischer Daten. In der digitalen Welt ist ein Data Quality Management unverzichtbarer Bestandteil einer Data Lake Architektur. Denn sämtliche Anwendungsbereiche zur Datennutzung, wie beispielsweise Machine Learning, Business Intelligence, Customer Relationship Management (CRM), Supply Chain Management (SCM) oder Enterprise Resource Planning (ERP) benötigen verlässliche Daten, um wertschöpfende Ergebnisse erzeugen zu können.

Unsere Machine Learning Algorithmen bringt Sie in Kombination mit unserem vielfach eingesetzten IQI® Data Quality Management Zyklus auf die Überholspur. Dadurch sichern Sie zügig und dauerhaft Ihre Datenqualität und können so mit dem Wettbewerb mithalten.  Wir führen die dafür notwendigen Standards, Prozesse und Automatismen bei Ihnen ein, damit Sie ohne großen Aufwand ein hohes Datenqualitätsniveau erreichen.

 

Der IQI® Data Quality Management Zyklus

Explore
Entdecken
Zunächst identifizieren wir mit Unterstützung unserer Methodik und unserer Algorithmen die relevanten Systeme, Tabellen und Felder. Denn nicht alle Daten sind von Bedeutung. Dabei generieren wir automatisiert Statistiken über die relevanten Daten. Darüber hinaus erzeugen unsere Machine Learning Algorithmen automatisierte Vorschläge für Datenqualitätsregeln. So erhalten wir schnell wertvolle Einblicke darüber, welche Daten in welchem Umfang genutzt werden und identifizieren erste Problemfelder in den Daten. Dieser Schritt wird auch Data Profiling genannt.
Explore
Define
Definieren
Anschließend nutzen wir die zuvor durch das Machine Learning generierten Regelvorschläge und Statistiken unserer Algorithmen, um mit Ihren Experten die Anforderungen für die Erkennung von fehlerhaften Daten festzulegen. Durch unsere Algorithmen beschleunigen wir diesen Prozess um ein Vielfaches im Vergleich zu traditionellen Ansätzen. Dadurch ermitteln wir den Soll-Zustand für gute Daten sehr zügig. Dies ist ein unverzichtbarer Baustein für das Data Quality Management.
Define
Measure
Messen
Als nächstes erfolgt der Vergleich der Datenqualitätsregeln mit den gegenwärtig gespeicherten Daten zur Identifikation von Abweichungen. Daraus generieren wir Berichte mit potentiellen Datenfehlern und Data Quality Kennzahlen. Diese dienen als Grundlage für die nachhaltige Beseitigung von Datenqualitätsproblemen.
Measure
Analyze
Analysieren
Anschließend werden die Ergebnisse der Messphase gemeinsam mit Ihren Experten ausgewertet. Nicht selten ist zunächst eine Feinjustierung der Datenqualitätsregeln erforderlich. Sind die Datenqualitätsregeln vollständig und präzise genug, werden in dieser Phase die Ursachen für Datenqualitätsprobleme identifiziert. Diese können sowohl in der Technik, als auch in den Geschäftsprozessen liegen.
Analyze
Improve
Verbessern
Nach Identifikation der Ursachen für schlechte Daten sind geeignete Lösungsalternativen für deren Beseitigung zu finden und umzusetzen. Dabei ist die Wirtschaftlichkeit der Maßnahmen und die Relevanz der Daten für den Unternehmenserfolg zu beachten. Darüber hinaus unterstützen wir Sie bei einer effizienten Korrektur der Daten mit Hilfe geeigneter Algorithmen und Referenzdaten.
Improve
Monitor & Control
Überwachen
Schließlich können die bereits erfassten Datenqualitätsregeln hervorragend für die dauerhafte Überwachung und Bewertung der Datenqualität im Rahmen eines dauerhaften Data Quality Managements genutzt werden. So können Datenqualitätsprobleme frühzeitig erkannt werden und Maßnahmen zur Verbesserung der Datenqualität überwacht werden. So sorgen Sie für eine hohe Datenqualität im Rahmen Ihrer Data Ops.
Monitor & Control

Exklusives Whitepaper: "Datenqualitätsmanagement" Datenqualität erfolgreich steuern