Hallo,
am vergangenen Dienstag, den 29.05.2012 hat das 5. Treffen
der DGIQ-Regionalgruppe Rhein-Main stattgefunden. Im MesseTurm in Frankfurt
haben wir diskutiert, wie sich die sogenannten Megatrends auf die Datenqualität
und damit auch auf das Datenqualitätsmanagement auswirken.
Wie auch schon in den letzten Treffen war die
Diskussionsrunde bunt besetzt. Neben den Branchen Banking, Telekommunikation, Logistik,
Gesundheit und Chemie waren auch Toolhersteller und Beratungsunternehmen
vertreten.
Ich möchte die wichtigsten Diskussionspunkte und
Erkenntnisse zusammenfassen:
Der Trend der Konvergenz mündet sehr häufig in der
Informationstechnologie. Anders ausgedrückt: Viele neue Innovationen werden
getragen von der IT. So sind Augmented Reality, das
Internet der Dinge oder auch die Ubiquitäre IT letztendlich nichts anderes als
innovativ gestaltete Datenflüsse, neue Visualisierungstechniken von Daten oder
die Gewinnung neuer Erkenntnisse durch die Vernetzung bisher disjunkter Datenobjekte.
Dies alles führt zu einem
erhöhten Datenvolumen, einer Steigerung der Datenkomplexität sowie zu einer
vermehrten Aufkommen von unstrukturierten Daten.
Vor diesem Hintergrund wurde
diskutiert, ob die Anforderungen an die Datenqualität mit diesen Entwicklungen
steigen. Dabei haben sich zwei Positionen herausgebildet.
Zum einen kann beobachtet werden,
dass die Toleranz gegenüber schlechten Daten nach wie vor hoch ist, sofern
diese Daten nicht automatisch weiterverarbeitet werden, sondern über eine GUI
einem Benutzer angezeigt werden. Diese Toleranz ist bei privat genutzten Daten
ausgeprägter als bei Businessdaten (z.B. innerhalb eines Unternehmens)
Auf der anderen Seiten werden
Daten in Zukunft verstärkt automatisch weiterverarbeitet (siehe oben: Stichwort
Vernetzung). Diese Maschine-Maschine-Kommunikation besitzt eine sehr niedrige
Toleranz für schlechte Datenqualität. Hier steigen also die Anforderungen an das
Datenqualitätsmanagement.
Allgemeiner Konsens war aber, dass
eine Fehlerrate von 0 weder erreichbar, noch wirtschaftlich sinnvoll ist. Damit
stellt sich die Frage nach der Ziel-Datenqualität.
Also: Welche Daten müssen in
welcher Qualität vorliegen?
Vor diesem Hintergrund wird
deutlich, dass die Datenqualitätsdimension der Relevanz in der Zukunft an
Bedeutung gewinnen wird, um eine wirtschaftliche Sicherstellung der benötigten
Datenqualität gewährleisten zu können.
Es scheint also wahrscheinlich,
dass die Methoden des Datenqualitätsmanagements dynamischer, schneller und
individueller werden müssen, damit die Anforderungen der Zukunft wirtschaftlich
effizient erfüllt werden können.
Zum anderen wird es nötig werden,
Methoden zu entwickeln, die die Qualitätsanforderungen an die jeweiligen
Datenobjekte ermitteln. Hier ist ein 360 Grad Ansatz notwendig, um verschiedene
Prioritäten wie „nice to have“, „must have“, etc. festlegen zu können.
Ein zweiter Diskussionspunkt war das Thema der
Visualisierung. Es scheint offensichtlich, dass von neuen innovativen
Visualisierungstechniken und –methoden, die darstellungsbezogenen DQ-Dimensionen
wie Verständlichkeit, Übersichtlichkeit, einheitliche Darstellung und
eindeutige Auslegbarkeit profitieren können.
Es wurde aber auch bejaht, dass inhalts- und
nutzungsbezogenen DQ-Dimensionen wie Fehlerfreiheit, Vollständigkeit und Aktualität
ebenfalls von neuen Formen der Visualisierung profitieren können. Der Grund
dafür ist, dass es kaum möglich erscheint, alle möglichen Fehlerbilder über
entsprechende Plausibilitäts- oder Messalgorithmen zu erkennen. Es wird
weiterhin notwendig sein, Fehler durch einen „menschlichen Blick“ in die Daten
zu erkennen. Für diesen Aspekt sind neue Formen der Darstellung, insbesondere
von komplexen Zusammenhängen, von großer Bedeutung.
Der dritte Diskussionspunkt bezog sich auf die negative
Korrelation von Komplexität und Datenqualität. Dabei wird nicht nur auf die
Komplexität der Daten selbst, sondern auch auf die teilweise undurchsichtigen
Strukturen von Prozessen, IT-Landschaften, Organisationen, etc. Bezug genommen.
Allgemeiner Konsens war, dass ein aktives Entgegenwirken
gegen den Trend der Komplexität wichtig ist, um als Organisation handlungsfähig
zu bleiben. Die oben beschriebene DQ-Dimension der Relevanz schließt den Kreis.
Es wird notwendig sein, Methoden zu entwickeln wie die Relevanz von Datenobjekten,
aber auch Prozessen, Systemen, etc. zu bewerten ist, um eine systematische
Reduktion der Komplexität zu erreichen.
Die oben besprochenen, neuen Visualisierungstechniken tragen
ihren Teil dazu bei in dem auch bisher unübersichtliche Strukturen erfasst
werden können.
Ich würde mich freuen, die Diskussion des Regionalgruppentreffens hier nun online fortzusetzen.
Beste Grüße
Thorsten Schmidt
Keine Kommentare:
Kommentar veröffentlichen