Freitag, 1. Juni 2012

Notizen zum 5. Treffen der DGIQ-Regionalgruppe Rhein-Main.

Hallo,
am vergangenen Dienstag, den 29.05.2012 hat das 5. Treffen der DGIQ-Regionalgruppe Rhein-Main stattgefunden. Im MesseTurm in Frankfurt haben wir diskutiert, wie sich die sogenannten Megatrends auf die Datenqualität und damit auch auf das Datenqualitätsmanagement auswirken.
Wie auch schon in den letzten Treffen war die Diskussionsrunde bunt besetzt. Neben den Branchen Banking, Telekommunikation, Logistik, Gesundheit und Chemie waren auch Toolhersteller und Beratungsunternehmen vertreten.
Ich möchte die wichtigsten Diskussionspunkte und Erkenntnisse zusammenfassen:

Der Trend der Konvergenz mündet sehr häufig in der Informationstechnologie. Anders ausgedrückt: Viele neue Innovationen werden getragen von der IT. So sind Augmented Reality, das Internet der Dinge oder auch die Ubiquitäre IT letztendlich nichts anderes als innovativ gestaltete Datenflüsse, neue Visualisierungstechniken von Daten oder die Gewinnung neuer Erkenntnisse durch die Vernetzung bisher disjunkter Datenobjekte.
Dies alles führt zu einem erhöhten Datenvolumen, einer Steigerung der Datenkomplexität sowie zu einer vermehrten Aufkommen von unstrukturierten Daten.
Vor diesem Hintergrund wurde diskutiert, ob die Anforderungen an die Datenqualität mit diesen Entwicklungen steigen. Dabei haben sich zwei Positionen herausgebildet.
Zum einen kann beobachtet werden, dass die Toleranz gegenüber schlechten Daten nach wie vor hoch ist, sofern diese Daten nicht automatisch weiterverarbeitet werden, sondern über eine GUI einem Benutzer angezeigt werden. Diese Toleranz ist bei privat genutzten Daten ausgeprägter als bei Businessdaten (z.B. innerhalb eines Unternehmens)
Auf der anderen Seiten werden Daten in Zukunft verstärkt automatisch weiterverarbeitet (siehe oben: Stichwort Vernetzung). Diese Maschine-Maschine-Kommunikation besitzt eine sehr niedrige Toleranz für schlechte Datenqualität. Hier steigen also die Anforderungen an das Datenqualitätsmanagement.
Allgemeiner Konsens war aber, dass eine Fehlerrate von 0 weder erreichbar, noch wirtschaftlich sinnvoll ist. Damit stellt sich die Frage nach der Ziel-Datenqualität.
Also: Welche Daten müssen in welcher Qualität vorliegen?
Vor diesem Hintergrund wird deutlich, dass die Datenqualitätsdimension der Relevanz in der Zukunft an Bedeutung gewinnen wird, um eine wirtschaftliche Sicherstellung der benötigten Datenqualität gewährleisten zu können.
Es scheint also wahrscheinlich, dass die Methoden des Datenqualitätsmanagements dynamischer, schneller und individueller werden müssen, damit die Anforderungen der Zukunft wirtschaftlich effizient erfüllt werden können.
Zum anderen wird es nötig werden, Methoden zu entwickeln, die die Qualitätsanforderungen an die jeweiligen Datenobjekte ermitteln. Hier ist ein 360 Grad Ansatz notwendig, um verschiedene Prioritäten wie „nice to have“, „must have“, etc. festlegen zu können.

Ein zweiter Diskussionspunkt war das Thema der Visualisierung. Es scheint offensichtlich, dass von neuen innovativen Visualisierungstechniken und –methoden, die darstellungsbezogenen DQ-Dimensionen wie Verständlichkeit, Übersichtlichkeit, einheitliche Darstellung und eindeutige Auslegbarkeit profitieren können.



Es wurde aber auch bejaht, dass inhalts- und nutzungsbezogenen DQ-Dimensionen wie Fehlerfreiheit, Vollständigkeit und Aktualität ebenfalls von neuen Formen der Visualisierung profitieren können. Der Grund dafür ist, dass es kaum möglich erscheint, alle möglichen Fehlerbilder über entsprechende Plausibilitäts- oder Messalgorithmen zu erkennen. Es wird weiterhin notwendig sein, Fehler durch einen „menschlichen Blick“ in die Daten zu erkennen. Für diesen Aspekt sind neue Formen der Darstellung, insbesondere von komplexen Zusammenhängen, von großer Bedeutung.

Der dritte Diskussionspunkt bezog sich auf die negative Korrelation von Komplexität und Datenqualität. Dabei wird nicht nur auf die Komplexität der Daten selbst, sondern auch auf die teilweise undurchsichtigen Strukturen von Prozessen, IT-Landschaften, Organisationen, etc. Bezug genommen.
Allgemeiner Konsens war, dass ein aktives Entgegenwirken gegen den Trend der Komplexität wichtig ist, um als Organisation handlungsfähig zu bleiben. Die oben beschriebene DQ-Dimension der Relevanz schließt den Kreis. Es wird notwendig sein, Methoden zu entwickeln wie die Relevanz von Datenobjekten, aber auch Prozessen, Systemen, etc. zu bewerten ist, um eine systematische Reduktion der Komplexität zu erreichen.
Die oben besprochenen, neuen Visualisierungstechniken tragen ihren Teil dazu bei in dem auch bisher unübersichtliche Strukturen erfasst werden können.

Ich würde mich  freuen, die Diskussion des Regionalgruppentreffens hier nun online fortzusetzen.

Beste Grüße
Thorsten Schmidt

Keine Kommentare:

Kommentar posten