Von schmerz­haften Zeit­verzöge­rungen und Budget­über­schreitungen

Im Rahmen einer Datenmigration drückt der Schuh meist an verschiedenen Stellen. Eine der schmerz­haftesten Stellen ist leider oft die Qualität der zu migrie­renden Daten. Dabei ist die Proble­matik im Grunde genommen ganz einfach: die Datenq­ualität der migrierten Daten muss „stimmen“. Denn unzureichende Daten­qualität führt zunächst zur Aufsetzung neuer Plausibi­lisierun­gen und Daten­berei­nigungen. Auf lange Sicht wiede­rum ver­ursacht das schmerz­hafte Zeit­verzögerun­gen und ungeplante Budget­über­schreitungen.

Kern-Heraus­forderungen einer Daten­migration

Der Erfahrung nach zeigen sich in fast allen durch­geführten Datenmigrations-Projekten folgende Kern-Heraus­forde­rungen:

  • Verlässliche Aussagen über die Struktur von Daten und Inhalten ableiten
  • Wachsende Aufwände für IT und Fach­bereiche in der Implemen­tierung von neuen Plausi­bilisie­rungen
  • Effiziente und zeitnahe Durchführung von Daten­bereini­gungen

Eine Daten­migration ist nicht nur zeitauf­wendig sondern auch kosten­intensiv. Daher gilt es die Kern­-Heraus­forderungen gleich zu Beginn in der Projekt- und Budget­planung zu berücksichtigen. Das bedeutet allerdings nicht, dass die Planung von Budget und Zeit in Migrations­vorhaben mit schwindel­erregenden Faktoren erhöht werden müssen.

Datenqualität in Migrationen

Bei der Datenmigration von Alt-Daten in ein neues System wird oft davon ausge­gangen, dass die Daten bereits mit erwartetem Inhalt sowie im richtigen und vom neuen System erwarteten Format zur Verfügung stehen. Doch das ist leider zumeist nicht gegeben, so dass viel manueller Aufwand entsteht. Eine Standard-Software kann hier viel Zeit und Budget einsparen. Denn sie stellt einerseits die Verläss­lichkeit der zu migrierenden Daten sicher­ und automatisiert andererseits auch die Daten­bereini­gung. In der nach­folgenden Abbildung wird ein mögliches Szenario dafür aufgezeigt, hier am Beispiel der Standard-Software Q-THOR:

Datenmigration am Beispiel Q-THOR | © 2021. BIG.Cube GmbH. Alle Rechte vorbehalten.

Ein erster Meilen­stein ist die Durch­führung von Data Profiling Analysen auf den zu migrierenden Daten­bestand. Auf Basis dieser Ergeb­nisse können dann die not­wen­digen Daten­plau­sibili­sierun­gen an­gelegt und aus­geführt werden. Schließlich können die fehler­haften Daten unter­sucht und Be­reinigungs­auf­träge für diese Da­ten gene­riert werden.

Erfolgsfomel für eine Datenmigra­tion: Experten­wissen + Standard-Software

Wer schon in Datenmigrationen gearbeitet hat, wird bestätigen: Experten­wissen in der Daten­analyse ist unerlässlich. Dazu ist ein weiterer Erfolgsfaktor der Einsatz einer Standard-Software. Dieser wird zunehmend von Projektleitern entdeckt. Denn mit einer Kombination aus Expertenwissen und Standard-Software werden Migrationen verlässlicher geplant und erfolgreicher durchgeführt. Zudem lassen sich die für das Migrations­vorhaben definierten Quality Checks der Standard-Software später im produktiven Betrieb des neuen Systems wiederverwenden. Eine Standard-Software, die sich unter anderem schon in Migrations­projekten bewiesen hat und genau diese Vorteile aufweist, ist die Software Q-THOR.

Verfasst von Tom Schütz

Beitrag teilen

Weitere spannende Themen aus unserem Newsroom

Wir gehören zu „Deutschlands besten Arbeitgebern“

Als einer der Top-100-Arbeitgeber Deutschlands mit erneuter „Great Place to...

Mehr lesen

Unser Herzensprojekt: Die Stiftung AKM in München

Schon seit einiger Zeit unterstützten wir als BIG.Cube GmbH die...

Mehr lesen

BIG.Cube ist ein Great Place to Work – Bayern und ITK

Die BIG.Cube wurde dieses Jahr von Great Place to Work...

Mehr lesen