Umfassendes Datenhandling: So klappt es mit effizienter Datennutzung

von Katja Schmalen

In unserer neuen Artikelserie zum Thema Datenhandling geben wir Anregungen und Impulse, wie Firmen die Transparenz und Wirksamkeit ihrer Datenlandschaft erhöhen können, um einzelne Maßnahmen zu priorisieren und um die Datenqualität insgesamt zu stärken.

Den Unternehmen stehen immer mehr Daten zur Verfügung. Die Chancen, die sich daraus ergeben, sind immens und die Erwartungen hoch. Viele Entscheider setzen darauf, dass ihnen dieses Mehr an Daten neue und fundierte Informationen und Einsichten ermöglicht und sie ihre Aufgaben schneller und präziser umsetzen können. Das ist die eine Seite der Medaille.

Die enorme Rechenpower und leistungsfähige Analysetools bieten Unternehmen und Organisationen aller Branchen und Größenklassen ausgezeichnete Rahmenbedingungen zur erfolgreichen Nutzung umfassender Analytics-Ansätze von Machine Learning (ML) und von Künstlicher Intelligenz (KI). Damit verfügen sie zumindest in der Theorie über sehr gute Voraussetzungen, ihre Daten für die Optimierung interner Abläufe und zur Entwicklung neuer Geschäftsmodelle einzusetzen. Die Praxis zeigt ein anderes Bild: Nur wenige Unternehmen sind heute in der Lage, ihre Daten umfassend intelligent, effizient und effektiv zu nutzen.

Unternehmen sollten jetzt handeln, um ihre Organisation reaktionsschneller zu machen

Die weltweite Datenmenge wird nach Einschätzungen von IDC bis 2024 auf 143 Zettabyte anwachsen. Knapp ein Drittel der von IDC im Dezember 2020 befragten 260 Unternehmen aus Deutschland verzeichnet ein jährliches Datenwachstum zwischen 31 und 60 Prozent, weitere 6 Prozent sogar deutlich mehr. Dabei handelt es sich um Daten aus vorhandenen und neuen Workloads sowie aus der Nutzung zusätzlicher Datenquellen und Datentypen. Dieses sehr dynamische und heterogene Datenumfeld erfordert neue Lösungsansätze. Das große geschäftliche Potenzial der Daten lässt sich mit den vorhandenen Lösungen und Prozessen kaum erschließen.

Aus diesem Grund ist es empfehlenswert, dass Unternehmen ihre Datenarchitektur, ihre Lösungen und ihre Prozesse noch einmal auf den Prüfstand stellen. Die Aufgaben für Datenverantwortliche werden nicht weniger, eher mehr. Bereits mit wenigen gezielten Schritten können Organisationen aber überprüfen, wo sie stehen und welche Schritte für bessere Daten erforderlich sind.

In unserer neuen dreiteiligen Artikelserie geben wir Anregungen und Impulse, wie Firmen die Transparenz und Wirksamkeit ihrer Datenlandschaft erhöhen können, um einzelne Maßnahmen zu priorisieren und um die Datenqualität insgesamt zu stärken.

Die Evaluierung der Datenqualität ist entscheidend

Der Wert der Daten zeigt sich in der Güte der Analyseprozesse und der Entscheidungsunterstützung. Hier besteht noch häufig Handlungsbedarf. Für 37 Prozent der Befragten zählt die Sicherstellung einer hohen Datenqualität zu den zentralen Herausforderungen. Die Aspekte sind vielfältig und komplex und reichen vom Erfassen aller relevanten Daten über das Erfassen des Datenkontexts bis hin zur Daten-Governance und Datensicherheit – um nur einige Punkte zu nennen. Das sind allerdings grundlegende erforderliche Aufgaben, da hier die Weichen für den weiteren Erfolg in der Prozesskette gestellt werden.

Die Qualität der Prozesskette entscheidet sowohl horizontal als vertikal auch über den Erfolg des Business-Cases. Operative Aktivitäten mit Quick Wins, beispielsweise die Nutzung neuer Datenquellen zur Optimierung der Kundenansprache, sollten mittelfristig immer in strategische Lösungsansätze integriert werden. Dabei tragen neben der Daten-Governance die Datenarchitektur und die Datenprozesse entscheidend zur erfolgreichen Gewinnung von Erkenntnissen (Insights) bei.

Zwar nutzen bereits knapp drei Viertel der Befragten eine abgestimmte Vorgehensweise bei der Datenintegration, allerdings meist nicht unternehmensweit. Und genau hier liegt der Knackpunkt, denn der Nutzen liegt ja gerade im Abbau von Funktions- und Prozesssilos innerhalb des eigenen Fachbereichs und über Fachbereichsgrenzen hinweg. Automatisierung und Integration werden zwar von Entscheidern immer wieder beschworen, die Umsetzung hingegen lässt auf sich warten.

Das Umfeld bietet aufgrund der Corona-Pandemie nach wie vor einigen Spielraum für einen Review der Datenprozesse und für Justierungen oder sogar Korrekturen. Immerhin 58 Prozent der Projekte stehen auf dem Prüfstand hinsichtlich Investments, Ressourcen oder Business-Nutzen. Die Priorisierung der Projekte nach Business-Nutzen ist aus Sicht von IDC der vielversprechendste Ansatz, um die Unterstützung des Managements zu erhalten.

Eine wichtige Rolle nimmt der Daten-Stack ein. Dabei handelt es sich um eine modellhafte Sicht auf die Hardware, Software, Architektur und Prozesse aller datenrelevanten Themen von den Storage-Systemen über das Compute bis hin zu Data Lakes, Data Clouds, DatenGovernance, Analyse- und KI-Modellen sowie dem Presentation Layer und dem Outcome in Form von KPI. Jede Organisation sollte eine solche Sichtweise auf ihre Datenthemen besitzen oder entwickeln.

Zudem ist es von hohem Nutzen, gewonnene Erfahrungen auf andere Geschäftsprozesse zu übertragen. Das sichert eine hohe Datenqualität, Datensicherheit und Compliance. Bei letztgenanntem Punkt sollten Entscheider allerdings beachten, dass in den verschiedenen Fachbereichen jeweils spezifische Anforderungen gelten können.

Im nächsten Teil unserer Serie nehmen wir die Themen Storage und Cloud genauer unter die Lupe.

Das könnte Sie auch interessieren