Data & Analytics: Best Practice mit Deutsche Post, Douglas und vielen mehr

von Katja Schmalen

Den Unternehmen stehen immer mehr Daten zur Verfügung. Die Chancen, die sich daraus ergeben, sind immens und die Erwartungen hoch. Viele Entscheider setzen darauf, dass ihnen dieses Mehr an Daten neue und fundierte Informationen und Einsichten ermöglicht und sie ihre Aufgaben schneller und präziser umsetzen können. Soweit die Theorie.

Die Praxis zeigt hierzulande ein anderes Bild: Nur wenige Unternehmen sind heute trotz enormer Rechenpower und AI-basierten Analysetools in der Lage, ihre Daten umfassend intelligent, effizient und effektiv zu nutzen. Was läuft da schief?

Wertvolle Insights beim IDC Digital Data & Analytics Summit DACH 2021

Im Rahmen des IDC Digital Summit Data and Analytics für IT-Entscheider aus der DACH-Region am 2. Dezember betrachten wir das Thema aus ganz unterschiedlichen Perspektiven, geben wertvolle Denkanstösse, lassen Best Practices für sich sprechen und hören von unseren Keynote Speakern, wie Unternehmen ihre Datensammlung zum datengetriebenen Geschäftsmodell transformieren können.

Daten in der Cloud: Was Unternehmen tun und was sie besser lassen sollten

Los geht es mit der Eröffnungs-Keynote von Matthias Zacher. Immer mehr Daten werden in die Cloud verlagert und in Cloud Deployments eingesetzt, um Datensilos aufzulösen und Daten besser für BI und Analytics nutzen zu können. Aus Sicht von IDC wiegen die Vorteile der Cloud mittelfristig schwerer als die Herausforderungen, sagt der Experte. In seiner Session skizziert der Analyst, wie Daten, BI und Analytics in der Cloud bereits heute klaren Nutzen für IT und Business bringen und bei welchen Szenarien Anwender ruhig noch etwas abwarten sollten.

Vom Data Warehouse ganz einfach zum Lakehouse in der Cloud

Wie Unternehmen ein Data Warehouse ganz einfach in ein Lakehouse in der Cloud verwandeln können? Das wird Björn Ständer von Oracle in seiner Session beleuchten: Ein Data Lake House kombiniert die Elemente eines Data Warehouse und eines Data Lake zu einer neuen Plattform, um eine flexiblere und kostengünstigere Architektur für die Speicherung und Analyse unterschiedlicher Daten bereitzustellen. Beispielsweise können Social-Media- und Sensor-Daten zur Analyse in einen kostengünstigen Data Lake gestreamt und dann mit den Kundendaten aus dem Data Warehouse kombiniert und analysiert werden.

Auf einer umfassenden Datenbasis helfen Machine-Learning-Modelle dabei Verhaltensmuster und Trends schnell zu entdecken und Prognosen und Handlungsempfehlungen für die Geschäftssteuerung zu entwickeln. Anhand von Referenzarchitekturen lassen sich solche modernen, offenen, flexiblen und intelligenten Lakehouse-Architekturen jetzt deutlich einfacher in der Cloud umsetzen..

Integration: Von awendungsorientiert zu agil und datengesteuert

Unternehmen wie die WWK Versicherungen haben komplexe Legacy-Anwendungslandschaften zu bewältigen. Zusätzliche Komplexität entsteht durch den wachsenden Bedarf an schnellem Informationsaustausch mit Geschäftspartnern. Diese Modernisierung erfordert den Wechsel von einer anwendungszentrierten zu einer datenzentrierten Sichtweise.

In dieser Session erfahren Sie von von Gerrit Götze vom Boomi Partner PPI AG und Dr. Henri Siemens von der WWK, wie eine agile Datendrehscheibe geschaffen wurde, die konsistente Echtzeit-Dateneinblicke und zentralisierte Prozesse bietet. Diese neue Integrationsinfrastruktur stellt allen Beteiligten relevante Daten zur Verfügung und macht die WWK so fit für die Anforderungen der Zukunft.

Mit adaptiven Datenarchitekturen volatile Zeiten meistern

Der Data Science kommt in dynamischen Zeiten eine entscheidende Bedeutung zu, dennoch setzen immer noch viele Unternehmen auf traditionelle Wege zur Datenintegration. Mit der fatalen Folge, dass neue Datenquellen zu langsam verfügbar gemacht werden und Data Scientists zu viel Zeit mit dem Suchen und Aufbereiten von Daten verbringen. Wie kann eine adaptive Datenarchitektur implementiert werden, mit der Organisationen für die disruptiven Veränderungen unserer Zeit gerüstet sind? Diese Frage will Daniel Rapp von Denodo in seiner Session nachgehen.

DataOps: Pipelines in Zeiten von Cloud, Hybrid und On-prem

Bei Boris Bugarski von StreamSets geht es um DataOps, seine Session trägt den Titel „Pipelines in Zeiten von Cloud, Hybrid und On-prem“. Der Experte wird ausführlich darüber sprechen, wie Smart Pipelines Abläufe stabilisieren können, schematischen Veränderungen standhalten und die Produktivität der Data Engineers erhöhen.

The Death Of The Star Schema

Die Anwender in den Unternehmen denken sich immer wieder neue Ansätze aus, um Daten abzufragen. Zudem ändern sich die Daten selbst oftmals auf ungeahnte Weise. In der Session von Abboud Ghanem von Incorta hören die Teilnehmenden alles über die drei technologischen Fortschritte bei der Datenspeicherung, die Sternschemata überflüssig machen, wie diese Innovationen analytischen Umgebungen zugute kommen und erhalten Tipps für die Schritte, die sie unternehmen müssen, um von den Vorteilen der Sternschemafreiheit zu profitieren.

Best Practice mit Data Analytics Experten von Deutsche Post, Douglas und Uniqa Versicherung

Im abschliessenden Kamingespräch lassen erfahrene Data Analytics Experten uns an ihren Erfahrungen teilhaben. Wir begrüßen Marc Gittler, VP Data Analytics Operations bei Deutsche Post, Volker Oßendoth, Bereichsleiter Data & Analytics bei Douglas und Mario Meir-Huber, Head of Data bei der UNIQA Insurance Group AG. Die Teilnehmenden dürfen sich auf jede Menge Inspiration für ihre eigene Roadmap freuen.

Anmerkung der Redaktion: Dieser Event hat bereits stattgefunden. Das Video sowie alle Präsentationsunterlagen stellen wir Ihnen ab sofort On-Demand zur Verfügung.

Das könnte Sie auch interessieren