Leistungen
Data Engineering & Data Analytics

FUNDIERTE EXPERTISE IM HIGH END BEREICH

Modernes Datenmanagement

Die zentrale Herausforderung des Datenmanagement ist das Nutzbarmachen von Daten. Wichtig dabei ist, dass trotz zahlreicher Vorgaben, jeder im Unternehmen einfach auf Daten zugreifen kann.

Viele Unternehmen stehen gerade vor der Herausforderung, dass ihr altbewährte Data Warehouse nicht mehr ausreicht um den stetig steigenden Anforderungen und deren Komplexität gerecht zu werden. Häufig sind organisch bereits Data Lakes entstanden, die zwar größere Mengen an Daten günstig abspeichern, die aber wenig Vertrauen im Unternehmen genießen und sehr schwer zu operationalisieren sind. Als direkte Folge davon verschlechtert sich die Datensituation zusehends und stellt die Entscheider vor schwierige Herausforderungen. Der klassische zentralistische Ansatz funktioniert nicht mehr und moderne Konzepte wie Data Fabric oder Data Mesh müssen etabliert werden.

Zunehmende Probleme und die sich gleichzeitig ergebenden hohen Potenziale zwingen Unternehmen in neue Richtungen zu denken. Es werden mögliche Großprojekte und umfangreiche Investitionssummen mit hohen unternehmerischen Risiken thematisiert. Gleichzeitig lassen sich aktuell noch wenig erfolgreiche Projekte mit ernstzunehmender Substanz im Markt finden. Der Vertrieb großer Beratungsfirmen, der mit großen Versprechungen winkt, erschwert die Situation weiter. Doch die Herausforderungen lassen sich nicht mit der Einführung von Produkten beantworten sondern mit Change-Management, Prozessveränderung, Know-How Aufbau und Kulturwandel. Bevor ich im nächsten Beitrag moderne Lösungsansätze diskutiere, möchte ich die Probleme der klassischen Datenlösungen vorstellen. Dies hilft bei der Verdeutlichung der konkreten Probleme, welche von alternativen Ansätzen adressiert werden.

Datendemokratisierung und föderale Ansätze

Moderne datengesteuerte Unternehmen haben keine Zeit, auf Daten zu warten. Sie brauchen sie in Echtzeit und demokratisiert, damit jeder im Unternehmen, der sie nützlich machen kann, die Möglichkeit dazu hat. Datendezentralisierung ist in den letzten Jahren eine Antwort auf träges Datenmanagement geworden. Unternehmen mussten überdenken, wie jeder Teil der Organisation funktioniert, um schneller voranzukommen. Die Dezentralisierung verteilt die Verantwortung zurück in die Geschäftsbereiche und gibt ihnen Zugriff auf Daten. Damit ein föderaler Ansatz nicht ungesteuert ins Chaos verfällt, werden ein föderales Regelwerk und Prozesse benötigt - hierfür gibt es Vorgehensweise und Frameworks.

Data Engineering & Data Analytics

100 GB pro Sekunde sind für uns der Normalfall - keine Herausforderung. Von der Erstellung eines Datalakes und der Implementierung von Lakeshores über eine effiziente Datennutzung in neuronalen Netzen oder KPI Analytics Tools.

In großen oder stark frequentierten Systemen, fallen auf unterschiedlichsten Ebenen unstrukturierte Daten an. Da in den vergangenen Jahrzehnten Speicherplatz immer günstiger wurde, ist es kosteneffizient möglich diese Daten in großen Mengen zu speichern. Dies eröffnet eine Reihe von Business Cases wie A.I. unterstützte Geschäftsprozesse oder die Analyse von Kundenaktivitäten.

Im Wesentlichen werden dabei vier Fragen beantwortet:

  • Rückblick - Was ist passiert?
  • Übersicht - Was passiert gerade?
  • Einsicht - Warum passiert etwas?
  • Voraussicht - Was wird passieren?

Um diese Fragen systematisch und korrekt beantworten zu können, werden Hardskills im Bereich Big Data & Analytics benötigt. Hier unterstützen wir mit fundierter Erfahrung in den Bereichen Data Architecture, Data Engineering und Data Science.