Suchen

Data-Driven Organisation Daten analysieren und Diamanten schleifen

Autor / Redakteur: Dr. Juliane Voigt* / Viviane Krauss

Daten sind die treibende Kraft der Digitalisierung, das neue Gold der digitalen Transformation? Nein. Daten sind das Wasser der Wirtschaft. Denn ohne sie gibt es kein Leben und kein Wachstum. Um unternehmerisch erfolgreich zu sein, gilt es stets im Blick zu haben, wo Daten generiert und wie sie optimal nutzbar gemacht werden können.

Firmen zum Thema

Die Möglichkeiten, die die systematische Analyse von Unternehmensdaten am Ende bietet, sind die Auseinandersetzung mit ihr in jedem Fall wert.
Die Möglichkeiten, die die systematische Analyse von Unternehmensdaten am Ende bietet, sind die Auseinandersetzung mit ihr in jedem Fall wert.
(Bild: gemeinfrei / Unsplash)

Wenn es vorher nicht schon deutlich wurde, hat spätestens die Corona-Pandemie einmal mehr gezeigt, welche Relevanz Daten für die heutige Wirtschaft haben. Das gilt nicht nur für Digitalunternehmen, sondern für jede (unternehmerische) Organisation, egal welcher Größe und aus welcher Branche. Zahlen, Daten und Fakten müssen exakt sein und parat liegen, um schnell und nachhaltig reagieren und optimale Entscheidungen treffen zu können. Zumindest sollte das das Ziel sein.

Der Weg dorthin braucht Wissen und Ausdauer, aber wenn die Basics einmal gelegt sind, dann sind Daten in der Tat Gold wert. Denn datengetriebene Entscheidungen machen Unternehmen zukunftsfähig und halten sie agil.

Vom ersten Schliff zum Diamanten

In jedem Unternehmen laufen unzählige Daten auf. Sie lassen sich an den unterschiedlichsten Orten finden, denn wo gehobelt wird, da fallen Späne: Sei es im Sales, in der IT, in der Produktion oder anderswo. Überall dort, wo produziert wird, wo kommuniziert wird, wo Feedback aufläuft oder wo Kundenkontakt besteht, entstehen Datenpunkte. Aber nur wenn diese zusammengetragen, (gemeinsam) analysiert und den relevanten Entscheidungsträgern zur Verfügung gestellt werden, können sie das ihnen innewohnende Potenzial entfalten.

Wer sich mit den Daten im eigenen Unternehmen beschäftigt, wird feststellen, welche Diamanten dort liegen. Diamanten, die jedoch geschliffen werden wollen. Dieser Schleifprozess beinhaltet mehrere Schritte und Herausforderungen, ist mit den richtigen Tools jedoch leichter zu meistern, als es zunächst klingen mag:

1. Datenquellen

Die absolut grundlegende Frage, die gestellt werden muss, ist die nach den Datenquellen. Wo liegen überhaupt Daten? Auf welche Ressourcen können Unternehmen zugreifen? Dabei zu beachten sind sowohl interne Quellen wie ERP- und CRM-Systeme oder andere Arten von Datenspeichern (zum Beispiel Excel-Tabellen, Bilddatenbanken) in den Fachabteilungen. Aber auch externe Daten, wie zum Beispiel frei zugängliche Informationen – so genannte Open Data – können für unternehmerische Entscheidungen nützlich sein.

2. Datenqualität

Nachdem die relevanten Quellen ausfindig gemacht wurden, geht es an die Qualitätssicherung. Wichtig ist vor allem, dass Informationen über einen längeren Zeitraum möglichst lückenlos dokumentiert sind. Wenn das am Anfang nicht der Fall ist, lassen sich durch Nachjustierung viele Dinge anpassen oder man entwickelt ein geeignetes Konzept zur Datensammlung für die Zukunft, so dass die notwendige Datenqualität bald hergestellt ist.

3. Aktualität

Einen großen Einfluss auf die Datenverarbeitung hat die Frage, wie aktuell die berücksichtigten Daten sein müssen. Geht es beispielsweise um die Vorhersage von Wartungsausfällen bei Maschinen, ist eine Echtzeitanalyse der Daten erforderlich (so genannte Stream-Verarbeitung). Bei Informationen für das Management genügen hingegen oftmals tägliche oder wöchentliche Reports, so dass die dafür relevanten Daten zu fest definierten Zeitpunkten abgerufen und analysiert werden können (Batch-Verarbeitung).

4. Konsolidierung

Ziel der Datenkonsolidierung ist es, verschiedene Datenquellen und -typen so zusammenzubringen, dass sie gemeinsam analysierbar werden. Hierbei geht es beispielsweise um die Frage, über welche Schlüsselvariable man Informationen aus verschiedenen Datenquellen verknüpft oder wie man Informationen aus Videos oder Bildern extrahiert.

5. Standardisierung

Die Standardisierung der Datenhaltung ist elementar, um ohne Probleme neue Datenquellen hinzuzufügen oder Daten für unterschiedliche Analysen schnell nutzbar zu machen.

6. Technik

Es gibt eine Vielzahl technischer Möglichkeiten für die Datenhaltung und Analyse. Nicht jede ist für jedes Ziel die richtige. Sobald genau feststeht, welche Daten, in welcher Häufigkeit wie gemeinsam analysiert werden müssen, lässt sich daraus jedoch die optimale technische Lösung ableiten.

7. Kompetenzen

Zu guter Letzt stellt sich bei Datenanalyse-Projekten immer die Frage, welche Kompetenzen bestehen hierzu im Unternehmen? Ein klassisches Reporting kann oft inhouse erstellt werden. Wenn es aber um fortschrittliche Analysemethoden bis hin zur Einbindung eines KI-Algorithmus geht, stoßen viele Unternehmen an ihre Grenzen.

Das notwendige Know-how

In vielen – vor allem hinsichtlich der zu verwendenden Datenquellen komplexeren – Projekten hat sich die Zusammenarbeit von Business Intelligence (BI)-, Big Data- und Data Science-Experten als fruchtbarer Ansatz erwiesen. BI-Spezialisten verfügen über breites Wissen beim Aufbau effizienter Daten-Pipelines mittels klassischer ETL-Prozessen. Big Data-Experten liefern wertvollen Input, wenn es darum geht unstrukturierte Daten wie zum Beispiel Bilder oder Videos der Analyse zugänglich zu machen oder umfangreiche Echtzeit-Datenströme zu verarbeiten. Data Scientists identifizieren geeignete Analysemethoden oder entwickeln neue Algorithmen für den größtmöglichen Informationsgewinn aus den Daten.

Vom Aftersales direkt in die Produktion

Ein Beispiel aus dem Automobilbereich verdeutlicht den Wert einer starken Datenpipeline anschaulich. Automobilhersteller berücksichtigen das Feedback ihrer Kunden zum einen bei der Planung der nächsten Produktionslinie. Zum anderen steuern sie die Produktion auf Basis dieses Feedbacks aus. Häufen sich Beanstandungen zu einem Bauteil oder einer -serie, dann muss die Produktion möglichst zeitnah darauf reagieren.

Die Daten, die dafür relevant sind, fallen meist nicht in den unternehmensinternen Systemen an. Sie entstammen Kunden-Feedbackbögen oder Berichten der Vertragswerkstätten, in denen die Fahrzeuge bei Auffälligkeiten inspiziert und repariert werden. Dazu kommt, dass die Feedback-Bögen viele Freitextfelder enthalten. Eigentlich ein Vorteil, denn so kann wesentlich spezifischer auf Fehler oder Wünsche eingegangen werden, als wenn die Antworten lediglich über Multiple-Choice-Fragen ermittelt würden. Entsprechend aufwändig gestaltet sich aber die Auswertung des Feedbacks.

Die nächstliegende Lösung für diese Herausforderung ist die Einführung eines Machine Learning-Algorithmus, der die Feedback-Bögen systematisch analysiert und darin befindliche Fehlerbilder erkennt und clustert. Diese Fehlerbilder werden dann mit Daten aus dem Product Lifecycle Management verknüpft, so dass die Fehlerbilder ganz konkreten Produktionsserien, -linien, -tagen usw. zugeordnet werden können. Auf diese Weise gelingt es, das Kundenfeedback wesentlich schneller zurück in die Produktion zu spielen – im konkreten Beispiel innerhalb weniger Tage anstatt bisher eines Monats. Darüber hinaus kann in der Produktion fundiertes Wissen darüber angesammelt werden, wo und wann bestimmte Fehler auftreten, welche Fahrzeugtypen wie betroffen sind und an welchen Produktionsstandorten welche Herausforderungen bestehen. Bis ins kleinste Bauteil kann das qualitative Feedback nachvollzogen werden und hat so heute einen wesentlich nachhaltigeren Einfluss im Unternehmen, als es vorher hatte.

Individuelle Lösungen für maximalen Gewinn

Der Ausbau einer starken Daten-Pipeline kann je nach Betrieb individuelle Vorteile haben. Gemeinsam haben alle Lösungen, dass sie die betriebliche Effizienz verbessern und dadurch indirekt oder direkt zur Gewinnsteigerung des Unternehmens beitragen. Dabei können die Lösungen so individuell sein wie die Herausforderung, für die sie entwickelt werden. Sei es eine automatische Bestandsüberwachung, das Controlling von Vertriebsaktivitäten, eine intelligente Marketingunterstützung oder die autonome Überwachung der Produktqualität: Die Möglichkeiten, die die systematische Analyse von Unternehmensdaten am Ende bietet, sind die Auseinandersetzung mit ihr in jedem Fall wert, denn die Schätze, die sie hervorbringt, können auch in Gold aufgewogen werden.

*Dr. Juliane Voigt ist Consultant für Data Analytics und Big Data in der T-Systems Multimedia Solutions.

(ID:46983828)