Serienlogik: Teil 1 räumt mit einem verbreiteten Missverständnis über datengetriebene Entscheidungen auf. Teil 2 zeigt, wie daraus ein reiferes Betriebsmodell für Reporting, Analytics und Entscheidungsunterstützung wird.

 

Daten ersetzen kein Urteilsvermögen. Sie disziplinieren es.

So war „data-driven“ eigentlich immer gemeint.

Über Jahre war der Begriff in Vorstandsrunden, Strategiepapieren, Transformationsprogrammen und Analytics-Roadmaps allgegenwärtig. Irgendwann klang er fast selbstverständlich: Wenn Entscheidungen auf Daten beruhen, müssen sie besser sein.

Der Grundgedanke daran war nie falsch. Falsch war, was vielerorts daraus gemacht wurde.

In der Praxis wurde „data-driven“ oft auf eine einfache Managementlogik verkürzt: die richtigen KPIs definieren, sie konsequent verfolgen, und die richtige Entscheidung ergibt sich daraus fast von selbst. Als ließe sich Führung in eine saubere Kette aus Input, Dashboard und Output übersetzen. Als könne man mit genügend Messung Unsicherheit aus dem Management heraus rechnen.

Genau das war immer das Missverständnis.

Data-driven zu arbeiten hieß nie, dass Dashboards entscheiden. Es hieß nie KPI-Autopilot. Und es hieß schon gar nicht, dass menschliches Urteilsvermögen an Bedeutung verliert, sobald Reporting gut genug ist. Im besten Fall bedeutet „data-driven“ etwas Anspruchsvolleres: Entscheidungen treffen weiterhin Menschen. Daten sorgen nur dafür, dass diese Entscheidungen näher an der beobachtbaren Realität bleiben.

Nicht nur an Intuition. Nicht an interner Politik. Und nicht an rückblickenden Erzählungen, die im Nachhinein wie Strategie klingen. Diese Unterscheidung ist immer wichtig. Wenn Bedingungen schwieriger werden, wird sie entscheidend.

Wo das Missverständnis entstand

Dass sich der Begriff so stark verbreitet hat, hatte einen guten Grund. Für viele Organisationen war „data-driven“ zunächst eine notwendige Korrektur: weg von anekdotischer Führung, weg von Hierarchieeffekten, weg von Entscheidungen, die stärker durch Seniorität als durch nachvollziehbare Evidenz geprägt waren.

Das war echter Fortschritt.

Irgendwann wurde aus evidenzbasierter Steuerung jedoch etwas zu Einfaches. „Data-driven“ begann zu suggerieren, dass sich wichtige Entscheidungen aus einem festen Satz von Kennzahlen ableiten lassen. Wenn Zahlen steigen, macht man weiter. Wenn sie fallen, greift man ein. Wenn ein Schwellenwert erreicht wird, löst man die nächste Maßnahme aus.

In stabileren Phasen kann das lange plausibel wirken. In Präsentationen wirkt es meist noch plausibler. Nur ist Führung selten so geradlinig.

Ein KPI kann steigende Abwanderung zeigen. Er kann Margendruck sichtbar machen. Er kann zeigen, dass die Conversion hinter Plan bleibt. Was er allein nicht leisten kann: klären, was diese Veränderung tatsächlich bedeutet. Dafür braucht es Kontext. Den Blick auf die Historie. Den Abgleich mit dem Plan. Den Unterschied zwischen Segmenten. Die Erwartungen im Markt. Äußere Bedingungen. Die strategische Richtung. Und die Abwägungen, die ein Unternehmen in der Realität tatsächlich tragen will.

Ein Dashboard kann den Interpretationsspielraum verkleinern. Es kann Einordnung nicht ersetzen.

Genau dort lag die eigentliche Verwirrung. Viele Organisationen behandelten Daten so, als könnten sie Unklarheit auflösen. Tatsächlich liegt ihre Stärke oft eher darin, es schwerer zu machen, sich hinter Unklarheit zu verstecken.

 

Warum einzelne KPIs so leicht in die Irre führen

Ein einzelner KPI trägt die Antwort fast nie in sich.

Eine Zahl wird erst im Zusammenhang sinnvoll. Deshalb beginnt reife Steuerung nicht mit der Frage: „Welche eine Kennzahl müssen wir im Blick behalten?“

Diese Frage kommt meist zu früh und greift zu kurz. Die bessere Frage lautet:

"Welche Kombination von Signalen hilft uns, die Realität mit möglichst wenig Verzerrung zu lesen?"

Conversion ohne Blick auf die Qualität des Traffics kann in die Irre führen. Umsatz ohne Marge ebenso. Produktivität ohne Qualitätsbezug auch. Retention ohne Akquisitionskontext ebenfalls. Genau hier wird Goodhart’s Law praktisch. Sobald eine Kennzahl zum Ziel wird, verliert sie als Kennzahl an Aussagekraft.

Ein KPI kann als sinnvoller Anhaltspunkt beginnen. Sobald Menschen aber die Zahl selbst optimieren, verbessert sich oft die Kennzahl, während sich die Realität verschlechtert, die sie eigentlich abbilden sollte. Deshalb wirken KPI-Systeme oft gerade dann besonders überzeugend, kurz bevor sie beginnen, in die Irre zu führen.

Das Problem ist nicht Messung. Das Problem entsteht, wenn Entscheidungen zu direkt an einzelne Zahlen gekoppelt werden, ohne regelmäßig zu prüfen, ob diese Zahlen überhaupt noch das messen, was man in ihnen zu sehen glaubt. Entscheidend ist nicht nur die Bewegung einer Kennzahl. Entscheidend ist das Zusammenspiel der Indikatoren, die Annahmen dahinter und das Umfeld, in dem sie gelesen werden.

 

Warum KPI-Systeme nur so gut sind wie ihr Realitätsbezug

Ein KPI-System ist immer nur so gut wie die Realität, die es noch erfasst.

Gerade wenn Dashboards über längere Zeit gut funktioniert haben, gerät das leicht in Vergessenheit. Vertraute Kennzahlen wirken mit der Zeit vollständiger, als sie tatsächlich sind. Doch kein KPI-System ist vollständig. Kennzahlen vereinfachen immer. Sie verdichten Wirklichkeit in eine Form, die schneller lesbar wird.

Das ist hilfreich. Es kann aber riskant werden, wenn nicht mehr hinterfragt wird, was außerhalb dieses Rahmens liegt. Das Risiko besteht nicht nur darin, dass eine Zahl falsch ist. Gefährlicher ist oft, dass sie technisch korrekt ist und operativ trotzdem in die falsche Richtung führt.

Genau deshalb erzeugen isolierte KPIs so leicht ein falsches Gefühl von Sicherheit. Sie wirken objektiv. Ihre Bedeutung hängt aber weiterhin an Kontext, Einordnung und den Annahmen, auf denen sie beruhen.

 

Warum der ROI von Business Intelligence oft zu eng gedacht wurde

Dasselbe Missverständnis prägte lange auch die Sicht auf Business Intelligence.

Über Jahre war der einfachste Business Case für BI schnell benannt: weniger manuelle Excel-Reports, schnellere Reporting-Zyklen, weniger Aufwand bei der Konsolidierung, weniger repetitive Analystenarbeit. Diese Effekte sind real. Und sie sind leicht messbar.

Der eigentliche Wert von BI war jedoch immer schwerer sauber zu greifen. Eine bessere Analytics-Umgebung kann Prioritäten schärfen, vermeidbare Fehler reduzieren, Reaktionszeiten verkürzen, Abweichungen früher sichtbar machen oder in Situationen für Klarheit sorgen, die sonst in Zögern oder interne Politik kippen würden. Auch das sind wirtschaftliche Effekte. Oft sogar die größeren. Nur entstehen sie meist indirekt, zeitversetzt oder im Zusammenspiel mit anderen Veränderungen. Es sind Effekte zweiter Ordnung. Und Effekte zweiter Ordnung verlieren fast immer, sobald ROI zu eng gedacht wird.

Genau deshalb wurde BI so häufig unterschätzt. Wenn ihr Nutzen vor allem über eingesparte Reporting-Stunden beschrieben wird, schrumpft BI zu einer Effizienzschicht für schnellere Managementfolien. Das greift zu kurz.

Der strategische Zweck von BI war nie nur Reporting-Effizienz. Es ging immer um bessere Steuerung. Um frühere Hinweise auf veränderte Bedingungen. Um diszipliniertere Priorisierung. Kurz gesagt: um bessere Entscheidungen. Dass sich das schwerer beziffern lässt als Report-Automatisierung, macht es nicht weniger real. Meist zeigt es nur, dass der Bewertungsrahmen im Unternehmen zu eng gesetzt ist.

 

Was sich ändert, wenn gewohnte Muster nicht mehr tragen

In ruhigeren Phasen können schwächere Vorstellungen von „data-driven“ erstaunlich lange funktionieren.

Wenn sich Märkte, Kundenverhalten, Lieferketten und interne Abläufe innerhalb vertrauter Muster bewegen, bleiben historische Daten länger nützlich. Trends lassen sich sauberer fortschreiben. Prognosen verlieren langsamer an Qualität. Benchmarks halten länger, als sie eigentlich sollten. Selbst mittelmäßige KPI-Systeme können in solchen Phasen robust wirken. Unsicherheit zeigt dann, wie bedingt dieser Komfort war.

Sobald das Umfeld unruhiger wird, verlieren historische Muster an Aussagekraft. Zusammenhänge verschieben sich. Externe Effekte verzerren interne Kennzahlen. Frühindikatoren sind schwerer von bloßem Rauschen zu trennen. Zahlen, die früher verlässlich wirkten, erweisen sich plötzlich als verspätet, unvollständig oder strukturell irreführend.

Doch das Problem geht noch weiter.

In solchen Phasen wird ein Teil des entscheidenden Kontexts oft gar nicht mehr sauber in den Daten sichtbar. Dann wird nicht nur die Einordnung schwieriger. Dann reicht unter Umständen schon der beobachtbare Ausschnitt der Realität nicht mehr aus.

Annahmen, die lange still im Hintergrund getragen haben, brechen weg. Strategische Prioritäten verändern sich schneller als die Reporting-Logik. Externer Druck wirkt auf das System, bevor er sich sauber messen lässt. Risiken bauen sich auf, bevor sie in Dashboards sichtbar werden. Operativ Relevantes verschiebt sich bereits, während das KPI-System noch mit beeindruckender Präzision die Welt von gestern beschreibt.

Genau an diesem Punkt beginnt die alte Lesart von „data-driven“ zu scheitern. Denn wenn gewohnte Muster nicht mehr tragen, kann data-driven zu arbeiten nicht einfach heißen, demselben Dashboard nur mit mehr Überzeugung zu folgen.

Dann verändert sich die Aufgabe. Es geht nicht mehr nur darum, mehr zu messen.

Wichtiger und schwieriger wird es, drei Fragen sauber zu beantworten:

- Welchen Signalen können wir noch trauen?
- Welche Annahmen tragen nicht mehr?
- Und passt unser KPI-System überhaupt noch zur Realität?

Das ist ein deutlich anspruchsvollerer Maßstab.

Er verlangt mehr Kontext, nicht weniger. Mehr Urteilsvermögen, nicht weniger. Mehr strategische Ruhe, nicht weniger. Und er verlangt auch mehr Demut. Denn unter unsicheren Bedingungen ist große Präzision oft eher ein Warnsignal als ein Qualitätsmerkmal.

 

Data-driven zu arbeiten braucht bessere Signale, nicht mehr Dashboards

„Data-driven“ bleibt ein Konzept, das es zu verteidigen lohnt.

Aber nur dann, wenn wir aufhören so zu tun, als hätte es jemals automatische Sicherheit bedeutet. Es ging nie darum, dass Dashboards Führung ersetzen. Es ging darum, Führung stärker an die Realität zu binden. Dieser Maßstab wird schwerer einzuhalten, sobald Bedingungen unsicherer werden. Nicht weil Daten unwichtiger würden, sondern weil relevante Signale schwerer zu erkennen, schwerer zu prüfen und leichter falsch zu lesen sind. Und manchmal auch, weil ein Teil des entscheidenden Kontexts gar nicht mehr gut genug erfasst wird.

Genau deshalb braucht der Begriff heute eine reifere Auslegung.

Data-driven zu arbeiten heißt nicht, das Dashboard entscheiden zu lassen. Es heißt, mit klareren Annahmen, besserer Signaldisziplin und einem ehrlicheren Verständnis dafür zu entscheiden, was Zahlen leisten können und was nicht. Und wenn sich das Umfeld spürbar verschiebt, gehört dazu auch die Bereitschaft, nicht nur Ergebnisse zu hinterfragen, sondern den Rahmen, in dem diese Ergebnisse gelesen werden.

In ruhigeren Phasen helfen Dashboards bei der Steuerung. In unsicheren Zeiten zeigen sie zusätzlich, ob das zugrunde liegende Steuerungsmodell überhaupt noch trägt.

 

Foto von Thomas Howert

Passt Ihr KPI-System noch zur Realität?

Wenn sich Rahmenbedingungen verändern, reicht besseres Reporting allein nicht mehr aus. Wir helfen Ihnen zu prüfen, ob Ihre KPIs, Ihre Signalqualität und Ihre Entscheidungslogik noch tragen.

Reality-Check anfragen

Thomas Howert

Gründer und Business Intelligence Experte seit über 10 Jahren.

Weitere Artikel entdecken

Text: "Können Sie bitte Umsatz definieren?"

Data Governance und die Single Source of Truth

Oft treten Unternehmen an uns heran, weil ihr Reporting auseinander läuft. Dashboards widersprechen sich, KPIs sind inkonsistent, und fast immer wird die Ursache zuerst in der Technik gesucht.

Mehr erfahren
weißer Text auf blau eingefärbten Bild mit zwei männlichen Personen, die miteinander sprechen: „Das Ziel ist nicht maximale Zentralisierung. Das Ziel ist skalierbare Nutzbarkeit.“

Data Mesh, Data Meh? Warum viele Unternehmen ihre BI- und Datenorganisation gerade neu bewerten müssen

Vor ein paar Jahren war Data Mesh für viele Unternehmen vor allem ein starkes Zielbild. Mehr Ownership in den Domänen, weniger zentrale Engpässe, mehr Produktdenken, mehr Skalierbarkeit. Auf Strategiefolien klang das modern, ambitioniert und längst überfällig.

Mehr erfahren
drawing of two hands shaking

Daten sind entscheidend. Aber Menschen entscheiden.

Business Intelligence (BI) ist heute technologisch so stark wie nie. Plattformen wie Microsoft Fabric, Databricks und Qlik liefern integrierte Pipelines, Governance und KI-gestützte Insights in einer Dimension, die vor wenigen Jahren undenkbar war. Und trotzdem scheitern viele BI-Projekte. Nicht, weil die Daten unzuverlässig sind. Sondern, weil die menschliche Seite von BI zu wenig Beachtung findet. Hier ist die typische Leadership-Reise jeder BI-Initiative, und die Stellen, an denen sie ins Stocken gerät.

Mehr erfahren