Strategie der Datenanalyse: der reaktive Ansatz

Strategie der Datenanalyse: der reaktive Ansatz

May 19, 2020

Aleksei Schinkarenko

BI-Architekt

Die Krise, die die Unternehmen derzeit durchmachen, ist im Grunde auch eine Datenkrise. Die alten Methoden der Analytik werden unbrauchbar. Veraltete Datenmodelle bröckeln, und die Unternehmen schaffen es nicht, sich auf die neue Realität einzustellen. Als Mittel gegen diese Erschütterung bietet Itransition den Service der reaktiven Datenanalytik an - vorgestellt und erläutert von Aleksei Shinkarenko, BI-Architekt im Itransition-Hub für Business Intelligence Consulting.

Diese Krise wurde zu einem Lackmustest für die Lebensfähigkeit herkömmlicher Predictive-Analytics-Modelle, von denen die meisten einfach unbrauchbar geworden sind. Heute kann niemand mehr auf seine Daten schauen und sagen, was genau passiert oder was als nächstes kommt. Die Daten haben sich selbst isoliert - sie entfernen sich von ihrem historischen Erbe und weigern sich, den tatsächlichen Stand der Dinge widerzuspiegeln, zumindest so, wie wir ihn früher gesehen haben.

Wie konnte es so weit kommen? Die Sache ist die, dass die Datenanalytik auf Grundpfeilern aufgebaut wurde, die unter den heutigen Umständen im Handumdrehen veraltet sind:

  • Vorhersagefähige Datenmodelle, die immer weiter in die Zukunft reichen, erweisen sich heute als falsch, da die Daten nicht mehr in die bestehenden Modelle der vereinfachten Zukunft passen.
  • Die Fähigkeit von Daten, die Realität als Kontinuum abzubilden, ist nun blockiert.
  • Die Prozessautomatisierung auf der Basis von akkumulierten Big Data hat sich nun wieder in den manuellen Modus verlagert.
  • Zusammen mit der Logik des Datenmodells und der Datengenauigkeit zeigt unser angesammeltes Wissen nun, dass wir unter der "großen Illusion" gelebt haben, dass die meisten Ereignisse vorhergesagt werden könnten.

Wie Sie sehen, unterstützen Analysen, die auf dem Kontinuitätsprinzip beruhen, während einer Krise keine Projektionen und Verzerrungen mehr. Mehr noch, die aktuelle Situation hat die Trennung offengelegt, die wir lieber ignoriert haben: Wir haben uns entschieden, selbst für stumme Daten zu sprechen, und haben die Analytik genutzt, um die Daten näher an unser Realitätsmodell zu bringen, das wir für bequemer hielten. Das Superereignis, mit dem wir konfrontiert waren - die Pandemie, die sich durch eine Kette sozialer, wirtschaftlicher und politischer Komplikationen verschlimmert hat - hat Daten gegen dieses Wunschdenken immun gemacht.

Crisis and data

Wir müssen zugeben, dass die aktuelle Situation, die durch Daten belegt ist, sich von einem "schwarzen Schwan" in einen "Elefanten im Zimmer" verwandelt hat. Die bequemen Realitätsmodelle, die seit der Weltwirtschaftskrise entwickelt und verwendet wurden, ließen uns die Augen davor verschließen, dass selbst kleinste Abweichungen einen massiven kumulativen Effekt (auf das Klima, den globalen epidemiologischen Zustand usw.) darstellen könnten. Diese kleinen Abweichungen wurden in dem Bestreben, alles auf einen gemeinsamen Nenner zu bringen oder einen Durchschnitt zu bilden, eine Trendlinie oder die Durchschnittstemperatur zu zeichnen, ignoriert. Potenziell bahnbrechende Ausreißer wurden als Ausnahmen markiert und totgeschwiegen. Wir entwickelten eine Liebesbeziehung zu dem Gedanken, dass unser Wohlergehen nie enden würde.

Jetzt sind die Daten entfesselt. Sie brauchen uns nicht mehr und sind zu einer Sache für sich selbst geworden. Sie sind mächtig genug, um endlich ihre eigenen Regeln zu diktieren. Sie bewegen sich mit halsbrecherischer Geschwindigkeit und machen alte Algorithmen untauglich, mit dem Wandel Schritt zu halten. Ein unbekannter Algorithmus hat die alten ersetzt, und sein Umfang ist größer als unsere bereits veralteten analytischen Mechanismen.

All dies hat die Analysten der Fähigkeit beraubt, in die Zukunft zu sehen. Was uns jedoch bleibt, ist der Versuch, kleine, fragmentierte, unstrukturierte, blitzartige Daten unter der Prämisse des "Nichtwissens" zu erfassen.

'Nichtwissen' ist das neue Normal

Keine Ahnung zu haben, was als nächstes zu tun ist, ist keine Schande. Während jeder versucht, die Zukunft vorherzusagen, kann das "Nichtwissen" in Krisenzeiten für die Analytik hilfreich sein.

Die Ursache der Datenepidemie ist, dass es zu viele mehrdeutige Daten gibt und die Entscheidungsträger in den Unternehmen einfach nicht wissen, was sie damit entdecken wollen. Sie finden nicht einmal einen Weg, ihre Fragen zu formulieren.

In meiner Arbeit bin ich für den Aufbau der Logik von Datenstrukturen, Entscheidungsabläufen und Datenwertkettenmodellen verantwortlich. Um jedoch nachhaltige Ergebnisse zu liefern, helfe ich den Kunden zunächst zu verstehen, was genau sie analysieren müssen. Ich höre den Kunden zu und nehme alles auf, was sie sagen, auch die kleinen, zwischen den Zeilen versteckten Absichten. Auf diese Weise erkenne ich ihre Bedenken und rekonstruiere ihre viszerale Nachfrage, die sie im Moment noch nicht ganz artikulieren können. Darüber hinaus konzentriere ich mich auf die Daten, um zu verstehen, ob sie ihre Ziele unterstützen können.

In vielen Fällen sehe ich eine Diskrepanz zwischen den gesammelten Daten und den erwarteten Ergebnissen. Ein Unternehmen sammelt zum Beispiel Daten, um mehr über seine Kunden zu erfahren, aber in Wirklichkeit geht es bei den Daten nicht um das Kundenverhalten, sondern hauptsächlich um den Betrieb. Ich bemühe mich, unseren Kunden zu zeigen, dass es nicht ausreicht, nur einige Daten zu besitzen. Zahlen sind keine Entscheidungsgrundlage, wenn sie nicht richtig interpretiert werden.

Um die Grundlage für diese Interpretation zu schaffen, wenden wir die folgenden zwei großen F&E-Schritte an.

Stufe 1

Wir lernen das Unternehmen kennen und versuchen, so viel wie möglich über seine Datenquellen, Data Warehouses und Dateneigentümer herauszufinden, über die Entscheidungen, die sie treffen und treffen wollen, und darüber, wie diese Entscheidungen in datengestützte Entscheidungen umgewandelt werden können.

Wir suchen auch nach Fällen, in denen Daten so manipuliert werden, dass sie für verschiedene Zwecke überzeugend aussehen. Es gibt ein allgemeines Vorurteil, dass Daten eine einzige Quelle der Wahrheit sein sollten, bei der zwei plus zwei immer vier ergibt. In Wirklichkeit werden sie immer durch Emotionen korrigiert und dadurch verzerrt. Aus diesem Grund sind die Erkennung und Korrektur von Verzerrungen ein wichtiger Teil unserer Arbeit.

Wenn ein grafisches Modell auf der Grundlage dieser ersten Forschungsphase erstellt ist, zeigen wir es dem Kunden. Wenn er seine Daten als "Bild" sieht, beginnt er, nach vertrauten Teilen zu suchen und zu fragen, was er mit diesen Daten tun kann oder wie sie funktionieren werden - während er sich auf den Zustand seines Unternehmens zubewegt, der ihm wirklich am Herzen liegt, den er aber vorher nicht definieren konnte. Auf diese Weise rekonstruieren sie ihre Vorurteile.

Indem wir die Interpretation der Daten durch unsere Kunden verfolgen, die vor ihnen liegen, können wir in Phase 2 ein genaues Abbild ihrer Datenwahrnehmung erstellen.

Phase 2

In dieser Phase geben wir dem Kunden ein Feedback in Form einer interaktiven Informationsanzeige, auf der er seine Daten als Antworten auf seine Fragen visualisiert sieht und diese Anzeige als das Modell verwenden kann, mit dem er in seiner Planung experimentieren möchte. Mit anderen Worten: Wir entwerfen eine Plattform, auf der Daten interpretiert werden können, um den Denkprozess zur Beantwortung der beiden Hauptfragen - was muss ich wissen und was kann ich mit diesem Wissen tun - voranzutreiben. Mit den entsprechend aktualisierten Analyse-Dashboards erleben sie einen dieser Aha-Momente: "Wow", sagen sie, "das ist genau das, was ich im Kopf hatte, aber nicht formulieren konnte"

Natürlich steht unser Ansatz zur Datenstrategie aus wissenschaftlicher Sicht am Rande. Traditionell wird die Analytik als mathematische Analyse und logischer Ansatz wahrgenommen. Wir wiederum fügen eine Prise des Irrationalen und Emotionalen hinzu, was, offen gesagt, perfekt in die Zeit passt, in der wir leben.

'Nichtwissen' ist ein Vorteil, keine Schwäche. Anstatt aufgrund der Unfähigkeit, die Situation zu beherrschen, um sich zu schlagen, ist es höchste Zeit, neue Wege zu beschreiten, zu experimentieren und gamifizierte Analysen zu adaptieren.

Die Veränderung der extremen Marktbedingungen nutzen

Diejenigen, die schnell reagieren und bereit sind, ihre analytischen Entscheidungsmechanismen zu verändern, werden gegen die tödlichsten Wirbelstürme der Märkte immun sein.

Um sich auf diesen Wandel vorzubereiten, müssen die Unternehmen Folgendes zugeben:

  • Krise ist dauerhaft.

    Die Krise ist ein Dauerzustand, denn sie ist im Kapitalismus als Mittel zur Erneuerung fest verankert. Sie kommt bei Superereignissen wie einer Pandemie an die Oberfläche und setzt Unsicherheit und Unvorhersehbarkeit frei.

  • Planung auf der Grundlage von Datenkontinuität ist in einer Krise ineffizient.

    Es gibt keinen Platz für lineare "Wenn-dann"-Szenarien, die im Falle eines Hindernisses sehr anfällig für Störungen sind. Unsere Maßnahmen müssen reaktiv sein.

  • Daten brechen während der Krise aus.

    Wir können sie nicht kontrollieren und sie zwingen, die Realität so abzubilden, wie wir es früher mit den Methoden der Wiederholbarkeit und Kontinuität getan haben.

Die Krise verschärft sich, was bedeutet, dass wir gerade jetzt unsere Einstellung zur Datenstrategie überdenken müssen. Wir müssen uns eingestehen, dass sich Daten anders verhalten, und dieses Verhalten erfordert ein Überdenken der derzeitigen Analysesysteme, Dashboards, Überwachungssysteme und neue analytische Fähigkeiten. Wir sollten es nicht bereuen, wenn wir die Methoden und Systeme, die in besseren Zeiten unsere Verbündeten bei der Entscheidungsfindung waren, neu definieren.

Reaktive Datenanalytik als Impfstoff für das Unternehmen

Die gesammelten Daten, ob klein oder groß, sind irrelevant geworden. Warum? Ihre Haltbarkeitsdauer hat sich dramatisch verkürzt. Die Daten werden immer schneller, und sie funktionieren nicht mehr, wenn sie statisch auf einem Dashboard dargestellt werden. Um dieser rasanten Entwicklung gerecht zu werden, haben wir bei Itransition den neuen Service der reaktiven Datenanalyse entwickelt.

Wir bieten datenbasierte Mikro-Projekte an, um:

  • Schnell funktionierende Metriken zu erstellen
  • Entwerfen Sie neue Datenpunkte und erfassen Sie Daten für das System
  • Dateneinsichten oder Wachstumspunkte zu finden
  • Werkzeuge für einen schnellen Umbau von Analysesystemen und die Anpassung an die neue Realität bereitstellen

Unser Service basiert auf dem HADI-Zyklus (Hypothesis-Action-Data-Insight), bei dem wir eine Hypothese aufstellen, sie in der Praxis testen, während des gesamten Prozesses Daten sammeln und dann zu dem Schluss kommen, ob sie funktioniert und welche Verbesserungen vorgenommen werden müssen. Dieser Weg der Hypothesenprüfung ist der sicherste in Zeiten von wirtschaftlichem Chaos und Unsicherheit.

HADI hypotheses testing framework

Dieser Service wird in Form von Quick-Insight-Analysen angeboten, die besonders effektiv sind, wenn der Kunde nur eine vage Vorstellung davon hat, welche Daten wertvoll sind, diese aber so schnell wie möglich herausfinden muss.

Wir machen eine schnelle Analyse der Datenstruktur, der Geschäftsprozesse und der anfallenden Daten. Wir können auf jeder Datenzugriffsebene arbeiten. Wenn der Kunde nur eine Datenstruktur zur Verfügung stellen kann, reicht das für uns aus, um zu verstehen, ob die vorhandenen Ereignisse es erlauben, Daten zu sammeln, um die gewünschten Ziele zu erreichen.

Zusammen mit dem Kunden machen wir ein Brainstorming darüber, was zusätzlich oder anders gemacht werden kann und welche Datentypen gesammelt werden sollen. Sobald die Strategie steht, setzen wir die am besten geeigneten Technologien ein (zum Beispiel mit Hilfe von Tableau's data science capabilities) und bauen ein MVP, um Ideen schnell zu testen und schon in wenigen Tagen greifbare Ergebnisse zu liefern.

Reactive data analytics workflow

Wie reaktive Analytik funktioniert: eine Fallstudie

Der Kunde kam zu uns, um eine Überlastung seines Helpdesks zu verhindern. Er wollte wissen, wo genau die Überlastung auftrat, um die Schwachstellen in der Pipeline zu erkennen und zu reagieren, sobald diese Schwachstellen ein kritisches Ausmaß an Arbeitsbelastung anzeigten. Leider konnte dieser Ansatz das Problem nicht lösen, da es sich um eine rückwirkende Reaktion handelte. Was sie wirklich brauchten, war die Möglichkeit, proaktiv zu handeln, bevor die Schwachstellen einen Alarm auslösten, und so die Möglichkeit zu erhalten, sie in Echtzeit zu beheben.

Als wir die Muster der Anomalien analysierten, stellten wir fest, dass sie nur sehr kurze Zeit andauerten - buchstäblich Minuten, nicht Stunden oder Tage. Es handelte sich um eine plötzliche Spitze in der Leitung, die in nur 15 Minuten um 100 % ansteigen konnte.

 

Anomalies growing to critical overload

Solche Anomalien könnten daher ein Zeichen dafür sein, dass sofort Maßnahmen ergriffen werden müssen, um die Überlastung einzudämmen, bevor sie tatsächlich eintritt.

Mit diesem Ziel vor Augen haben wir einen Impulsmonitor entwickelt, der die Gründe für die Spitzen bei den Helpdesk-Anfragen analysiert, die Netzlast verfolgt und in Echtzeit Warnungen bei Überlastverdacht ausgibt.

Impulse monitor

Was ist, wenn die Krise Ihre Datenerfassung blockiert?

In der aktuellen Krise verlieren Unternehmen häufig die Orientierung, weil der Zugang zu ihren wichtigen Daten blockiert ist. Um unseren Kunden zu helfen, aus dieser Datensperre herauszukommen, bieten wir Datenerfassung als Dienstleistung an. Wir wenden Reverse Engineering an, um zu definieren, welche Datentypen für die Aufgabe benötigt werden. Mit Hilfe von Modellierung und Prototyping generieren wir dann Daten und simulieren die Prozesse, die Unternehmen helfen, den Horizont zu sehen und vorwärts zu gehen.

Datenerfassung während des Lockdowns

Kurz vor der Krise lieferten wir ein MVP an ein Logistikunternehmen. Das Produkt war reif für die Marktfreigabe, aber während des Lockdowns kamen ihre Prozesse zum Stillstand, ebenso wie ihre Datenerfassung, die aufgrund äußerer Umstände blockiert war.

Nach kurzer Zeit legte der Kunde Tests und geplante Produktverbesserungen auf Eis, da er nicht in der Lage war, Hypothesen an echten Kunden zu testen, deren Feedback einzuholen und den wahren Wert seiner Dienstleistung zu verstehen. Kurz gesagt, sie waren bereit, ihre dienstleistungen zu verkaufen, konnten aber nicht testen, wie sie auf den Markt passen. Offensichtlich steckten sie in einer Schleife fest, die sich ewig hinziehen konnte. Ihre Methoden aus der Zeit vor der Krise, die zuvor zu 100 % effizient waren, konnten nicht mehr angewendet werden.

Um diesen Kreislauf zu durchbrechen, boten wir an, Daten zu produzieren und Produkttests zu simulieren, um die erforderlichen Erkenntnisse über den Wert der Dienstleistung und das Potenzial ihrer Daten als Produkt auf der Grundlage der Elastizität der Datenstruktur zu gewinnen.

Im Rahmen eines 60-Stunden-Projekts bauten wir eine Daten-Sandbox, in der es möglich war, Prototypen von Analysen zu erstellen, um sie real aussehen zu lassen, auch wenn die Daten nicht real sind.

Data acquisition

Mit Hilfe unseres Daten-Toolkits konnten wir erste Hypothesen testen, indem wir folgende Fragen stellten:

  • Welche Arten von Daten sollten gesammelt und angeboten werden, um mehr Nutzer zu gewinnen?
  • Wie kann eine flexible topologische Datenstruktur gestaltet werden, um den Datenfluss und die Analyse nutzerzentriert zu gestalten?
  • Welche IoT-Dienste und -Geräte ermöglichen es, mehr Informationen über Lieferverträge und Schlüsselagenten zu sammeln?

Als Ergebnis synthetisierten wir Daten, speisten sie in das MVP ein und modellierten verschiedene Szenarien für die zukünftige Entwicklung des Produkts. Als der Kunde die Möglichkeit hatte, das Potenzial seines Produkts aus der Sicht der Daten zu sehen und sowohl positive als auch negative Szenarien kennenzulernen, konnte er das Projekt mit voller Kraft fortsetzen.

Zusammenfassend lässt sich sagen, dass der Kunde während des Lockdowns nicht wegen des Datenmangels, sondern wegen seines Widerwillens, seine Ideen aus der Zeit vor der Krise aufzugeben, nicht weiterkommen konnte, da er sich von den gesunkenen Kosten leiten ließ. Sie hatten so viel Mühe in ihre Ideen investiert, dass sie sie nicht einfach beiseite legen und etwas Neues ausprobieren konnten.

Wir haben die Überzeugung der Kunden zerstört, dass ein datenbasiertes Produkt nur dann lebensfähig ist, wenn es mit einer Datenflut verbunden ist. Stattdessen haben wir gezeigt, dass ein lebensfähiges Produkt das Ergebnis einer Reorganisation der Datenstruktur sein kann. Die Krise hat ihre Datenstruktur tatsächlich in ein eigenständiges Produkt verwandelt.

Ein weiteres Mal habe ich gesehen, dass Vertrauen und Sensibilität für die Situation des Kunden unterschätzt werden. Obwohl wir zugegeben haben, dass wir keine fertigen Antworten haben, blieb der Kunde bei uns und stimmte einem Experiment zu. Dies erwies sich als entscheidender Faktor für den Aufbau einer ganz neuen Ebene unserer Beziehung. Vor der Krise waren wir nur ihr technologischer Partner. Jetzt sind wir ein Produkt- und Geschäftspartner, der zu einer breiten Palette von Datendiensten beraten und eine Datenstrategie anbieten kann. Anstatt nur ein Entwickler zu sein, sind wir zu einer treibenden Kraft im Geschäft des Kunden geworden.

Reaktive Datenanalyse ist der einzige Weg zu einer schnellen Unternehmensumstrukturierung

Die Strategie der reaktiven Datenanalyse ist ein vielschichtiger Ansatz. Die folgenden Facetten haben bewiesen, dass dieser Ansatz bei der Reaktion auf anormale Ereignisse effizient ist:

Quantitative Daten werden mit Emotionen und einem Narrativ verbunden

Da mathematische Modelle nichts mehr vorhersagen können, müssen wir lernen, wie wir die inhärent fragmentierten Daten, die bisher durch die Illusion der Kontinuität getarnt waren, nutzbar machen können. Diese Illusion wurde durch lange, sich wiederholende Zyklen genährt; heute können wir uns jedoch nicht mehr auf solche Zyklen verlassen.

Stattdessen können wir Datenfragmente nehmen und sie so analysieren, wie sie sind, ohne jegliche Verallgemeinerungen oder Klassifizierungen. Wenn wir dann Emotionen hinzufügen oder besser gesagt, Zahlen mit den Emotionen echter Menschen verbinden und die Punkte durch das Erzählen einer Geschichte verknüpfen, erhalten wir den gewünschten linearen Ursache-Wirkungs-Zusammenhang, der uns hilft, Entscheidungen zu treffen.

Daten werden demokratisiert

In Zeiten der Unsicherheit untergräbt eine starre Hierarchie die Unternehmen. Aktionspläne, auf die sich alle Beteiligten geeinigt haben, werden irrelevant, wenn sich die Situation radikal ändert, so dass die Beteiligten gezwungen sind, die Planung von vorne zu beginnen. Um eine solche Zeitverschwendung zu vermeiden, sollte eine vertikale Silo-Hierarchie in ein Netz von Mikroteams oder ein so genanntes Team von Teams aufgeteilt werden. Jedes Team hat Zugang zu den vereinheitlichten Daten, aber aus seiner eigenen Perspektive. In einer Organisation ohne Grenzen sind die Mitarbeiter in der Lage, datengestützte Entscheidungen auf jeder Ebene schneller zu treffen.

Reaktionen erfolgen in Echtzeit

Daten sind wie Blitze auf einer globalen Landkarte, die unvorhersehbar hier und da auftauchen und Wachstumslinien für die aktuelle Situation irrelevant machen. Unternehmen müssen heute auf der Grundlage von Echtzeit-Analysen arbeiten. Wo es früher ein Dashboard gab, das die Entwicklung über einen Monat hinweg anzeigte, sollte es heute ein Dashboard geben, das die Entwicklung über einen Tag hinweg anzeigt, und zwar im Heartbeat-Modus.

Diese Art von Datenstrategie drängt die Spezialisten dazu, Impulse zu analysieren, anstatt verallgemeinerte Schlussfolgerungen zu ziehen. Das ist eine ganz neue Fähigkeit, denn Echtzeitreaktionen bieten keine Instrumente, um etwas als gut oder schlecht zu bewerten. Stattdessen geben sie einen schnellen Eindruck davon, wie das Herz des Unternehmens schlägt, ob es pulsiert, sich verlangsamt oder einfach nur gesund ist.

Infrastruktur wird zu Ultrastruktur

Die Ultrastruktur ermöglicht es, dorthin zu zoomen, wo Datenimpulse auftreten. Anstatt beispielsweise Prozesse zu analysieren und diese Analyse auf die Prozessverantwortlichen anzuwenden, müssen wir zunächst die Prozessverantwortlichen selbst betrachten.

Nehmen wir zum Beispiel die Versicherungsgesellschaften. Autoversicherungen setzen in der Regel lieber höhere Prämien für teurere Fahrzeuge fest. Eigentlich sollten sie zunächst Daten über potenzielle Autokäufer sammeln und die höchsten Prämien beispielsweise für Hobby-Rennfahrer festsetzen, da diese Käufergruppe mit größerer Wahrscheinlichkeit in einen Unfall verwickelt wird.

Zur postpandemischen Analytik

Die aktuelle Krise kann für die meisten Unternehmen zu einem Wendepunkt werden, da die Verbraucher genügend Zeit haben, neue Gewohnheiten zu entwickeln und diese auch nach der Krise beizubehalten. Ich bin mir sicher, dass kluge Unternehmer bereits jetzt auf die neuen Verhaltensmuster ihrer Kunden reagieren und in Zukunft eine andere Einstellung zur Datenstrategie sowie zu Planungs- und Vorhersagemodellen entwickeln werden.

Natürlich wird sich der Markt wieder auf die bequeme Normalität zubewegen, bei der wir wieder so tun, als könnten Daten die Zukunft vorhersagen. Da wir jedoch genau wissen, dass eine Krise jederzeit und überall eintreten kann, werden wir aus dieser Erfahrung lernen, eine Anti-Krisen-Datenstrategie mit vorgefertigten Modellen der reaktiven Analytik bereitzuhalten. Wir sollten aus der Krise mit der Überzeugung hervorgehen, dass diejenigen Unternehmen immer gewinnen werden, die die Grundlage für eine dynamische Anpassungsfähigkeit und die Möglichkeit zur schnellen Umgruppierung und Umgestaltung von Geschäftsmodellen haben.

Ich hoffe, dass die Unternehmen nicht zögern werden, zuzugeben, dass sie so getan haben, als könnten Daten die Realität widerspiegeln. Um die Punkte zu verbinden, haben alle nur Projektionen erstellt und sie näher an den bestehenden Stand der Dinge herangezogen, um die Zukunft vorherzusagen (so schien es zumindest) und auf der Grundlage dieser Annahmen Entscheidungen zu treffen. Das haben wir alle getan, aber jetzt sind die Linien der Daten und der Realität so weit voneinander entfernt, dass wir sie in absehbarer Zeit nicht mehr näher zueinander ziehen können. Wenn Sie mir nicht glauben, fragen Sie sich einfach: Was sehen Sie, wenn Sie sich ansehen, was die Daten im Moment widerspiegeln?

>