Obwohl erkenntnisorientierte Unternehmen bekanntermaßen bessere Chancen auf wirtschaftlichen Erfolg haben, geben laut dem Human Impact of Data Literacy Bericht von Accenture nur 32 % der befragten Führungskräfte an, dass ihre Unternehmen einen Mehrwert aus Daten schaffen können. Das sind schlechte Ergebnisse, vor allem vor dem Hintergrund aller hohen Investitionen in Business-Analytics-Initiativen in den befragten Branchen. Die Gründe dafür sind unter anderem:
- BI-Initiativen bleiben reine IT-Projekte, die nicht mit geschäftlichen Prioritäten verknüpft sind
- Niedrige Einführungsraten aufgrund schlechter Benutzererfahrungen und zögerlicher potenzieller Anwender
- Mangelnde Unterstützung durch die Geschäftsleitung
- Technologiebeschränkungen trotz hoher BI-Marktreife
Dieser Umstand hat natürlich viele Unternehmen gezwungen, auf Business-Intelligence-Dienste zurückzugreifen, um nach Möglichkeiten zu suchen, eine Business-Intelligence-Architektur aufzubauen, die perfekt auf die geschäftlichen Anforderungen abgestimmt ist und somit hilft, effektive Entscheidungen zu treffen.
Was ist eine BI-Architektur?
Die Business Intelligence (BI)-Architektur ist die Infrastruktur, die ein Unternehmen zur Unterstützung aller Phasen des BI-Prozesses einsetzt - von der Datenerfassung, -bereinigung, -strukturierung, -speicherung und -analyse bis hin zur Bereitstellung von Berichten und Dashboards und der Operationalisierung von Erkenntnissen.
Die BI-Architektur ist ein Teil der Unternehmensarchitektur, die die IT-Umgebung (die Struktur) und die Geschäftsprozesse (den Betrieb des Unternehmens) definiert, damit das Unternehmen seine strategischen und taktischen Ziele erreichen kann.
5 Komponenten zum Aufbau einer Business Intelligence-Architektur
1. Datenquellen
Als Datenquelle wird alles bezeichnet, was die digitalen Informationen erzeugt, die BI-Systeme nutzen. Datenquellen können sowohl intern sein, wenn die Informationen innerhalb eines Unternehmens erfasst und gepflegt werden, als auch extern, wenn die Informationen außerhalb des Unternehmens erzeugt werden.
Interne Datenquellen | Externe Datenquellen |
---|---|
|
|
Wenn neue Geschäftsanforderungen formuliert werden, versorgen die Datenquellen die BI-Lösung mit verschiedenen Arten von Informationen (strukturiert, halbstrukturiert oder unstrukturiert), die in Strömen oder Stapeln kommen und in ihrem Volumen von Kilobyte bis Petabyte und mehr variieren. Allerdings sind nicht alle Datenquellen des Unternehmens für die BI-Lösung bestimmt, da einige Informationen möglicherweise unzugänglich, nicht vertrauenswürdig oder für die aktuellen Geschäftsanforderungen einfach irrelevant sind.
2. die Ebene der Datenintegration und des Datenqualitätsmanagements
Der zweite Schritt des BI-Prozesses zielt auf die Konsolidierung von Datensätzen aus verschiedenen Quellen für eine einheitliche Ansicht ab - so werden die Informationen für Analysen und betriebliche Zwecke nutzbar. Es gibt verschiedene Methoden der Datenintegration, deren Wahl von der Art, dem Format und dem Umfang der Informationen sowie dem Zweck - operative Berichterstattung, Geschäftsanalyse, ML-Anwendungsfälle usw.
Extrahieren, Transformieren und Laden (ETL)
Das Extrahieren, Transformieren und Laden (ETL) umfasst das Abrufen von Informationsstapeln aus den Datenquellen, die Konvertierung in ein anderes Format/eine andere Struktur und die Ablage im endgültigen Speicher. Während das Extrahieren und Laden eher mechanisch abläuft, ist die Umwandlungsphase eine komplexe Tätigkeit, die Folgendes umfasst:
- Datenprofilierung - eine detaillierte Untersuchung der Informationen, ihres Typs, ihrer Struktur und ihrer Qualität, die festlegt, welche Art von Transformationen sinnvoll sind.
- Datenmapping - Abgleich der Datenfelder der Quelle mit dem endgültigen Datenfeld.
- Codeerstellung und tatsächliche Ausführung zur Konvertierung von Daten gemäß den Mapping-Regeln.
- Datenaudit, um sicherzustellen, dass die durchgeführte Umwandlung korrekt ist und die Ausgabedaten den festgelegten Anforderungen entsprechen.
Die genauen Transformationen (die vielfältig sind) werden durch Geschäftsregeln definiert. Sie können sein:
- Zusammenfassen mehrerer Spalten zu einer einzigen oder umgekehrt, Aufteilung einer Spalte in mehrere Spalten.
- Das Einfügen von Werten oder die Umrechnung vorhandener Werte ('Männlich' zu 'M', 'Weiblich' zu 'F', oder '1' zu 'Weiblich', '2' zu 'Männlich', usw.).
- Erstellung neuer Berechnungen (z. B. zur Einhaltung unterschiedlicher Buchführungsregeln).
- Umwandlung von Low-Level-Datenattributen in High-Level-Attribute.
- Ableitung neuer Attribute aus den vorhandenen usw.
Extrahieren, Laden und Transformieren
Eine Alternative zum ETL-Prozess ist der ELT-Ansatz, bei dem die Transformation nach dem Laden der Daten erfolgt. Zum einen spart dieser Ansatz Zeit und Ressourcen, zum anderen entspricht er besser den Bedürfnissen von Datenwissenschaftlern und Datenanalysten, die oft mit Rohdaten experimentieren und eine nicht-triviale Transformation durchführen wollen. Das erklärt die vorherrschende Anwendung dieses Ansatzes für ML-, KI- und Big-Data-Szenarien.
Datenreplikation
Der Prozess kann entweder in Stapeln oder in Echtzeitströmen erfolgen und umfasst das Kopieren von Informationen vom Quellsystem zum Zielsystem ohne oder mit nur minimalen Transformationen. Die Datenreplikation wird als optimale Datenintegrationsmethode eingesetzt, wenn ein Unternehmen Daten für die Datensicherung, die Notfallwiederherstellung oder die betriebliche Berichterstattung kopieren muss.
Erfassung von Änderungsdaten
Es handelt sich hierbei um eine Echtzeit-Datenintegrationsmethode, die darauf abzielt, zu erkennen, welche Datenänderungen in den Quellsystemen stattgefunden haben, und den Zielspeicher entsprechend zu aktualisieren.
Datenintegration durch Streaming
Diese Methode impliziert die kontinuierliche Integration von Echtzeitdaten für die betriebliche Berichterstattung, Echtzeitanalysen oder die vorübergehende Speicherung vor der weiteren Verarbeitung.
Datenvirtualisierung
Diese Methode der Datenintegration hebt sich von den anderen ab, da sie keine physische Bewegung von Informationen voraussetzt und eine konsolidierte Datenansicht bietet, indem sie eine einheitliche logische Ansicht schafft, die über eine semantische Schicht zugänglich ist.
Datenqualitätsmanagement
Datenintegration und Datenbereinigung sind zwei parallel ablaufende Prozesse. Daten, die aus mehreren Quellen stammen, können inkonsistent sein, oder es können doppelte Datensätze vorhanden sein. Zusätzlich zu den Problemen, die auftreten, wenn Daten aus zahlreichen Quellen gesammelt werden, können die Daten auch einfach nur von schlechter Qualität sein, da einige Informationen fehlen, in Bezug auf Zeit oder Wert irrelevant sind, usw. Um diese Probleme zu bewältigen, ist die Komponente mit den Technologien strukturiert, die automatisieren:
- Bewertung der Datenqualität und Identifizierung von Datenproblemen (Data Profiling)
- Korrektur von Datenfehlern, Data Scrubbing (Entfernen von doppelten und schlechten Daten), Datenanreicherung, etc.
- Prüfung der Datenqualität anhand der festgelegten Datenqualitätskennzahlen
- Berichterstattung über Datenqualitätsprobleme, Trends, durchgeführte Aktivitäten usw.
Konsistenz |
Prozentsatz der Anzahl der Datensätze, die über verschiedene Speicherorte und Speicherungen hinweg identisch sind. |
Vollständigkeit |
Ein Prozentsatz, der angibt, wie viele Informationen Sie im Vergleich zu den für die Aufgabe erforderlichen Informationen haben. |
Genauigkeit |
Prozentualer Anteil der korrekten Werte (die tatsächliche Ereignisse, Beträge, Statistiken usw. darstellen) an der Gesamtinformation. |
Zeitnähe |
Prozentsatz der genauen Daten, die innerhalb eines bestimmten Zeitraums verfügbar und zugänglich sind. |
Gültigkeit |
Anteil der Daten, die den festgelegten Formatierungsanforderungen entsprechen, an den Gesamtinformationen. |
Einzigartigkeit |
Prozentualer Anteil der Originaldaten (keine Duplikate oder Überschneidungen) an der Gesamtinformation. |
Auditierbarkeit |
Anteil der Informationen mit vollständiger und transparenter Bearbeitungshistorie (wann die Daten zuletzt aktualisiert wurden und von wem/was). |
Suchen Sie einen zuverlässigen technischen Partner für die Umsetzung Ihres BI-Projekts?
3 Datenspeicher
Diese Komponente umfasst verschiedene Repositories, die Daten für die weitere Verarbeitung strukturieren und speichern. Es gibt zwei große Gruppen von Datenspeichern:
Analytische Datenspeicher
Enterprise data warehouse - ein einheitliches Repository mit bereinigten, konsolidierten Daten. Unternehmen verwenden zu diesem Zweck verschiedene Arten von Datenbanken:
- relational (speichert Daten in Zeilen)
- spaltenorientiert (speichert Daten in Spalten)
- multidimensional (speichert Daten in einem Datenwürfelformat)
Data Marts - Datenspeicher, die auf die Analyse- und Berichtsanforderungen bestimmter Benutzergruppen (Abteilungen, Bereiche usw.) zugeschnitten sind. Sie können ein EDW ergänzen oder als eigenständige analytische Repositories fungieren, wie der Ansatz zum Aufbau eines Data Warehouse es definiert.
Ergänzende Repositories
Da die Datenmengen und -inhalte heutzutage sehr unterschiedlich sind, reicht es für ein Unternehmen möglicherweise nicht aus, nur die analytischen Repositories zu haben. Die Speicherung aller Daten in solchen Repositories ist ressourcen- und zeitaufwändig, von den Kosten ganz zu schweigen. Aus diesem Grund richten viele Unternehmen heute, wenn sie nicht über ergänzende Speicher-Repositories verfügen, eine solche Technologieumgebung ein, die eine schnelle Implementierung zusätzlicher Speicher in der Zukunft ermöglicht. Solche Repositories könnten sein:
Operationale Datenspeicher - bevor sie in das Data Warehouse hochgeladen werden, können die Daten in operative Datenspeicher repliziert und dort in ihrem Rohformat gespeichert werden, bis sie mit dem neueren Format überschrieben werden. ODSs speichern aktuelle Informationen zur Unterstützung von Anwendungsfällen wie operativen Berichten und leichtgewichtigen Analyseabfragen (die nicht komplex sind und keine historischen Informationen benötigen).
Ein Data Lake ist ein weiteres Daten-Repository, das in der BI-Umgebung als Ergänzung zu einem EDW eingesetzt werden kann. Meistens wird er verwendet, um umfangreiche Daten in ihrem nativen Format für die Sicherung und Archivierung, die Zwischenspeicherung vor dem Laden von Daten in das EDW oder die weitere Verarbeitung mit ML- und Big-Data-Technologien zu speichern.
4. BI- und Analyseschicht
Diese Schicht umfasst Lösungen für den Zugriff auf und die Arbeit mit Daten und richtet sich an Datenanalysten, Datenwissenschaftler oder Geschäftsanwender.
Diese Schicht spiegelt natürlich den BI-Reifegrad des Unternehmens und seine Datenanalyseziele wider: Für einige Unternehmen sind beschreibende und diagnostische Analysemöglichkeiten ausreichend, andere benötigen umfassende Analysen, die mit ML und KI über eine Self-Service-Benutzeroberfläche unterstützt werden.
Das Portfolio an Tools kann Folgendes umfassen:
- Abfrage- und Berichtstools, um spezifische Informationen abzufragen und Berichte mit den abgeleiteten Erkenntnissen zu erstellen. Die Berichte können den Geschäftsanwendern planmäßig per E-Mail zugestellt werden oder durch bestimmte Ereignisse ausgelöst werden (z. B. durch einen plötzlichen Umsatzrückgang). Sie können auch in Anwendungen eingebettet werden, die Geschäftsanwender täglich nutzen, um die Benutzerfreundlichkeit zu erhöhen und eine schnelle Operationalisierung zu ermöglichen.
- Online-Analytical-Processing-Tools (OLAP-Tools) zum Auf- und Abwärtsrollen, Drilldown, Aufschneiden und Zerlegen usw. von Geschäftsdaten, die zuvor in multidimensionalen Würfeln abgelegt wurden.
- Data-Mining-Tools für die Suche nach Trends, Mustern und verborgenen Korrelationen in Daten.
- ML- und KI-Tools zur Erstellung von Modellen, die Unternehmen bei der Vorhersage zukünftiger Ereignisse, der Modellierung von Was-wäre-wenn-Szenarien, der Automatisierung analytikbezogener Prozesse für Mitarbeiter ohne Fachwissen usw. unterstützen.
- Datenvisualisierungstools zur Erstellung von Dashboards und Scorecards, die dann in einer sicheren Viewer-Umgebung, über eine öffentliche URL oder durch Einbettung in Benutzeranwendungen gemeinsam genutzt werden können.
Wenn die Lösung mit Selbstbedienungsfunktionen ausgestattet ist, können Geschäftsanwender die von speziellen Teams für sie erstellten Berichte und Dashboards nicht nur passiv konsumieren, sondern auch ihre Analysen durchführen, Dashboards und Scorecards erstellen, die vorhandenen Inhalte bearbeiten und ihre Ergebnisse mit Kollegen teilen.
5. Ebene der Datenverwaltung
Dieses Element ist eng mit den anderen vier verflochten, da sein Hauptziel darin besteht, den durchgängigen BI-Prozess zu überwachen und zu steuern. Mit Hilfe von Data-Governance-Standards und -Richtlinien kann ein Unternehmen kontrollieren, wer wie auf die Informationen zugreift, ob die für die Analyse verwendeten Informationen von angemessener Qualität sind und gut geschützt werden usw. All diese Richtlinien und Standards bilden ein Datenverwaltungsprogramm, das mit Data-Governance-Tools mit Funktionen wie den folgenden automatisiert werden kann:
- Datenkataloge - Erfassung von Daten und Katalogisierung mit Kategorien, Tags, Indizes usw., damit sowohl technische als auch geschäftliche Benutzer wissen, welche Daten verfügbar sind, wo sie verwaltet werden, wer auf sie zugreifen kann, welche Sensibilitätsrisiken bestehen usw.
- Geschäftsglossare - maßgebliche Quellen mit den gemeinsamen Definitionen von Geschäftsbegriffen für Geschäftsanwender aus verschiedenen Abteilungen, um Unklarheiten zu beseitigen.
- Low-Code- oder No-Code-Erstellung und -Konfiguration von Data-Governance-Workflows und integrierte Data-Stewardship-Funktionen für Data-Governance-Teams zur Verwaltung datenbezogener Probleme (z. B. Freigabe von Geschäftsglossareinträgen).
- Automatisierte Datenverlaufsdokumentation für das Datenqualitätsmanagement und die Einhaltung von Datenschutzgesetzen.
- Rollenbasierte Zugriffskontrolle zur Festlegung von Benutzerrechten.
- Automatisierte Erstellung von Datenqualitätsmetriken, Messung, Überwachung der Qualitätsstufen usw.
- Zentrales Management von Datenrichtlinien und Standards (Erstellung, Konfiguration, Überwachung der Übernahme und Einhaltung usw.) usw.
Business-Intelligence-Teams: Hauptaufgaben und Verantwortlichkeiten
Ein BI-Team kann Projektrollen oder Spezialisten umfassen, die bestimmte BI-Aktivitäten durchführen, und Programmrollen oder solche, die an der Pflege und Verwaltung der BI-Aktivitäten im gesamten Unternehmen beteiligt sind. Je nach Größe des Unternehmens und des zugewiesenen Budgets kann der Spezialist mehrere Rollen erfüllen und ähnliche oder sogar überlappende Verantwortlichkeiten haben. Einige der üblichen Rollen des BI-Teams sind:
BI-Programm-Manager
- Definiert den Umfang des BI-Programms und jeder BI-Initiative, sowie Zeitrahmen, Ressourcen, Ergebnisse, etc.
- Stellt die Zusammenarbeit der beteiligten Parteien sicher (BI-Teams, die an verschiedenen BI-Initiativen beteiligt sind)
- Überwacht die Ausführung des Business-Intelligence-Programms und empfiehlt Änderungen an den bestehenden BI-Prozessen auf der Grundlage ihrer Analyse, von Branchentrends, neuen Zielen, Zielsetzungen usw.
BI-Projektleiter
- Definiert den Umfang des BI-Projekts, seine Ziele, Phasen, Ergebnisse, Erfolgsmetriken usw.
- Erstellt Projektschätzungen und einen Projektzeitplan, bewertet Projektrisiken und schlägt Lösungen vor
- Überwacht die Projektdurchführung und stellt sicher, dass Fristen und Ziele eingehalten werden
- Sorgt für die Kommunikation mit allen Beteiligten
BI-Lösungsarchitekt
- Kooperiert mit Business Analysten und Business Stakeholdern, um Geschäftsanforderungen zu definieren, entwirft geeignete BI-Lösungen und überwacht deren Entwicklung
- Evaluiert die bestehende BI-Umgebung, erstellt neue Anforderungen, priorisiert Änderungswünsche usw.
- Definiert und verbessert Data Governance und Datensicherheitspraktiken
BI-Entwickler
- Entwickelt die BI-Lösung, einschließlich Datenmodelle, ETL/ELT-Pipelines, Berichte und Dashboards usw.
- Verwaltet und pflegt die Komponenten der BI-Lösung
- Durchführen von Fehlerbehebungen, Optimieren von Berichten und Dashboards, Bearbeiten von Datenqualitätsproblemen usw.
BI-Analyst
- Überprüft und validiert Geschäftsdaten und entwickelt Richtlinien für die Datenverwaltung
- Verwaltet Stamm- und Metadaten, einschließlich Erstellung, Aktualisierung und Löschung
- Erfasst die Anforderungen der Geschäftsanwender, unterstützt die Endanwender und berät die Leitung
BI-Systemadministrator
- Verwaltet BI-Systeme, überwacht Systemleistung, Verfügbarkeit, Backup, Updates, etc.
- Installiert und konfiguriert Sicherheitseinstellungen, Benutzerzugriffskontrollen usw.
- Durchführen von Fehlerbehebungen und technische Unterstützung für BI-Benutzer usw.
Vorteile der BI-Architektur
Maximierter Datenwert
Durch die Implementierung einer BI-Architektur erhält ein Unternehmen eine hochleistungsfähige Informationsmanagement-Umgebung, in der alle Komponenten miteinander verbunden sind und zusammenarbeiten. Mit einem solchen System können Unternehmen bei minimalen manuellen Eingriffen einen maximalen Wert aus ihren Daten ziehen und die Menge an dunklen Daten verringern.
Entlastung der IT-Abteilung
Auch wenn eine BI-Architektur nicht gleichbedeutend ist mit der Selbstständigkeit von Geschäftsanwendern und sie dedizierte IT- und Datenanalyseteams nicht vollständig entlasten kann, entlastet sie die IT- und DA-Abteilungen erheblich von mühsamen Datenverwaltungsaufgaben wie dem Sammeln von Informationen aus Unternehmenssystemen, der Modellierung, der Erstellung von Routineberichten usw.
Steigerung der Effizienz der Geschäftsanwender
Da die Implementierung der BI-Architektur zu gestrafften Informationsmanagement- und Analyseprozessen führt, müssen Geschäftsanwender Entscheidungen nicht mehr aufschieben oder intuitiv treffen.
Kosteneinsparungen
Obwohl die Implementierung einer umfassenden BI-Architektur eine teure Initiative ist, verspricht sie Kosteneinsparungen, denn ein Unternehmen:
- Es müssen nicht mehrere Systeme eingesetzt und betrieben werden, um die spezifischen Analyseanforderungen verschiedener Abteilungen zu erfüllen
- Automatisierung und Vereinheitlichung aller Datenverwaltungsaktivitäten
- Minimiert Fehler, die durch schlechte Datenqualität, ineffiziente Sicherheit usw. entstehen
- Verhindert Schatten-IT
Ein Nachwort
Die von IDC durchgeführte Studie Importance of Investing in Data and Analytics Pipelines zeigt, dass verbesserte betriebliche Effizienz, gesteigerter Umsatz und Gewinn die drei wichtigsten Messgrößen sind, die mit Investitionen in Datenmanagement und -analyse verbunden sind. Dieselbe Studie stellt jedoch fest, dass es nicht ausreicht, in einzelne technologische Lösungen für die Datenerfassung, -umwandlung, -analyse usw. zu investieren: Solche Einzelinvestitionen können zu mehr Silos und "Datenlecks" führen. Aus diesem Grund wird eine End-to-End-BI-Architektur, wenn sie unter fachkundiger Anleitung implementiert und gewartet wird, zu mehr Unternehmensintelligenz und damit zu besseren Geschäftsergebnissen führen.