Die Zukunft von Big Data: 5 Vorhersagen von Experten für 2020-2025

Die Zukunft von Big Data: 5 Vorhersagen von Experten für 2020-2025

January 30, 2020

Sandra Khvoynitskaya

IoT-Experte

Seit einem Jahrzehnt wächst die globale Datenmenge exponentiell und es gibt keine Anzeichen für eine Verlangsamung. Sie werden hauptsächlich über das Internet gesammelt, einschließlich sozialer Netzwerke, Websuchanfragen, Textnachrichten und Mediendateien. Ein weiterer gigantischer Teil der Daten wird von IoT-Geräten und Sensoren erzeugt. Sie sind die Hauptantriebskräfte für das Wachstum des globalen Big-Data-Marktes, der laut Statista bereits ein Volumen von 49 Milliarden Dollar erreicht hat.

Die Welt wird heute von Big Data angetrieben und zwingt Unternehmen dazu, Experten für Datenanalytik zu suchen, die in der Lage sind, komplexe Datenverarbeitung zu nutzen. Aber wird das auch in Zukunft so sein? In diesem Artikel finden Sie die Meinungen von Experten und fünf Vorhersagen zur Zukunft von Big Data.

1. Das Datenvolumen wird weiter zunehmen und in die Cloud wandern

Die Mehrheit der Big-Data-Experten ist sich einig, dass die Menge der generierten Daten in Zukunft exponentiell wachsen wird. In seinem Bericht "Data Age 2025" für Seagate prognostiziert IDC, dass die globale Datensphäre bis 2025 175 Zettabyte erreichen wird. Damit Sie verstehen, wie groß das ist, messen wir diese Menge in 128-GB-iPads. Im Jahr 2013 hätte der Stapel zwei Drittel der Strecke von der Erde zum Mond ausgemacht. Bis 2025 wäre dieser Stapel 26-mal länger geworden.

Exponential growth of data

Warum glauben die Experten an ein so schnelles Wachstum? Erstens die wachsende Zahl von Internetnutzern, die alles online erledigen, von der geschäftlichen Kommunikation bis zum Einkaufen und sozialen Netzwerken.

Digital around the world in 2019

Zweitens: Milliarden von vernetzten Geräten und eingebetteten Systemen, die jeden Tag auf der ganzen Welt eine Fülle von IoT-Datenanalytik erzeugen, sammeln und weitergeben.

Da Unternehmen die Möglichkeit erhalten, Big Data in Echtzeit zu nutzen, werden sie in naher Zukunft 60 % der Big Data erstellen und verwalten können. Aber auch die einzelnen Verbraucher spielen eine wichtige Rolle beim Datenwachstum. In demselben Bericht schätzt IDC, dass bis 2025 6 Milliarden Nutzer, d. h. 75 % der Weltbevölkerung, täglich mit Online-Daten interagieren werden. Mit anderen Worten: Jeder vernetzte Nutzer wird alle 18 Sekunden mindestens eine Dateninteraktion haben.

Solch große Datenmengen stellen hohe Anforderungen an ihre Speicherung und Verarbeitung. Bis vor kurzem wurden die Herausforderungen der Big-Data-Verarbeitung durch Open-Source-Ökosysteme wie Hadoop und NoSQL gelöst. Open-Source-Technologien erfordern jedoch eine manuelle Konfiguration und Fehlerbehebung, was für die meisten Unternehmen recht kompliziert sein kann. Auf der Suche nach mehr Elastizität begannen die Unternehmen, Big Data in die Cloud zu verlagern.

Where is the data stored

AWS, Microsoft Azure und Google Cloud Platform haben die Art und Weise, wie Big Data gespeichert und verarbeitet wird, verändert. Wenn Unternehmen früher datenintensive Anwendungen ausführen wollten, mussten sie ihre eigenen Rechenzentren aufbauen. Jetzt bietet die Cloud-Infrastruktur mit ihren kostenpflichtigen Diensten Agilität, Skalierbarkeit und Benutzerfreundlichkeit.

Dieser Trend wird sich sicherlich auch in den 2020er Jahren fortsetzen, allerdings mit einigen Anpassungen:

  • Hybridumgebungen. Viele Unternehmen können sensible Daten nicht in der Cloud speichern und entscheiden sich daher dafür, einen bestimmten Teil der Daten vor Ort zu behalten und den Rest in die Cloud zu verlagern.
  • Multi-Cloud-Umgebungen. Einige Unternehmen, die ihren Geschäftsanforderungen in vollem Umfang gerecht werden wollen, entscheiden sich für die Speicherung von Daten in einer Kombination aus öffentlichen und privaten Clouds.

2. das maschinelle Lernen wird die Landschaft weiter verändern

Das maschinelle Lernen, das eine große Rolle bei Big Data spielt, ist eine weitere Technologie, die unsere Zukunft drastisch beeinflussen wird.

Maschinelles Lernen wird von Jahr zu Jahr ausgereifter. Sein volles Potenzial - jenseits von selbstfahrenden Autos, Geräten zur Betrugserkennung oder Analysen von Einzelhandelstrends - müssen wir erst noch erkennen.

Wei Li

Wei Li

Vizepräsident und Generaldirektor bei Intel

Maschinelles Lernen ist eine sich schnell entwickelnde Technologie, die zur Verbesserung der täglichen Abläufe und Geschäftsprozesse eingesetzt wird. ML-Projekte haben 2019 die meisten Mittel erhalten, verglichen mit allen anderen KI-Systemen zusammen:

Machine learning tops AI dollars

Bis vor kurzem waren maschinelles Lernen und KI-Anwendungen für die meisten Unternehmen aufgrund der Dominanz von Open-Source-Plattformen nicht verfügbar. Obwohl Open-Source-Plattformen entwickelt wurden, um Technologien den Menschen näher zu bringen, fehlt es den meisten Unternehmen an Fähigkeiten, die erforderlichen Lösungen selbst zu konfigurieren. Welch eine Ironie.

Die Situation hat sich geändert, seit kommerzielle KI-Anbieter begonnen haben, Konnektoren zu Open-Source-KI- und ML-Plattformen zu entwickeln und erschwingliche Lösungen anzubieten, die keine komplexen Konfigurationen erfordern. Darüber hinaus bieten kommerzielle Anbieter die Funktionen, die Open-Source-Plattformen derzeit fehlen, wie z. B. die Verwaltung und Wiederverwendung von ML-Modellen.

In der Zwischenzeit gehen Experten davon aus, dass sich die Fähigkeit von Computern, aus Daten zu lernen, durch die Anwendung von unüberwachten maschinellen Lernansätzen, tieferer Personalisierung und kognitiven Diensten erheblich verbessern wird. Das Ergebnis werden intelligentere Maschinen sein, die in der Lage sind, Emotionen zu lesen, Autos zu fahren, den Weltraum zu erkunden und Patienten zu behandeln.

Was mich fasziniert, ist die Kombination von Big Data mit maschinellem Lernen und insbesondere der Verarbeitung natürlicher Sprache, bei der Computer die Analyse selbst übernehmen, um beispielsweise neue Krankheitsmuster zu finden.

Bernard Marr

Bernard Marr

Autor, Big Data: SMART Big Data, Analysen und Metriken nutzen, um bessere Entscheidungen zu treffen und die Leistung zu verbessern

Dies ist faszinierend und beängstigend zugleich. Auf der einen Seite versprechen intelligente Roboter, unser Leben zu erleichtern. Andererseits stellt sich eine ethische und regulatorische Frage, wenn es um den Einsatz von Maschinenlernen im Bankwesen geht, beispielsweise bei Kreditentscheidungen. Giganten wie Google und IBM drängen bereits auf mehr Transparenz, indem sie ihre Modelle des maschinellen Lernens mit Technologien zur Überwachung von Verzerrungen in Algorithmen versehen.

3: Datenwissenschaftler und CDOs werden sehr gefragt sein

Die Positionen von Data Scientists und Chief Data Officers (CDOs) sind relativ neu, aber der Bedarf an diesen Spezialisten auf dem Arbeitsmarkt ist bereits hoch. Da die Datenmengen weiter wachsen, ist die Lücke zwischen dem Bedarf und der Verfügbarkeit von Datenexperten bereits groß.

Im Jahr 2019 befragte KPMG 3.600 CIOs und Technologie-Führungskräfte aus 108 Ländern und fand heraus, dass 67 % von ihnen mit einem Fachkräftemangel zu kämpfen haben (so hoch wie seit 2008 nicht mehr), wobei die drei knappsten Fähigkeiten Big Data/Analytics, Sicherheit und KI sind.

Top 5 most scarce skills

Kein Wunder, dass Datenwissenschaftler neben Ingenieuren für maschinelles Lernen und Big-Data-Ingenieuren heute zu den am schnellsten wachsenden Berufen gehören. Big Data ist ohne Analyse nutzlos, und Datenwissenschaftler sind die Fachleute, die Daten mit Hilfe von Analyse- und Berichtstools sammeln und analysieren und sie in verwertbare Erkenntnisse umwandeln.

Um als guter Datenwissenschaftler zu gelten, sollte man über tiefgreifende Kenntnisse in folgenden Bereichen verfügen:

  • Datenplattformen und -werkzeuge
  • Programmiersprachen
  • Algorithmen des maschinellen Lernens
  • Techniken zur Datenverarbeitung, z. B. Aufbau von Datenpipelines, Verwaltung von ETL-Prozessen und Vorbereitung von Daten für die Analyse

In dem Bestreben, ihre Abläufe zu verbessern und sich einen Wettbewerbsvorteil zu verschaffen, sind die Unternehmen bereit, solchen Talenten höhere Gehälter zu zahlen. Das lässt die Zukunft für Datenwissenschaftler rosig aussehen.

Um die Qualifikationslücke zu schließen, versuchen die Unternehmen nun auch, Datenwissenschaftler aus den eigenen Reihen heranzuziehen. Diesen Fachleuten, den so genannten Citizen Data Scientists, ist es nicht fremd, fortschrittliche Analysemodelle zu erstellen, aber sie haben diese Position außerhalb des eigentlichen Analysebereichs inne. Mit Hilfe von Technologien sind sie jedoch in der Lage, umfangreiche datenwissenschaftliche Verarbeitungen durchzuführen, ohne einen Abschluss in Datenwissenschaft zu haben.

Unklar ist die Situation allerdings bei der Rolle des Chief Data Officer. CDO ist eine Führungskraft auf C-Ebene, die für Big-Data-Governance, Verfügbarkeit, Integrität und Sicherheit in einem Unternehmen verantwortlich ist. Da immer mehr Unternehmenseigentümer die Bedeutung dieser Rolle erkennen, wird die Einstellung eines CDO zur Norm. Laut der Big Data and AI Executive Survey 2019 von NewVantage Partners haben 67,9 % der großen Unternehmen bereits einen CDO im Einsatz.

Die CDO-Position ist jedoch nach wie vor nicht klar definiert, insbesondere was die Verantwortlichkeiten oder, genauer gesagt, die Art und Weise betrifft, wie diese Verantwortlichkeiten zwischen CDOs, Datenwissenschaftlern und CIOs aufgeteilt werden sollten. Es handelt sich um eine der Rollen, für die es keine Einheitsgröße gibt, sondern die von den geschäftlichen Anforderungen der einzelnen Unternehmen und ihrem digitalen Reifegrad abhängen. Folglich wird die CDO-Position einen großen Teil der Umstrukturierung erleben und sich mit der zunehmenden Datenorientierung der Welt weiterentwickeln.

4. der Datenschutz wird ein heißes Thema bleiben

Datensicherheit und Datenschutz sind seit jeher drängende Themen, die ein enormes Schneeballsystem darstellen. Ständig wachsende Datenmengen führen zu zusätzlichen Herausforderungen beim Schutz vor Eindringlingen und Cyberangriffen, da das Niveau des Datenschutzes nicht mit dem Datenwachstum Schritt halten kann.

Es gibt mehrere Gründe für das Datensicherheitsproblem:

  • Sicherheitslücke, verursacht durch einen Mangel an Aus- und Weiterbildungsmöglichkeiten. Diese Lücke wächst ständig und wird laut Cybercrime Magazine bis 2021 3,5 Millionen unbesetzte Stellen im Bereich Cybersicherheit erreichen.
  • Entwicklung von Cyberangriffen. Die von Hackern eingesetzten Bedrohungen entwickeln sich weiter und werden von Tag zu Tag komplexer.
  • Unregelmäßige Einhaltung von Sicherheitsstandards. Obwohl die Regierungen Maßnahmen zur Vereinheitlichung der Datenschutzbestimmungen ergreifen, wie z. B. die GDPR, ignorieren die meisten Unternehmen noch immer die Datensicherheitsstandards.

Statistiken zeigen das Ausmaß des Problems. Statista berechnete die durchschnittlichen Cyberverluste, die sich im letzten Geschäftsjahr für mittelständische Unternehmen auf 1,56 Millionen Dollar beliefen, und 4,7 Millionen Dollar für alle Unternehmensgrößen, Stand Mai 2019.

Neben der GDPR der EU haben viele US-Bundesstaaten eigene Datenschutzgesetze erlassen, wie etwa den California Consumer Privacy Act. Da diese Gesetze schwerwiegende Konsequenzen bei Nichteinhaltung vorsehen, müssen Unternehmen den Datenschutz berücksichtigen.

Ein weiterer Punkt, der Anlass zur Sorge gibt, ist der Ruf. Obwohl viele Unternehmen Datenschutzrichtlinien als rechtliche Standardroutine behandeln, hat sich die Einstellung der Nutzer geändert. Sie wissen, dass ihre persönlichen Daten auf dem Spiel stehen, und fühlen sich daher zu den Unternehmen hingezogen, die Transparenz und Kontrolle über die Daten auf Benutzerebene bieten.

Es ist kein Wunder, dass Führungskräfte auf C-Level den Datenschutz als ihre oberste Datenpriorität bezeichnen, zusammen mit Cybersicherheit und Datenethik. Im Vergleich zu 2018 investierten die Unternehmen 2019 fünfmal mehr in die Cybersicherheit:

Cybersecurity investments in 2019

5. Schnelle Daten und verwertbare Daten werden in den Vordergrund rücken

Eine weitere Vorhersage über die Zukunft von Big Data bezieht sich auf den Aufstieg der so genannten "schnellen Daten" und "verwertbaren Daten".

Im Gegensatz zu Big Data, das sich in der Regel auf Hadoop und NoSQL-Datenbanken stützt, um Informationen im Batch-Modus zu analysieren, ermöglicht Fast Data die Verarbeitung in Echtzeit-Streams. Stream Processing ermöglicht Echtzeit-Big-Data-Analysen innerhalb von nur einer Millisekunde. Dies erhöht den Wert für Unternehmen, die sofort nach Eingang der Daten Geschäftsentscheidungen treffen und Maßnahmen ergreifen können.

Schnelle Daten haben auch die Nutzer verwöhnt und sie süchtig nach Echtzeit-Interaktionen gemacht. Mit der zunehmenden Digitalisierung der Unternehmen und der damit einhergehenden Verbesserung der Kundenerfahrung erwarten die Verbraucher, dass sie auch unterwegs auf Daten zugreifen können. Mehr noch, sie wollen sie personalisiert. In der oben zitierten Studie sagt IDC voraus, dass bis 2025 fast 30 % der weltweiten Daten in Echtzeit vorliegen werden.

Verwertbare Daten sind das fehlende Bindeglied zwischen Big Data und Geschäftswert. Wie bereits erwähnt, sind Big Data an sich ohne Analyse wertlos, da sie zu komplex, multistrukturiert und umfangreich sind. Durch die Verarbeitung von Daten mit Hilfe von Analyseplattformen können Unternehmen Informationen präzise, standardisiert und umsetzbar machen. Diese Erkenntnisse helfen Unternehmen, fundiertere Geschäftsentscheidungen zu treffen, ihre Abläufe zu verbessern und mehr Big-Data-Anwendungsfälle zu entwickeln.