Diese 10 Data Analytics Trends erwarten uns 2021

Data Analytics wird immer mehr zum Lebenselixier der IT. Big Data, maschinelles Lernen, Deep Learning, Data Science – die Palette der Technologien zur Analyse riesiger Datenmengen wächst rasant. Gleichzeitig ist die Big-Data- und Analytics-Branche in ständiger Bewegung, da Unternehmen unaufhaltsam nach Möglichkeiten suchen, den größten Nutzen aus den immer größeren Datenmengen zu ziehen, um damit einen Wettbewerbsvorteil zu erzielen.

Welche Tools, Techniken und Strategien haben sich also bewährt, wenn es darum geht, tatsächlich Erkenntnisse aus Geschäftsdaten abzuleiten? Wie hat das Corona-Jahr 2020 die Branche geprägt und auf welche neuen Entwicklungen können wir uns freuen? Wir haben die wichtigsten Trends für das kommende Jahr für dich zusammengefasst.

 

1. Big Data

Big Data gilt gegenwärtig in der IT-Branche als der Trend schlechthin. Was das genau ist, und warum Big Data so wichtig ist, erfährst du hier. Für das Jahr 2021 sind im Bereich Big Data vor allem 2 Themen wichtig:

Datendemokratisierung: In der Praxis heißt Demokratisierung von Daten beispielsweise, dass man die Datensätze nicht mehr nur den IT-Abteilungen, sondern allen MitarbeiterInnen zur Verfügung stellt. Je mehr Menschen mit unterschiedlichem Fachwissen auf die Daten zugreifen können, desto eher kann das Unternehmen wichtige Entscheidungen treffen. Unternehmen wie Airbnb, Zynga oder eBay praktizieren diesen Ansatz schon seit Jahren – und das mit Erfolg.

Mit Big Data zur Impfung: Das Jahr 2021 wird als Jahr der Impfung in die Geschichte eingehen. Dabei gibt es derzeit jede Menge Fragen, die es zu beantworten gilt: wie effektiv sind die Impfstoffe und welche Nebenwirkungen treten auf? Wie verteilt man Impfstoffe rund um den Globus? Werden wir uns auf mehrere Impfstoffe verlassen, um die Verteilung und Wirksamkeit zu verbessern? Die Auswertung von Big Data ist hierbei essenziell.

 

2. Business Intelligence aus der Cloud

„Cloud-Computing“ ist ein viel benutzter Begriff in der heutigen digitalen Welt und auch im Jahr 2021 werden uns Clouds weiter begleiten. Schon vor der Corona-Krise setzten viele Unternehmen darauf, Speicherplatz und Rechenleistung auf eine Cloud zu verlagern. Allerdings hat die Pandemie, durch die Homeoffice zum Standard wurde, dem Trend einen gewaltigen Boost verliehen: Selten war es so wichtig, ortsunabhängig auf Anwendungen und Daten zugreifen zu können. Carsten Bange, Geschäftsführer von BARC befindet: Cloud BI bekommt nun die Aufmerksamkeit, die es verdient.

Kein Wunder, also, dass auch „as-a-Service“-Leistungen wie Data-as-a-service und Database-as-a-service in aller Munde sind. Während ersteres die Cloud-Technologie nutzt, um On-Demand-Zugriff auf Informationen zu bieten, geht Database-as-a-service einen Schritt weiter: Es ermöglicht AnwenderInnen den Zugriff auf ein Cloud-Datenbanksystem und dessen Nutzung, ohne dass diese eigene Hardware kaufen und einrichten, eigene Datenbanksoftware installieren oder die Datenbank selbst verwalten müssen.

 

3. Edge Computing

Neben dem Cloud-Computing gibt es auch das sogenannte Edge Computing, das auf eine dezentrale Datenverarbeitung setzt.

Die Idee dieser neuen Art des Computing ist es, Rechenleistung und Datenspeicherung näher an den Ort zu bringen, an dem sie benötigt werden. Daten werden also „am Rand des Netzwerks“ verarbeitet, wo die Endgeräte (Smartphones, IoT-Sensoren oder autonome Fahrzeuge) auf das Netzwerk zugreifen.

Das hat vor allem bei zeitkritischen Daten einen enormen Vorteil. Man stelle sich z.B. Sensoren in einer Erdölraffinerie vor, die bei zu hohem Druck schnell eine Abschaltung der Anlage herbeiführen müssen. Eine Datenanalyse in der Nähe minimiert die Latenzzeiten und ermöglicht eine unmittelbare Reaktion. Damit das alles in Mikrosekunden funktionieren kann, ist aber noch eine weitere Technologie wichtig: das sogenannte In-Memory Computing, auf die wir noch zu sprechen kommen.

Bedeutet das nun das Ende der Cloud? Nein, ExpertInnen sind sich einig, dass Edge-Computing den Cloud-Trend nicht beenden, sondern ergänzen wird. Denn seine wahre Stärke kommt zum Vorschein, wenn die Daten in Echtzeit bearbeitet werden müssen.

Source: https://www.cuelogic.com/blog/iot-edge-computing

 

4. In-Memory Computing

Auch das In-Memory Computing hat das Ziel, die Rechenleistung zu erhöhen und damit Latenzzeiten zu verringern.

In herkömmlichen Datenbankmanagementsystemen werden Daten auf Festplattenspeicher gesichert. Deshalb fließen die Daten ständig zwischen diesem und dem Arbeitsspeicher (RAM) hin und her und das ist nicht besonders effizient. Ähnlich wie beim Edge-Computing gilt es auch hier die zu analysierenden Daten und die Rechenleistung möglichst nah zueinander zu bringen. Die wesentliche Idee ist nun, die Daten nicht in Datenbanken auf Festplatten, sondern direkt im RAM zu speichern. Bisher waren hohe RAM-Preise oft ein Hindernis dafür. In den letzten 2 Jahren sind die Preise aber deutlich gefallen und Arbeitsspeicher ist momentan so günstig wie noch nie. Das kurbelt das In-Memory Computing weiter an.

 

5. Natual Language Processing

Seit der Jahrtausendwende hat sich mächtig was im Bereich NLP (Natural Language Processing) getan. Auf den Befehl „Spiel was von Nirvana“ versetzt uns Alexa in die Grunge-Ära und Chatbots helfen uns beim Lösen von IT-Problemen. NLP macht es KIs überhaupt erst möglich, sprachlichen Input zu lesen, zu verstehen und sinnvolle Antworten bzw. Reaktionen zu generieren.

Im Jahr 2021 liegt die wichtigste NLP-Entwicklung aber im Bereich Data Analytics selbst: So soll ein sofortiger Informationsabruf aus großen Datenbeständen mit menschlicher Sprache möglich sein. 

Source: Pixabay

 

6. Augmented Analytics

Trend 6 hat das Zeug, zum Game-Changer in der Datenanalyse zu werden. Wusstest du, dass Data Scientists bis zu 80% der Zeit mit dem manuellen Bereinigen und Zusammenführen von Daten verbringen? Kann man das nicht automatisieren?

Genau hier kommt Augmented Analytics ins Spiel. Auf intelligente Weise verknüpft es statistische Methoden mit AI-Technologien wie Machine-Learning und den neuesten Entwicklungen aus dem Bereich Virtual Reality, um Daten automatisiert aus Rohdatenquellen zu entnehmen und aufzubereiten.

Theoretisch geht aber noch mehr: In Zukunft könnte man sogar die Datenanalyse selbst automatisieren und Ergebnisse in Verbindung mit NLP in konkrete Handlungsvorschläge übersetzen. Zum Beispiel fragt ein/e Marketing-ManagerIn: „Wie kann ich das Produkt bestmöglich am Markt platzieren?“ und das System gibt eine Reihe an Empfehlungen aus. Vor allem kleinere Unternehmen mit weniger Datenexpertise können von der neuen Technologie profitieren.

Noch ist das Ganze Zukunftsmusik. Das US-Marktforschungsunternehmen Gartner nimmt an, dass die Technologie erst in 2 bis 5 Jahren ihr volles Potenzial ausschöpfen wird. Trotzdem wird Augmented Analytics bereits jetzt als der nächste Meilenstein für Business Intelligence gehandelt.

 

7. Continuous Intelligence

MarktanalystInnen von Gartner prognostizieren, dass bis 2022 über 50% der neuen Geschäftssysteme Continuous Intelligence (CI) nutzen werden. Aber was genau verbirgt sich dahinter?

CI baut direkt auf Augmented Analytics auf und hat zum Ziel, Echtzeitanalysen zu optimieren. Eines der wichtigsten Learnings aus der Corona- Pandemie ist, dass Modelle, die allein auf historische Daten beruhen in Krisenzeiten ihre Gültigkeit verlieren. Deshalb setzt CI neben historischen Daten auch auf aktuelle Daten.

Das Besondere dabei ist: IC zieht ununterbrochen Informationen aus allen verfügbaren Daten und wertet diese nahtlos aus. Somit entsteht ein kontinuierlicher Fluss von Daten zu Entscheidungen – das macht eine schnelle Reaktion auf bestimmte Ereignisse möglich. Verknüpft man das nun mit Augmented Analytics-Tools, die die notwendigen Entscheidungsprozesse selbst übernehmen, wird das Ganze zu einem automatisierten Kreislauf.

CI kann u.a. angewendet werden, um:

  • Planungsentscheidungen zu überwachen
  • effektiveren Kundensupport zu bieten
  • Sonderangeboten und Rabatte zu entwerfen, die auf die Bedürfnisse und Erwartungen jedes Kunden zugeschnitten sind

Wir können festhalten, dass in CI ein enormes Potential steckt, das mit der Weiterentwicklung von Augmented Analytics bald seine volle Blüte in Unternehmen entfalten wird.

 

8. Datenanalyse im IoT

Fitnesstracker, Connected Cars, SmartTVs – der Hype um intelligente Geräte, die durch das Internet of Things (IoT) miteinander verbunden sind, ist riesig. Laut dem Marktforschungsunternehmen Mordor Intelligence wächst der weltweite IoT-Markt jährlich um 10.5%. Der Vormarsch von 5G, aber auch immer neuere Sensor- und Funktechnologien treiben die Entwicklung weiter voran. Doch der eigentliche Geschäftswert des IoT liegt vielmehr in der Big Data-Analyse als in den Hardware-Neuheiten.

Ein anschauliches Beispiel dafür, wie IoT und Big Data Analysen verbunden werden, sind intelligente Stromzähler. Diese können nahezu in Echtzeit Informationen über den Energieverbrauch senden, die dann eine effizientere, bedarfsgerechte Stromerzeugung und -verteilung ermöglichen. Außerdem können Versorgungsunternehmen für die VerbraucherInnen Anreize bieten, Energie zu bestimmten Zeiten zu nutzen. Das führt zu niedrigeren Rechnungen und man generiert aus denselben Analysen für VersorgerInnen wie auch VerbraucherInnen gleichermaßen einen Nutzen.

Source: Pixabay

 

9. DataOps

Schon mal von dem Begriff DataOps gehört? Er steht für Data operations und bezeichnet weder eine neue Technologie noch ein neues Produkt. Es ist vielmehr eine Methode: ein technologischer Wandel, um die Nutzung von Daten in einem Unternehmen durch effektivere Zusammenarbeit und Automatisierung zu verbessern. Die unternehmensweite Datenmanagement-Praxis steuert den Fluss der Daten von der Quelle bis zum Ergebnis und macht ihn skalierbar, wiederholbar und vorhersehbar. Sie wurde entwickelt, um Herausforderungen zu lösen, die mit dem Zugriff, der Vorbereitung, der Integration und der Bereitstellung von Daten verbunden sind. Es hat sich gezeigt, dass ein effektiver Einsatz von DataOps die Markteinführung von Analyse-Lösungen beschleunigt, die Datenqualität verbessert und die Kosten für die Datenverwaltung senkt.

 

10. Chief Data Officer: Ein Job mit Zukunft

Zu guter Letzt möchten wir dir einen Job vorstellen, der auch im Jahr 2021 nochmal zusätzlich an Bedeutung gewinnen wird. Chief Data Officers sind Führungskräfte, die für die Nutzung und Steuerung von Daten im gesamten Unternehmen verantwortlich sind. Sie beaufsichtigen datenbezogene Aufgaben, die das Datenmanagement, die Sicherstellung der Datenqualität und die Erstellung einer Datenstrategie umfassen können. Sie können auch für Datenanalysen und Business Intelligence verantwortlich sein, also für den Prozess, wertvolle Erkenntnisse aus Daten zu gewinnen.

Nach Ansicht von ExpertInnen erkennen immer mehr Unternehmen die Wichtigkeit von CDOs. Daher wird es auch schon bald zum Standard, diese einzustellen.

Source: https://enterprisersproject.com/article/2019/12/chief-data-officer-cio-relationship

 

Zusammenfassung

Wie man sehen kann, drehen sich die meisten Trends um bereits bekannte Schlagworte: Big Data, Echtzeitanalysen, Daten-Demokratisierung. Trotzdem gibt es hier gewaltige Fortschritte. Es lohnt sich also, am Ball zu bleiben, denn eines können wir garantieren: 2021 wird in Sachen Data Analytics ein aufregendes Jahr.

Falls du nun Lust bekommen hast, im Bereich der Data Analytics mitzumischen und selbst Daten in Erkenntnisse umzuwandeln, dann haben wir einen wirklich guten Tipp für dich. Mit unserem berufsbegleitenden Online-Kurs in Business Data Analysis wirst du in nur wenigen Wochen zum Datenexperten.

In diesem intensiven Online Program vermitteln wir dir sowohl das nötige Hintergrundwissen als auch das Handwerkszeug, das du brauchst, um den größten Nutzen aus Daten zu holen. Der Kurs ist sehr praxisorientiert und richtet sich nach den Themen, die aktuell am Arbeitsmarkt wichtig sind. Weitere Informationen dazu findest du hier.

 

Weiterlesen?

Abonniere unseren Newsletter

Bleibe auf dem Laufenden mit den aktuellsten News