Don't you want to read? Try listening to the article in audio mode 🎧

Big Data, Small Data, data-driven Management… man spricht überall über die durch das Web erfassten Daten, als ob sie das neue Erdöl dieses Jahrhunderts wären. Warum? Mithilfe der Daten werden erfolgreiche Strategien bestimmt. Die Intuition der Manager, Designer, Entwickler und Marketer kann endlich ein solides und somit wissenschaftliches Fundament finden, das mit den Daten verbunden ist.

 

Wie werden die Daten gebildet: Big Data, Small Data und Dataset

Jeder Mensch der westlichen Welt ist ein enormer Erschaffer von Daten, die mit den Verhaltensweisen verbunden sind, die er im Web und im täglichen Leben anwendet. Posts auf den Social Networks, die Nutzung des GPS, Reisen und Transaktionen mit Kreditkarten sind nur einige der Momente, in denen unsere Verhaltensweisen im Web aufgefunden werden können, wobei eine kolossale Datenmenge erzeugt wird.  

Was sind Big Data und Small Data?

Die big data bestehen aus großen Datenmengen, die viel Archivplatz einnehmen, in der Reihenfolge der Terabyte, deren Symbol TB lautet, jedes davon entspricht 1.048.576 Megabyte. Es handelt sich somit um Daten, die im Web verkehren oder in enormen Datenbänken erfasst werden, durch Suchmotoren, Social Networks und e-commerce-Seiten sowie durch Telefonunternehmen verwaltet werden, wobei wir nur einige Beispiele aufführen.  Außerdem bestehen Datenbänke mit weniger bedeutenden Ausmaßen, die small data, die Informationen enthalten, die oft von internen Unternehmens-Database stammen. Es handelt sich um Daten mit spezifischen Eigenschaften, die detailliertere und persönlichere Informationen gegenüber den big data vermitteln können. Es gibt Dataset mit big data, die demographische Elemente betreffen, die generell in öffentlichen Datenbanken hinsichtlich der Zusammensetzung der Bevölkerung erhalten werden, soziographische big data, die die Bevölkerung aufgrund der Einkommensgrenzen und der Familienzusammensetzung einstufen sowie Elemente, die das soziale Profil unterstreichen. Außerdem ist es möglich, psychografische big data zu erfassen, die sichere Elemente über die Interessen, die Gewohnheiten und Leidenschaften vermitteln, außerdem spezifischere Datenbanken hinsichtlich der verschiedenen Aspekte der menschlichen Beziehungen.  

Die Integration der BigData mit den Small Data ist die aktuelle Herausforderung in puncto Data Analysis.

 

Was wird mit den Daten gemacht: Das Data Mining

Im Rahmen des Business intelligence besteht das data minging aus der Entnahme von Informationen aus großen datasets mit dem Zweck, sie für die Datenanalyse zur Verfügung zu stellen, was für Unternehmensmanager und Marketingverantwortliche nützlich ist, um datenbezogene Entscheidungen zu treffen, die von Daten geführt werden, wobei es sich um sichere und messbare Elemente handelt. Die Daten sprechen nicht alleine: Die Datenwissenschaftler müssen die bedeutenden, das Business betreffenden Datenkategorien herausstellen können und die Pattern festsetzen, die korrekten Beziehungen unter den verschiedenen Daten. Es kann passieren, dass unvorhergesehene Verbindungen unter verschiedenen Datensets entdeckt werden und extrem speziellen Informationen Bedeutung geschenkt wird, je nach Marketingstrategie, Produktentwicklung und strategischen Entscheidungen.  Der Data Manager muss dann die data visualization verfolgen – die Daten müssen klar ausgestellt werden, um im Unternehmen genützt werden zu können – wie auch die Datenverwaltung unter Einhaltung der GDPR-Regelung,  der Datensicherheit und des Datenschutzes.  

Die Big Data Analyse

Die Funktion der Daten ist die Übermittlung der besten Darstellung der Realität. Es ist effektiv notwendig, Prüf-, Reinigungs- und Kontrollmethoden anzuwenden, um ein Datenset zu erhalten, das die Zusammensetzung und die Verhaltensweisen der Nutzer wirklich darstellt, neue Targets herausstellt und ermöglicht, Produkte und Marketingkampagnen zu verwirklichen, die den Kunden in die Mitte stellen.  Die Datenanalyse gliedert sich im Allgemeinen in vier Arten, die jeweils einen bestimmten Zweck haben:

1. Descriptive Analytics

Die beschreibende Analyse erfolgt mit Tools, die helfen, die numerischen Aspekte bestimmter Situationen oder Prozesse grafisch darzustellen und zu beschreiben. In Unternehmen betrifft die Descriptive analysis  die Darstellung von Ergebnissen im Vertrieb, in digitalen Marketingaktivitäten und Online-Prozessen, wie lead generation-Kampagnen oder Marketing automation.  

2. Predictive Analytics

Die vorausschauende Analyse ist eine der interessantesten Funktionen der Datenstrategie. Eine korrekte Analyse der Daten, die von einem Datenwissenschaftler durchgeführt wird, ist in der Lage, zukünftige Entwicklungsszenarien vorherzusagen. Die Aktivitäten der Predictive Analytics basieren auf mathematischen Modellen. Beispiele sind Wettervorhersagen oder Aktienmarktanalysen, die auf historischen Daten und Wahrscheinlichkeitsberechnungen basieren.  

3. Prescriptive Analytics

Die vorschreibende Analyse besteht aus der Analyse von Daten zur Unterstützung von Entscheidungsprozessen. Die präskriptive Analytik erfolgt mit Tools, die die Daten verarbeiten und strategische Hinweise generieren, die sich aus dem Prozess der deskriptiven Analyse und der prädiktiven Analyse ergeben.

4. Automatisierte Analytik

Diese Werkzeuge sind in der Lage, eine durch das Ergebnis der Analyse bedingte Aktion automatisiert durchzuführen. Die Plattformen der automatisierten Analytik aktivieren programmierte Aktionen auf der Grundlage des Auftretens bestimmter Bedingungen. Im Wesentlichen ist es möglich, einen Online-Preis automatisch zu ändern oder das Modell der automatisch zu versendenden E-Mail zu bestimmen. KI-bezogene, automatische Analysen können ein Auto ohne Fahrer fahren.  

Der Datenanalyseprozess und das Big Data Management: die 5V

Die Datensätze mit großen Datenmengen haben spezifische Eigenschaften, die üblicherweise auf die 5V zurückgehen, die sich auf Folgendes beziehen:

Velocity

Die Big Data müssen in Echtzeit analysiert werden können. Dieser Prozess ist bereits Realität. Millionen von Transaktionen, die mit Kreditkarten oder Online-Zahlungssystemen getätigt werden, werden in Millisekunden analysiert, um betrügerisches Verhalten aufzudecken, Social Media-Posts können in wenigen Sekunden viral werden, werden aber von Sentiment-Analyse-Plattformen analysiert. Die Big Data Registrierungstechnologie analysiert Daten, bevor sie in Datenbanken gespeichert werden.

Volumen

Große Datensätze bestehen aus riesigen Datenmengen, von 10 Milliarden täglichen Facebook-Posts bis hin zu digitalen Inhalten; ein Merkmal großer Datenmengen ist, dass sie eine außergewöhnliche Größe an Speicherplatz einnehmen.

Vielfalt

Diese Funktion bezieht sich auf die verschiedenen Arten von Daten, die verwaltet werden.

Variabilität

Die Daten variieren in ihrer Bedeutung je nach Kontext, in dem sie sich befinden. Es ist daher notwendig, den Datensatz zu kontextualisieren, um zu überprüfen, ob er für die Aktivität der Datenanalyse nützlich ist oder nicht.

Viralität

Daten verbreiten sich sehr schnell. Der Datenwissenschaftler ist gefordert, die zuverlässigsten und relevantesten Datenquellen für die Forschung zu identifizieren und die Verbreitung von Konzepten zu erfassen, die mit einem plötzlich viral werdenden Hashtag ein Wahlergebnis oder den Kaufprozess verändern können.

Die Professionals in der Datenanalyse: Der Data Analyst

Der Datenwissenschaftler bzw. Data Analyst ist eine vielseitige professionelle Persönlichkeit, die in der Lage ist, den Prozess der Datenanalyse zu steuern. Er ist ein Profi mit einem starken multidisziplinären Ansatz zur Beherrschung der fortgeschrittenen Analytik, die eine Reihe von Techniken abdeckt, darunter prädiktive Analyse, Data Mining, Machine Learning und Sentiment-Analyse. Der Datenwissenschaftler verfügt über digitale Fähigkeiten und muss in der Lage sein, über die Daten hinauszuschauen und Muster auf statistischer und mathematischer Grundlage zu identifizieren. Er muss wissen, wie er mit der Unternehmensleitung umgehen muss, um die Ergebnisse der Analyse und die Hinweise, die sich in Bezug auf das Geschäftsmodell ergeben, darzustellen.  

Was tut der Data Analyst?

Es gibt viele Funktionen, die der Datenanalyst übernimmt, denn die Verwaltung und Interpretation von Datensätzen betrifft die Abbildung, Bereinigung und Kontrolle von Datenquellen, die Erstellung von Erfassungsflüssen und die Umwandlung von Daten in Informationen durch die Untersuchung und Identifizierung von Wertschöpfungselementen für jeden Geschäftsbereich.  Der Datenwissenschaftler arbeitet auch mit den Marketing Managern bei der Messung von Kundenerfahrungen und Kundendaten zusammen, um Möglichkeiten für die Entwicklung des strategischen Marketings zu identifizieren. Er kennt Elemente der Informatik und Programmierung, Mathematik und statistische Analyse, Kenntnisse über das Geschäft des Unternehmens und die Verarbeitung von Berichten und Grafiken. Neben seinen spezifischen Fähigkeiten verfügt er auch über eine Reihe von Soft Skills, wie z.B. die Fähigkeit, Beziehungen zu managen und im Team zu arbeiten.

Ist die Datenanalyse wirklich nützlich? Ein Studienfall: Lego

Es ist nicht allzu schwierig, Daten zu sammeln, es ist viel schwieriger, sie zu analysieren, um sie in einen Wert für das Unternehmen zu verwandeln. Eine besonders interessante Fallstudie ist die der Marke Lego. Der Umsatzrückgang bei den berühmten Bauklötzchen begann 2004, der durch den Wettbewerb mit elektronischen Spielen und negative Erfahrungen in der Produktentwicklung verursacht wurde. Die Analysetätigkeit, die Lego 2002 begann, führte die Manager jedoch dazu, Strategien herauszustellen, wobei man sich auf einen durchschlagenden strategischen Fehler basierte. Lego beschloss, die Größe der Klötzchen zu erhöhen, auf der Grundlage einer Analyse der Daten, die den Umsatzrückgang auf den Mangel an sofortigen Befriedigungen und die verfügbare Zeit zurückzuführte, um genügend Platz für manuelles Spielen von Kindern und Jugendlichen zu schaffen. Im Jahr 2003 hingegen sank der Umsatz um weitere 35%.

Wenn die Datenanalyse ein falsches Bild der Realität liefert.

Die Datenanalyse von Lego, die auf Umfragen, Stakeholder-Interviews und Marktanalysen basiert, lieferte daher eine falsche Darstellung der Realität, die wiederum das Management zu falschen Geschäftsentscheidungen führte. Die Manager von Lego wandten dann eine andere Technik an: Daten aus dem Web wurden mit Daten aus Offline-Analysen und Besuchen bei Verbrauchern verglichen. Die Daten, die sich als brisant erwiesen, wurden im Schlafzimmer eines deutschen Kindes gesammelt. Auf der Suche nach dem Gegenstand, auf den der Junge am stolzesten war, zeigte er, ein Liebhaber von Lego und Skateboarding, ein Paar Schuhe einer bekannten amerikanischen Marke, abgenutzt, aber voller Bedeutung für seine Skatertätigkeit. Die Lego Marketers erkannten somit, dass Kinder soziale Aspekte berücksichtigen, wenn das Spiel ihre spezifischen Fähigkeiten hervorhebt.  Allein die Analyse großer Datenmengen hatte gezeigt, dass die Realität aus Digital Natives besteht, die sich nicht mehr für das Lego-Produkt interessieren, aber die kleinen Daten, die das Unternehmen sammelte, machten die Darstellung der Realität realistischer und lieferten Hinweise auf Produktinnovationen, wie im Prozess der digitalen Transformation. Lego schloss 2015 mit dem besten Betriebsergebnis aller Zeiten mit 5,2 Milliarden US-Dollar ab.  Derzeit sind solche Fehler seltener, da die Datenquellen auch diejenigen über das Verhalten einzelner Kunden umfassen, die den Unternehmensleitern stets eine Richtung vorgeben und, gekreuzt mit größeren Datensätzen, einen Schlüssel zum Verständnis von Realität und Trends bieten.  

Die Datenanalyse praktizieren

Die Datenanalyse ist keine Tätigkeit, die ohne spezifische Fähigkeiten durchgeführt werden kann. Das Web bietet jedoch Tools zur Datenanalyse, die interessante Ergebnisse liefern können.

Die besten Tools für die Datenanalyse

Unter den Werkzeugen zur Datenanalyse sind sehr verbreitet:

Tableau

Tableau ist eine sehr effektive Datenanalysesoftware. Das Tool verbindet sich mit verschiedenen Arten von Datenquellen, sowohl lokal als auch in Cloud, und bietet eine intuitive Benutzerschnittstelle, mit der Sie Daten kombinieren, analysieren und optimal präsentieren können. Tableau nutzt App-Integrationstechnologien über API und JavaScript und kann in die gängigsten Verwaltungsplattformen von Unternehmen integriert werden.

Rapidminer

RapidMiner ist eine integrierte Datenanalyseplattform, die prädiktive Analysen, Data Mining sowie visuelle und Textanalysen durchführt. Sie nutzt maschinelles Lernen, um die Genauigkeit der Analyse zu verbessern. RapidMiner kann mit jeder Art von Datenquelle integriert werden, in den Formaten Access, Excel, Microsoft SQL, Tera, Oracle, Ingres und MySQL. Das Tool ist sehr leistungsfähig und generiert schnell Berichte über die Ergebnisse der von der Plattform durchgeführten Analysen.  

Die besten Softwares für die Datenanalyse

Nicht nur Datenanalysetools: Es gibt Programmiersprachen, die sich besonders für die kostenlose, plattformübergreifende statistische Analyse eignen. Die bekanntesten sind:

Python

Python ist eine objektorientierte Skriptsprache, die recht einfach zu erlernen ist, mit einer Open-Source- und plattformübergreifenden Lizenz. Python eignet sich besonders für die statistische Analyse und bietet viele kostenlose Bibliotheken. Es ist eine Programmiersprache mit großem Potenzial für statistische Analysen, die an Universitäten gelehrt wird.

R Sprache

R ist eines der bekanntesten Analysewerkzeuge, das in der Statistik und zur Datenmodellierung eingesetzt wird. R ist eine plattformübergreifende und Open source. Die Software verfügt auch über programmierte statistische Analysetools und ermöglicht es Ihnen, Ihre eigenen zu erstellen. R etabliert sich in einem akademischen Umfeld und unter Datenanalyseprofis. R hat fast 12.000 Pakete und ermöglicht es Ihnen, Pakete nach Kategorien zu durchsuchen. R bietet auch Tools für die automatische Installation aller Pakete nach den Bedürfnissen des Benutzers und analysiert auch Big-Datensätze.   

Die Bücher, um die Datenanalyse zu erlernen

Eine gute Lektüre von so spezifischen Themen wie die Datenanalyse ist immer ratsam. Das Buch kann wie bekannt mehrmals konsultiert werden und ermöglicht es Ihnen, in wenigen Stunden Aspekte zu vertiefen, die ein einzelner Artikel oder ein Video nicht immer vollständig behandeln kann. Hier sind einige der besten Bücher zur Datenanalyse:

Prinzipien des Data Mining (Adaptive Computation und Machine Learning) von David J. Hand, Heikki Mannila und Padhraic Smyth. Bradford Bücher Editions

Ein interdisziplinärer Text zum Thema Data Mining. Verschiedene Aspekte des Datenmanagements werden von Statistikern, Business-Analysten und Marketern oft speziell behandelt. Dieser Text befasst sich mit allen Aspekten der Informationstechnologie und Statistik. Drei Abschnitte des Textes: Der erste gibt einen Überblick über die Prinzipien, mit denen Algorithmen für Data Mining arbeiten, der zweite beschreibt die Algorithmen, die zur Erstellung einer spezifischen Analyse verarbeitet werden, und der dritte Abschnitt ist anwendungsbezogen und beschäftigt sich mit der Verwaltung und Analyse von Daten in der realen Welt.  

Python für die Datenanalyse: Datenverflechtung mit Pandas, Numpy und IPython, von Wes Mckinney - Jupiter Editions

Das Buch bietet eine umfassende Anleitung zum Suchen, Verarbeiten, Reinigen und Bezugnahme von Datensätzen in Python. Der Leitfaden ist voll von Fallstudien, die zeigen, wie man einige Probleme bei der Datenanalyse effektiv lösen kann. Es ist sehr nützlich für Analysten, die Python verwenden.

Online-Ressourcen zur Datenanalyse

Es gibt zahlreiche Websites, die Online-Ressourcen, aktuelle Artikel und Fallstudien zur Datenanalyse anbieten. Hier sind einige besonders nützliche:

Big Data4Innovation

Es handelt sich um ein sehr gut verwaltetes Portal auf Italienisch, das häufig aktualisierte Artikel präsentiert und Links zu externen wertvollen Ressourcen anbietet. Mit dem Abonnement des Newsletters können Sie die veröffentlichten Inhalte nicht verlieren. Der Schwerpunkt der Website bezieht sich hauptsächlich auf Big Data und Data Science. 

Data Science Central

Data Science Central ist eine der beliebtesten Online-Ressourcen für Fachleute in der Datenanalyse. Die Inhalte umfassen Datenanalyse, Datenintegration und -visualisierung. Es ist eine redaktionelle Plattform, die auch soziale Interaktion, technische Unterstützung durch das Forum, Artikel über Technologie, Tools und Branchentrends bietet. 

IBM – Grundlagen der Datenwissenschaft

Es gibt auch kostenlose Kurse im Internet, wie die von IBM, die Online-Training über ihr Portal Cognitive Class anbietet. Dieser Kurs behandelt Datenanalyse, Methodik, praktische Anwendungen, R-Programmierung und Open-Source-Tools. Der Kurs dauert ca. 20 Stunden.
Artikel aktualisiert am: 09 August 2023
Talent Garden
Geschrieben von
Talent Garden, Digital Skills Academy

Lesen Sie weiter

Die besten Tools für Social Media Manager in 2023

Der oder die Social Media ManagerIn verfügt über Kompetenzen in vielen Disziplinen. Er oder sie arbeitet im Digital ...

Was ist Content Marketing und wie baut man eine erfolgreiche Strategie auf?

Die einzige Strategie, die Marketing-Managern heutzutage das Überleben zu sichern scheint, ist das Erstellen von ...

Glossar der Digital Transformation: Von A bis VR

Jeder spricht über Digital Transformation, doch immer noch sind uns viele Begriffe, die damit zusammenhängen, nicht ...

Android UX-Design: Software, Tools und Grundlagen

Zur Zeit hat Android einen weltweiten Marktanteil von über 70%. Dies bedeutet, dass Designen für Android keine ...