Andreas Berghammer, PROCON IT

Wo liegt der Unterschied zwischen Big Data und Business Intelligence?

Wie unterscheiden sich Big Data und Business Intelligence? Und welchen Nutzen könne mittelständische Unternehmen daraus ziehen?

B4B-Leser fragt: 

Was ist eigentlich der genaue Unterschied zwischen Big Data und Business Intelligence? Wir haben das Gefühl, dass die Begriffe sehr schwammig sind, auf jeden Fall können wir den konkreten Nutzen für uns als kleinen Mittelständler kaum erkennen?

Unser Experte für Data Science, Andreas Berghammer von PROCON IT, antwortet:

Durch den Einsatz von IT-Systemen, die Geschäftsprozesse digital abbilden, entstehen verschiedene Daten. Dazu gehören beispielsweise Stammdaten (z.B. Kundeninformationen, Artikellisten) oder Transaktionsdaten (z.B. Bestelleingänge, Warenverkäufe, Lagerprozesse). Diese sind meist in Datenbanken gespeichert, können per SQL abgefragt werden und unterliegen klaren Definitionen über Beschaffenheit und Inhalt. Es handelt sich hier um strukturierte Daten.

Werden diese Daten zentral gesammelt und aufbereitet, kann eine Vielzahl von Kennzahlen und Berichte generiert werden. Diese ermöglichen es den Fachbereichen, Controllern und Managern, fundierte Entscheidungen basierend auf historischen Zusammenhängen zu treffen. Dadurch werden Geschäftsprozesse „intelligent“ und nachvollziehbar. Das ist klassisches Business Intelligence (BI).

Business Intelligence als Basis zur Beantwortung fachlicher Fragen

In diesem klassischen Business Intelligence werden die Daten meist in Data Warehouse-Systemen zusammengeführt und entsprechend in Ergebnistabellen überführt. Sie bilden die Basis zur Beantwortung fachlicher Fragestellungen. Diese Tabellen werden üblicherweise visuell aufbereitet und mit Möglichkeiten zur erweiterten Navigation versehen. Verschiedene Filter bieten unterschiedliche Perspektiven auf die Daten. So können beispielsweise Optimierungspotenziale in bestehenden Geschäftsprozesse aufgezeigt und Abweichungen identifiziert werden.

In den Unternehmen gibt es normalerweise weitere Systeme, die Daten generieren bzw. bereitstellen. Das können Produktionsmaschinen, Bilder von Bauteilen, der Videostream eines Förderbands, Sensordaten wie Temperatur oder Luftfeuchtigkeit, aber auch E-Mail-Anfragen von Kunden, Kundenrezessionen oder Social Media-Posts sein. Je nach Datenquelle können hierbei sehr große Datenmengen entstehen. Gleichzeitig liegen diese Daten meist in unstrukturierter Form vor. Bilder, Videos, Freitexte oder ähnliche Datentypen benötigen andere Speicherstrukturen als Prozessdaten in einer Datenbank.

Datenmengen strukturiert speichern

Diese Datenmenge zu speichern und zu verarbeiten, war lange Zeit eine große Herausforderung: Die Datenmengen hatten die damals herkömmliche Hardwarekapazitäten und die Methodiken bei der Datenverarbeitung überfordert. Dies hat sich geändert. Um diese immensen Mengen an Daten dauerhaft zu speichern und zu verarbeiten, können die Daten mittlerweile über einen Computerverbund horizontal skaliert werden, statt einzelne Rechner zu nutzen. Das bedeutet, dass die benötigten Kapazitäten mit Hilfe von vielen PCs, die sich im Netzwerkverbund befinden, bereitgestellt werden. Die Rede ist hier von verteiltem Rechnen bzw. verteilter Datenhaltung. Die Datenverarbeitung und die Erstellung von Datenprodukten bei diesen „big data“ ist analog zu den „small data“ durchführbar.

Auch hier werden Datenverarbeitungsschritte durchgeführt, um Datenprodukte zu erstellen. Die Ergebnisse können beispielsweise Informationen von bestehenden BI-Lösungen erweitern, um diese noch aussagekräftiger zu machen, oder eine eigenständige Lösung sein.

Die resultierenden Möglichkeiten der Speicherung und Verarbeitung von enormen Datenquellen und -strukturen bietet eine Vielzahl an Anwendungsmöglichkeiten, die Dashboarding und Reports aus dem klassischem BI übersteigen. Gerade die Verarbeitung von Texten und Bildern ist mittlerweile in vielen Branchen etabliert. Beispiele hierfür:

Textverarbeitung:

  • Automatisierte Zuweisung von Help Desk-Tickets basierend auf textuellen Inhalt
  • Gruppieren von ähnlichen Dokumenten
  • Automatisierte Extraktion von Informationen und sogenannten Key Words

Bildverarbeitung:

  • Prüfen von Qualitätsmerkmalen auf Basis der Bilder der Bauteile
  • Automatisierte Erkennung von Gegenständen via Bilderkennung

Sie haben Rückfragen an unseren Experten für Data Science, Andreas Berghammer, oder wünschen eine tiefergehende Beratung? Dann nehmen Sie jetzt direkt Kontakt auf.

Weitere Artikel zum Gleichen Thema
Andreas Berghammer, PROCON IT

Wo liegt der Unterschied zwischen Big Data und Business Intelligence?

Wie unterscheiden sich Big Data und Business Intelligence? Und welchen Nutzen könne mittelständische Unternehmen daraus ziehen?

B4B-Leser fragt: 

Was ist eigentlich der genaue Unterschied zwischen Big Data und Business Intelligence? Wir haben das Gefühl, dass die Begriffe sehr schwammig sind, auf jeden Fall können wir den konkreten Nutzen für uns als kleinen Mittelständler kaum erkennen?

Unser Experte für Data Science, Andreas Berghammer von PROCON IT, antwortet:

Durch den Einsatz von IT-Systemen, die Geschäftsprozesse digital abbilden, entstehen verschiedene Daten. Dazu gehören beispielsweise Stammdaten (z.B. Kundeninformationen, Artikellisten) oder Transaktionsdaten (z.B. Bestelleingänge, Warenverkäufe, Lagerprozesse). Diese sind meist in Datenbanken gespeichert, können per SQL abgefragt werden und unterliegen klaren Definitionen über Beschaffenheit und Inhalt. Es handelt sich hier um strukturierte Daten.

Werden diese Daten zentral gesammelt und aufbereitet, kann eine Vielzahl von Kennzahlen und Berichte generiert werden. Diese ermöglichen es den Fachbereichen, Controllern und Managern, fundierte Entscheidungen basierend auf historischen Zusammenhängen zu treffen. Dadurch werden Geschäftsprozesse „intelligent“ und nachvollziehbar. Das ist klassisches Business Intelligence (BI).

Business Intelligence als Basis zur Beantwortung fachlicher Fragen

In diesem klassischen Business Intelligence werden die Daten meist in Data Warehouse-Systemen zusammengeführt und entsprechend in Ergebnistabellen überführt. Sie bilden die Basis zur Beantwortung fachlicher Fragestellungen. Diese Tabellen werden üblicherweise visuell aufbereitet und mit Möglichkeiten zur erweiterten Navigation versehen. Verschiedene Filter bieten unterschiedliche Perspektiven auf die Daten. So können beispielsweise Optimierungspotenziale in bestehenden Geschäftsprozesse aufgezeigt und Abweichungen identifiziert werden.

In den Unternehmen gibt es normalerweise weitere Systeme, die Daten generieren bzw. bereitstellen. Das können Produktionsmaschinen, Bilder von Bauteilen, der Videostream eines Förderbands, Sensordaten wie Temperatur oder Luftfeuchtigkeit, aber auch E-Mail-Anfragen von Kunden, Kundenrezessionen oder Social Media-Posts sein. Je nach Datenquelle können hierbei sehr große Datenmengen entstehen. Gleichzeitig liegen diese Daten meist in unstrukturierter Form vor. Bilder, Videos, Freitexte oder ähnliche Datentypen benötigen andere Speicherstrukturen als Prozessdaten in einer Datenbank.

Datenmengen strukturiert speichern

Diese Datenmenge zu speichern und zu verarbeiten, war lange Zeit eine große Herausforderung: Die Datenmengen hatten die damals herkömmliche Hardwarekapazitäten und die Methodiken bei der Datenverarbeitung überfordert. Dies hat sich geändert. Um diese immensen Mengen an Daten dauerhaft zu speichern und zu verarbeiten, können die Daten mittlerweile über einen Computerverbund horizontal skaliert werden, statt einzelne Rechner zu nutzen. Das bedeutet, dass die benötigten Kapazitäten mit Hilfe von vielen PCs, die sich im Netzwerkverbund befinden, bereitgestellt werden. Die Rede ist hier von verteiltem Rechnen bzw. verteilter Datenhaltung. Die Datenverarbeitung und die Erstellung von Datenprodukten bei diesen „big data“ ist analog zu den „small data“ durchführbar.

Auch hier werden Datenverarbeitungsschritte durchgeführt, um Datenprodukte zu erstellen. Die Ergebnisse können beispielsweise Informationen von bestehenden BI-Lösungen erweitern, um diese noch aussagekräftiger zu machen, oder eine eigenständige Lösung sein.

Die resultierenden Möglichkeiten der Speicherung und Verarbeitung von enormen Datenquellen und -strukturen bietet eine Vielzahl an Anwendungsmöglichkeiten, die Dashboarding und Reports aus dem klassischem BI übersteigen. Gerade die Verarbeitung von Texten und Bildern ist mittlerweile in vielen Branchen etabliert. Beispiele hierfür:

Textverarbeitung:

  • Automatisierte Zuweisung von Help Desk-Tickets basierend auf textuellen Inhalt
  • Gruppieren von ähnlichen Dokumenten
  • Automatisierte Extraktion von Informationen und sogenannten Key Words

Bildverarbeitung:

  • Prüfen von Qualitätsmerkmalen auf Basis der Bilder der Bauteile
  • Automatisierte Erkennung von Gegenständen via Bilderkennung

Sie haben Rückfragen an unseren Experten für Data Science, Andreas Berghammer, oder wünschen eine tiefergehende Beratung? Dann nehmen Sie jetzt direkt Kontakt auf.

Weitere Artikel zum Gleichen Thema
nach oben