Big Data

Das Potential von Big Data

Veröffentlicht am Posted in Allgemein, PropTech-Blog

Im Zuge eines immer schneller und stärker vernetzten digitalen Universums, in dem wir Menschen mittlerweile leben, hinterlassen wir bei nahezu allem, was wir tun, digitale Spuren – digitale Spuren, die wir Daten nennen. Im Zentrum steht dabei das World Wide Web, durch welches wir tagtäglich eine immense Flut an Daten produzieren. Jede Interaktivität, jeder Klick oder das Verweilen auf einer Seite, aber auch Prozesse wie bspw. die Wetterforschung oder die geometrischen Satellitengeodäsie, erzeugen spezifische Daten. Die Folge davon ist, dass riesige Datenmengen entstehen, die so groß sind, dass es fast unmöglich ist, sie zu verdauen oder in den Kontext einer praktischen Anwendung zu bringen. Der Trend der Nutzung von Big Data beeinflusst dabei mittlerweile maßgeblich, wie Unternehmen detaillierte Informationen nutzen, um das Kundenerlebnis zu verbessern, ihre Produkte und Dienstleistungen zu optimieren oder um bis dato unerschlossene Einnahmequellen zu erschließen.

„Es besteht kein Zweifel, dass Big Data nicht nur ein hochtrendiges IT-Schlagwort ist. Vielmehr ist es ein sich schnell entwickelndes Konzept in der Informationstechnologie und im Datenmanagement, das die Art und Weise, wie Unternehmen ihre Geschäfte führen, revolutioniert.“[1]

Was ist Big Data überhaupt?

Klar, dem Name zufolge ist Big Data eigentlich einfach zu verstehen: Es handelt sich um große Daten. Doch in der derzeitigen Literatur gibt es keine grundlegende allgemeingültige Definition, was Big Data eigentlich genau ist. Ein Zitat des amerikanischen Professors für Psychologie und Verhaltensökonomie Dan Ariely beschreibt die Unsicherheit im Umgang mit dem Begriff sehr zutreffend:

 „Mit Big Data ist es wie mit Sex im Teenager-Alter: Jeder spricht darüber. Keiner weiß wirklich wie es geht. Alle denken, dass die anderen es tun, also behauptet jeder, dass er es auch tut“.  

Um Big Data wirklich zu verstehen, bedarf es der Fokussierung auf die Eigenschaften, die Big Data ausmacht. Einen Ansatz, Big Data zu definieren, stellt Analyst Edd Dumbill (2012). Er beschreibt Big Data dabei als Daten, die die Prozesskapazität von konventionellen Datenbanksystemen aufgrund der Menge, Schnelllebigkeit oder der inkompatiblen Struktur überschreiten. Die Datensätze sind dadurch charakterisierbar, dass sie gegensätzlich zu traditionell angelegten Datensätzen heterogene Strukturen aufweisen. Das bedeutet, dass die Datensätze aus vielen verschiedenen Daten bestehen. Ein Beispiel: Ein Datensatz für einen Kunden eines bestimmten Unternehmens könnte so aus Tracking-Daten, Personenstammdaten, Bildern und Rezensionen usw. bestehen. Aber nicht nur die Struktur, sondern vielmehr die Relationalität zwischen den Daten zeichnet Big Data aus.

„Der Nutzwert entsteht durch Muster und Modelle zu Individuen, Relationen zwischen Individuen, Gruppen oder Informationsstrukturen selbst, die durch die Verbindung von Daten sichtbar werden.“[2]

Demnach ist Big Data in Rohform als reine gesammelte Daten von nur geringem Nutzwert. Es bedarf sinnvoll und projektbezogenen, strategisch ausgerichteten analytischen Prozessen, um unternehmerisch wertvolle Daten zu erreichen.

Im Fokus: Die drei V’s von Big Data

Um die abstrakte Begrifflichkeit von Big Data nun etwas besser verstehen zu können, werden in der heutigen Forschung und Literatur häufig die sogenannten drei V’s von Big Data betrachtet. Dabei zeichnet sich Big Data durch folgende Charakteristika aus, welche ich folgend kurz erklären möchte: Unter Volumen oder Umfang (englisch: Volume) ist das Ausmaß einer großen Menge an Daten, die aufgenommen, analysiert und gemanagt werden muss, zu verstehen. Der Datenumfang steigt dabei mit der Anzahl der Quellen und der höheren Auflösung bzw. Datentiefe.

„Wenn wir über das Volumen großer Daten sprechen, sprechen wir über Zettabytes (1 Zettabyte = 1 Sextillion-Byte oder 1 x 1021 Bytes) an Informationen, die in naher Zukunft möglicherweise sogar Brontobytes (1 Brontobyte= 1 x 1027 Bytes) umfassen.“[3]

Reynolds Schätzungen zufolge werden täglich rund 2,3 Billionen Gigabyte neue Daten erstellt. Dabei stellt die Speicherung der immensen Datensätze die größte Herausforderung im Bereich Big Data dar. Als zweites Merkmal wird die Varietät gesehen, auch häufig Vielfältigkeit (englisch: Variety) genannt. Die Varietät beschreibt grundlegend das Zusammenspiel zwischen strukturierten und unstrukturierten bzw. semistrukturierten Daten. Um diese heterogenen Vernetzungen von Datensätzen richtig zu analysieren und in Relation mit anderen Daten zu bringen, bedarf es der eingehend erwähnten Konzeptionierung einer systematischen Analysemethode. Als drittes Charaktermerkmal von Big Data gilt die Schnelllebigkeit (englisch: Velocity). Dabei wird folgend unter zwei Ausprägungen unterschieden: Die Verarbeitungsgeschwindigkeit gibt an, mit welcher Geschwindigkeit Daten produziert und verarbeitet werden können, einschließlich Geschäftsprozessen, digital verbundenen Maschinen, sowie Streaming-Daten.[4] Die Schnelllebigkeit wird dabei von der Anzahl der Quellen und der gesteigerten Rechenleistung der datengenerierenden Geräte beeinflusst.[5] Mit der Veränderungsdynamik als zweite Ausprägung wird hingegen die Geschwindigkeit beschrieben, mit der sich die Daten und deren Beziehung untereinander verändert.

Big Data in der Baubranche

Das Anwendungspotential von Big Data ist enorm und aus unserem Alltag schon lange nicht mehr wegzudenken. Ob in der Disziplin des Marketings, in der Preisfindung, zur Erschaffung und Generierung von neuen Produkten oder in der Kundenansprache: Big Data ist nahezu in jeder Branche, in jeder Abteilung anwendbar. Und so eben auch in der Baubranche. Hinkte die (deutsche) Bauindustrie einst der Digitalisierung schwer hinterher, so erlebte sie in den letzten Jahren einen deutlichen Aufschwung. So gibt es mittlerweile viele Zweige, wie beispielsweise BIM Management, PropTech oder Smart Home, die komplett im Licht der digitalen Transformation stehen. Gerade durch den Einsatz innovativer Technologien wie cloudbasierte Lösungen, Sensor- und IoT-Technologien, Robotik oder eben Big Data entstehen viele neue Möglichkeiten, herkömmliche Arbeitsprozesse zu verändern und neue Produkte sowie Anwendungen zu entwickeln.


Gut angereichert – Der DIPLANNER

Ein Beispiel, wie Big Data in der Baubranche effizient und lösungsorientiert eingesetzt werden kann, stellt auch unser DIPLANNER aus dem Hause DIPLAN dar. Mithilfe des DIPLANNERs ist es möglich, individuelle Machbarkeitsstudien zur optimalen Grundstücksplanung- und Bebauung online auf Knopfdruck durchzuführen. Dadurch, dass unser Tool täglich mit einer Vielzahl von Daten, wie beispielsweise Karten- und Satellitendaten, baurelevanten Parametern oder Daten aus dem Bereich der Solartechnik, angereichert und durchgehend optimiert wird, ist uns möglich, für jedes Grundstück die bestmögliche Grundstücksnutzung zu definieren. Nachdem das gewünschte Baufeld einmal online eingezeichnet ist und die Informationen zur gewünschten Bebauungsart (Wohnhaus oder gewerbliche Nutzung) angegeben sind, entwickelt unser Algorithmus dank künstlicher Intelligenz eine enorme Vielzahl von Varianten. Anschließend prüft und überarbeitet ein Expertenteam die Varianten und erstellt vier Empfehlungen zur optimalen Grundstücksplanung. Damit erhält der Kunde in kürzester Zeit (innerhalb von 48h) nicht nur eine passgenaue Antwort auf seine Frage, ob das Grundstück für ihn nutzbar ist, sondern er weiß auch, wie er anschließend die Baufläche bestmöglich bebauen kann.

Aber nicht nur die Grundstücksplanung per se, sondern insbesondere die Symbiosen, die durch die Anwendung von Big Data möglich sind, stehen bei uns im Fokus. Die Verwendung und Analyse von stets aktuellen Daten ermöglicht es uns, unsere Dienstleistung und unser Portfolio stetig weiter zu entwickeln und die Zukunft der Braubranche schon heute spürbar zu machen.


[1] Reynolds, 2016, S.1

[2] King, 2013, S.35

[3] Reynolds, 2016, S.35

[4] vgl. Bachmann, Kemper, Gerzer 2014, S.24

[5] vgl. King, 2013, S.35


Autor: Christopher Hermanns