© Excellent backgrounds/Shutterstock.com
Neue Möglichkeiten für CRM und Marketing durch Hadoop und Co

Ein Elefant und seine Freunde gehen shoppen


Die Tools aus dem Hadoop-Ökosystem sind zum größten Teil auf der Basis von Publikationen oder der Quellcodeoffenlegung von Software der so genannten Global Player wie Google, Yahoo!, Facebook oder Twitter entstanden. Vieles, was für die Global Player bereits seit Jahren gängige Praxis ist, konnten die typischen mittelständischen Unternehmen mit konventioneller Software nicht umsetzen. Wo viele Mittelständler noch mit Performance bei Data-Warehouse-Analysen der Businessdaten der Vergangenheit kämpfen, sind mit den neuen hochskalierbaren Softwaretechnologien aus dem Big-Data-Segment Real-time Analytics (Gegenwart) und Predictive Analytics (Zukunft) möglich. Was ist mit diesen Tools heute bereits möglich und was wird vielleicht in naher Zukunft realisierbar sein?

CRM und Marketing sind wichtige Businessbereiche eines Unternehmens. Dort werden zum einen die Produkte und Angebote des Unternehmens vermarktet und zum anderen die Daten der Kundenbeziehungen verarbeitet. Es gibt viele Standardaufgaben wie Auftragserfassungen, Auftragsprozessierung, Preisfindung, Kundensegmentierung oder Kundenmailings. Die meisten typischen Aufgaben können mit etablierten CRM-Tools problemlos bearbeitet werden. Es gibt aber bereits bei bestimmten Funktionen der Standardtools Performanceprobleme, die sich gut mit den hochskalierbaren Tools aus dem Hadoop-Ökosystem lösen lassen. Hat man die Leistungsfähigkeit dieser Tools erkannt, kommt man auch schnell auf neue Möglichkeiten in Marketing und CRM, an die man zuvor nicht gedacht hätte.

Bei der Analyse der Anwendungsfälle stellt man schnell fest, dass es notwendig ist, diese zu klassifizieren, um eine geeignete Architektur- und Toolauswahl treffen zu können. Es gibt nämlich auch bei skalierbaren Tools unterschiedliche Dimensionen, in denen die Tools skalieren. Die im Hadoop-Umfeld meist zuerst genannte Dimension ist die Datenmenge – müssen 1 GB, 1 TB oder sogar PB an Daten verarbeitet werden? Diese Skalierungsdimension spricht die verteilte Speicherung von Daten im Hadoop-Cluster (meist via HDFS) an. Eine andere Skalierungsdimension ist die Prozessorleistung. Für einige Arten von Prozessen müssen relativ wenige Daten sehr rechenintensive Operationen durchlaufen. Bei dieser Dimension ist die Eigenschaft von Hadoop Tools angesprochen, die möglichst viele CPUs auf vielen Knoten im Hadoop-Cluster verwendet. Eine dritte Dimension ist die Netzwerkbandbreite (I/O) von oder zu dem Hadoop-Cluster. Müssen viele Daten quasi gleichzeitig im Had...

Neugierig geworden?

Angebote für Teams

Für Firmen haben wir individuelle Teamlizenzen. Wir erstellen Ihnen gerne ein passendes Angebot.

Das Library-Modell:
IP-Zugang

Das Company-Modell:
Domain-Zugang