© IRINA SHI/Shutterstock.com
Methoden zur Implementierung von Predictive-Analytics-Komponenten

Machine Learning goes E-Mobility


Datenanalyse ist eine der wichtigsten Kompetenzen, wenn es darum geht, den Erkenntnisgewinn zu steigern und Wettbewerbsvorteile auszubauen. Von einer konkreten Fragestellung bis zur Darstellung eines aussagekräftigen Ergebnisses ist es jedoch ein weiter Weg. Welche Aufgaben sind mit einem typischen Analyseprozess verbunden? Welche Stufen der Analyse gibt es? Welche Methoden und Abläufe kommen zum Einsatz, um den Analyseprozess umzusetzen? Welche Kompetenzen benötigt ein Analyseteam? Neben Antworten auf diese Fragen präsentiert der folgende Artikel, welche Architekturen und Technologien für die Implementierung von Predictive-Analytics-Komponenten infrage kommen. Beispiele aus einem konkreten Anwendungsfall, der Analyse von Daten aus Ladeparks, illustrieren die vorgestellten Konzepte und Methoden.

Elektromobilität ist ein wichtiger Meilenstein auf dem Weg zur Energiewende, zur Unabhängigkeit von fossilen Rohstoffen sowie für die Reduktion der CO2-Belastung. Der weltweite Bestand an Elektroautos steigt kontinuierlich und liegt derzeit bei mehr als 3,2 Millionen Fahrzeugen. Auch in Deutschland werden Elektroautos immer beliebter. Während die Anzahl der Elektroautos in Deutschland 2008 laut einer Studie zu Trends beim Autokauf noch bei etwa 1 436 Autos lag, sind im Jahr 2017 laut einer Erhebung der European Automobile Manufacturers Association 54 617 Neuzulassungen zu verzeichnen gewesen. Die Anzahl der Ladestationen für Elektroautos in Deutschland liegt derzeit bei etwa 9 976 (Stand: 7. Juli 2018), Tendenz steigend. Prognosen für das Jahr 2030 zufolge ist zu erwarten, dass der Anteil an Neuzulassungen für Elektroautos, neben Diesel-, Benzin- und Hybridfahrzeugen, etwa 20 Prozent betragen wird. Folglich wird auch die Nachfrage nach Ladestationen und damit verbundenen Dienstleistungen weiter steigen.

Insbesondere in Bezug auf Dienstleistungen wird verstärkt IT-Know-how benötigt, denn die Aufgaben eines Ladeparkbetreibers gehen weit über das Aufstellen von Ladesäulen, Kühlmodulen und Steuerungssystemen hinaus. Genau diesen Markt bedient beispielsweise die MHP Management- und IT-Beratung GmbH mit ihren Kompetenzen im Bereich E-Mobility und Charging. Die im Einsatz befindlichen Ladestationen kommunizieren hierbei über den Mobilfunkstandard GSM mit einem zentralen System. Bei Ladeparks mit Schnellladesäulen kommunizieren zudem viele verschiedene Komponenten miteinander. Das zentrale System steuert nicht nur die Ladesäulen, sondern auch etwaige Kühlmodule.

Um den reibungslosen Betrieb eines Ladeparks zu gewährleisten, muss solch ein komplexes System inklusive seiner Prozesse überwacht werden. Dabei helfen nicht nur Berichte und Warnsysteme (Descriptive Analytics und Diagnostic Analytics), sondern auch Komponenten, die veränderliche Größen, wie etwa die Auslastung und Nachfrage, analysieren und prognostizieren (Predictive Analytics). Solche Vorhersagen ebnen den Weg für intelligente Wartungsdienstleistungen und Infrastrukturen wie etwa das Smart Grid, ein intelligentes Stromnetz, das sich an die aktuelle Nachfrage optimal anpasst und gleichzeitig Netzstabilität gewährleistet. Des Weiteren können Auffälligkeiten, wie etwa Ausfälle, mittels intelligenter Analysen ebenso identifiziert werden wie ein Betrug oder Diebstahl. IT-Dienstleister, die es verstehen, einen Analyseprozess nach Best Practices umzusetzen und die Kompetenzen auf allen Stufen der Analyse mitbringen, haben aufgrund des steigenden Bedarfs an Monitoring-, Reporting- und Decision-Support-Lösungen für den Ladeparkbetrieb beste Aussichten.

Insbesondere durch die effiziente Verarbeitung sehr großer Datenmengen, am besten in Echtzeit, sowie die stärkere Vernetzung und Reaktivität von Systemen und die verständliche, nutzerzentrierte Darstellung von Daten erhofft man sich einen Wettbewerbsvorteil. Dieser kann durch Steigerung des Erkenntnisgewinns sowie präzisere Vorhersagen von potenziellen Veränderungen erreicht werden. Erkennen und Vorhersagen lässt sich viel. Ausgangslage ist daher eine Vielzahl an Fragestellungen, die anhand von Datenanalysen möglichst gut beantwortet werden sollen. Um jedoch die Antwort zu finden, die den Wettbewerbsvorteil sichert, müssen viele Zahnräder ineinandergreifen. Von der Zusammenstellung eines geeigneten Kompetenzteams und der präzisen Definition der Fragestellungen über die Wahl der richtigen Konzepte, Infrastrukturen und Technologien bis hin zur Umsetzung, Präsentation und Weiterverwertung der Ergebnisse müssen viele Faktoren berücksichtigt werden.

Dieser Artikel führt zunächst grundlegende Begriffe und Prozesse der Analyse ein, ordnet Fragestellungen und entsprechende Analysen anhand ihrer Komplexität und dem Grad der Erkenntnisfähigkeit ein und benennt für jede Dimension typische Analyseverfahren. Anschließend werden für den Bereich Predictive Analytics geeignete Konzepte, Architekturen und Technologien vorgestellt, die zur Umsetzung eines Analytics-Systems verwendet werden können. Eine Empfehlung in Bezug auf die Zusammenstellung eines Teams für Analyseprojekte rundet diesen Artikel ab. Die vorgestellten Herangehensweisen helfen, sich im Segment der Datenanalyse zu positionieren, um beispielsweise die Nutzung von Elektromobilität voranzutreiben.

Der Analyseprozess

Grundlage für die Durchführung von Datenanalysen ist ein strukturierter Prozess. Der Datenanalyseprozess (Abb. 1) beginnt mit der Datenakquise und -speicherung. An diesem Punkt müssen bereits Fragestellungen und Anforderungen definiert sein, um passende Entscheidungen über die Datenqualität und -menge zu treffen. Daten, die fehlerhaft, unvollständig oder ungenau sind, werden keine präzisen Antworten liefern. In großen heterogenen Datenmengen steckt zwar meist viel Wissen, der Verarbeitungsaufwand ist jedoch entsprechend größer. Nicht zuletzt muss auch die Frage beantwortet werden, über welche Kanäle die Daten zur Analyse zusammengeführt werden und welche Data Stores zur temporären oder persistenten Speicherung benötigt werden.

finzel_sperker_emobility_1.tif_fmt1.jpgAbb. 1: Der Analyseprozess

Da selten perfekte Daten zur Verfügung stehen, ist meist der Schritt der Datenaufbereitung notwendig. Daten aus verschiedenen Quellen müssen gegebenenfalls in ein einheitliches Format umgewandelt werden. Filter helfen, Daten zu extrahieren, die sich potenziell eignen, um gegebene Fragestellungen zu beantworten. Des Weiteren können Daten von minderer Qualität noch vor der Analyse ausgeschlossen werden.

Eng verzahnt mit der Datenaufbereitung sind die folgenden drei Prozessschritte: Featuretransformation, -extraktion und -selektion. Der Begriff Feature beschreibt hier einen einzelnen Datenpunkt oder aber eine Menge an Datenpunkten, die eine Charakteristik des Datensatzes repräsentieren.

  • Featuretransformation: Die Transformation von Daten erhöht die Präzision und Güte der Berechnungen. Gängige Methoden sind Normalisierung, Skalierung und Imputation fehlender Daten, die eine Form der Bereinigung von Datensätzen darstellt und deren Zweck darin besteht, fehlende Werte auf Grundlage statistischer Größen zu schätzen.

  • Featureextraktion (auch Feature Engineering genannt) wandelt Rohdaten in Features um, die dann in der Berechnung von Statistiken und Modellen weiterverwendet werden können. Ein anschauliches Beispiel ist die Extraktion von Text aus Bildern, etwa zur Bestimmung der thematischen Zugehörigkeit.

  • Featureselektion hingegen dient der Identifikation derjenigen Features, die am ehesten zu Erkenntnissen und präzisen Vorhersagen führen. Vorteilhaft ist zudem, dass durch Reduktion der Features die Dimensionalität der Daten gesenkt werden kann (siehe auch Fluch der Dimensionalität [1]: größerer Parameterraum führt zu schwer anpassbaren Modellen). Relevanz und Wichtigkeit (Feature Importance) wird mit statistisch-mathematischen Methoden wie etwa der Berechnung des Informationsgehalts bestimmt.

Je nach Fragestellung können schließlich verschiedene Berechnungen auf den Werten der Features durchgeführt werden. Während deskriptive Statistiken grundlegende Größen und Strukturen in den Daten identifizieren (beispielsweise Maxima, Minima und Durchschnittswerte), werden induktive Statistiken verwendet, um anhand von Kennzahlen aus Stichproben auf die Gesamtheit der Daten zu schließen (beispielsweise um Vorhersagen zu treffen und Wahrscheinlichkeiten für bestimmte Ereignisse zu identifizieren).

Zentraler Bestandteil eines fortgeschrittenen Analyseprozesses sind die Berechnung und Anwendung komplexer Modelle der Regression, Klassifizierung und der Clusteranalyse. Für die Umsetzung dieses Prozessschritts ist Kompetenz in maschinellem Lernen vorteilhaft. Eine Übersicht gängiger und populärer Verfahren ist im Abschnitt „Verfahren für Predictive Analytics“ zu finden.

Der Analyseprozess ist nicht strikt linear und wird somit nicht zwangsläufig einmal von Beginn bis Ende durchlaufen. Insbesondere die Schritte der Modellberechnung/-anwendung, -evaluation und -optimierung werden für gewöhnlich mehrmals hintereinander durchlaufen, um die Performanz des jeweiligen Verfahrens zu optimieren. Dabei ist es wichtig, gängige Indikatoren wie etwa Genauigkeit (Precision), Trefferquote (Recall), Korrektklassifikationsrate (Accuracy), F-Maß (F-Score) und die Fehlerrate (Error Rate) zu berücksichtigen. Robuste Ergebnisse ergeben sich beispielsweise durch Anwendung von Kreuzvalidierungsverfahren (Cross-Validation) bei denen im Wesentlichen die Datenmenge in Test- und Trainingsmenge unterteilt wird. Eine Steigerung der Performanz in Bezug auf die Vorhersage kann durch modellspezifische Parameteroptimierung, etwa mittels Grid Search und durch Gradient Boosting erreicht werden. Während Grid Search darin besteht, verschiedene Parameterwerte miteinander zu kombinieren und diejenige Kombination zu wählen, die die Performa...

Neugierig geworden? Wir haben diese Angebote für dich:

Angebote für Gewinner-Teams

Wir bieten Lizenz-Lösungen für Teams jeder Größe: Finden Sie heraus, welche Lösung am besten zu Ihnen passt.

Das Library-Modell:
IP-Zugang

Das Company-Modell:
Domain-Zugang