© S&S Media GmbH
Sag mal ...

Sag mal ...


Es war einmal eine junge Redakteurin. Äußerst fasziniert von der IT im Allgemeinen und von Machine Learning und Künstlicher Intelligenz im Besonderen machte sie sich auf in neue Welten – kurz gesagt, ich besuchte die ML Conference. Natürlich habe ich von der Konferenz viele neue Eindrücke, Information und was nicht noch alles mitgebracht. Am Telefon beim obligatorischen Kaffee habe ich mich mit Niko darüber unterhalten und ihm ganz begeistert davon erzählt. Und was hat Niko gemacht? Natürlich Fragen gestellt. War ja klar.

Niko: Ach, du warst auf einer If-then-else-Konferenz!?

Carina: Äh, ja nee, so kannst du das jetzt auch nicht sagen... Natürlich ist ML if-then-else, allerdings hört es damit noch nicht auf. Zum ML-Kontext gehört viel mehr als stupide Mathematik. Aber fangen wir an der Wurzel des Ganzen an. Für lernende Systeme brauchst du vor allem eins: Daten, Daten, Daten. Und dann natürlich auch noch Training. Wie ein Kind, das Lesen lernt, muss die Maschine üben. Übung macht ja bekanntlich den Meister. Was noch dazukommt, ist Lernen durch Erfahrung und da gehen wir schon ein kleines Schrittchen über if-then-else hinaus. Nehmen wir wieder das Kind als Beispiel. Du sagst ihm: Die Herdplatte ist heiß, fass da lieber nicht drauf. Das Kind kann es nicht lassen und fasst trotzdem hin. Es merkt natürlich sofort eindeutig, was du mit heiß gemeint hast. Das Kind wird nie wieder auf eine heiße Herdplatte fassen. Es hat die (in diesem Fall negative) Erfahrung gemacht, dass die Kombination aus heiß, Herdplatte und anfassen Schmerzen bedeutet.

Übertragen wir diese Analogie auf einen Roboter. Xander Steenbrugge hat in seiner Session das Beispiel eines Pingpongroboters gezeigt [1]. Genauer gesagt ist es ein Roboterarm. In diesem Arm steckt ein Generative Adversarial Network (GAN). Bevor ich dir erkläre, was dieses GAN tut, muss ich dir erst noch etwas zu Reinforcement Learning erzählen [2]. Reinforcement Learning oder bestärkendes Lernen kommt ursprünglich aus der Psychologie. Im Grunde dreht sich wieder alles um Lernen durch Erfahrung. Ein Individuum bekommt ein Ziel. Allerdings kennt es nur dieses Ziel, nicht den Weg oder die Wege dahin. Jede Aktion hat Konsequenzen – positive wie negative. Via Trial and Error lernt es so lange, bis es sein Ziel erreicht. Zurück zu unserem Roboter: Wir lassen ihn gegen einen Menschen Tischtennis spielen. Am Anfang wird er ziemlich schlecht performen. Das GAN kann nur sehr begrenzt einschätzen, was der Gegner als Nächstes tut. Mit der Zeit lernt es, welche Reaktionen funktionieren und welche nicht. Auf Basis der Erfahrungen, die unser Roboter gemacht hat – Training ist alles – wird er immer besser, bis er in der Lage ist, den nächsten Spielzug vorauszusehen.

Niko: Das ist ja alles schön und so eine Flugbahn eines Tischtennisballs ist auch recht gut berechenbar. Dennoch...

Neugierig geworden? Wir haben diese Angebote für dich:

Angebote für Teams

Für Firmen haben wir individuelle Teamlizenzen. Wir erstellen Ihnen gerne ein passendes Angebot.

Das Library-Modell:
IP-Zugang

Das Company-Modell:
Domain-Zugang