© best_vector/Shutterstock.com
Windows Developer
Buchtipp

Neuronale Netze und Deep Learning kapieren


.NET-Entwickler sind im Bereich der künstlichen Intelligenz nicht gut positioniert: der Gutteil der Action findet in der Python-Welt statt. Wer diesem Problem durch das Kaufen eines Buches Abhilfe verschaffen möchte, hat ein neues Problem: die Literatur ist entweder zu einfach oder zu mathematisch.

In den ersten beiden Kapiteln motiviert der Autor seine Entscheidung für Python, um danach ohne viel Code die in der Welt des Machine Learning vorkommenden Begriffe zu erklären. Wer diese beiden Kapitel durcharbeitet, erhält ein Verständnis der Thermenterminologie – danach versteht man Dokumente leichter. Im dritten Kapitel beginnt die Arbeit an einem primitiven System, das ein kleines neuronales Netz zur Erzeugung von Gewinn- und Verlustvorhersagen in Fußballspielen verwendet. Hier kommt Python zum Einsatz. Wegen des geringen Codeumfangs und der recht einfachen Syntax versteht man als erfahrener Entwickler schnell, was hier passiert.

In den beiden darauffolgenden Kapiteln wendet sich Andrew W. Trask der Frage zu, warum man die von neuronalen Netzwerken errechneten Fehler quadriert und wie man diese Werte danach zur Korrektur des Verhaltens einsetzt. Neben primitiven Netzen lernen Sie hier auch Verfahren, die mehrere Gewichtswerte in einem Netzwerk gleichzeitig an eine neue Situation anpassen.

Der Autor umgeht die Versuchung, den Leser im ersten Beispiel mit einem komplexen Netzwerk zu erschlagen. Mehrschichtige Netzwerke kommen erst im sechsten Kapitel zum Einsatz, wo auch das oft haarige Thema der Back Propagation zur Sprache kommt. Der populärwissenschaftlich-didaktische Ansatz des Lehrbuchs zeigt hier seine Stärke: Andrew W. Trask illustriert Fallbeispiele zum Beispiel anhand eines neuronalen Netzwerks, das die in einem unbekannten Land geltenden Ampelfarben analysiert und in Lauf- oder Stoppbefehle für Personen umwandelt.

Darauf folgen zwei Kapitel, die auf Datenverarbeitung und Rauschen sowie auf die Modellierung von Nichtlinearität eingehen. Man findet im realen Leben häufig Prozesse, die nicht linear sind – sofern man ihr Verhalten über eine Aktivierungsfunktion darstellt, können sich neuronale Netzwerke mit diesem Sonderregime anfreunden.

Im zehnten Kapitel folgt die Frage der Convolutional Neural Networks, kurz CNN. Diese Netzwerkgattung ist insofern von Bedeutung, als sie in der Praxis für sehr viele Anwendungsfälle verwendet wird. Das elfte Kapitel belegt das, indem es die bisher kennengelernten Schemata zur Lösung einiger Probleme im Bereich der Ve...

Windows Developer
Buchtipp

Neuronale Netze und Deep Learning kapieren

.NET-Entwickler sind im Bereich der künstlichen Intelligenz nicht gut positioniert: der Gutteil der Action findet in der Python-Welt statt. Wer diesem Problem durch das Kaufen eines Buches Abhilfe verschaffen möchte, hat ein neues Problem: die Literatur ist entweder zu einfach oder zu mathematisch.

Tam Hanna


.NET-Entwickler sind im Bereich der künstlichen Intelligenz nicht gut positioniert: der Gutteil der Action findet in der Python-Welt statt. Wer diesem Problem durch das Kaufen eines Buches Abhilfe verschaffen möchte, hat ein neues Problem: die Literatur ist entweder zu einfach oder zu mathematisch.

In den ersten beiden Kapiteln motiviert der Autor seine Entscheidung für Python, um danach ohne viel Code die in der Welt des Machine Learning vorkommenden Begriffe zu erklären. Wer diese beiden Kapitel durcharbeitet, erhält ein Verständnis der Thermenterminologie – danach versteht man Dokumente leichter. Im dritten Kapitel beginnt die Arbeit an einem primitiven System, das ein kleines neuronales Netz zur Erzeugung von Gewinn- und Verlustvorhersagen in Fußballspielen verwendet. Hier kommt Python zum Einsatz. Wegen des geringen Codeumfangs und der recht einfachen Syntax versteht man als erfahrener Entwickler schnell, was hier passiert.

In den beiden darauffolgenden Kapiteln wendet sich Andrew W. Trask der Frage zu, warum man die von neuronalen Netzwerken errechneten Fehler quadriert und wie man diese Werte danach zur Korrektur des Verhaltens einsetzt. Neben primitiven Netzen lernen Sie hier auch Verfahren, die mehrere Gewichtswerte in einem Netzwerk gleichzeitig an eine neue Situation anpassen.

Der Autor umgeht die Versuchung, den Leser im ersten Beispiel mit einem komplexen Netzwerk zu erschlagen. Mehrschichtige Netzwerke kommen erst im sechsten Kapitel zum Einsatz, wo auch das oft haarige Thema der Back Propagation zur Sprache kommt. Der populärwissenschaftlich-didaktische Ansatz des Lehrbuchs zeigt hier seine Stärke: Andrew W. Trask illustriert Fallbeispiele zum Beispiel anhand eines neuronalen Netzwerks, das die in einem unbekannten Land geltenden Ampelfarben analysiert und in Lauf- oder Stoppbefehle für Personen umwandelt.

Darauf folgen zwei Kapitel, die auf Datenverarbeitung und Rauschen sowie auf die Modellierung von Nichtlinearität eingehen. Man findet im realen Leben häufig Prozesse, die nicht linear sind – sofern man ihr Verhalten über eine Aktivierungsfunktion darstellt, können sich neuronale Netzwerke mit diesem Sonderregime anfreunden.

Im zehnten Kapitel folgt die Frage der Convolutional Neural Networks, kurz CNN. Diese Netzwerkgattung ist insofern von Bedeutung, als sie in der Praxis für sehr viele Anwendungsfälle verwendet wird. Das elfte Kapitel belegt das, indem es die bisher kennengelernten Schemata zur Lösung einiger Probleme im Bereich der Ve...

Angebote für Teams

Für Firmen haben wir individuelle Teamlizenzen. Wir erstellen Ihnen gerne ein passendes Angebot.

Das Library-Modell:
IP-Zugang

Das Company-Modell:
Domain-Zugang