PyTorch für Deep Learning

Mit diesem praxisorientierten Buch meistern Sie die Methoden des Deep Learning, einer Teildisziplin des Machine Learning, die die Welt um uns herum verändert.Machen Sie sich mit PyTorch, dem populären Python-Framework von Facebook, vertraut, und lernen Sie Schlüsselkonzepte und neueste Techniken,...

Full description

Bibliographic Details
Main Author: Pointer, Ian
Format: eBook
Language:German
Published: dpunkt 2020
Edition:1st edition
Subjects:
Ai.
Ki.
Online Access:
Collection: O'Reilly - Collection details see MPG.ReNa
LEADER 08097nmm a2200553 u 4500
001 EB001941965
003 EBX01000000000000001104867
005 00000000000000.0
007 cr|||||||||||||||||||||
008 210123 ||| ger
020 |a 9783960103998 
020 |a 1098125894 
020 |a 9783960091349 
020 |a 9781098125899 
020 |a 3960103999 
100 1 |a Pointer, Ian 
245 0 0 |a PyTorch für Deep Learning  |h [electronic resource]  |c Pointer, Ian 
250 |a 1st edition 
260 |b dpunkt  |c 2020 
300 |a 272 pages 
505 0 |a Kapitel 8: PyTorch im Produktiveinsatz -- Bereitstellen eines Modells -- Einrichten eines Flask-Webdiensts -- Modellparameter laden -- Erstellen eines Docker-Containers -- Unterschiede zwischen lokalem und Cloud-Speicher -- Logging und Telemetrie -- Deployment mit Kubernetes -- Einrichten der Google Kubernetes Engine -- Aufsetzen eines Kubernetes-Clusters -- Dienste skalieren -- Aktualisierungen und Bereinigungen -- TorchScript -- Tracing -- Scripting -- Einschränkungen in TorchScript -- Mit libTorch arbeiten -- libTorch einrichten -- Ein TorchScript-Modell importieren -- Quantisierung -- Dynamische Quantisierung -- Weitere Quantisierungsmöglichkeiten -- Lohnt sich das alles? -- Zusammenfassung -- Weiterführende Literatur -- Kapitel 9: Praxiserprobte PyTorch-Modelle in Aktion -- Datenaugmentation: Vermischen und Glätten -- Mixup -- Label-Glättung -- Computer, einmal in scharf bitte! -- Einführung in die Super-Resolution -- Einführung in Generative Adversarial Networks (GANs) -- Der Fälscher und sein Kritiker -- Trainieren eines GAN -- Die Gefahr des Mode Collapse -- ESRGAN -- Weitere Einblicke in die Bilderkennung -- Objekterkennung -- Faster R-CNN und Mask R-CNN -- Adversarial Samples -- Black-Box-Angriffe -- Abwehr adversarialer Angriffe -- Die Transformer-Architektur -- Aufmerksamkeitsmechanismus -- Attention Is All You Need -- BERT -- FastBERT -- GPT-2 -- GPT-2 vorbereiten -- Texte mit GPT-2 erzeugen -- Beispielhafte Ausgabe -- ULMFiT -- Welches Modell verwenden? -- Selbstüberwachtes Training mit PyTorch Lightning auf Basis von Bildern -- Rekonstruieren und Erweitern der Eingabe -- Daten automatisch labeln -- PyTorch Lightning -- Der Imagenette-Datensatz -- Einen selbstüberwachten Datensatz erstellen -- Ein Modell mit PyTorch Lightning erstellen -- Weitere Möglichkeiten zur Selbstüberwachung (und darüber hinaus) -- Zusammenfassung 
505 0 |a Farbräume und Lambda-Transformationen -- Benutzerdefinierte Transformationsklassen -- Klein anfangen und schrittweise vergrößern! -- Ensemble-Modelle -- Zusammenfassung -- Weiterführende Literatur -- Kapitel 5: Textklassifizierung -- Rekurrente neuronale Netzwerke -- Long-Short-Term-Memory-(LSTM-)Netzwerke -- Gated Recurrent Units (GRUs) -- BiLSTM-Netzwerke -- Einbettungen -- Torchtext -- Ein Twitter-Datensatz -- Field-Objekte definieren -- Einen Wortschatz aufbauen -- Erstellung unseres Modells -- Die Trainingsschleife modifizieren -- Tweets klassifizieren -- Datenaugmentation -- Zufälliges Einfügen -- Zufälliges Löschen -- Zufälliges Austauschen -- Rückübersetzung -- Datenaugmentation und Torchtext -- Transfer Learning? -- Zusammenfassung -- Weiterführende Literatur -- Kapitel 6: Eine Reise in die Welt der Klänge -- Töne -- Der ESC-50-Datensatz -- Den Datensatz beschaffen -- Audiowiedergabe in Jupyter -- Den ESC-50-Datensatz erkunden -- SoX und LibROSA -- torchaudio -- Einrichten eines eigenen ESC-50-Datensatzes -- Ein CNN-Modell für den ESC-50-Datensatz -- Frequenzbereich -- Mel-Spektrogramme -- Ein neuer Datensatz -- Ein vortrainiertes ResNet-Modell -- Lernrate finden -- Datenaugmentation für Audiodaten -- Transformationen mit torchaudio -- SoX-Effektketten -- SpecAugment -- Weitere Experimente -- Zusammenfassung -- Weiterführende Literatur -- Kapitel 7: PyTorch-Modelle debuggen -- 3 Uhr morgens. Wie steht es um Ihre Daten? -- TensorBoard -- TensorBoard installieren -- Daten an TensorBoard übermitteln -- Hooks in PyTorch -- Mittelwert und Standardabweichung visualisieren -- Class Activation Mapping -- Flammendiagramme -- py-spy installieren -- Flammendiagramme interpretieren -- Eine langsame Transformation beheben -- Debuggen von GPU-Problemen -- Die GPU überwachen -- Gradient-Checkpointing -- Zusammenfassung -- Weiterführende Literatur 
505 0 |a Weiterführende Literatur -- Index 
505 0 |a Intro -- Inhalt -- Kapitel 1: Einstieg in PyTorch -- Zusammenbau eines maßgeschneiderten Deep-Learning-Rechners -- Grafikprozessor (GPU) -- Hauptprozessor (CPU) und Motherboard -- Arbeitsspeicher (RAM) -- Speicher -- Deep Learning in der Cloud -- Google Colaboratory -- Cloud-Anbieter -- Welchen Cloud-Anbieter sollte ich wählen? -- Verwendung von Jupyter Notebook -- PyTorch selbst installieren -- CUDA downloaden -- Anaconda -- Zu guter Letzt -- PyTorch (und Jupyter Notebook) -- Tensoren -- Tensoroperationen -- Tensor-Broadcasting -- Zusammenfassung -- Weiterführende Literatur -- Kapitel 2: Bildklassifizierung mit PyTorch -- Unsere Klassifizierungsaufgabe -- Traditionelle Herausforderungen -- Zunächst erst mal Daten -- Daten mit PyTorch einspielen -- Einen Trainingsdatensatz erstellen -- Erstellen eines Validierungs- und eines Testdatensatzes -- Endlich, ein neuronales Netzwerk! -- Aktivierungsfunktionen -- Ein Netzwerk erstellen -- Verlustfunktionen -- Optimierung -- Training -- Validierung -- Ein Modell auf der GPU zum Laufen bringen -- Alles in einem -- Vorhersagen treffen -- Speichern von Modellen -- Zusammenfassung -- Weiterführende Literatur -- Kapitel 3: Neuronale Konvolutionsnetze (CNNs) -- Unser erstes Konvolutionsnetz -- Konvolutionen -- Pooling -- Die Dropout-Schicht -- Die Geschichte der CNN-Architekturen -- AlexNet -- Inception/GoogLeNet -- VGG -- ResNet -- Weitere Architekturen -- Vortrainierte Modelle in PyTorch nutzen -- Die Struktur eines Modells untersuchen -- Die Batch-Normalisierungs-Schicht -- Welches Modell sollten Sie verwenden? -- One-Stop-Shopping für Modelle: PyTorch Hub -- Zusammenfassung -- Weiterführende Literatur -- Kapitel 4: Transfer Learning und andere Kniffe -- Transfer Learning mit ResNet -- Die optimale Lernrate finden -- Differenzielle Lernraten -- Datenaugmentation -- Transformationen in Torchvision 
653 |a Künstliche Intelligenz 
653 |a Machine learning / http://id.loc.gov/authorities/subjects/sh85079324 
653 |a Algorithmen 
653 |a Supervised Learning 
653 |a Maschinelles Lernen 
653 |a Artificial intelligence / http://id.loc.gov/authorities/subjects/sh85008180 
653 |a PyTorch 
653 |a überwachtes Lernen 
653 |a Neural Networks 
653 |a Intelligence artificielle 
653 |a Neuronale Netze 
653 |a Apprentissage automatique 
653 |a artificial intelligence / aat 
653 |a Unsupervised learning 
653 |a Python 
653 |a AI. 
653 |a KI. 
653 |a Data Science 
041 0 7 |a ger  |2 ISO 639-2 
989 |b OREILLY  |a O'Reilly 
856 4 0 |u https://learning.oreilly.com/library/view/~/9781098125899/?ar  |x Verlag  |3 Volltext 
082 0 |a 331 
082 0 |a 500 
082 0 |a 006.31 
520 |a Mit diesem praxisorientierten Buch meistern Sie die Methoden des Deep Learning, einer Teildisziplin des Machine Learning, die die Welt um uns herum verändert.Machen Sie sich mit PyTorch, dem populären Python-Framework von Facebook, vertraut, und lernen Sie Schlüsselkonzepte und neueste Techniken, um Ihre eigenen neuronalen Netze zu entwickeln. Ian Pointer zeigt Ihnen zunächst, wie Sie PyTorch in einer Cloud-basierten Umgebung einrichten. Er führt Sie dann durch die einzelnen Schritte der Entwicklung von neuronalen Architekturen, um praxisrelevante Anwendungen für Bilder, Ton, Text und andere Datenformate zu erstellen. Er erläutert auch das Transfer-Learning mit Bilddaten und das Debuggen der Modelle. Sie erfahren zudem, wie Sie Ihre Deep-Learning-Anwendungen in Docker-Containern und Kubernetes-Clustern in den Produktiveinsatz bringen