Deep Learning illustriert
Das Buch bietet einen einfachen Zugang zum Aufbau von Deep-Learning-Modellen und erleichtert das Lernen mit farbenfrohen, lebendigen Illustrationen. Teil I erklärt, was Deep Learning ist, warum es so allgegenwärtig geworden ist und wie es sich auf Konzepte und Terminologien wie Künstliche Intelligen...
Otros Autores: | , , |
---|---|
Formato: | Libro electrónico |
Idioma: | Inglés |
Publicado: |
dpunkt
2020.
|
Edición: | 1st edition |
Materias: | |
Ver en Biblioteca Universitat Ramon Llull: | https://discovery.url.edu/permalink/34CSUC_URL/1im36ta/alma991009630663406719 |
Tabla de Contenidos:
- Intro
- Vorwort
- Einführung
- Wie Sie dieses Buch lesen sollten
- Danksagungen
- Teil I
- Deep Learning vorgestellt
- 1 Biologisches und maschinelles Sehen
- 1.1 Das biologische Sehen
- 1.2 Maschinelles Sehen
- 1.2.1 Das Neocognitron
- 1.2.2 LeNet-5
- 1.2.3 Der traditionelle Machine-Learning-Ansatz
- 1.2.4 ImageNet und die ILSVRC
- 1.2.5 AlexNet
- 1.3 TensorFlow Playground
- 1.4 Quick, Draw!
- 1.5 Zusammenfassung
- 2 Menschen- und Maschinensprache
- 2.1 Deep Learning für Natural Language Processing
- 2.1.1 Deep-Learning-Netze lernen Repräsentationen automatisch
- 2.1.2 Natural Language Processing
- 2.1.3 Eine kurze Geschichte des Deep Learning für NLP
- 2.2 Repräsentationen von Sprache im Computer
- 2.2.1 1-aus-n-Repräsentationen von Wörtern
- 2.2.2 Wortvektoren
- 2.2.3 Wortvektor-Arithmetik
- 2.2.4 word2viz
- 2.2.5 Lokalistische versus verteilte Repräsentationen
- 2.3 Elemente der natürlichen menschlichen Sprache
- 2.4 Google Duplex
- 2.5 Zusammenfassung
- 3 Maschinenkunst
- 3.1 Eine feuchtfröhliche Nacht
- 3.2 Berechnungen auf nachgemachten menschlichen Gesichtern
- 3.3 Stiltransfer: Fotos in einen Monet verwandeln (und umgekehrt)
- 3.4 Machen Sie Ihre eigenen Skizzen fotorealistisch
- 3.5 Fotorealistische Bilder aus Text erzeugen
- 3.6 Bildverarbeitung mittels Deep Learning
- 3.7 Zusammenfassung
- 4 Spielende Maschinen
- 4.1 Deep Learning, KI und andere Monster
- 4.1.1 Künstliche Intelligenz
- 4.1.2 Machine Learning
- 4.1.3 Representation Learning
- 4.1.4 Künstliche neuronale Netze
- 4.1.5 Deep Learning
- 4.1.6 Maschinelles Sehen
- 4.1.7 Natural Language Processing
- 4.2 Drei Arten von Machine-Learning-Problemen
- 4.2.1 Supervised Learning
- 4.2.2 Unsupervised Learning
- 4.2.3 Reinforcement Learning
- 4.3 Deep Reinforcement Learning
- 4.4 Videospiele
- 4.5 Brettspiele
- 4.5.1 AlphaGo.
- 4.5.2 AlphaGo Zero
- 4.5.3 AlphaZero
- 4.6 Manipulation von Objekten
- 4.7 Populäre Umgebungen für das Deep-Reinforcement-Learning
- 4.7.1 OpenAI Gym
- 4.7.2 DeepMind Lab
- 4.7.3 UnityML-Agents
- 4.8 Drei Arten von KI
- 4.8.1 Artificial Narrow Intelligence
- 4.8.2 Artificial General Intelligence
- 4.8.3 Artificial Super Intelligence
- 4.8.4 Zusammenfassung
- Teil II
- Die nötige Theorie
- 5 Der (Code-)Karren vor dem (Theorie-)Pferd
- 5.1 Voraussetzungen
- 5.2 Installation
- 5.3 Ein flaches Netzwerk in Keras
- 5.3.1 Der MNIST-Datensatz handgeschriebener Ziffern
- 5.3.2 Ein schematisches Diagramm des Netzwerks
- 5.3.3 Die Daten laden
- 5.3.4 Die Daten umformatieren
- 5.3.5 Die Architektur eines neuronalen Netzes entwerfen
- 5.3.6 Trainieren eines Deep-Learning-Modells
- 5.4 Zusammenfassung
- 6 Künstliche Neuronen, die Hotdogs erkennen
- 6.1 Das Einmaleins der biologischen Neuroanatomie
- 6.2 Das Perzeptron
- 6.2.1 Der Hotdog/Nicht-Hotdog-Detektor
- 6.2.2 Die wichtigste Gleichung in diesem Buch
- 6.3 Moderne Neuronen und Aktivierungsfunktionen
- 6.3.1 Das Sigmoid-Neuron
- 6.3.2 Das Tanh-Neuron
- 6.3.3 ReLU: Rectified Linear Units
- 6.4 Ein Neuron auswählen
- 6.5 Zusammenfassung
- Schlüsselkonzepte
- 7 Künstliche neuronale Netze
- 7.1 Die Eingabeschicht
- 7.2 Vollständig verbundene Schichten
- 7.3 Ein vollständig verbundenes Netzwerk zum Erkennen von Hotdogs
- 7.3.1 Forwardpropagation durch die erste verborgene Schicht
- 7.3.2 Forwardpropagation durch nachfolgende Schichten
- 7.4 Die Softmax-Schicht eines Netzwerks zum Klassifizieren von Fastfood
- 7.5 Zurück zu unserem flachen Netzwerk
- 7.6 Zusammenfassung
- Schlüsselkonzepte
- 8 Deep Networks trainieren
- 8.1 Kostenfunktionen
- 8.1.1 Quadratische Kosten
- 8.1.2 Gesättigte Neuronen
- 8.1.3 Kreuzentropie-Kosten.
- 8.2 Optimierung: Lernen, um die Kosten zu minimieren
- 8.2.1 Der Gradientenabstieg
- 8.2.2 Die Lernrate
- 8.2.3 Batch-Größe und stochastischer Gradientenabstieg
- Trainingsrunde:
- 8.2.4 Dem lokalen Minimum entkommen
- 8.3 Backpropagation
- 8.4 Die Anzahl der verborgenen Schichten und der Neuronen anpassen
- 8.5 Ein mittleres Netz in Keras
- 8.6 Zusammenfassung
- Schlüsselkonzepte
- 9 Deep Networks verbessern
- 9.1 Die Initialisierung der Gewichte
- 9.1.1 Xavier-Glorot-Verteilungen
- 9.2 Instabile Gradienten
- 9.2.1 Verschwindende Gradienten
- 9.2.2 Explodierende Gradienten
- 9.2.3 Batch-Normalisierung
- 9.3 Modellgeneralisierung (Überanpassung vermeiden)
- 9.3.1 L1- und L2-Regularisierung
- 9.3.2 Dropout
- 9.3.3 Datenaugmentation
- 9.4 Intelligente Optimierer
- 9.4.1 Momentum
- 9.4.2 Nesterov-Momentum
- 9.4.3 AdaGrad
- 9.4.4 AdaDelta und RMSProp
- 9.4.5 Adam
- 9.5 Ein tiefes neuronales Netz in Keras
- 9.6 Regression
- 9.7 TensorBoard
- 9.8 Zusammenfassung
- Schlüsselkonzepte
- Teil III
- Interaktive Anwendungen des Deep Learning
- 10 Maschinelles Sehen
- 10.1 Convolutional Neural Networks
- 10.1.1 Die zweidimensionale Struktur der visuellen Bilddarstellung
- 10.1.2 Berechnungskomplexität
- 10.1.3 Konvolutionsschichten
- 10.1.4 Mehrere Filter
- 10.1.5 Ein Beispiel für Konvolutionsschichten
- 10.2 Hyperparameter von Konvolutionsfiltern
- 10.2.1 Kernel-Größe
- 10.2.2 Schrittlänge
- 10.2.3 Padding
- 10.3 Pooling-Schichten
- 10.4 LeNet-5 in Keras
- 10.5 AlexNet und VGGNet in Keras
- 10.6 Residualnetzwerke
- 10.6.1 Schwindende Gradienten: Das Grauen der tiefen CNN
- 10.6.2 Residualverbindungen
- 10.6.3 ResNet
- 10.7 Anwendungen des maschinellen Sehens
- 10.7.1 Objekterkennung
- R-CNN
- Fast R-CNN
- Faster R-CNN
- YOLO
- 10.7.2 Bildsegmentierung
- Mask R-CNN
- U-Net
- 10.7.3 Transfer-Lernen.
- 10.7.4 Capsule Networks
- 10.8 Zusammenfassung
- Schlüsselkonzepte
- 11 Natural Language Processing
- 11.1 Natürliche Sprachdaten vorverarbeiten
- 11.1.1 Tokenisierung
- 11.1.2 Alle Zeichen in Kleinbuchstaben umwandeln
- 11.1.3 Stoppwörter und Interpunktionszeichen entfernen
- 11.1.4 Stemming
- 11.1.5 N-Gramme verarbeiten
- 11.1.6 Vorverarbeitung des kompletten Textkorpus
- 11.2 Worteinbettungen mit word2vec erzeugen
- 11.2.1 Die prinzipielle Theorie hinter word2vec
- 11.2.2 Wortvektoren evaluieren
- 11.2.3 word2vec ausführen
- 11.2.4 Wortvektoren plotten
- 11.3 Der Bereich unter der ROC-Kurve
- 11.3.1 Die Wahrheitsmatrix
- 11.3.2 Die ROC-AUC-Metrik berechnen
- 11.4 Klassifikation natürlicher Sprache mit vertrauten Netzwerken
- 11.4.1 Die IMDb-Filmkritiken laden
- 11.4.2 Die IMDb-Daten untersuchen
- 11.4.3 Die Länge der Filmkritiken standardisieren
- 11.4.4 Vollständig verbundenes Netzwerk
- 11.4.5 Convolutional Networks
- 11.5 Netzwerke für die Verarbeitung sequenzieller Daten
- 11.5.1 Recurrent Neural Networks
- 11.5.2 Ein RNN in Keras implementieren
- 11.5.3 Long Short-Term Memory Units
- Ein LSTM mit Keras implementieren
- 11.5.4 Bidirektionale LSTMs
- 11.5.5 Gestapelte rekurrente Modelle
- 11.5.6 Seq2seq und Attention
- 11.5.7 Transfer-Lernen in NLP
- 11.6 Nichtsequenzielle Architekturen: Die funktionale API in Keras
- 11.7 Zusammenfassung
- Schlüsselkonzepte
- 12 Generative Adversarial Networks
- 12.1 Die grundlegende GAN-Theorie
- 12.2 Der Quick, Draw!-Datensatz
- 12.3 Das Diskriminator-Netzwerk
- 12.4 Das Generator-Netzwerk
- 12.5 Das Adversarial-Netzwerk
- 12.6 Das GAN-Training
- 12.7 Zusammenfassung
- Schlüsselkonzepte
- 13 Deep Reinforcement Learning
- 13.1 Die grundlegende Theorie des Reinforcement Learning
- 13.1.1 Das Cart-Pole-Spiel
- 13.1.2 Markow-Entscheidungsprozesse.
- 13.1.3 Die optimale Strategie
- 13.2 Die grundlegende Theorie von Deep-Q-Learning-Netzwerken
- 13.2.1 Value-Funktionen
- 13.2.2 Q-Value-Funktionen
- 13.2.3 Einen optimalen Q-Value schätzen
- 13.3 Einen DQN-Agenten definieren
- 13.3.1 Initialisierungsparameter
- 13.3.2 Das neuronale-Netze-Modell des Agenten bauen
- 13.3.3 Sich an das Spiel erinnern
- 13.3.4 Training über Memory Replay
- 13.3.5 Eine Aktion auswählen
- 13.3.6 Speichern und Laden der Modellparameter
- 13.4 Mit einer OpenAI-Gym-Umgebung interagieren
- 13.4.1 Hyperparameter-Optimierung mit SLM Lab
- 13.5 Agenten jenseits von DQN
- 13.5.1 Policy-Gradienten und der REINFORCE-Algorithmus
- 13.5.2 Der Actor-Critic-Algorithmus
- 13.6 Zusammenfassung
- Schlüsselkonzepte
- Teil IV
- KI und Sie
- 14 Mit Ihren eigenen Deep-Learning-Projekten beginnen
- 14.1 Ideen für Deep-Learning-Projekte
- 14.1.1 Machine Vision und GANs
- 14.1.2 Natural Language Processing
- 14.1.3 Deep Reinforcement Learning
- 14.1.4 Ein vorhandenes Machine-Learning-Projekt überführen
- 14.2 Ressourcen für weitere Projekte
- 14.2.1 Gesellschaftlich nützliche Projekte
- 14.3 Der Modellierungsprozess einschließlich der Anpassung der Hyperparameter
- 14.3.1 Automatisierung der Hyperparameter-Suche
- 14.4 Deep-Learning-Bibliotheken
- 14.4.1 Keras und TensorFlow
- 14.4.2 PyTorch
- 14.4.3 MXNet, CNTK, Caffe und so weiter
- 14.5 Software 2.0
- 14.6 Die kommende Artificial General Intelligence
- 14.7 Zusammenfassung
- Anhang
- A Die formale Notation neuronaler Netze
- B Backpropagation
- C PyTorch
- C.1 PyTorch-Eigenschaften
- C.1.1 Das Autograd System
- C.1.2 Das Define-by-Run-Framework
- C.1.3 PyTorch im Vergleich mit TensorFlow
- C.2 PyTorch in der Praxis
- C.2.1 Die PyTorch-Installation
- C.2.2 Die grundlegenden Bausteine in PyTorch
- Einfache Operationen mit Tensoren.
- Automatische Differentiation.