Deep Learning illustriert

Das Buch bietet einen einfachen Zugang zum Aufbau von Deep-Learning-Modellen und erleichtert das Lernen mit farbenfrohen, lebendigen Illustrationen. Teil I erklärt, was Deep Learning ist, warum es so allgegenwärtig geworden ist und wie es sich auf Konzepte und Terminologien wie Künstliche Intelligen...

Descripción completa

Detalles Bibliográficos
Otros Autores: Krohn, Jon, author (author), Beyleveld, Grant, author, Bassens, Aglaé, author
Formato: Libro electrónico
Idioma:Inglés
Publicado: dpunkt 2020.
Edición:1st edition
Materias:
Ver en Biblioteca Universitat Ramon Llull:https://discovery.url.edu/permalink/34CSUC_URL/1im36ta/alma991009630663406719
Tabla de Contenidos:
  • Intro
  • Vorwort
  • Einführung
  • Wie Sie dieses Buch lesen sollten
  • Danksagungen
  • Teil I
  • Deep Learning vorgestellt
  • 1 Biologisches und maschinelles Sehen
  • 1.1 Das biologische Sehen
  • 1.2 Maschinelles Sehen
  • 1.2.1 Das Neocognitron
  • 1.2.2 LeNet-5
  • 1.2.3 Der traditionelle Machine-Learning-Ansatz
  • 1.2.4 ImageNet und die ILSVRC
  • 1.2.5 AlexNet
  • 1.3 TensorFlow Playground
  • 1.4 Quick, Draw!
  • 1.5 Zusammenfassung
  • 2 Menschen- und Maschinensprache
  • 2.1 Deep Learning für Natural Language Processing
  • 2.1.1 Deep-Learning-Netze lernen Repräsentationen automatisch
  • 2.1.2 Natural Language Processing
  • 2.1.3 Eine kurze Geschichte des Deep Learning für NLP
  • 2.2 Repräsentationen von Sprache im Computer
  • 2.2.1 1-aus-n-Repräsentationen von Wörtern
  • 2.2.2 Wortvektoren
  • 2.2.3 Wortvektor-Arithmetik
  • 2.2.4 word2viz
  • 2.2.5 Lokalistische versus verteilte Repräsentationen
  • 2.3 Elemente der natürlichen menschlichen Sprache
  • 2.4 Google Duplex
  • 2.5 Zusammenfassung
  • 3 Maschinenkunst
  • 3.1 Eine feuchtfröhliche Nacht
  • 3.2 Berechnungen auf nachgemachten menschlichen Gesichtern
  • 3.3 Stiltransfer: Fotos in einen Monet verwandeln (und umgekehrt)
  • 3.4 Machen Sie Ihre eigenen Skizzen fotorealistisch
  • 3.5 Fotorealistische Bilder aus Text erzeugen
  • 3.6 Bildverarbeitung mittels Deep Learning
  • 3.7 Zusammenfassung
  • 4 Spielende Maschinen
  • 4.1 Deep Learning, KI und andere Monster
  • 4.1.1 Künstliche Intelligenz
  • 4.1.2 Machine Learning
  • 4.1.3 Representation Learning
  • 4.1.4 Künstliche neuronale Netze
  • 4.1.5 Deep Learning
  • 4.1.6 Maschinelles Sehen
  • 4.1.7 Natural Language Processing
  • 4.2 Drei Arten von Machine-Learning-Problemen
  • 4.2.1 Supervised Learning
  • 4.2.2 Unsupervised Learning
  • 4.2.3 Reinforcement Learning
  • 4.3 Deep Reinforcement Learning
  • 4.4 Videospiele
  • 4.5 Brettspiele
  • 4.5.1 AlphaGo.
  • 4.5.2 AlphaGo Zero
  • 4.5.3 AlphaZero
  • 4.6 Manipulation von Objekten
  • 4.7 Populäre Umgebungen für das Deep-Reinforcement-Learning
  • 4.7.1 OpenAI Gym
  • 4.7.2 DeepMind Lab
  • 4.7.3 UnityML-Agents
  • 4.8 Drei Arten von KI
  • 4.8.1 Artificial Narrow Intelligence
  • 4.8.2 Artificial General Intelligence
  • 4.8.3 Artificial Super Intelligence
  • 4.8.4 Zusammenfassung
  • Teil II
  • Die nötige Theorie
  • 5 Der (Code-)Karren vor dem (Theorie-)Pferd
  • 5.1 Voraussetzungen
  • 5.2 Installation
  • 5.3 Ein flaches Netzwerk in Keras
  • 5.3.1 Der MNIST-Datensatz handgeschriebener Ziffern
  • 5.3.2 Ein schematisches Diagramm des Netzwerks
  • 5.3.3 Die Daten laden
  • 5.3.4 Die Daten umformatieren
  • 5.3.5 Die Architektur eines neuronalen Netzes entwerfen
  • 5.3.6 Trainieren eines Deep-Learning-Modells
  • 5.4 Zusammenfassung
  • 6 Künstliche Neuronen, die Hotdogs erkennen
  • 6.1 Das Einmaleins der biologischen Neuroanatomie
  • 6.2 Das Perzeptron
  • 6.2.1 Der Hotdog/Nicht-Hotdog-Detektor
  • 6.2.2 Die wichtigste Gleichung in diesem Buch
  • 6.3 Moderne Neuronen und Aktivierungsfunktionen
  • 6.3.1 Das Sigmoid-Neuron
  • 6.3.2 Das Tanh-Neuron
  • 6.3.3 ReLU: Rectified Linear Units
  • 6.4 Ein Neuron auswählen
  • 6.5 Zusammenfassung
  • Schlüsselkonzepte
  • 7 Künstliche neuronale Netze
  • 7.1 Die Eingabeschicht
  • 7.2 Vollständig verbundene Schichten
  • 7.3 Ein vollständig verbundenes Netzwerk zum Erkennen von Hotdogs
  • 7.3.1 Forwardpropagation durch die erste verborgene Schicht
  • 7.3.2 Forwardpropagation durch nachfolgende Schichten
  • 7.4 Die Softmax-Schicht eines Netzwerks zum Klassifizieren von Fastfood
  • 7.5 Zurück zu unserem flachen Netzwerk
  • 7.6 Zusammenfassung
  • Schlüsselkonzepte
  • 8 Deep Networks trainieren
  • 8.1 Kostenfunktionen
  • 8.1.1 Quadratische Kosten
  • 8.1.2 Gesättigte Neuronen
  • 8.1.3 Kreuzentropie-Kosten.
  • 8.2 Optimierung: Lernen, um die Kosten zu minimieren
  • 8.2.1 Der Gradientenabstieg
  • 8.2.2 Die Lernrate
  • 8.2.3 Batch-Größe und stochastischer Gradientenabstieg
  • Trainingsrunde:
  • 8.2.4 Dem lokalen Minimum entkommen
  • 8.3 Backpropagation
  • 8.4 Die Anzahl der verborgenen Schichten und der Neuronen anpassen
  • 8.5 Ein mittleres Netz in Keras
  • 8.6 Zusammenfassung
  • Schlüsselkonzepte
  • 9 Deep Networks verbessern
  • 9.1 Die Initialisierung der Gewichte
  • 9.1.1 Xavier-Glorot-Verteilungen
  • 9.2 Instabile Gradienten
  • 9.2.1 Verschwindende Gradienten
  • 9.2.2 Explodierende Gradienten
  • 9.2.3 Batch-Normalisierung
  • 9.3 Modellgeneralisierung (Überanpassung vermeiden)
  • 9.3.1 L1- und L2-Regularisierung
  • 9.3.2 Dropout
  • 9.3.3 Datenaugmentation
  • 9.4 Intelligente Optimierer
  • 9.4.1 Momentum
  • 9.4.2 Nesterov-Momentum
  • 9.4.3 AdaGrad
  • 9.4.4 AdaDelta und RMSProp
  • 9.4.5 Adam
  • 9.5 Ein tiefes neuronales Netz in Keras
  • 9.6 Regression
  • 9.7 TensorBoard
  • 9.8 Zusammenfassung
  • Schlüsselkonzepte
  • Teil III
  • Interaktive Anwendungen des Deep Learning
  • 10 Maschinelles Sehen
  • 10.1 Convolutional Neural Networks
  • 10.1.1 Die zweidimensionale Struktur der visuellen Bilddarstellung
  • 10.1.2 Berechnungskomplexität
  • 10.1.3 Konvolutionsschichten
  • 10.1.4 Mehrere Filter
  • 10.1.5 Ein Beispiel für Konvolutionsschichten
  • 10.2 Hyperparameter von Konvolutionsfiltern
  • 10.2.1 Kernel-Größe
  • 10.2.2 Schrittlänge
  • 10.2.3 Padding
  • 10.3 Pooling-Schichten
  • 10.4 LeNet-5 in Keras
  • 10.5 AlexNet und VGGNet in Keras
  • 10.6 Residualnetzwerke
  • 10.6.1 Schwindende Gradienten: Das Grauen der tiefen CNN
  • 10.6.2 Residualverbindungen
  • 10.6.3 ResNet
  • 10.7 Anwendungen des maschinellen Sehens
  • 10.7.1 Objekterkennung
  • R-CNN
  • Fast R-CNN
  • Faster R-CNN
  • YOLO
  • 10.7.2 Bildsegmentierung
  • Mask R-CNN
  • U-Net
  • 10.7.3 Transfer-Lernen.
  • 10.7.4 Capsule Networks
  • 10.8 Zusammenfassung
  • Schlüsselkonzepte
  • 11 Natural Language Processing
  • 11.1 Natürliche Sprachdaten vorverarbeiten
  • 11.1.1 Tokenisierung
  • 11.1.2 Alle Zeichen in Kleinbuchstaben umwandeln
  • 11.1.3 Stoppwörter und Interpunktionszeichen entfernen
  • 11.1.4 Stemming
  • 11.1.5 N-Gramme verarbeiten
  • 11.1.6 Vorverarbeitung des kompletten Textkorpus
  • 11.2 Worteinbettungen mit word2vec erzeugen
  • 11.2.1 Die prinzipielle Theorie hinter word2vec
  • 11.2.2 Wortvektoren evaluieren
  • 11.2.3 word2vec ausführen
  • 11.2.4 Wortvektoren plotten
  • 11.3 Der Bereich unter der ROC-Kurve
  • 11.3.1 Die Wahrheitsmatrix
  • 11.3.2 Die ROC-AUC-Metrik berechnen
  • 11.4 Klassifikation natürlicher Sprache mit vertrauten Netzwerken
  • 11.4.1 Die IMDb-Filmkritiken laden
  • 11.4.2 Die IMDb-Daten untersuchen
  • 11.4.3 Die Länge der Filmkritiken standardisieren
  • 11.4.4 Vollständig verbundenes Netzwerk
  • 11.4.5 Convolutional Networks
  • 11.5 Netzwerke für die Verarbeitung sequenzieller Daten
  • 11.5.1 Recurrent Neural Networks
  • 11.5.2 Ein RNN in Keras implementieren
  • 11.5.3 Long Short-Term Memory Units
  • Ein LSTM mit Keras implementieren
  • 11.5.4 Bidirektionale LSTMs
  • 11.5.5 Gestapelte rekurrente Modelle
  • 11.5.6 Seq2seq und Attention
  • 11.5.7 Transfer-Lernen in NLP
  • 11.6 Nichtsequenzielle Architekturen: Die funktionale API in Keras
  • 11.7 Zusammenfassung
  • Schlüsselkonzepte
  • 12 Generative Adversarial Networks
  • 12.1 Die grundlegende GAN-Theorie
  • 12.2 Der Quick, Draw!-Datensatz
  • 12.3 Das Diskriminator-Netzwerk
  • 12.4 Das Generator-Netzwerk
  • 12.5 Das Adversarial-Netzwerk
  • 12.6 Das GAN-Training
  • 12.7 Zusammenfassung
  • Schlüsselkonzepte
  • 13 Deep Reinforcement Learning
  • 13.1 Die grundlegende Theorie des Reinforcement Learning
  • 13.1.1 Das Cart-Pole-Spiel
  • 13.1.2 Markow-Entscheidungsprozesse.
  • 13.1.3 Die optimale Strategie
  • 13.2 Die grundlegende Theorie von Deep-Q-Learning-Netzwerken
  • 13.2.1 Value-Funktionen
  • 13.2.2 Q-Value-Funktionen
  • 13.2.3 Einen optimalen Q-Value schätzen
  • 13.3 Einen DQN-Agenten definieren
  • 13.3.1 Initialisierungsparameter
  • 13.3.2 Das neuronale-Netze-Modell des Agenten bauen
  • 13.3.3 Sich an das Spiel erinnern
  • 13.3.4 Training über Memory Replay
  • 13.3.5 Eine Aktion auswählen
  • 13.3.6 Speichern und Laden der Modellparameter
  • 13.4 Mit einer OpenAI-Gym-Umgebung interagieren
  • 13.4.1 Hyperparameter-Optimierung mit SLM Lab
  • 13.5 Agenten jenseits von DQN
  • 13.5.1 Policy-Gradienten und der REINFORCE-Algorithmus
  • 13.5.2 Der Actor-Critic-Algorithmus
  • 13.6 Zusammenfassung
  • Schlüsselkonzepte
  • Teil IV
  • KI und Sie
  • 14 Mit Ihren eigenen Deep-Learning-Projekten beginnen
  • 14.1 Ideen für Deep-Learning-Projekte
  • 14.1.1 Machine Vision und GANs
  • 14.1.2 Natural Language Processing
  • 14.1.3 Deep Reinforcement Learning
  • 14.1.4 Ein vorhandenes Machine-Learning-Projekt überführen
  • 14.2 Ressourcen für weitere Projekte
  • 14.2.1 Gesellschaftlich nützliche Projekte
  • 14.3 Der Modellierungsprozess einschließlich der Anpassung der Hyperparameter
  • 14.3.1 Automatisierung der Hyperparameter-Suche
  • 14.4 Deep-Learning-Bibliotheken
  • 14.4.1 Keras und TensorFlow
  • 14.4.2 PyTorch
  • 14.4.3 MXNet, CNTK, Caffe und so weiter
  • 14.5 Software 2.0
  • 14.6 Die kommende Artificial General Intelligence
  • 14.7 Zusammenfassung
  • Anhang
  • A Die formale Notation neuronaler Netze
  • B Backpropagation
  • C PyTorch
  • C.1 PyTorch-Eigenschaften
  • C.1.1 Das Autograd System
  • C.1.2 Das Define-by-Run-Framework
  • C.1.3 PyTorch im Vergleich mit TensorFlow
  • C.2 PyTorch in der Praxis
  • C.2.1 Die PyTorch-Installation
  • C.2.2 Die grundlegenden Bausteine in PyTorch
  • Einfache Operationen mit Tensoren.
  • Automatische Differentiation.