Einführung in TensorFlow Deep-Learning-Systeme programmieren, trainieren, skalieren und deployen

Deep-Learning-Netze, die mit großen Datenmengen angelernt wurden, lösen komplexe Aufgaben mit erstaunlicher Genauigkeit. TensorFlow ist die führende Open-Source-Bibliothek zum Erstellen und Trainieren neuronaler Deep-Learning-Netze z.B. für die Sprach- und Bilderkennung, die Verarbeitung natürliche...

Descripción completa

Detalles Bibliográficos
Otros Autores: Hope, Tom (Data scientist), author (author), Resheff, Yehezkel S., author, Lieder, Itay, author
Formato: Libro electrónico
Idioma:Alemán
Publicado: Paderborn : O'Reilly [2018]
Edición:1. Auflage
Colección:Animals
Materias:
Ver en Biblioteca Universitat Ramon Llull:https://discovery.url.edu/permalink/34CSUC_URL/1im36ta/alma991009630685406719
Tabla de Contenidos:
  • Intro
  • Inhalt
  • Vorwort
  • Kapitel 1: Einleitung
  • Einstieg in Deep Learning
  • TensorFlow für KI-Systeme verwenden
  • TensorFlow: Was verbirgt sich hinter dem Namen?
  • Allgemeiner Überblick
  • Zusammenfassung
  • Kapitel 2: Erste Schritte mit TensorFlow
  • TensorFlow installieren
  • Hallo Welt
  • MNIST
  • Softmax-Regression
  • Zusammenfassung
  • Kapitel 3: Die Grundlagen von TensorFlow
  • Berechnungsgraphen
  • Was ist ein Berechnungsgraph?
  • Die Vorteile von Graphenberechnungen
  • Graphen, Sessions und Ergebnisabfragen
  • Einen Graphen erstellen
  • Eine Session erstellen und ausführen
  • Unseren Graphen aufbauen und verwalten
  • Ergebnisabfragen
  • Fließende Tensoren
  • Knoten als Operationen, Kanten als Tensor-Objekte
  • Datentypen
  • Tensor-Objekte und ihre Gestalt
  • Namen
  • Variablen, Platzhalter und einfache Optimierung
  • Variablen
  • Platzhalter
  • Optimierung
  • Zusammenfassung
  • Kapitel 4: Konvolutionsnetze
  • Einführung in Konvolutionsnetze
  • MNIST: Zweite Runde
  • Konvolution
  • Pooling
  • Dropout
  • Das Modell
  • CIFAR10
  • Laden des CIFAR10-Datensatzes
  • Einfache CIFAR10-Modelle
  • Zusammenfassung
  • Kapitel 5: Text I: Arbeiten mit Text und Sequenzen, Visualisierung mit TensorBoard
  • Warum Sequenzdaten so wichtig sind
  • Einführung in rekurrente neuronale Netze
  • Einfache Implementierung eines RNN
  • In TensorFlow eingebaute Funktionen für RNNs
  • RNNs für Textsequenzen
  • Textsequenzen
  • Überwachte Worteinbettungen
  • LSTM und die Verwendung von Sequenzlängen
  • Anlernen von Einbettungen und des LSTM-Klassifikators
  • Zusammenfassung
  • Kapitel 6: Text II: Wortvektoren, fortgeschrittene RNNs und Visualisierung von Einbettungen
  • Einführung in die Worteinbettung
  • Word2vec
  • Skip-Gramme
  • Einbettungen in TensorFlow
  • Die Verlustfunktion für Noise-Contrastive Estimation (NCE)
  • Abfall der Lernrate.
  • Anlernen und Visualieren mit TensorBoard
  • Einblick in unsere Einbettungen
  • Angelernte Einbettungen und fortgeschrittene RNNs
  • Angelernte Worteinbettungen
  • Bidirektionale RNNs und GRU-Zellen
  • Zusammenfassung
  • Kapitel 7: Abstraktionen und Vereinfachungen in TensorFlow
  • Überblick über das Kapitel
  • Verfügbare Bibliotheken
  • contrib.learn
  • Lineare Regression
  • DNN-Klassifikator
  • FeatureColumn
  • Mit contrib.learn ein CNN selbst erstellen
  • TFLearn
  • Installation
  • CNN
  • RNN
  • Keras
  • Angelernte Modelle mit TF-Slim
  • Zusammenfassung
  • Kapitel 8: Warteschlangen, Threads und das Einlesen von Daten
  • Die Eingabepipeline
  • TFRecords
  • Das Schreiben mit TFRecordWriter
  • Warteschlangen
  • Einstellen und Entnehmen
  • Multithreading
  • Koordinator und Warteschlangensteuerung
  • Eine vollständige parallele Eingabepipeline
  • tf.train.string_input_producer() und tf.TFRecordReader()
  • tf.train.shuffle_batch()
  • tf.train.start_queue_runners() und der Abschluss
  • Zusammenfassung
  • Kapitel 9: TensorFlow und verteiltes Rechnen
  • Verteiltes Rechnen
  • Wo findet Parallelisierung statt?
  • Was ist das Ziel von Parallelisierung?
  • TensorFlow-Elemente
  • tf.app.flags
  • Cluster und Server
  • Replikation von Berechnungsgraphen über mehrere Prozessoren
  • Überwachte Sessions
  • Die Prozessorzuteilung
  • Beispiel mit verteiltem Rechnen
  • Zusammenfassung
  • Kapitel 10: Modelle mit TensorFlow exportieren und via Server bereitstellen
  • Unser Modell speichern und exportieren
  • Geladene Gewichte zuweisen
  • Die Klasse Saver
  • Einführung in TensorFlow Serving
  • Überblick
  • Installation
  • Bauen und exportieren
  • Zusammenfassung
  • Anhang: Tipps zur Erstellung von Modellen und Verwendung von TensorFlow Serving
  • Index
  • Über die Autoren
  • Kolophon.