Inhaltsverzeichnis:

Wie wird ein TensorFlow-Modell bereitgestellt?
Wie wird ein TensorFlow-Modell bereitgestellt?

Video: Wie wird ein TensorFlow-Modell bereitgestellt?

Video: Wie wird ein TensorFlow-Modell bereitgestellt?
Video: Saving and Loading Models (Coding TensorFlow) 2024, April
Anonim

Um zu ein Tensorflow-Modell bedienen , exportieren Sie einfach ein SavedModel aus Ihrem Tensorflow Programm. SavedModel ist ein sprachneutrales, wiederherstellbares, hermetisches Serialisierungsformat, das es übergeordneten Systemen und Tools ermöglicht, zu produzieren, zu konsumieren und zu transformieren TensorFlow-Modelle.

Wie führe ich dementsprechend ein TensorFlow-Modell aus?

Dies sind die Schritte, die wir tun werden:

  1. Machen Sie ein dummes Modell als Beispiel, trainieren und lagern Sie es.
  2. Rufen Sie die benötigten Variablen aus Ihrem gespeicherten Modell ab.
  3. Erstellen Sie die Tensor-Informationen daraus.
  4. Erstellen Sie die Modellsignatur.
  5. Erstellen und speichern Sie einen Modellgenerator.
  6. Laden Sie ein Docker-Image herunter, auf dem bereits TensorFlow-Bereitstellung kompiliert ist.

Was bietet TensorFlow außerdem? TensorFlow-Bereitstellung ist ein flexibles, leistungsstarkes Portion System für Machine-Learning-Modelle, entwickelt für Produktionsumgebungen. TensorFlow-Bereitstellung bietet Out-of-the-Box-Integration mit TensorFlow Modelle, kann aber problemlos erweitert werden auf Dienen andere Arten von Modellen und Daten.

Wie funktioniert TensorFlow in diesem Zusammenhang?

TensorFlow-Bereitstellung ermöglicht es uns, auszuwählen, welche Version eines Modells oder "servable" wir verwenden möchten, wenn wir Inferenzanfragen stellen. Jede Version wird in ein anderes Unterverzeichnis unter dem angegebenen Pfad exportiert.

Was ist ein Modellserver?

Modellserver für Apache MXNet (MMS) ist eine Open-Source-Komponente, die entwickelt wurde, um die Bereitstellung von Deep Learning zu vereinfachen Modelle für maßstabsgetreue Rückschlüsse. Bereitstellen Modelle denn Schlußfolgerung ist keine triviale Aufgabe.

Empfohlen: