Tartalomjegyzék:

Hogyan szolgálja ki a TensorFlow modellt?
Hogyan szolgálja ki a TensorFlow modellt?

Videó: Hogyan szolgálja ki a TensorFlow modellt?

Videó: Hogyan szolgálja ki a TensorFlow modellt?
Videó: MJC Stream: Видишь енота? А он есть! Главное об ML и компьютерном зрении 2024, Lehet
Anonim

Azért, hogy szolgál egy Tensorflow modellt , egyszerűen exportáljon egy SavedModelt a sajátjából Tensorflow program. A SavedModel egy nyelvsemleges, helyreállítható, hermetikus szerializációs formátum, amely lehetővé teszi a magasabb szintű rendszerek és eszközök előállítását, fogyasztását és átalakítását. TensorFlow modellek.

Ennek megfelelően hogyan futtathatok TensorFlow modellt?

Ezeket a lépéseket fogjuk megtenni:

  1. Készíts példaként egy hülye modellt, képezd ki és tárold.
  2. Hozza le a szükséges változókat a tárolt modellből.
  3. Építsd meg belőlük a tenzorinformációt.
  4. Hozza létre a modell aláírását.
  5. Modellkészítő létrehozása és mentése.
  6. Töltsön le egy Docker-képet, amelyen már le van fordítva a TensorFlow szolgáltatás.

Ezenkívül mit szolgál ki a TensorFlow? TensorFlow kiszolgálás egy rugalmas, nagy teljesítményű szolgáló gépi tanulási modellek rendszere, termelési környezetekhez tervezve. TensorFlow kiszolgálás azonnali integrációt biztosít TensorFlow modellek, de könnyen bővíthető szolgál más típusú modellek és adatok.

Ezzel kapcsolatban hogyan működik a TensorFlow szolgáltatás?

TensorFlow kiszolgálás lehetővé teszi számunkra, hogy kiválasszuk, hogy egy modell vagy „megszolgálható” melyik verzióját szeretnénk használni, amikor következtetési kéréseket végzünk. Minden verzió egy másik alkönyvtárba lesz exportálva a megadott elérési út alatt.

Mi az a modellszerver?

Modell szerver Az Apache MXNet (MMS) egy nyílt forráskódú összetevő, amelyet a mély tanulás telepítésének egyszerűsítésére terveztek. modellek méretarányos következtetéshez. Telepítés modellek mert a következtetés nem triviális feladat.

Ajánlott: