要在不使用Docker的情况下安装TensorFlow Serving,可以按照以下步骤进行操作:
$ sudo apt-get update
$ sudo apt-get install -y curl libcurl3-dev
$ curl -O https://storage.googleapis.com/tensorflow-serving-apt/tensorflow-serving.release.pub.gpg
$ sudo apt-key add tensorflow-serving.release.pub.gpg
$ echo "deb [arch=amd64] http://storage.googleapis.com/tensorflow-serving-apt stable tensorflow-model-server tensorflow-model-server-universal" | sudo tee /etc/apt/sources.list.d/tensorflow-serving.list
$ sudo apt-get update
$ sudo apt-get install tensorflow-model-server
$ mkdir /tmp/models
$ curl -O https://storage.googleapis.com/download.tensorflow.org/models/inception_v3_2016_08_28.tar.gz
$ tar -xvf inception_v3_2016_08_28.tar.gz -C /tmp/models
$ tensorflow_model_server --port=9000 --model_name=inception --model_base_path=/tmp/models/inception_v3/
这样,TensorFlow Serving就会在本地的9000端口上启动,并加载预训练的Inception模型。你可以根据自己的需求修改端口号和模型路径。
注意:以上步骤假设你正在使用Ubuntu或类似的Linux发行版。如果你使用的是其他操作系统,请参考TensorFlow Serving的官方文档来了解如何在你的操作系统上安装和配置TensorFlow Serving。