请问有没有类似下面这种的: 整个模型装进一个 docker 里面,然后提供一个 api。传入输入之后会返回一个 json 包含 inference 的结果。
1
jdhao 2019 年 12 月 7 日 via Android 用 flask 部署,提供一个服务接口,docker 里面接口映射一下即可
|
2
widewing 2019 年 12 月 7 日 via Android kubeflow
|
3
jaswer 2019 年 12 月 7 日
方案你不是自己都说出来了
|
5
tfdetang 2019 年 12 月 7 日
不知道是不是我的错觉。模型用 tensorflow-serving-gpu 部署,同样的配置比本地的实验代码推理速度慢(同样配置)。当然 serving 部署比较方便是真的
|
6
hdbzsgm 2019 年 12 月 7 日
seldon/tf serving/kf serving
|