Fork批量服务

用户可在「批量服务」列表或部署详情页面对在线服务信息进行Fork。

操作步骤

1. Fork服务进入

1.1 点击左侧列表中「云端 Serving 」-「批量服务」按钮,进入「批量服务」列表页面进行Fork。

图 1.1:Fork批量服务入口
图 1.1:Fork批量服务入口

1.2. 点击 「批量服务」列表页 服务名称 进入「部署详情」页面选择「Fork」按钮,弹出表单进行按需Fork。

图 1.2:Fork批量服务入口
图 1.2:Fork批量服务入口
note

可Fork状态:

「运行完成」状态的 任务 ,可进行「Fork」操作。

不可Fork状态:

「部署中」状态的 任务 ,不可进行「Fork」操作。

「运行中」状态的 任务 ,不可进行「Fork」操作。

「已停止」状态的 任务 ,不可进行「Fork」操作。

「运行失败」状态的 任务 ,不可进行「Fork」操作。

「未知」状态的 任务 ,不可进行「Fork」操作。

2. Fork批量服务

用户可根据自需进行对表单 Fork 操作,点击「提交」返回批量服务列表页面且该条Fork任务状态变为部署中。

图 2:Fork批量服务
图 2:Fork批量服务
  1. 用户可自定义在线服务名称,仅支持字母、数字、汉字、英文横杠和下划线、字符长度不能超出 32,在线服务名称不可重复( ID 为自动递增)。
  2. 描述(可选),字符长度不能超出 200。
  3. 模型类型,可选「我的模型」或「预训练模型」。
  4. 节点类型,可选「CPU」或「GPU」类型。
  5. 模型,此下拉框的内容会根据选用的模型类型变化。
  6. 自定义推理脚本,开启该选项将会使用自定义推理脚本进行推理
  7. 镜像选择,部署在线服务所需的镜像。
  8. 节点规格,此下拉框的内容会根据选用的节点类型变化。
  9. 上传预测图片,图片数量不得超出 5000 张。
  10. 节点数量,默认为 1,多版本可根据适用场景调配节点数,整体配置最大值不超出 10 节点即可。
  11. 支持并不仅限以下五种运行参数:
    signature_nameTensorflow模型推理,默认为 serving_default;
    reshape_size,图片预处理形状 「H, W」,默认为 ImageNet图片大小;
    prepare_mode ,Keras/Tensoflow 模型预处理模式,可选 tfhub、caffe、tf、torch,默认为 tfhub;
    model_structure ,Pytorch 模型保存网络名称,默认为 model;
    job_name,Oneflow 模型推理 job 名称,默认为 inference。
Last updated on