Workflow Inference API¶
Workflow Inference API 預設在連接埠 8080 上監聽,並且只能從 localhost 存取。若要變更預設設定,請參閱TorchServe 組態。
TorchServe 伺服器支援以下 API
Predictions API - 從服務模型取得預測
Predictions API¶
若要從工作流程取得預測,請對 /wfpredict/{workflow_name}
進行 REST 呼叫
POST /wfpredict/{workflow_name}
curl 範例¶
curl -O https://raw.githubusercontent.com/pytorch/serve/master/docs/images/kitten_small.jpg
curl https://127.0.0.1:8080/wfpredict/myworkflow -T kitten_small.jpg
結果是一個 JSON 物件,傳回來自工作流程 DAG 葉節點的回應位元組。