diff --git a/tutorials/source_en/use/multi_platform_inference.md b/tutorials/source_en/use/multi_platform_inference.md index 0c3352867362850f2b40c578edc835cb3d49d0d6..5f7414f6ecf1e8a549d8448109063b73d8f42c69 100644 --- a/tutorials/source_en/use/multi_platform_inference.md +++ b/tutorials/source_en/use/multi_platform_inference.md @@ -7,13 +7,12 @@ - [Inference on the Ascend 910 AI processor](#inference-on-the-ascend-910-ai-processor) - [Inference Using a Checkpoint File](#inference-using-a-checkpoint-file) - [Inference on the Ascend 310 AI processor](#inference-on-the-ascend-310-ai-processor) - - [Inference Using a Checkpoint File](#inference-using-a-checkpoint-file-1) - [Inference Using an ONNX or GEIR File](#inference-using-an-onnx-or-geir-file) - [Inference on a GPU](#inference-on-a-gpu) - - [Inference Using a Checkpoint File](#inference-using-a-checkpoint-file-2) + - [Inference Using a Checkpoint File](#inference-using-a-checkpoint-file-1) - [Inference Using an ONNX File](#inference-using-an-onnx-file) - [Inference on a CPU](#inference-on-a-cpu) - - [Inference Using a Checkpoint File](#inference-using-a-checkpoint-file-3) + - [Inference Using a Checkpoint File](#inference-using-a-checkpoint-file-2) - [Inference Using an ONNX File](#inference-using-an-onnx-file-1) - [On-Device Inference](#on-device-inference) @@ -71,10 +70,6 @@ MindSpore supports the following inference scenarios based on the hardware platf ## Inference on the Ascend 310 AI processor -### Inference Using a Checkpoint File -The inference is the same as that on the Ascend 910 AI processor. - - ### Inference Using an ONNX or GEIR File The Ascend 310 AI processor is equipped with the ACL framework and supports the OM format which needs to be converted from the model in ONNX or GEIR format. For inference on the Ascend 310 AI processor, perform the following steps: diff --git a/tutorials/source_zh_cn/use/multi_platform_inference.md b/tutorials/source_zh_cn/use/multi_platform_inference.md index f14f5da5f92240ea7a3e70669f0cb8d168f13ac1..908be856f04e186b0151cfcde48175766e6ef8b5 100644 --- a/tutorials/source_zh_cn/use/multi_platform_inference.md +++ b/tutorials/source_zh_cn/use/multi_platform_inference.md @@ -7,13 +7,12 @@ - [Ascend 910 AI处理器上推理](#ascend-910-ai处理器上推理) - [使用checkpoint格式文件推理](#使用checkpoint格式文件推理) - [Ascend 310 AI处理器上推理](#ascend-310-ai处理器上推理) - - [使用checkpoint格式文件推理](#使用checkpoint格式文件推理-1) - [使用ONNX与GEIR格式文件推理](#使用onnx与geir格式文件推理) - [GPU上推理](#gpu上推理) - - [使用checkpoint格式文件推理](#使用checkpoint格式文件推理-2) + - [使用checkpoint格式文件推理](#使用checkpoint格式文件推理-1) - [使用ONNX格式文件推理](#使用onnx格式文件推理) - [CPU上推理](#cpu上推理) - - [使用checkpoint格式文件推理](#使用checkpoint格式文件推理-3) + - [使用checkpoint格式文件推理](#使用checkpoint格式文件推理-2) - [使用ONNX格式文件推理](#使用onnx格式文件推理-1) - [端侧推理](#端侧推理) @@ -71,10 +70,6 @@ CPU | ONNX格式 | 支持ONNX推理的runtime/SDK,如TensorRT。 ## Ascend 310 AI处理器上推理 -### 使用checkpoint格式文件推理 -与在Ascend 910 AI处理器上推理一样。 - - ### 使用ONNX与GEIR格式文件推理 Ascend 310 AI处理器上搭载了ACL框架,他支持OM格式,而OM格式需要从ONNX或者GEIR模型进行转换。所以在Ascend 310 AI处理器上推理,需要下述两个步骤: