From 57c6203d4ec9cb1032820760719590c39640062c Mon Sep 17 00:00:00 2001 From: leiyuning Date: Fri, 17 Jul 2020 16:07:15 +0800 Subject: [PATCH] fix inference problem --- tutorials/source_en/use/multi_platform_inference.md | 9 ++------- tutorials/source_zh_cn/use/multi_platform_inference.md | 9 ++------- 2 files changed, 4 insertions(+), 14 deletions(-) diff --git a/tutorials/source_en/use/multi_platform_inference.md b/tutorials/source_en/use/multi_platform_inference.md index 0c33528673..5f7414f6ec 100644 --- a/tutorials/source_en/use/multi_platform_inference.md +++ b/tutorials/source_en/use/multi_platform_inference.md @@ -7,13 +7,12 @@ - [Inference on the Ascend 910 AI processor](#inference-on-the-ascend-910-ai-processor) - [Inference Using a Checkpoint File](#inference-using-a-checkpoint-file) - [Inference on the Ascend 310 AI processor](#inference-on-the-ascend-310-ai-processor) - - [Inference Using a Checkpoint File](#inference-using-a-checkpoint-file-1) - [Inference Using an ONNX or GEIR File](#inference-using-an-onnx-or-geir-file) - [Inference on a GPU](#inference-on-a-gpu) - - [Inference Using a Checkpoint File](#inference-using-a-checkpoint-file-2) + - [Inference Using a Checkpoint File](#inference-using-a-checkpoint-file-1) - [Inference Using an ONNX File](#inference-using-an-onnx-file) - [Inference on a CPU](#inference-on-a-cpu) - - [Inference Using a Checkpoint File](#inference-using-a-checkpoint-file-3) + - [Inference Using a Checkpoint File](#inference-using-a-checkpoint-file-2) - [Inference Using an ONNX File](#inference-using-an-onnx-file-1) - [On-Device Inference](#on-device-inference) @@ -71,10 +70,6 @@ MindSpore supports the following inference scenarios based on the hardware platf ## Inference on the Ascend 310 AI processor -### Inference Using a Checkpoint File -The inference is the same as that on the Ascend 910 AI processor. - - ### Inference Using an ONNX or GEIR File The Ascend 310 AI processor is equipped with the ACL framework and supports the OM format which needs to be converted from the model in ONNX or GEIR format. For inference on the Ascend 310 AI processor, perform the following steps: diff --git a/tutorials/source_zh_cn/use/multi_platform_inference.md b/tutorials/source_zh_cn/use/multi_platform_inference.md index f14f5da5f9..908be856f0 100644 --- a/tutorials/source_zh_cn/use/multi_platform_inference.md +++ b/tutorials/source_zh_cn/use/multi_platform_inference.md @@ -7,13 +7,12 @@ - [Ascend 910 AI处理器上推理](#ascend-910-ai处理器上推理) - [使用checkpoint格式文件推理](#使用checkpoint格式文件推理) - [Ascend 310 AI处理器上推理](#ascend-310-ai处理器上推理) - - [使用checkpoint格式文件推理](#使用checkpoint格式文件推理-1) - [使用ONNX与GEIR格式文件推理](#使用onnx与geir格式文件推理) - [GPU上推理](#gpu上推理) - - [使用checkpoint格式文件推理](#使用checkpoint格式文件推理-2) + - [使用checkpoint格式文件推理](#使用checkpoint格式文件推理-1) - [使用ONNX格式文件推理](#使用onnx格式文件推理) - [CPU上推理](#cpu上推理) - - [使用checkpoint格式文件推理](#使用checkpoint格式文件推理-3) + - [使用checkpoint格式文件推理](#使用checkpoint格式文件推理-2) - [使用ONNX格式文件推理](#使用onnx格式文件推理-1) - [端侧推理](#端侧推理) @@ -71,10 +70,6 @@ CPU | ONNX格式 | 支持ONNX推理的runtime/SDK,如TensorRT。 ## Ascend 310 AI处理器上推理 -### 使用checkpoint格式文件推理 -与在Ascend 910 AI处理器上推理一样。 - - ### 使用ONNX与GEIR格式文件推理 Ascend 310 AI处理器上搭载了ACL框架,他支持OM格式,而OM格式需要从ONNX或者GEIR模型进行转换。所以在Ascend 310 AI处理器上推理,需要下述两个步骤: -- Gitee