From 9f76fcd49706f1c62f3bba25315e7b8724395492 Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?=E5=BD=AD=E4=B8=9A=E5=BA=86?= Date: Thu, 28 Oct 2021 03:35:02 +0000 Subject: [PATCH] =?UTF-8?q?update=20Ascend-PyTorch=E7=A6=BB=E7=BA=BF?= =?UTF-8?q?=E6=8E=A8=E7=90=86=E6=8C=87=E5=AF=BC/PyTorch=E7=A6=BB=E7=BA=BF?= =?UTF-8?q?=E6=8E=A8=E7=90=86-=E7=A6=BB=E7=BA=BF=E6=8E=A8=E7=90=86?= =?UTF-8?q?=E6=8C=87=E5=AF=BC.md.?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- ...250\347\220\206\346\214\207\345\257\274.md" | 18 +++++++++--------- 1 file changed, 9 insertions(+), 9 deletions(-) diff --git "a/Ascend-PyTorch\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274/PyTorch\347\246\273\347\272\277\346\216\250\347\220\206-\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274.md" "b/Ascend-PyTorch\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274/PyTorch\347\246\273\347\272\277\346\216\250\347\220\206-\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274.md" index 47b209b..c0692d6 100644 --- "a/Ascend-PyTorch\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274/PyTorch\347\246\273\347\272\277\346\216\250\347\220\206-\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274.md" +++ "b/Ascend-PyTorch\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274/PyTorch\347\246\273\347\272\277\346\216\250\347\220\206-\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274.md" @@ -504,15 +504,15 @@ benchmark工具为华为自研的模型推理工具,支持多种模型的离 >![](https://gitee.com/wangjiangben_hw/ascend-pytorch-crowdintelligence-doc/raw/master/public_sys-resources/icon-note.gif) **说明:** > -> -model_type为benchmark支持的模型类型,目前支持的有vision,nmt,widedeep,nlp,yolocaffe,bert,deepfm -> -device_id是指运行在ascend 310的哪个device上,每张ascend 310卡有4个device -> -batch_size是指om模型的batch大小,该值应与om模型的batch大小相同,否则报输入大小不一致的错误 -> -om_path是om模型文件路径 -> -input_text_path为包含数据集每个样本的路径与其相关信息的数据集信息文件路径 -> -input_height为输入高度 -> -input_width为输入宽度 -> -output_binary为以预处理后的数据集为输入,benchmark工具推理om模型的输出数据保存为二进制还是txt,但对于输出是int64类型的节点时,指定输出为txt时会将float类型的小数转换为0而出错 -> -useDvpp为是否使用aipp进行数据集预处理 +> -model_type为benchmark支持的模型类型,目前支持的有vision,nmt,widedeep,nlp,yolocaffe,bert,deepfm +> -device_id是指运行在ascend 310的哪个device上,每张ascend 310卡有4个device +> -batch_size是指om模型的batch大小,该值应与om模型的batch大小相同,否则报输入大小不一致的错误 +> -om_path是om模型文件路径 +> -input_text_path为包含数据集每个样本的路径与其相关信息的数据集信息文件路径 +> -input_height为输入高度 +> -input_width为输入宽度 +> -output_binary为以预处理后的数据集为输入,benchmark工具推理om模型的输出数据保存为二进制还是txt,但对于输出是int64类型的节点时,指定输出为txt时会将float类型的小数转换为0而出错 +> -useDvpp为是否使用aipp进行数据集预处理 输出结果默认保存在当前目录result/dumpOutput_device{device_id},性能数据默认保存在result/perf_{vision}_batchsize_{16}_device_{0}.txt。模型只有一个名为class的输出,shape为bs * 1000,数据类型为FP32,对应1000个分类的预测结果,每个输入的输出对应一个{input}_1.bin文件。此外,如果模型有三个输出,则三个输出分别对应{input}_1.bin,{input}_2.bin,{input}_3.bin。 -- Gitee