diff --git "a/Ascend-PyTorch\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274/PyTorch\347\246\273\347\272\277\346\216\250\347\220\206-\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274.md" "b/Ascend-PyTorch\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274/PyTorch\347\246\273\347\272\277\346\216\250\347\220\206-\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274.md" index 47b209bf6761955329a567c4fc723f29eab04081..c0692d6cd88f520248f24714463b2ecfad2aec72 100644 --- "a/Ascend-PyTorch\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274/PyTorch\347\246\273\347\272\277\346\216\250\347\220\206-\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274.md" +++ "b/Ascend-PyTorch\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274/PyTorch\347\246\273\347\272\277\346\216\250\347\220\206-\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274.md" @@ -504,15 +504,15 @@ benchmark工具为华为自研的模型推理工具,支持多种模型的离 >![](https://gitee.com/wangjiangben_hw/ascend-pytorch-crowdintelligence-doc/raw/master/public_sys-resources/icon-note.gif) **说明:** > -> -model_type为benchmark支持的模型类型,目前支持的有vision,nmt,widedeep,nlp,yolocaffe,bert,deepfm -> -device_id是指运行在ascend 310的哪个device上,每张ascend 310卡有4个device -> -batch_size是指om模型的batch大小,该值应与om模型的batch大小相同,否则报输入大小不一致的错误 -> -om_path是om模型文件路径 -> -input_text_path为包含数据集每个样本的路径与其相关信息的数据集信息文件路径 -> -input_height为输入高度 -> -input_width为输入宽度 -> -output_binary为以预处理后的数据集为输入,benchmark工具推理om模型的输出数据保存为二进制还是txt,但对于输出是int64类型的节点时,指定输出为txt时会将float类型的小数转换为0而出错 -> -useDvpp为是否使用aipp进行数据集预处理 +> -model_type为benchmark支持的模型类型,目前支持的有vision,nmt,widedeep,nlp,yolocaffe,bert,deepfm +> -device_id是指运行在ascend 310的哪个device上,每张ascend 310卡有4个device +> -batch_size是指om模型的batch大小,该值应与om模型的batch大小相同,否则报输入大小不一致的错误 +> -om_path是om模型文件路径 +> -input_text_path为包含数据集每个样本的路径与其相关信息的数据集信息文件路径 +> -input_height为输入高度 +> -input_width为输入宽度 +> -output_binary为以预处理后的数据集为输入,benchmark工具推理om模型的输出数据保存为二进制还是txt,但对于输出是int64类型的节点时,指定输出为txt时会将float类型的小数转换为0而出错 +> -useDvpp为是否使用aipp进行数据集预处理 输出结果默认保存在当前目录result/dumpOutput_device{device_id},性能数据默认保存在result/perf_{vision}_batchsize_{16}_device_{0}.txt。模型只有一个名为class的输出,shape为bs * 1000,数据类型为FP32,对应1000个分类的预测结果,每个输入的输出对应一个{input}_1.bin文件。此外,如果模型有三个输出,则三个输出分别对应{input}_1.bin,{input}_2.bin,{input}_3.bin。