diff --git "a/Ascend-PyTorch\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274/PyTorch\347\246\273\347\272\277\346\216\250\347\220\206-issue\346\250\241\346\235\277.md" "b/Ascend-PyTorch\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274/PyTorch\347\246\273\347\272\277\346\216\250\347\220\206-issue\346\250\241\346\235\277.md" index d47164e36c4d1d3c7ab1cf5234ea6fb06bacc3f0..c2b7e974452f2aa1d1eb1b57887824a34603a1ba 100644 --- "a/Ascend-PyTorch\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274/PyTorch\347\246\273\347\272\277\346\216\250\347\220\206-issue\346\250\241\346\235\277.md" +++ "b/Ascend-PyTorch\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274/PyTorch\347\246\273\347\272\277\346\216\250\347\220\206-issue\346\250\241\346\235\277.md" @@ -1,21 +1,23 @@ -标题: -[众智-PyTorch离线推理] [问题求助] - xx算子耗时长 +标题: +[众智-PyTorch离线推理] [问题求助] - Xxx模型Xxx算子耗时长 -一、问题现象(附截图): -xx模型迁移到Ascend310上,pytorch->onnx->om,模型性能不达标,原因为算子性能差,profiling数据截图如下: +一、问题现象: +Xxx模型迁移到Ascend310上,pytorch->onnx->om,模型性能不达标,原因为Xxx算子性能差。 +将profiling性能数据op_statistic_0_1.csv与op_summary_3_1.csv筛选出耗时占比率大于10%的算子类型并按aicore_time从大到小排序后贴在下面: -二、软件版本: --- Pytorch 版本 (源码或二进制): --- Python 版本 (e.g., Python 3.7.5): --- 操作系统版本 (e.g., Ubuntu 18.04): --- CANN 版本 (e.g., CANNN 5.0.1): +二、软件版本: +-- PyTorch 版本 (源码或二进制): +-- Python 版本 (e.g., Python 3.7.5): +-- 操作系统版本 (e.g., Ubuntu 18.04): +-- CANN 版本 (e.g., CANNN 5.0.1): -提供附件: -1. profiling原始数据 -2. onnx模型与bs16的om模型 -3.PyToch离线推理xxx模型性能不达标测试报告.docx \ No newline at end of file + +提供附件: +1.PyToch离线推理-Xxx模型性能不达标测试报告.docx +2.优化前后的profiling原始数据(文件大的话可不上传,附件1中应已包含profiling的op_statistic_0_1.csv与op_summary_3_1.csv) +3.onnx模型与bs16的om模型(文件大的话可不上传,将影响性能的主要结构截图贴上面的问题现象里) diff --git "a/Ascend-PyTorch\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274/PyTorch\347\246\273\347\272\277\346\216\250\347\220\206-\347\216\257\345\242\203\351\203\250\347\275\262\344\270\216\344\275\277\347\224\250\350\257\264\346\230\216.md" "b/Ascend-PyTorch\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274/PyTorch\347\246\273\347\272\277\346\216\250\347\220\206-\347\216\257\345\242\203\351\203\250\347\275\262\344\270\216\344\275\277\347\224\250\350\257\264\346\230\216.md" index 5b38f1e95710f16a487ebb1da2bd36bcae99ec68..8072005a02bba765858284650eef86bbead5ea29 100644 --- "a/Ascend-PyTorch\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274/PyTorch\347\246\273\347\272\277\346\216\250\347\220\206-\347\216\257\345\242\203\351\203\250\347\275\262\344\270\216\344\275\277\347\224\250\350\257\264\346\230\216.md" +++ "b/Ascend-PyTorch\347\246\273\347\272\277\346\216\250\347\220\206\346\214\207\345\257\274/PyTorch\347\246\273\347\272\277\346\216\250\347\220\206-\347\216\257\345\242\203\351\203\250\347\275\262\344\270\216\344\275\277\347\224\250\350\257\264\346\230\216.md" @@ -67,6 +67,7 @@ # t4服务器部署与说明 - 安装cuda,cudnn,tensorrt + 登陆官网注册英伟达账号后才能下载软件 - 安装cuda https://developer.nvidia.cn/cuda-toolkit-archive: wget http://developer.download.nvidia.com/compute/cuda/11.0.2/local_installers/cuda_11.0.2_450.51.05_linux.run