diff --git "a/docs/zh/PyTorch\345\234\250\347\272\277\346\216\250\347\220\206\346\214\207\345\215\227/PyTorch\345\234\250\347\272\277\346\216\250\347\220\206\346\214\207\345\215\227.md" "b/docs/zh/PyTorch\345\234\250\347\272\277\346\216\250\347\220\206\346\214\207\345\215\227/PyTorch\345\234\250\347\272\277\346\216\250\347\220\206\346\214\207\345\215\227.md" index ff47abe64afcb7dcdfac419e988c99d5168fc1d9..945e19de1d02bdeef48968952b82620641a08bc0 100644 --- "a/docs/zh/PyTorch\345\234\250\347\272\277\346\216\250\347\220\206\346\214\207\345\215\227/PyTorch\345\234\250\347\272\277\346\216\250\347\220\206\346\214\207\345\215\227.md" +++ "b/docs/zh/PyTorch\345\234\250\347\272\277\346\216\250\347\220\206\346\214\207\345\215\227/PyTorch\345\234\250\347\272\277\346\216\250\347\220\206\346\214\207\345\215\227.md" @@ -445,7 +445,7 @@ if __name__ == '__main__': 基于NPU芯片的架构特性,模型运算会涉及到混合精度,即混合使用float16和float32数据类型的应用场景。使用float16代替float32有如下好处: - 对于中间变量的内存占用更少,节省内存的使用。 -- 因内存使用会减少,所以数据传出的时间也会减少。 +- 因内存使用会减少,所以数据传出的时间也会相应减少。 - float16的计算单元可以提供更快的计算性能。 但是,混合精度训练受限于float16表达的精度范围,单纯将float32转换成float16会影响训练收敛情况,为了保证部分计算使用float16来进行加速的同时能保证训练收敛,这里采用混合精度模块Apex来达到以上效果。混合精度模块Apex是一个集优化性能、精度收敛于一身的综合优化库。 @@ -465,12 +465,12 @@ if __name__ == '__main__':

O1配置模式

-

Conv, Matmul等使用float16计算,其他如Softmax、BN使用float32

+

Conv, Matmul等使用float16计算,其他如Softmax、BN使用float32。

O2配置模式

-

BN使用float32,其他绝大部分使用float16

+

BN使用float32,其他绝大部分使用float16。

静态Loss Scale功能

@@ -540,7 +540,6 @@ if __name__ == '__main__': apt-get install bzip2 ``` - 4. 编译安装gcc。 1. 进入gcc-7.3.0.tar.gz源码包所在目录,解压源码包,命令为: diff --git "a/docs/zh/PyTorch\345\234\250\347\272\277\346\216\250\347\220\206\346\214\207\345\215\227/figures/\345\234\250\347\272\277\346\216\250\347\220\206\346\265\201\347\250\213\345\233\276.png" "b/docs/zh/PyTorch\345\234\250\347\272\277\346\216\250\347\220\206\346\214\207\345\215\227/figures/\345\234\250\347\272\277\346\216\250\347\220\206\346\265\201\347\250\213\345\233\276.png" index a6aebc6309a376c2a80c2dcb1de1072936233b9b..3e69dda120f04dc07f6f9e88d94c66ab822653ba 100644 Binary files "a/docs/zh/PyTorch\345\234\250\347\272\277\346\216\250\347\220\206\346\214\207\345\215\227/figures/\345\234\250\347\272\277\346\216\250\347\220\206\346\265\201\347\250\213\345\233\276.png" and "b/docs/zh/PyTorch\345\234\250\347\272\277\346\216\250\347\220\206\346\214\207\345\215\227/figures/\345\234\250\347\272\277\346\216\250\347\220\206\346\265\201\347\250\213\345\233\276.png" differ diff --git "a/docs/zh/PyTorch\345\234\250\347\272\277\346\216\250\347\220\206\346\214\207\345\215\227/figures/\346\235\203\351\207\215\346\233\264\346\226\260\346\265\201\347\250\213\347\244\272\346\204\217\345\233\276.png" "b/docs/zh/PyTorch\345\234\250\347\272\277\346\216\250\347\220\206\346\214\207\345\215\227/figures/\346\235\203\351\207\215\346\233\264\346\226\260\346\265\201\347\250\213\347\244\272\346\204\217\345\233\276.png" deleted file mode 100644 index 87b61f83d611b35ea15d0f069b71245d72ee7a0a..0000000000000000000000000000000000000000 Binary files "a/docs/zh/PyTorch\345\234\250\347\272\277\346\216\250\347\220\206\346\214\207\345\215\227/figures/\346\235\203\351\207\215\346\233\264\346\226\260\346\265\201\347\250\213\347\244\272\346\204\217\345\233\276.png" and /dev/null differ diff --git "a/docs/zh/PyTorch\345\256\211\350\243\205\346\214\207\345\215\227/PyTorch\345\256\211\350\243\205\346\214\207\345\215\227.md" "b/docs/zh/PyTorch\345\256\211\350\243\205\346\214\207\345\215\227/PyTorch\345\256\211\350\243\205\346\214\207\345\215\227.md" index ea7376bab905c5bb95a78068695e3ecf6fbd2638..e9b00f847bb54448db39988cddad61144e736167 100644 --- "a/docs/zh/PyTorch\345\256\211\350\243\205\346\214\207\345\215\227/PyTorch\345\256\211\350\243\205\346\214\207\345\215\227.md" +++ "b/docs/zh/PyTorch\345\256\211\350\243\205\346\214\207\345\215\227/PyTorch\345\256\211\350\243\205\346\214\207\345\215\227.md" @@ -14,7 +14,7 @@ - [安装“torch-\*.whl ”提示“torch 1.5.0xxxx”与“torchvision”所依赖的版本不匹配](#安装-torch--whl-提示-torch-1-5-0xxxx-与-torchvision-所依赖的版本不匹配.md)

简介

-用户在准备相关环境进行PyTorch模型的移植及训练时,可以选择在训练服务器中手动编译安装PyTorch框架相关模块,或直接获取Ascend Hub镜像中心提供的基础镜像(镜像中已安装PyTorch模块和混合精度模块),进行模型的移植与训练。 +用户在准备相关环境进行基于PyTorch框架模型的开发、运行时,可以选择在服务器中手动编译安装PyTorch框架相关模块,或直接获取Ascend Hub镜像中心提供的基础镜像(镜像中已安装PyTorch模块和混合精度模块),进行模型的开发、运行。 **图 1** 环境准备流程图 ![](figures/环境准备流程图.png "环境准备流程图") @@ -118,7 +118,6 @@ git submodule update --init --recursive ``` - >![](public_sys-resources/icon-note.gif) **说明:** >受网络波动影响,源码获取时间可能较长,下载过程中请耐心等待。 下载完成之后若没有报错,即生成了PyTorch及其依赖的第三方代码。 @@ -141,7 +140,6 @@ 生成的二进制包在当前的dist目录下,即“pytorch/pytorch/dist”文件夹目录下。 - 5. 安装PyTorch。 进入“pytorch/pytorch/dist“文件夹目录,执行如下命令安装。 @@ -159,7 +157,7 @@

配置环境变量

-安装完软件包后,需要配置环境变量才能正常使用昇腾PyTorch。建议构建启动脚本,例如构建set\_env.sh脚本,使用source set\_env.sh配置当前窗口的环境变量。set\_env.sh脚本内容如下(以root用户安装,安装路径为默认路径为例)。 +安装完软件包后,需要配置环境变量才能正常使用昇腾PyTorch。建议构建启动脚本,例如构建set\_env.sh脚本,使用source set\_env.sh配置当前窗口的环境变量。set\_env.sh脚本内容如下(以root用户安装,,安装路径为默认路径,python版本为3.7.5为例,用户可根据软件包实际安装路径修改配置项。)。 ``` cpu_type=$(echo $HOSTTYPE) @@ -341,7 +339,6 @@ export HCCL_IF_IP="1.1.1.1" # “1.1.1.1”为示例使用的host网卡IP,请 cd .. ``` - >![](public_sys-resources/icon-note.gif) **说明:** >受网络波动影响,源码获取时间可能较长,下载过程中请耐心等待。 @@ -364,7 +361,6 @@ export HCCL_IF_IP="1.1.1.1" # “1.1.1.1”为示例使用的host网卡IP,请 生成的二进制包在当前的dist目录下,即“apex/apex/dist”文件夹目录下。 - 4. 安装apex。 进入“apex/apex/dist“文件夹目录,执行如下命令安装。 @@ -391,7 +387,7 @@ export HCCL_IF_IP="1.1.1.1" # “1.1.1.1”为示例使用的host网卡IP,请 ## 前提条件 -- 已完成CANN开发或运行环境的安装,具体操作请参考《CANN 软件安装指南》。 +- 已准备好相应硬件环境驱动和固件的安装,请参见各硬件产品[“驱动和固件安装升级指南”](https://support.huawei.com/enterprise/zh/category/ai-computing-platform-pid-1557196528909)。需要在硬件设备上安装与CANN版本配套的固件与驱动。 - 宿主机上已安装Docker。 ## 获取并使用镜像 @@ -497,7 +493,6 @@ CMake版本升级为3.12.1的方法 apt-get install bzip2 ``` - 4. 编译安装gcc。 1. 进入gcc-7.3.0.tar.gz源码包所在目录,解压源码包,命令为: @@ -561,7 +556,7 @@ CMake版本升级为3.12.1的方法 安装“torch-\*.whl”时,提示"ERROR:torchvision 0.6.0 has requirement torch==1.5.0, but you'll have torch 1.5.0a0+1977093 which is incompatible"。 -![](figures/zh-cn_image_0000001180656411.png) +![](figures/zh-cn_image_0000001190081735.png) ## 可能原因 diff --git "a/docs/zh/PyTorch\345\234\250\347\272\277\346\216\250\347\220\206\346\214\207\345\215\227/figures/zh-cn_image_0000001152776305.png" "b/docs/zh/PyTorch\345\256\211\350\243\205\346\214\207\345\215\227/figures/zh-cn_image_0000001190081735.png" similarity index 100% rename from "docs/zh/PyTorch\345\234\250\347\272\277\346\216\250\347\220\206\346\214\207\345\215\227/figures/zh-cn_image_0000001152776305.png" rename to "docs/zh/PyTorch\345\256\211\350\243\205\346\214\207\345\215\227/figures/zh-cn_image_0000001190081735.png" diff --git "a/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227.md" "b/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227.md" index 32e95bc3714e23a93167f53da6e976936c743d41..d27a2c35236e16a366f2a6af96246c1053100c28 100644 --- "a/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227.md" +++ "b/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227.md" @@ -18,7 +18,6 @@ - [pip3.7 install torchvision安装失败](#pip3-7-install-torchvision安装失败.md) - [安装“torch-\*.whl ”提示“torch 1.5.0xxxx”与“torchvision”所依赖的版本不匹配](#安装-torch--whl-提示-torch-1-5-0xxxx-与-torchvision-所依赖的版本不匹配.md) - [如何查看测试的运行日志](#如何查看测试的运行日志.md) - - [测试运行输出的NPU错误码是什么意思,有无对应的含义解释?](#测试运行输出的NPU错误码是什么意思-有无对应的含义解释.md) - [为什么我实现的“自定义TBE算子”无法调用到?](#为什么我实现的-自定义TBE算子-无法调用到.md) - [如何确定“TBE算子”是否被“PyTorch适配”正确调用](#如何确定-TBE算子-是否被-PyTorch适配-正确调用.md) - [PyTorch编译失败,提示“error: ld returned 1 exit status”](#PyTorch编译失败-提示-error-ld-returned-1-exit-status.md) @@ -30,7 +29,7 @@ ## 概述 -为了实现PyTorch深度学习框架在昇腾AI处理器上运行,需要将框架算子用TBE自定义开发。用户通过完成TBE自定义算子适配PyTorch框架,实现PyTorch框架中算子在昇腾AI处理器上运行。 +为了实现PyTorch深度学习框架在昇腾AI处理器上运行,需要将框架算子用TBE自定义开发。

算子开发流程

@@ -234,7 +233,6 @@ git clone https://gitee.com/ascend/pytorch-develop.git --deepth=1 - func:适配算子名称(输入参数信息) -> 返回类型 ``` - 3. 修改native\_functions.yaml文件,添加实现该算子相关函数的分发描述。 yaml 文件编写规范: @@ -253,7 +251,6 @@ git clone https://gitee.com/ascend/pytorch-develop.git --deepth=1 NPU: NPU_Adapt_Fun_Name ``` - >![](public_sys-resources/icon-note.gif) **说明:** >NPU\_Adapt\_Fun\_Name的格式为 : >- 如果原Fun\_Name无"\_"后缀,则格式:Fun\_Name + "\_" + "npu",如:add --\> add\_npu。 @@ -656,7 +653,7 @@ git clone https://gitee.com/ascend/pytorch-develop.git --deepth=1 format_list = [0, 3, 29] shape_format = [ [np.float32, i, [5, 256]] for i in format_list - ] + ] self.add_result(shape_format) instantiate_device_type_tests(TestAdd, globals(), except_for="cpu") @@ -686,8 +683,6 @@ git clone https://gitee.com/ascend/pytorch-develop.git --deepth=1 - **[如何查看测试的运行日志](#如何查看测试的运行日志.md)** -- **[测试运行输出的NPU错误码是什么意思,有无对应的含义解释?](#测试运行输出的NPU错误码是什么意思-有无对应的含义解释.md)** - - **[为什么我实现的“自定义TBE算子”无法调用到?](#为什么我实现的-自定义TBE算子-无法调用到.md)** - **[如何确定“TBE算子”是否被“PyTorch适配”正确调用](#如何确定-TBE算子-是否被-PyTorch适配-正确调用.md)** @@ -739,7 +734,7 @@ pip3.7 install torchvision --no-deps 安装“torch-\*.whl”时,提示"ERROR:torchvision 0.6.0 has requirement torch==1.5.0, but you'll have torch 1.5.0a0+1977093 which is incompatible"。 -![](figures/zh-cn_image_0000001172886189.png) +![](figures/zh-cn_image_0000001144082048.png) 但实际安装成功 @@ -772,10 +767,6 @@ pip3.7 install torchvision --no-deps ``` -

测试运行输出的NPU错误码是什么意思,有无对应的含义解释?

- -参考“[错误码定义](https://support.huaweicloud.com/adevg-A300_3000_3010/atlasdevelopment_01_0256.html)”。 -

为什么我实现的“自定义TBE算子”无法调用到?

## 现象描述 @@ -802,7 +793,7 @@ pip3.7 install torchvision --no-deps "pytorch/aten/src/ATen/native/npu/AddKernelNpu.cpp" - ![](figures/zh-cn_image_0000001126846510.png) + ![](figures/zh-cn_image_0000001144082088.png) 2. 完成上两步的编译、安装,调用“python3.7 test\_add.py”进行测试。 @@ -848,7 +839,7 @@ pip3.7 install torchvision --no-deps 可以看到相应的算子\*.py源码文件均为“只读”,即此时不可编辑。 - ![](figures/zh-cn_image_0000001127006336.png) + ![](figures/zh-cn_image_0000001190081791.png) 2. 修改算子\*.py源码文件属性,增加“可写”权限。 @@ -857,7 +848,7 @@ pip3.7 install torchvision --no-deps ll ``` - ![](figures/zh-cn_image_0000001172886191.png) + ![](figures/zh-cn_image_0000001190081803.png) 3. 打开算子\*.py源码文件,增加日志,保存退出。 @@ -865,7 +856,7 @@ pip3.7 install torchvision --no-deps vi zn_2_nchw.py ``` - ![](figures/zh-cn_image_0000001173046109.png) + ![](figures/zh-cn_image_0000001190201951.png) 上面例子只加了个标识,实际调测时,可以增加打印输入参数信息。 @@ -877,7 +868,7 @@ pip3.7 install torchvision --no-deps sudo chmod -w zn_2_nchw.py ``` - ![](figures/zh-cn_image_0000001126846512.png) + ![](figures/zh-cn_image_0000001144082072.png)

PyTorch编译失败,提示“error: ld returned 1 exit status”

@@ -886,13 +877,13 @@ pip3.7 install torchvision --no-deps PyTorch编译失败,提示“ error: ld returned 1 exit status”。 -![](figures/zh-cn_image_0000001127006338.png) +![](figures/zh-cn_image_0000001190201973.png) ## 可能原因 通过日志分析,大概原因为XxxxKernelNpu.cpp中实现的适配函数,与PyTorch框架算子要求的分发实现接口参数不匹配。在上面的例子中,是“binary\_cross\_entropy\_npu”,打开对应的XxxxKernelNpu.cpp文件,找到相应的适配函数。 -![](figures/zh-cn_image_0000001172886193.png) +![](figures/zh-cn_image_0000001144241896.png) 可以看出实现中,最后一个参数是"int" ,与要求的“long”不匹配。 @@ -906,15 +897,15 @@ PyTorch编译失败,提示“ error: ld returned 1 exit status”。 PyTorch编译失败,提示“error: call of overload ....”。 -![](figures/zh-cn_image_0000001173046111.png) +![](figures/zh-cn_image_0000001144082056.png) -![](figures/zh-cn_image_0000001126846514.png) +![](figures/zh-cn_image_0000001190201935.png) ## 可能原因 通过日志分析,错误出在XxxxKernelNpu.cpp中30行位置,NPUAttrDesc的参数不合法。在上面的例子中,是“binary\_cross\_entropy\_attr”,打开对应的XxxxKernelNpu.cpp文件,找到相应的适配函数。 -![](figures/zh-cn_image_0000001127006340.png) +![](figures/zh-cn_image_0000001144082064.png) 可以看出实现中,NPUAttrDesc的入参,第二个参数是"int" ,与NPUAttrDesc定义不匹配。 diff --git "a/docs/zh/PyTorch\345\256\211\350\243\205\346\214\207\345\215\227/figures/zh-cn_image_0000001180656411.png" "b/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001144082048.png" similarity index 100% rename from "docs/zh/PyTorch\345\256\211\350\243\205\346\214\207\345\215\227/figures/zh-cn_image_0000001180656411.png" rename to "docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001144082048.png" diff --git "a/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001173046111.png" "b/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001144082056.png" similarity index 100% rename from "docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001173046111.png" rename to "docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001144082056.png" diff --git "a/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001127006340.png" "b/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001144082064.png" similarity index 100% rename from "docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001127006340.png" rename to "docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001144082064.png" diff --git "a/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001126846512.png" "b/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001144082072.png" similarity index 100% rename from "docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001126846512.png" rename to "docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001144082072.png" diff --git "a/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001126846510.png" "b/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001144082088.png" similarity index 100% rename from "docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001126846510.png" rename to "docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001144082088.png" diff --git "a/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001172886193.png" "b/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001144241896.png" similarity index 100% rename from "docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001172886193.png" rename to "docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001144241896.png" diff --git "a/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001172886189.png" "b/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001172886189.png" deleted file mode 100644 index ede83f4bc1b0ed21a9c746c358c45681d5ffb49a..0000000000000000000000000000000000000000 Binary files "a/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001172886189.png" and /dev/null differ diff --git "a/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001127006336.png" "b/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001190081791.png" similarity index 100% rename from "docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001127006336.png" rename to "docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001190081791.png" diff --git "a/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001172886191.png" "b/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001190081803.png" similarity index 100% rename from "docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001172886191.png" rename to "docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001190081803.png" diff --git "a/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001126846514.png" "b/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001190201935.png" similarity index 100% rename from "docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001126846514.png" rename to "docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001190201935.png" diff --git "a/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001173046109.png" "b/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001190201951.png" similarity index 100% rename from "docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001173046109.png" rename to "docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001190201951.png" diff --git "a/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001127006338.png" "b/docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001190201973.png" similarity index 100% rename from "docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001127006338.png" rename to "docs/zh/PyTorch\347\256\227\345\255\220\345\274\200\345\217\221\346\214\207\345\215\227/figures/zh-cn_image_0000001190201973.png" diff --git "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227.md" "b/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227.md" index b9995f8b8f2099ed4d92f283013c2a69db8a6022..d2ec3968489532b1aaf97b6d385af2e75045991a 100644 --- "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227.md" +++ "b/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227.md" @@ -37,6 +37,8 @@ - [调测过程](#调测过程-4.md) - [总体思路](#总体思路-5.md) - [精度调优方法](#精度调优方法.md) + - [单算子溢出检测](#单算子溢出检测.md) + - [整网调测](#整网调测.md) - [模型保存与转换](#模型保存与转换.md) - [简介](#简介.md) - [模型保存](#模型保存.md) @@ -59,6 +61,7 @@ - [常用环境变量说明](#常用环境变量说明.md) - [dump op方法](#dump-op方法.md) - [安装7.3.0版本gcc](#安装7-3-0版本gcc.md) + - [编译安装hdf5](#编译安装hdf5.md) - [FAQ](#FAQ.md) - [软件安装常见问题](#软件安装常见问题.md) - [pip3.7 install Pillow==5.3.0安装失败](#pip3-7-install-Pillow-5-3-0安装失败.md) @@ -70,7 +73,7 @@ - [在模型运行时遇到报错“RuntimeError: Initialize.”](#在模型运行时遇到报错-RuntimeError-Initialize.md) - [在模型运行时遇到报错“TVM/te/cce error.”](#在模型运行时遇到报错-TVM-te-cce-error.md) - [在模型运行时遇到报错“MemCopySync:drvMemcpy failed.”](#在模型运行时遇到报错-MemCopySync-drvMemcpy-failed.md) - - [在模型运行时遇到报错“MemCopySync:drvMemcpy failed.”1](#在模型运行时遇到报错-MemCopySync-drvMemcpy-failed-1.md) + - [在模型运行时遇到报错“MemCopySync:drvMemcpy failed.”](#在模型运行时遇到报错-MemCopySync-drvMemcpy-failed-7.md) - [在模型运行时将多任务下发关闭\(export TASK\_QUEUE\_ENABLE=0\)后仍然遇到报错“HelpACLExecute.”](#在模型运行时将多任务下发关闭(export-TASK_QUEUE_ENABLE-0)后仍然遇到报错-HelpACLExecute.md) - [在模型运行时遇到报错“55056 GetInputConstDataOut: ErrorNo: -1\(failed\)”](#在模型运行时遇到报错-55056-GetInputConstDataOut-ErrorNo--1(failed).md) - [模型调测常见问题](#模型调测常见问题.md) @@ -152,7 +155,7 @@

算子开发

-

详情请参见《PyTorch算子开发指南》

+

详情请参见《PyTorch算子开发指南》

环境准备

@@ -172,7 +175,7 @@

错误分析

-

详情请参见《CANN 日志参考》《CANN 开发辅助工具指南》中“AI Core Error分析工具使用指南”章节。

+

详情请参见《CANN 日志参考》《CANN 开发辅助工具指南》中“AI Core Error分析工具使用指南”章节。

性能调优和分析

@@ -187,12 +190,12 @@

模型保存与转换

-

详情请参见模型保存与转换《CANN 开发辅助工具指南》中“ATC工具使用指南”章节。

+

详情请参见模型保存与转换《CANN 开发辅助工具指南》中“ATC工具使用指南”章节。

应用软件开发

-

详情请参见《CANN 应用软件开发指南(C&C++, 推理)》

+

详情请参见《CANN 应用软件开发指南(C&C++, 推理)》

FAQ

@@ -225,7 +228,7 @@

配置环境变量

-安装完软件包后,需要配置环境变量才能正常使用昇腾PyTorch。建议构建启动脚本,例如构建set\_env.sh脚本,使用source set\_env.sh配置当前窗口的环境变量。set\_env.sh脚本内容如下(以root用户安装,安装路径为默认路径为例)。 +安装完软件包后,需要配置环境变量才能正常使用昇腾PyTorch。建议构建启动脚本,例如构建set\_env.sh脚本,使用source set\_env.sh配置当前窗口的环境变量。set\_env.sh脚本内容如下(以root用户安装,安装路径为默认路径,python版本为3.7.5为例,用户可根据软件包实际安装路径修改配置项。)。 ``` cpu_type=$(echo $HOSTTYPE) @@ -291,18 +294,18 @@ export HCCL_IF_IP="1.1.1.1" # “1.1.1.1”为示例使用的host网卡IP,请

LD_LIBRARY_PATH

-

动态库的查找路径,参考上述举例配置。

-

若训练所在系统环境需要升级gcc(例如CentOS、Debian和BClinux系统),则“LD_LIBRARY_PATH”配置项处动态库查找路径需要添加“${install_path}/lib64”,其中“{install_path}”为gcc升级安装路径。请参见5

+

动态库的查找路径,参考上述举例配置。

+

若训练所在系统环境需要升级gcc(例如CentOS、Debian和BClinux系统),则“LD_LIBRARY_PATH”配置项处动态库查找路径需要添加“${install_path}/lib64”,其中“{install_path}”为gcc升级安装路径。请参见5

PYTHONPATH

-

Python搜索路径,参考上述举例配置。

+

Python搜索路径,参考上述举例配置。

PATH

-

可执行程序的查找路径,参考上述举例配置。

+

可执行程序的查找路径,参考上述举例配置。

ASCEND_OPP_PATH

@@ -328,7 +331,7 @@ export HCCL_IF_IP="1.1.1.1" # “1.1.1.1”为示例使用的host网卡IP,请

HCCL_WHITELIST_DISABLE

配置在使用HCCL时是否开启通信白名单。

- +

缺省值为0,默认开启白名单。

@@ -680,51 +683,78 @@ Ascend平台提供了脚本转换工具使用户能通过命令行方式将训 ## 参数说明 -**表 1** 参数说明 +1. + + **表 1** 参数说明 + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +

参数

+

参数说明

+

取值示例

+

-i

+

--input

+
  • 要进行转换的原始脚本文件所在文件夹路径或文件路径。
  • 必选。
+
  • /home/username/fmktransplt
  • /home/username/fmktransplt.py
+

-o

+

--output

+
  • 脚本转换结果文件输出路径。会在该路径下输出带有msft后缀的文件夹。
  • 必选。
+

/home/username/fmktransplt_output

+

-r

+

--rule

+
  • 用户自定义通用转换规则的json文件路径,主要分为:函数参数修改、函数名称修改和模块名称修改三部分。
  • 可选。
+

/home/username/fmktransplt_rule.json

+

-s

+

--specify-device

+
  • 可以通过环境变量设置指定device作为高级特性,但有可能导致原本脚本中分布式功能失效。
  • 可选。
+

-

+

-sim

+

--similar

+
  • 用功能相似的API替换某些不支持的API,但有可能导致准确性和性能下降。
  • 可选。
+

-

+

distributed

+

将GPU单卡脚本转换为NPU多卡脚本,仅支持使用torch.utils.data.DataLoader方式加载数据的场景,指定此参数时,才可以指定以下两个参数。

+
  • -m,--main:训练脚本的入口python文件,必选。
  • -t,--target model:目标模型变量名,默认为'model',可选。
+

-

+

-h

+

--help

+

显示帮助信息。

+

-

+
- - - - - - - - - - - - - - - - - - - - - - - -

参数

-

参数说明

-

取值示例

-

-i

-

--input

-
  • 要进行转换的原始脚本文件所在文件夹路径或文件路径。
  • 必选。
-
  • /home/username/fmktransplt
  • /home/username/fmktransplt.py
-

-o

-

--output

-
  • 脚本转换结果文件输出路径。会在该路径下输出带有msft后缀的文件夹。
  • 必选。
-

/home/username/fmktransplt_output

-

-r

-

--rule

-
  • 用户自定义通用转换规则的json文件路径,主要分为:函数参数修改、函数名称修改和模块名称修改三部分。
  • 可选。
-

/home/username/fmktransplt_rule.json

-

-h

-

--help

-

显示帮助信息。

-

-

-
## 自定义规则文件 @@ -813,7 +843,8 @@ Ascend平台提供了脚本转换工具使用户能通过命令行方式将训

parent_module

-

父级模块名称

+

父级模块全名

+

例如torch.cuda.amp,amp的父级模块全名为torch.cuda。

@@ -830,20 +861,25 @@ Ascend平台提供了脚本转换工具使用户能通过命令行方式将训 2. 执行脚本转换工具。 ``` - python3 ms_fmk_transplt.py -i 原始脚本路径 -o 脚本转换结果输出路径 [-r 自定义规则json文件路径] + python3 ms_fmk_transplt.py -i 原始脚本路径 -o 脚本转换结果输出路径 [-r 自定义规则json文件路径] [-s] [-sim] [distributed -m 训练脚本的入口文件 -t 目标模型变量名] ``` + >![](public_sys-resources/icon-note.gif) **说明:** + >distributed及其参数-m、-t在语句最后指定。 + 3. 完成脚本转换。

结果解析

-脚本转换完成后,进入脚本转换结果输出路径查看结果文件。 +脚本转换完成后,进入脚本转换结果输出路径查看结果文件,以GPU单卡脚本转换为NPU多卡脚本为例。 ``` ├── xxx_msft // 脚本转换结果输出目录,默认为原始脚本路径。xxx为原始脚本所在文件夹名称。 │ ├── 生成脚本文件 // 与转换前的脚本文件目录结构一致。 │ ├── msFmkTranspltlog.txt // 脚本转换过程日志文件。 │ ├── unsupported_op.xlsx // 不支持算子列表文件。 +│ ├── change_list.csv // 修改记录文件。 +│ ├── run_distributed_npu.sh // 多卡启动shell脚本。 ```

手工迁移

@@ -1119,7 +1155,7 @@ def main(): 基于NPU芯片的架构特性,会涉及到混合精度训练,即混合使用float16和float32数据类型的应用场景。使用float16代替float32有如下好处: - 对于中间变量的内存占用更少,节省内存的使用。 -- 因内存使用会减少,所以数据传出的时间也会减半。 +- 因内存使用会减少,所以数据传出的时间也会相应减少。 - float16的计算单元可以提供更快的计算性能。 但是,混合精度训练受限于float16表达的精度范围,单纯将float32转换成float16会影响训练收敛情况,为了保证部分计算使用float16来进行加速的同时能保证训练收敛,这里采用混合精度模块Apex来达到以上效果。混合精度模块Apex是一个集优化性能、精度收敛于一身的综合优化库。 @@ -1144,12 +1180,12 @@ def main():

O1配置模式

-

Conv,Matmal等使用float16计算,其他如Softmax、BN使用float32

+

Conv,Matmul等使用float16计算,其他如Softmax、BN使用float32。

O2配置模式

-

除了BN使用float32外,其他绝大部分使用float16

+

除了BN使用float32外,其他绝大部分使用float16。

静态Loss Scale功能

@@ -1234,12 +1270,12 @@ def main(): **图 1** 远程登录控制台 ![](figures/远程登录控制台.png "远程登录控制台") -2. 在虚拟界面工具栏中,单击启动项工具![](figures/zh-cn_image_0000001106016350.png),弹出启动项配置界面,如[图2](#fig744814574243)。 +2. 在虚拟界面工具栏中,单击启动项工具![](figures/zh-cn_image_0000001144241932.png),弹出启动项配置界面,如[图2](#fig744814574243)。 **图 2** 启动项工具 ![](figures/启动项工具.png "启动项工具") -3. 在启动项配置界面选择,选择“BIOS设置”,然后在虚拟界面工具栏中单击重启工具![](figures/zh-cn_image_0000001152616281.png),重启服务器。 +3. 在启动项配置界面选择,选择“BIOS设置”,然后在虚拟界面工具栏中单击重启工具![](figures/zh-cn_image_0000001190201999.png),重启服务器。 4. 系统重启后进入BIOS配置界面,依次选择“Advanced”\>“Socket Configuration”,如[图3](#fig4546303814)所示。 **图 3** Socket Configuration @@ -1322,7 +1358,6 @@ def main(): systemctl start cpupower ``` - 3. 设置CPU为performance模式。 ``` @@ -1342,12 +1377,12 @@ def main(): **图 1** 远程登录控制台 ![](figures/远程登录控制台-0.png "远程登录控制台-0") -2. 在虚拟界面工具栏中,单击启动项工具![](figures/zh-cn_image_0000001152616289.png),弹出启动项配置界面,如[图2](#fig744814574243)。 +2. 在虚拟界面工具栏中,单击启动项工具![](figures/zh-cn_image_0000001190202013.png),弹出启动项配置界面,如[图2](#fig744814574243)。 **图 2** 启动项工具 ![](figures/启动项工具-1.png "启动项工具-1") -3. 在启动项配置界面选择,选择“BIOS设置”,然后在虚拟界面工具栏中单击重启工具![](figures/zh-cn_image_0000001152736233.png),重启服务器。 +3. 在启动项配置界面选择,选择“BIOS设置”,然后在虚拟界面工具栏中单击重启工具![](figures/zh-cn_image_0000001144082138.png),重启服务器。 4. 系统重启后进入BIOS配置界面,依次选择“Advanced”\>“ Performance Config”,如[图3](#fig4546303814)所示。 **图 3** Performance Config @@ -1420,7 +1455,10 @@ def main():

模型训练

-训练脚本迁移完成后,需要参见[配置环境变量](#配置环境变量.md)设置环境变量,然后执行**python3.7** _xxx_进行模型训练。具体样例请参考[脚本执行](#脚本执行.md)。 +训练脚本迁移完成后,需要参见[配置环境变量](#配置环境变量.md)设置环境变量,然后执行**python3** _xxx_进行模型训练。具体样例请参考[脚本执行](#脚本执行.md)。 + +>![](public_sys-resources/icon-note.gif) **说明:** +>执行“python3 xxx“命令时,须将python3软链接到与当前pytorch适配版本的python安装路径。

性能调优和分析

@@ -1461,23 +1499,51 @@ def main(): ## Profiling数据采集 -当吞吐量指标不达标时,需要通过采集训练过程中的profiling数据,分析哪个环节、哪个算子导致的性能消耗。请参见以下步骤进行profiling数据的获取。 +当模型训练过程中吞吐量指标不达标时,可以通过采集训练过程中的profiling数据,分析哪个环节、哪个算子导致的性能消耗。Profiling数据采集分为PyTorch层面和CANN层面的采集,PyTorch层面采集的是PyTorch API的数据,CANN层面采集的是TBE算子的数据。 -1. 获取chrome\_trace文件。使用profile接口对原始代码的loss计算和优化过程进行改造。 +请参见以下方式进行profiling数据的获取,并根据实际情况选择需要的数据采集方式。 + +- PyTorch层面Profiling数据采集。 + 1. 获取chrome\_trace文件。 + + 使用profile接口对原始代码的loss计算和优化过程进行改造。 + + ``` + # 使用ascend-pytorch适配的profile接口,即可获得,推荐只运行一个step + with torch.autograd.profiler.profile(use_npu=True) as prof: + out = model(input_tensor) + loss=loss_func(out) + loss.backward() + optimizer.zero_grad() + optimizer.step() + # 导出chrome_trace文件到指定路径 + output_path = '/home/HwHiAiUser/profile_data.json' + prof.export_chrome_trace(output_path) + ``` + + 2. 查看chrome\_trace文件。 + + chrome\_trace文件可以通过以下方式打开查看:在Chrome浏览器中输入“chrome://tracing“地址,然后将落盘文件拖到空白处即可打开文件内容,通过键盘W、A、S、D键,可以对profiler的结果进行缩放和移动。 + + +- CANN层面Profiling数据采集。 + 1. 获取性能数据文件。 + + ``` + profiler_result_path = "/home/profiling_data" # profiling 数据保存的文件夹,需提前手动创建,请根据实际指定。 + with torch.npu.profile(profiler_result_path) as prof: + out = model(input_tensor) + loss=loss_func(out) + loss.backward() + optimizer.zero_grad() + optimizer.step() + ``` + + 2. 解析性能数据文件。 + + 请参见《CANN 开发辅助工具指南》中“Profiling工具使用指南(训练)”章节。 - ``` - # 使用ascend-pytorch适配的profile接口,即可获得,推荐只运行一个step - with torch.autograd.profiler.profile(use_npu=True) as prof: - out = model(input_tensor) - loss=loss_func(out) - loss.backward() - optimizer.zero_grad() - optimizer.step() - # 导出chrome_trace文件到指定路径 - prof.export_chrome_trace(output_path) - ``` -2. chrome\_trace文件可以通过以下方式打开查看:在Chrome浏览器中输入“chrome://tracing“地址,然后将落盘文件拖到空白处即可打开文件内容,通过键盘W、A、S、D键,可以对profiler的结果进行缩放和移动。 ## 获取算子信息OP\_INFO @@ -1541,7 +1607,7 @@ def main(): 5. 解析host侧日志会在当前目录下得到OPInfo信息ascend\_op\_info\_summary.txt。 ``` - python3.7 get_ascend_op_info.py --host_log_folder $HOME/ascend/log/plog + python3 get_ascend_op_info.py --host_log_folder $HOME/ascend/log/plog ``` 6. 分析TaskInfo中额外的task,尤其关注transdata。 @@ -1675,7 +1741,6 @@ def main(): - 解决方案:改进算子精度或功能问题。 - 2. loss计算错误。 - 定位思路:由于Loss的特殊性和可以自定义,在判断Loss计算错误后建议dump网络中的loss的输入来测试而非随机同shape tensor,这样才能更好地复现证明。 @@ -1683,7 +1748,6 @@ def main(): - 解决方案:改进算子精度或功能问题(loss也是由算子构成)。 - 3. 参数更新错误。 - 定位思路:在每个optim.step\(\)前对网络中的参数逐个打印其grad进行排查判断是哪个地方有较大嫌疑,然后构建单算子用例逐渐缩小错误范围,证明该算子在当前网络场景下梯度计算有误,可以对比CPU或GPU结果证明。该项优先级应低于[1.](#li17755175510322)与[2.](#li25281726103316),因为1与2的错误同样可以造成grad异常。 @@ -1692,7 +1756,6 @@ def main(): - 解决方案:改进计算grad的算子精度或功能问题。 - 4. 多卡计算错误。 - 定位思路:在保证单卡精度OK的前提下,稳定复现多卡不收敛。 @@ -1703,6 +1766,55 @@ def main():

精度调优方法

+模型出现精度问题一般有:因算子溢出导致的训练loss不收敛或者精度不达标问题,整个网络训练引起的性能不达标问题。用户可通过单算子溢出检测和整网调测适度解决模型精度不达标问题。 + +- **[单算子溢出检测](#单算子溢出检测.md)** + +- **[整网调测](#整网调测.md)** + + +

单算子溢出检测

+ +用户通过采集训练过程中各算子的运算结果(即Dump数据),然后查看算子是否产生溢出,从而帮助开发人员快速定位并解决算子精度问题。 + +## 约束说明 + +- 需要安装hdf5工具以支持算子dump功能,安装详情请参见[编译安装hdf5](#编译安装hdf5.md); +- 本功能只提供IR级别的算子溢出检测,且只支持AICORE的溢出检测,不支持Atomic溢出检测; +- 须在PyTorch源代码“build.sh“文件中添加“USE\_DUMP=1”字段。 + + ``` + 修改前: DEBUG=0 USE_DISTRIBUTED=1 USE_HCCL=1 USE_MKLDNN=0 USE_CUDA=0 USE_NPU=1 BUILD_TEST=0 USE_NNPACK=0 python3 setup.py build bdist_wheel + 修改后: DEBUG=0 USE_DISTRIBUTED=1 USE_HCCL=1 USE_MKLDNN=0 USE_CUDA=0 USE_NPU=1 BUILD_TEST=0 USE_NNPACK=0 USE_DUMP=1 python3 setup.py build + ``` + + 并参见《PyTorch安装指南》的“手动编译安装”章节重新编译并安装PyTorch。 + +- 使用单算子溢出检测功能时,请不要同时开启apex的动态loss scale模式和使用tensor融合功能。 + +## 采集算子Dump数据 + +``` +# check_overflow为溢出检测控制开关 +# dump_path为dump文件保存路径 +with torch.utils.dumper(check_overflow=check_overflow, dump_path=dump_path, load_file_path='') as dump: + # 需要算子采集的代码片段 +``` + +模型运行过程中,如果有算子溢出,会打印出相应IR的名字。 + +## 查看Dump数据 + +如果训练过程中采集到了Dump数据,则会在\{dump\_path\}路径下生成dump数据的.h5文件,用户可进入路径自行查看。 + +## 解决方法 + +请将算子溢出的打印截图及采集到的.h5文件通过Issue附件形式反馈给华为开发人员。 + +

整网调测

+ +用户也可通过分析整个网络的方式来进行网络模型的精度调测。 + 1. 通过对比CPU和昇腾AI处理器的结果,判断在昇腾AI处理器上计算是否正确。 代码样例(本样例只体现基本方法,禁止直接复制)如下: @@ -1780,7 +1892,7 @@ def main(): 离线推理应用构建请参考《CANN 应用软件开发指南\(C&C++, 推理\)》。整体流程如下: -![](figures/zh-cn_image_0000001106176222.png) +![](figures/zh-cn_image_0000001144082132.png)

模型保存

@@ -1813,7 +1925,6 @@ Pytorch在训练过程中,通常使用torch.save\(\)来保存Checkpoint文件 model.eval() ``` - >![](public_sys-resources/icon-notice.gif) **须知:** >保存.pth或.pt文件扩展名的文件时要提供模型定义文件,否则无法部署。 @@ -2061,10 +2172,10 @@ if __name__ == "__main__": # if not torch.cuda.is_available(): # print('using CPU, this will be slow') # elif args.distributed: - ############## npu modify begin ############# + ############## npu modify begin ############# # 迁移后为直接判断是否进行分布式训练,去掉判断是否在GPU上进行训练 if args.distributed: - ############## npu modify end ############# + ############## npu modify end ############# # For multiprocessing distributed, DistributedDataParallel constructor # should always set the single device scope, otherwise, # DistributedDataParallel will use all available devices. @@ -2122,7 +2233,6 @@ if __name__ == "__main__": ############## npu modify end ############# ``` - - 代码位置:main.py文件中的validate\(\)函数(修改部分为字体加粗部分): ``` @@ -2142,7 +2252,6 @@ if __name__ == "__main__": ############## npu modify end ############# ``` - 6. 设置当前正在使用的device。 代码位置:main.py文件中的主函数入口(修改部分为字体加粗部分): @@ -2395,7 +2504,7 @@ if __name__ == "__main__": if args.amp: model, optimizer = amp.initialize(model, optimizer, opt_level=args.opt_level, loss_scale=args.loss_scale) - model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[args.gpu], broadcast_buffers=False) + model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[args.gpu]) # optionally resume from a checkpoint if args.resume: @@ -2525,7 +2634,7 @@ if __name__ == "__main__": 单卡: ``` -python3.7 main.py /home/data/resnet50/imagenet --batch-size 128 \ # 训练批次大小 +python3 main.py /home/data/resnet50/imagenet --batch-size 128 \ # 训练批次大小 --lr 0.1 \ # 学习率 --epochs 90 \ # 训练迭代轮数 --arch resnet50 \ # 模型架构 @@ -2539,7 +2648,7 @@ python3.7 main.py /home/data/resnet50/imagenet --batch-size 128 \ # 训练 分布式: ``` -python3.7 main.py /home/data/resnet50/imagenet --addr='1.1.1.1' \ # 示例IP地址,请根据实际修改 +python3 main.py /home/data/resnet50/imagenet --addr='1.1.1.1' \ # 示例IP地址,请根据实际修改 --seed 49 \ # 随机种子 --workers 160 \ # 加载数据进程数 --lr 0.8 \ @@ -3112,6 +3221,8 @@ for group in [2, 4, 8]: - **[安装7.3.0版本gcc](#安装7-3-0版本gcc.md)** +- **[编译安装hdf5](#编译安装hdf5.md)** +

单算子样例编写说明

@@ -3303,7 +3414,7 @@ torch.npu.finalize_dump() 4. 调用Python,转换numpy文件为txt文件。举例: - **$ python3.7.5** + **$ python3** **\>\>\> import numpy as np** @@ -3431,6 +3542,43 @@ torch.npu.finalize_dump() >本步骤为用户在需要用到gcc升级后的编译环境时才配置环境变量。 +

编译安装hdf5

+ +以下步骤请在root用户下执行。 + +1. 获取代码。 + + ``` + git clone https://github.com/HDFGroup/hdf5.git + ``` + +2. 切换到hdf5-1\_10\_7分支。 + + ``` + cd hdf5 + git checkout remotes/origin/hdf5_1_10_7 + ``` + +3. 编译hdf5。 + + ``` + ./configure --prefix=/usr/local/hdf5 --enable-cxx + make -j72 #-j 后的数值可以根据CPU的核数设置 + make check # run test suite. + make install + make check-install # verify installation. + ``` + +4. 添加环境变量。 + + ``` + export PATH=/usr/local/hdf5/bin:$PATH + export LD_LIBRARY_PATH=/usr/local/hdf5/lib:$LD_LIBRARY_PATH + export LIBRARY_PATH=/usr/local/hdf5/lib:$LIBRARY_PATH + export CPATH=/usr/local/hdf5/include:$CPATH + ``` + +

FAQ

- **[软件安装常见问题](#软件安装常见问题.md)** @@ -3488,7 +3636,7 @@ pip3.7 install pillow==5.3.0安装失败。 - **[在模型运行时遇到报错“MemCopySync:drvMemcpy failed.”](#在模型运行时遇到报错-MemCopySync-drvMemcpy-failed.md)** -- **[在模型运行时遇到报错“MemCopySync:drvMemcpy failed.”1](#在模型运行时遇到报错-MemCopySync-drvMemcpy-failed-1.md)** +- **[在模型运行时遇到报错“MemCopySync:drvMemcpy failed.”](#在模型运行时遇到报错-MemCopySync-drvMemcpy-failed-7.md)** - **[在模型运行时将多任务下发关闭\(export TASK\_QUEUE\_ENABLE=0\)后仍然遇到报错“HelpACLExecute.”](#在模型运行时将多任务下发关闭(export-TASK_QUEUE_ENABLE-0)后仍然遇到报错-HelpACLExecute.md)** @@ -3677,7 +3825,7 @@ shell报错是在同步操作中和AI CPU错误,而日志报错信息却是在 4. 打印stack所有参数的shape、dtype、npu\_format,通过构造单算子用例复现问题。定位到问题原因为减法计算输入参数数据类型不同,导致a-b和b-a结果的数据类型不一致,最终在stack算子中报错。 5. 将stack入参数据类型转换为一致即可临时规避问题。 -

在模型运行时遇到报错“MemCopySync:drvMemcpy failed.”1

+

在模型运行时遇到报错“MemCopySync:drvMemcpy failed.”

## 现象描述 @@ -3884,7 +4032,7 @@ pytorch算子在npu上运行,通过ACL接口调用底层经过优化的算子 ## 现象描述 -![](figures/FAQ12.png) +![](figures/model_faq11_20210728.jpg) ## 可能原因 diff --git "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/FAQ12.png" "b/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/FAQ12.png" deleted file mode 100644 index dfe1d90a7e99b19c64039c771b8f0f3ee095489d..0000000000000000000000000000000000000000 Binary files "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/FAQ12.png" and /dev/null differ diff --git "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/model_faq11_20210728.jpg" "b/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/model_faq11_20210728.jpg" new file mode 100644 index 0000000000000000000000000000000000000000..ac24282446804eb5ee80070a09978910919d103a Binary files /dev/null and "b/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/model_faq11_20210728.jpg" differ diff --git "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001106176216.png" "b/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001106176216.png" deleted file mode 100644 index ede83f4bc1b0ed21a9c746c358c45681d5ffb49a..0000000000000000000000000000000000000000 Binary files "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001106176216.png" and /dev/null differ diff --git "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001106176222.png" "b/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001144082132.png" similarity index 100% rename from "docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001106176222.png" rename to "docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001144082132.png" diff --git "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001152616281.png" "b/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001144082138.png" similarity index 100% rename from "docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001152616281.png" rename to "docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001144082138.png" diff --git "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001106016350.png" "b/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001144241932.png" similarity index 100% rename from "docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001106016350.png" rename to "docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001144241932.png" diff --git "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001152736233.png" "b/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001190201999.png" similarity index 100% rename from "docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001152736233.png" rename to "docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001190201999.png" diff --git "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001152616289.png" "b/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001190202013.png" similarity index 100% rename from "docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001152616289.png" rename to "docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001190202013.png" diff --git "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/\347\216\257\345\242\203\345\207\206\345\244\207\346\265\201\347\250\213\345\233\276.png" "b/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/\347\216\257\345\242\203\345\207\206\345\244\207\346\265\201\347\250\213\345\233\276.png" deleted file mode 100644 index cdda4fab2365a81d54807e9118cc617a25b8f4f2..0000000000000000000000000000000000000000 Binary files "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/\347\216\257\345\242\203\345\207\206\345\244\207\346\265\201\347\250\213\345\233\276.png" and /dev/null differ diff --git "a/docs/zh/PyTorch\351\200\202\351\205\215\347\256\227\345\255\220\346\270\205\345\215\225/PyTorch\351\200\202\351\205\215\347\256\227\345\255\220\346\270\205\345\215\225.md" "b/docs/zh/PyTorch\351\200\202\351\205\215\347\256\227\345\255\220\346\270\205\345\215\225/PyTorch\351\200\202\351\205\215\347\256\227\345\255\220\346\270\205\345\215\225.md" index 6b13eaeb75451e1ef70e93f46ff1ec2a4a031e07..c253042254a7ad957ea721d152cd4c77f4b43aa1 100644 --- "a/docs/zh/PyTorch\351\200\202\351\205\215\347\256\227\345\255\220\346\270\205\345\215\225/PyTorch\351\200\202\351\205\215\347\256\227\345\255\220\346\270\205\345\215\225.md" +++ "b/docs/zh/PyTorch\351\200\202\351\205\215\347\256\227\345\255\220\346\270\205\345\215\225/PyTorch\351\200\202\351\205\215\347\256\227\345\255\220\346\270\205\345\215\225.md" @@ -1,868 +1,6184 @@ -# **PyTorch适配算子清单** -- **[PyTorch原生API昇腾算子对应表](#PyTorch原生API昇腾算子对应表.md)** -- **[PyTorch昇腾自定义算子](#PyTorch昇腾自定义算子.md)** -

PyTorch原生API昇腾算子对应表

- -| 序号 | PyTorch 原生算子 | 昇腾适配算子 | -| ---- | ------------------------------------------- | --------------------------------------------- | -| 1 | dropout | dropout_npu | -| 2 | dropout_ | dropout_npu_ | -| 3 | abs | abs_npu | -| 4 | abs_ | abs_npu_ | -| 5 | abs.out | abs_out_npu | -| 6 | acos | acos_npu | -| 7 | acos_ | acos_npu_ | -| 8 | acos.out | acos_out_npu | -| 9 | adaptive_avg_pool1d | adaptive_avg_pool1d_npu | -| 10 | add.Tensor | add_npu | -| 11 | add_.Tensor | add_npu_ | -| 12 | add.out | add_out_npu | -| 13 | add.Scalar | add_npu | -| 14 | add_.Scalar | add_npu_ | -| 15 | addmv | addmv_npu | -| 16 | addmv_ | addmv_npu_ | -| 17 | addmv.out | addmv_out_npu | -| 18 | addr | addr_npu | -| 19 | addr_ | addr_npu_ | -| 20 | addr.out | addr_out_npu | -| 21 | affine_grid_generator | affine_grid_generator_npu | -| 22 | affine_grid_generator_backward | affine_grid_generator_backward_npu | -| 23 | all.dim | all_npu | -| 24 | all.out | all_out_npu | -| 25 | any.dim | any_npu | -| 26 | any.out | any_out_npu | -| 27 | arange | arange_npu | -| 28 | arange.start | arange_npu | -| 29 | arange.start_step | arange_npu | -| 30 | arange.out | arange_out_npu | -| 31 | arange.start_out | arange_out_npu | -| 32 | _dim_arange | _dim_arange_npu | -| 33 | argmax | argmax_npu | -| 34 | argmin | argmin_npu | -| 35 | as_strided | as_strided_npu | -| 36 | as_strided_ | as_strided_npu_ | -| 37 | asin | asin_npu | -| 38 | asin_ | asin_npu_ | -| 39 | asin.out | asin_out_npu | -| 40 | atan | atan_npu | -| 41 | atan_ | atan_npu_ | -| 42 | atan.out | atan_out_npu | -| 43 | baddbmm | baddbmm_npu | -| 44 | baddbmm_ | baddbmm_npu_ | -| 45 | baddbmm.out | baddbmm_out_npu | -| 46 | bartlett_window | bartlett_window_npu | -| 47 | bartlett_window.periodic | bartlett_window_npu | -| 48 | batch_norm | batch_norm_npu_ | -| 49 | _batch_norm_impl_index | _batch_norm_impl_index_npu | -| 50 | _batch_norm_impl_index_backward | _batch_norm_impl_index_backward_npu | -| 51 | bernoulli | bernoulli_npu | -| 52 | bernoulli_.Tensor | bernoulli_npu_ | -| 53 | bernoulli_.float | bernoulli_npu_ | -| 54 | binary_cross_entropy | binary_cross_entropy_npu | -| 55 | binary_cross_entropy.out | binary_cross_entropy_out_npu | -| 56 | binary_cross_entropy_backward | binary_cross_entropy_backward_npu | -| 57 | binary_cross_entropy_backward.grad_input | binary_cross_entropy_backward_out_npu | -| 58 | binary_cross_entropy_with_logits | binary_cross_entropy_with_logits_npu | -| 59 | binary_cross_entropy_with_logits_backward | binary_cross_entropy_with_logits_backward_npu | -| 60 | bitwise_not | bitwise_not_npu | -| 61 | bitwise_not_ | bitwise_not_npu_ | -| 62 | bitwise_not.out | bitwise_not_out_npu | -| 63 | logical_not | logical_not_npu | -| 64 | logical_not_ | logical_not_npu_ | -| 65 | logical_not.out | logical_not_out_npu | -| 66 | logical_and | logical_and_npu | -| 67 | logical_and_ | logical_and_npu_ | -| 68 | logical_and.out | logical_and_out_npu | -| 69 | logical_or | logical_or_npu | -| 70 | logical_or_ | logical_or_npu_ | -| 71 | logical_or.out | logical_or_out_npu | -| 72 | blackman_window | blackman_window_npu | -| 73 | blackman_window.periodic | blackman_window_npu | -| 74 | bmm | bmm_npu | -| 75 | bmm.out | bmm_out_npu | -| 76 | cat | cat_npu | -| 77 | cat.out | cat_out_npu | -| 78 | cat.names | cat_npu | -| 79 | cat.names_out | cat_out_npu | -| 80 | ceil | ceil_npu | -| 81 | ceil_ | ceil_npu_ | -| 82 | ceil.out | ceil_out_npu | -| 83 | clamp | clamp_npu | -| 84 | clamp_ | clamp_npu_ | -| 85 | clamp.out | clamp_out_npu | -| 86 | clamp_max | clamp_max_npu | -| 87 | clamp_max_ | clamp_max_npu_ | -| 88 | clamp_max.out | clamp_max_out_npu | -| 89 | clamp_min | clamp_min_npu | -| 90 | clamp_min_ | clamp_min_npu_ | -| 91 | clamp_min.out | clamp_min_out_npu | -| 92 | constant_pad_nd | constant_pad_nd_npu | -| 93 | contiguous | contiguous_npu | -| 94 | convolution | convolution_npu | -| 95 | _convolution | _convolution_npu | -| 96 | _convolution_nogroup | _convolution_nogroup_npu | -| 97 | conv2d | conv2d_npu_ | -| 98 | conv3d | _conv3d_npu | -| 99 | conv_tbc | conv_tbc_npu | -| 100 | conv_tbc_backward | conv_tbc_backward_npu | -| 101 | conv_transpose2d.input | conv_transpose2d_npu_ | -| 102 | copy_ | copy_npu_ | -| 103 | cos | cos_npu | -| 104 | cos_ | cos_npu_ | -| 105 | cos.out | cos_out_npu | -| 106 | cosh | cosh_npu | -| 107 | cosh_ | cosh_npu_ | -| 108 | cosh.out | cosh_out_npu | -| 109 | cummin | cummin_npu | -| 110 | cummin.out | cummin_out_npu | -| 111 | cummin.dimname | cummin_npu | -| 112 | cummin.dimname_out | cummin_out_npu | -| 113 | cumprod | cumprod_npu | -| 114 | cumprod.out | cumprod_out_npu | -| 115 | cumprod.dimname | cumprod_npu | -| 116 | cumprod.dimname_out | cumprod_out_npu | -| 117 | ctc_loss.IntList | ctc_loss_npu | -| 118 | ctc_loss.Tensor | ctc_loss_npu | -| 119 | _ctc_loss | ctc_loss_npu | -| 120 | _ctc_loss_backward | ctc_loss_backward_npu | -| 121 | fill_diagonal_ | fill_diagonal_npu_ | -| 122 | div.Tensor | div_npu | -| 123 | div_.Tensor | div_npu_ | -| 124 | div.out | div_out_npu | -| 125 | div.Scalar | div_npu | -| 126 | div_.Scalar | div_npu_ | -| 127 | dot | dot_npu | -| 128 | dot.out | dot_out_npu | -| 129 | embedding | embedding_npu | -| 130 | embedding_backward | embedding_backward_npu | -| 131 | embedding_dense_backward | embedding_dense_backward_npu | -| 132 | embedding_renorm_ | embedding_renorm_npu_ | -| 133 | _embedding_bag | _embedding_bag_npu | -| 134 | empty.memory_format | empty_npu | -| 135 | resize_ | resize_npu_ | -| 136 | empty_like | empty_like_npu | -| 137 | empty_strided | empty_strided_npu | -| 138 | erf | erf_npu | -| 139 | erf_ | erf_npu_ | -| 140 | erf.out | erf_out_npu | -| 141 | exp | exp_npu | -| 142 | exp_ | exp_npu_ | -| 143 | exp.out | exp_out_npu | -| 144 | expm1 | expm1_npu | -| 145 | expm1_ | expm1_npu_ | -| 146 | expm1.out | expm1_out_npu | -| 147 | eye | eye_npu | -| 148 | eye.m | eye_npu | -| 149 | eye.out | eye_out_npu | -| 150 | eye.m_out | eye_out_npu | -| 151 | fill_.Scalar | fill_npu_ | -| 152 | fill_.Tensor | fill_npu_ | -| 153 | floor | floor_npu | -| 154 | floor_ | floor_npu_ | -| 155 | floor.out | floor_out_npu | -| 156 | floor_divide | floor_divide_npu | -| 157 | floor_divide_.Tensor | floor_divide_npu_ | -| 158 | floor_divide.out | floor_divide_out_npu | -| 159 | floor_divide.Scalar | floor_divide_npu | -| 160 | floor_divide_.Scalar | floor_divide_npu_ | -| 161 | frac | frac_npu | -| 162 | frac_ | frac_npu_ | -| 163 | frac.out | frac_out_npu | -| 164 | full.names | full_npu | -| 165 | full | full_npu | -| 166 | full.out | full_out_npu | -| 167 | grid_sampler | grid_sampler_npu | -| 168 | grid_sampler_3d | grid_sampler_3d_npu | -| 169 | grid_sampler_3d_backward | grid_sampler_3d_backward_npu | -| 170 | hann_window | hann_window_npu | -| 171 | hann_window.periodic | hann_window_npu | -| 172 | hamming_window | hamming_window_npu | -| 173 | hamming_window.periodic | hamming_window_npu | -| 174 | hamming_window.periodic_alpha | hamming_window_npu | -| 175 | hamming_window.periodic_alpha_beta | hamming_window_npu | -| 176 | ger | ger_npu | -| 177 | ger.out | ger_out_npu | -| 178 | index.Tensor | index_npu | -| 179 | index_put_ | index_put_npu_ | -| 180 | index_put | index_put_npu | -| 181 | _index_put_impl_ | _index_put_impl_npu_ | -| 182 | inverse | inverse_npu | -| 183 | inverse.out | inverse_out_npu | -| 184 | isclose | isclose_npu | -| 185 | isnan | isnan_npu | -| 186 | is_nonzero | is_nonzero_npu | -| 187 | kl_div | kl_div_npu | -| 188 | kl_div_backward | kl_div_backward_npu | -| 189 | kthvalue | kthvalue_npu | -| 190 | kthvalue.values | kthvalue_out_npu | -| 191 | kthvalue.dimname | kthvalue_npu | -| 192 | kthvalue.dimname_out | kthvalue_out_npu | -| 193 | native_layer_norm | layer_norm_npu | -| 194 | native_layer_norm_backward | layer_norm_backward_npu | -| 195 | linspace | linspace_npu | -| 196 | linspace.out | linspace_out_npu | -| 197 | log | log_npu | -| 198 | log_ | log_npu_ | -| 199 | log.out | log_out_npu | -| 200 | log10 | log10_npu | -| 201 | log10_ | log10_npu_ | -| 202 | log10.out | log10_out_npu | -| 203 | log1p | log1p_npu | -| 204 | log1p_ | log1p_npu_ | -| 205 | log1p.out | log1p_out_npu | -| 206 | log2 | log2_npu | -| 207 | log2_ | log2_npu_ | -| 208 | log2.out | log2_out_npu | -| 209 | logspace | logspace_npu | -| 210 | logspace.out | logspace_out_npu | -| 211 | log_softmax.int | log_softmax_npu | -| 212 | log_softmax.Dimname | log_softmax_npu | -| 213 | _log_softmax | _log_softmax_npu | -| 214 | _log_softmax_backward_data | _log_softmax_backward_npu | -| 215 | logsumexp | logsumexp_npu | -| 216 | logsumexp.out | logsumexp_out_npu | -| 217 | logsumexp.names | logsumexp_npu | -| 218 | logsumexp.names_out | logsumexp_out_npu | -| 219 | matmul | matmul_npu | -| 220 | matmul.out | matmul_out_npu | -| 221 | matrix_power | matrix_power_npu | -| 222 | max.dim | max_npu | -| 223 | max.dim_max | max_out_npu | -| 224 | max_values | max_npu | -| 225 | max.names_dim | max_npu | -| 226 | max.names_dim_max | max_out_npu | -| 227 | max_values.names | max_npu | -| 228 | max_pool2d | max_pool2d_npu | -| 229 | quantized_max_pool2d | quantized_max_pool2d_npu | -| 230 | mean | mean_npu | -| 231 | mean.dim | mean_npu | -| 232 | mean.out | mean_out_npu | -| 233 | mean.names_dim | mean_npu | -| 234 | mean.names_out | mean_out_npu | -| 235 | median.dim | median_npu | -| 236 | median.dim_values | median_out_npu | -| 237 | median.names_dim | median_npu | -| 238 | median.names_dim_values | median_out_npu | -| 239 | min.dim | min_npu | -| 240 | min.dim_min | min_out_npu | -| 241 | min_values | min_npu | -| 242 | min.names_dim | min_npu | -| 243 | min.names_dim_min | min_out_npu | -| 244 | min_values.names | min_npu | -| 245 | mm | mm_npu | -| 246 | mm.out | mm_out_npu | -| 247 | mode | mode_npu | -| 248 | mode.values | mode_out_npu | -| 249 | mul.Tensor | mul_npu | -| 250 | mul_.Tensor | mul_npu_ | -| 251 | mul.out | mul_out_npu | -| 252 | mul.Scalar | mul_npu | -| 253 | mul_.Scalar | mul_npu_ | -| 254 | mv | mv_npu | -| 255 | mv.out | mv_out_npu | -| 256 | narrow_copy | narrow_copy_npu | -| 257 | native_batch_norm | batch_norm_npu | -| 258 | native_batch_norm_backward | batch_norm_backward_npu | -| 259 | _nnpack_spatial_convolution | _nnpack_spatial_convolution_npu | -| 260 | ones.names | ones_npu | -| 261 | ones | ones_npu | -| 262 | ones.out | ones_out_npu | -| 263 | ones_like | ones_like_npu | -| 264 | cdist | cdist_npu | -| 265 | _cdist_forward | _cdist_forward_npu | -| 266 | _cdist_backward | _cdist_backward_npu | -| 267 | pdist | pdist_npu | -| 268 | _pdist_forward | _pdist_forward_npu | -| 269 | randperm | randperm_npu | -| 270 | randperm.generator | randperm_npu | -| 271 | randperm.out | randperm_out_npu | -| 272 | randperm.generator_out | randperm_out_npu | -| 273 | range.step | range_npu | -| 274 | range | range_npu | -| 275 | range.out | range_out_npu | -| 276 | reciprocal | reciprocal_npu | -| 277 | reciprocal_ | reciprocal_npu_ | -| 278 | reciprocal.out | reciprocal_out_npu | -| 279 | neg | neg_npu | -| 280 | neg_ | neg_npu_ | -| 281 | neg.out | neg_out_npu | -| 282 | repeat | repeat_npu | -| 283 | repeat_interleave.self_int | repeat_interleave_npu | -| 284 | round | round_npu | -| 285 | round_ | round_npu_ | -| 286 | round.out | round_out_npu | -| 287 | relu | relu_npu | -| 288 | relu_ | relu_npu_ | -| 289 | prelu | prelu_npu | -| 290 | prelu_backward | prelu_backward_npu | -| 291 | gelu | gelu_npu | -| 292 | gelu_backward | gelu_backward_npu | -| 293 | hardshrink | hardshrink_npu | -| 294 | hardshrink_backward | hardshrink_backward_npu | -| 295 | rsqrt | rsqrt_npu | -| 296 | rsqrt_ | rsqrt_npu_ | -| 297 | rsqrt.out | rsqrt_out_npu | -| 298 | selu | selu_npu | -| 299 | selu_ | selu_npu_ | -| 300 | celu | celu_npu | -| 301 | celu_ | celu_npu_ | -| 302 | sigmoid | sigmoid_npu | -| 303 | sigmoid_ | sigmoid_npu_ | -| 304 | sigmoid.out | sigmoid_out_npu | -| 305 | sin | sin_npu | -| 306 | sin_ | sin_npu_ | -| 307 | sin.out | sin_out_npu | -| 308 | sinh | sinh_npu | -| 309 | sinh_ | sinh_npu_ | -| 310 | sinh.out | sinh_out_npu | -| 311 | slogdet | slogdet_npu | -| 312 | softmax.int | softmax_npu | -| 313 | softmax.Dimname | softmax_npu | -| 314 | _softmax | _softmax_npu | -| 315 | _softmax_backward_data | _softmax_backward_npu | -| 316 | stack | stack_npu | -| 317 | stack.out | stack_out_npu | -| 318 | sum | sum_npu | -| 319 | sum.dim_IntList | sum_npu | -| 320 | sum.dim_DimnameList | sum_npu | -| 321 | sum.IntList_out | sum_out_npu | -| 322 | sum.DimnameList_out | sum_out_npu | -| 323 | sqrt | sqrt_npu | -| 324 | sqrt_ | sqrt_npu_ | -| 325 | sqrt.out | sqrt_out_npu | -| 326 | std | std_npu | -| 327 | std.dim | std_dim_npu | -| 328 | std_mean | std_mean_npu | -| 329 | std_mean.dim | std_mean_dim_npu | -| 330 | std_mean.names_dim | std_mean_names_npu | -| 331 | std.out | std_out_npu | -| 332 | std.names_dim | std_names_npu | -| 333 | std.names_out | std_out_npu | -| 334 | prod | prod_npu | -| 335 | prod.dim_int | prod_npu | -| 336 | prod.int_out | prod_out_npu | -| 337 | prod.dim_Dimname | prod_npu | -| 338 | prod.Dimname_out | prod_out_npu | -| 339 | tan | tan_npu | -| 340 | tan_ | tan_npu_ | -| 341 | tan.out | tan_out_npu | -| 342 | tanh | tanh_npu | -| 343 | tanh_ | tanh_npu_ | -| 344 | tanh.out | tanh_out_npu | -| 345 | threshold | threshold_npu | -| 346 | threshold_ | threshold_npu_ | -| 347 | threshold.out | threshold_out_npu | -| 348 | threshold_backward | threshold_backward_npu | -| 349 | one_hot | one_hot_npu1 | -| 350 | flip | flip_npu | -| 351 | roll | roll_npu | -| 352 | true_divide.Tensor | true_divide_npu | -| 353 | true_divide_.Tensor | true_divide_npu_ | -| 354 | true_divide.out | true_divide_out_npu | -| 355 | true_divide.Scalar | true_divide_npu | -| 356 | true_divide_.Scalar | true_divide_npu_ | -| 357 | trunc | trunc_npu | -| 358 | trunc_ | trunc_npu_ | -| 359 | trunc.out | trunc_out_npu | -| 360 | _unique2 | _unique2_npu | -| 361 | var | var_npu | -| 362 | var.dim | var_npu | -| 363 | var.out | var_out_npu | -| 364 | var.names_dim | var_npu | -| 365 | var.names_out | var_out_npu | -| 366 | var_mean | var_mean_npu | -| 367 | var_mean.dim | var_mean_npu | -| 368 | var_mean.names_dim | var_mean_npu | -| 369 | where.self | where_npu | -| 370 | where | where_npu | -| 371 | _s_where | _s_where_npu | -| 372 | zeros.names | zeros_npu | -| 373 | zeros | zeros_npu | -| 374 | zeros.out | zeros_out_npu | -| 375 | zeros_like | zeros_like_npu | -| 376 | norm.ScalarOpt_dtype | norm_npu | -| 377 | norm.Scalar | norm_npu | -| 378 | norm.ScalarOpt_dim_dtype | norm_npu | -| 379 | norm.ScalarOpt_dim | norm_npu | -| 380 | norm.dtype_out | norm_out_npu | -| 381 | norm.out | norm_out_npu | -| 382 | clone | clone_npu | -| 383 | resize_as_ | resize_as_npu_ | -| 384 | pow.Tensor_Scalar_out | pow_out_npu | -| 385 | pow.Tensor_Scalar | pow_npu | -| 386 | zero_ | zero_npu_ | -| 387 | sub.out | sub_out_npu | -| 388 | sub.Tensor | sub_npu | -| 389 | sub_.Tensor | sub_npu_ | -| 390 | sub.Scalar | sub_npu | -| 391 | sub_.Scalar | sub_npu_ | -| 392 | rsub.Tensor | rsub_npu | -| 393 | rsub.Scalar | rsub_npu | -| 394 | addmm.out | addmm_out_npu | -| 395 | addmm | addmm_npu | -| 396 | addmm_ | addmm_npu_ | -| 397 | quantize_per_tensor | quantize_per_tensor_npu | -| 398 | quantize_per_channel | quantize_per_channel_npu | -| 399 | to.dtype_layout | to_npu | -| 400 | to.device | to_device_npu | -| 401 | to.dtype | to_dtype_npu | -| 402 | to.other | to_other_npu | -| 403 | _local_scalar_dense | _local_scalar_dense_npu | -| 404 | lstm.input | lstm_npu | -| 405 | lstm.data | lstm_npu | -| 406 | gru.input | gru_npu_ | -| 407 | _pack_padded_sequence | _pack_padded_sequence_npu | -| 408 | _pad_packed_sequence | _pad_packed_sequence_npu | -| 409 | set_.source_Storage | set_npu_ | -| 410 | set_.source_Storage_storage_offset | set_npu_ | -| 411 | set_.source_Tensor | set_npu_ | -| 412 | set_ | set_npu_ | -| 413 | masked_fill_.Scalar | masked_fill_npu_ | -| 414 | masked_fill_.Tensor | masked_fill_npu_ | -| 415 | masked_scatter_ | masked_scatter_npu_ | -| 416 | view | view_npu | -| 417 | put_ | put_npu_ | -| 418 | index_add_ | index_add_npu_ | -| 419 | index_add | index_add_npu | -| 420 | index_add.dimname | index_add_npu | -| 421 | index_fill_.int_Scalar | index_fill_npu_ | -| 422 | index_fill.int_Scalar | index_fill_npu | -| 423 | index_fill_.int_Tensor | index_fill_npu_ | -| 424 | index_fill.int_Tensor | index_fill_npu | -| 425 | scatter_.src | scatter_npu_ | -| 426 | scatter_.value | scatter_npu_ | -| 427 | scatter_add_ | scatter_add_npu_ | -| 428 | scatter_add | scatter_add_npu | -| 429 | scatter_add.dimname | scatter_add_npu | -| 430 | lt_.Scalar | lt_npu_ | -| 431 | lt_.Tensor | lt_npu_ | -| 432 | gt_.Scalar | gt_npu_ | -| 433 | gt_.Tensor | gt_npu_ | -| 434 | le_.Scalar | le_npu_ | -| 435 | le_.Tensor | le_npu_ | -| 436 | ge_.Scalar | ge_npu_ | -| 437 | ge_.Tensor | ge_npu_ | -| 438 | eq_.Scalar | eq_npu_ | -| 439 | eq_.Tensor | eq_npu_ | -| 440 | ne_.Scalar | ne_npu_ | -| 441 | ne_.Tensor | ne_npu_ | -| 442 | bitwise_and.Tensor_out | bitwise_and_out_npu | -| 443 | bitwise_and.Scalar_out | bitwise_and_out_npu | -| 444 | bitwise_and.Scalar | bitwise_and_npu | -| 445 | bitwise_and.Tensor | bitwise_and_npu | -| 446 | bitwise_and_.Scalar | bitwise_and_npu_ | -| 447 | bitwise_and_.Tensor | bitwise_and_npu_ | -| 448 | and.Scalar | and_npu | -| 449 | and.Tensor | and_npu | -| 450 | bitwise_or.Tensor_out | bitwise_or_out_npu | -| 451 | bitwise_or.Scalar_out | bitwise_or_out_npu | -| 452 | bitwise_or.Scalar | bitwise_or_npu | -| 453 | bitwise_or.Tensor | bitwise_or_npu | -| 454 | bitwise_or_.Scalar | bitwise_or_npu_ | -| 455 | bitwise_or_.Tensor | bitwise_or_npu_ | -| 456 | or.Scalar | or_npu | -| 457 | or.Tensor | or_npu | -| 458 | ior.Scalar | ior_npu | -| 459 | ior.Tensor | ior_npu | -| 460 | bitwise_xor.Tensor_out | bitwise_xor_out_npu | -| 461 | bitwise_xor.Scalar_out | bitwise_xor_out_npu | -| 462 | bitwise_xor.Scalar | bitwise_xor_npu | -| 463 | bitwise_xor.Tensor | bitwise_xor_npu | -| 464 | bitwise_xor_.Scalar | bitwise_xor_npu_ | -| 465 | bitwise_xor_.Tensor | bitwise_xor_npu_ | -| 466 | xor.Scalar | xor_npu | -| 467 | xor.Tensor | xor_npu | -| 468 | atan2_ | atan2_npu_ | -| 469 | tril_ | tril_npu_ | -| 470 | triu_ | triu_npu_ | -| 471 | renorm_ | renorm_npu_ | -| 472 | pow_.Scalar | pow_npu_ | -| 473 | pow_.Tensor | pow_npu_ | -| 474 | lerp_.Scalar | lerp_npu_ | -| 475 | lerp_.Tensor | lerp_npu_ | -| 476 | fmod_.Scalar | fmod_npu_ | -| 477 | fmod_.Tensor | fmod_npu_ | -| 478 | remainder_.Scalar | remainder_npu_ | -| 479 | remainder_.Tensor | remainder_npu_ | -| 480 | addbmm_ | addbmm_npu_ | -| 481 | addbmm.out | addbmm_out_npu | -| 482 | addbmm | addbmm_npu | -| 483 | addcdiv_ | addcdiv_npu_ | -| 484 | random_.from | random_npu_ | -| 485 | random_.to | random_npu_ | -| 486 | random_ | random_npu_ | -| 487 | uniform_ | uniform_npu_ | -| 488 | diag.out | diag_out_npu | -| 489 | diag | diag_npu | -| 490 | cross.out | cross_out_npu | -| 491 | cross | cross_npu | -| 492 | triu.out | triu_out_npu | -| 493 | triu | triu_npu | -| 494 | tril.out | tril_out_npu | -| 495 | tril | tril_npu | -| 496 | ne.Scalar_out | ne_out_npu | -| 497 | ne.Scalar | ne_npu | -| 498 | ne.Tensor_out | ne_out_npu | -| 499 | ne.Tensor | ne_npu | -| 500 | eq.Scalar_out | eq_out_npu | -| 501 | eq.Scalar | eq_npu | -| 502 | eq.Tensor_out | eq_out_npu | -| 503 | eq.Tensor | eq_npu | -| 504 | ge.Scalar_out | ge_out_npu | -| 505 | ge.Scalar | ge_npu | -| 506 | ge.Tensor_out | ge_out_npu | -| 507 | ge.Tensor | ge_npu | -| 508 | le.Scalar_out | le_out_npu | -| 509 | le.Scalar | le_npu | -| 510 | le.Tensor_out | le_out_npu | -| 511 | le.Tensor | le_npu | -| 512 | gt.Scalar_out | gt_out_npu | -| 513 | gt.Scalar | gt_npu | -| 514 | gt.Tensor_out | gt_out_npu | -| 515 | gt.Tensor | gt_npu | -| 516 | lt.Scalar_out | lt_out_npu | -| 517 | lt.Scalar | lt_npu | -| 518 | lt.Tensor_out | lt_out_npu | -| 519 | lt.Tensor | lt_npu | -| 520 | take.out | take_out_npu | -| 521 | take | take_npu | -| 522 | index_select.out | index_select_out_npu | -| 523 | index_select | index_select_npu | -| 524 | index_select.dimname_out | index_select_out_npu | -| 525 | index_select.dimname | index_select_npu | -| 526 | masked_select.out | masked_select_out_npu | -| 527 | masked_select | masked_select_npu | -| 528 | nonzero.out | nonzero_out_npu | -| 529 | nonzero | nonzero_npu | -| 530 | gather.out | gather_out_npu | -| 531 | gather | gather_npu | -| 532 | gather.dimname_out | gather_out_npu | -| 533 | gather.dimname | gather_npu | -| 534 | addcmul.out | addcmul_out_npu | -| 535 | addcmul | addcmul_npu | -| 536 | addcmul_ | addcmul_npu_ | -| 537 | addcdiv.out | addcdiv_out_npu | -| 538 | addcdiv | addcdiv_npu | -| 539 | qr.Q | qr_out_npu | -| 540 | qr | qr_npu | -| 541 | multinomial.out | multinomial_out_npu | -| 542 | multinomial | multinomial_npu | -| 543 | erfinv | erfinv_npu | -| 544 | erfinv_ | erfinv_npu_ | -| 545 | erfinv.out | erfinv_out_npu | -| 546 | sign | sign_npu | -| 547 | sign_ | sign_npu_ | -| 548 | sign.out | sign_out_npu | -| 549 | atan2.out | atan2_out_npu | -| 550 | atan2 | atan2_npu | -| 551 | lerp.Scalar_out | lerp_out_npu | -| 552 | lerp.Tensor_out | lerp_out_npu | -| 553 | lerp.Scalar | lerp_npu | -| 554 | lerp.Tensor | lerp_npu | -| 555 | histc.out | histc_out_npu | -| 556 | histc | histc_npu | -| 557 | fmod.Scalar_out | fmod_out_npu | -| 558 | fmod.Scalar | fmod_npu | -| 559 | fmod.Tensor_out | fmod_out_npu | -| 560 | fmod.Tensor | fmod_npu | -| 561 | remainder.Scalar_out | remainder_out_npu | -| 562 | remainder.Scalar | remainder_npu | -| 563 | remainder.Tensor_out | remainder_out_npu | -| 564 | remainder.Tensor | remainder_npu | -| 565 | min.out | min_out_npu | -| 566 | min.other | min_npu | -| 567 | min | min_npu | -| 568 | max.out | max_out_npu | -| 569 | max.other | max_npu | -| 570 | max | max_npu | -| 571 | median | median_npu | -| 572 | sort.values | sort_out_npu | -| 573 | sort | sort_npu | -| 574 | sort.dimname_values | sort_out_npu | -| 575 | sort.dimname | sort_npu | -| 576 | argsort | argsort_npu | -| 577 | argsort.dimname | argsort_npu | -| 578 | topk.values | topk_out_npu | -| 579 | topk | topk_npu | -| 580 | all | all_npu | -| 581 | any | any_npu | -| 582 | renorm.out | renorm_out_npu | -| 583 | renorm | renorm_npu | -| 584 | unfold | unfold | -| 585 | equal | equal_npu | -| 586 | pow.Tensor_Tensor_out | pow_out_npu | -| 587 | pow.Tensor_Tensor | pow_npu | -| 588 | pow.Scalar_out | pow_out_npu | -| 589 | pow.Scalar | pow_npu | -| 590 | normal_ | normal_npu_ | -| 591 | normal.Tensor_float_out | normal_out_npu | -| 592 | normal.Tensor_float | normal_npu | -| 593 | normal.float_Tensor_out | normal_out_npu | -| 594 | normal.float_Tensor | normal_npu | -| 595 | normal.Tensor_Tensor_out | normal_out_npu | -| 596 | normal.Tensor_Tensor | normal_npu | -| 597 | normal.float_float | normal_npu | -| 598 | normal.float_float_out | normal_out_npu | -| 599 | _addr | _addr_npu | -| 600 | _addr_ | _addr_npu_ | -| 601 | _addr.out | _addr_out_npu | -| 602 | _cumsum | _cumsum_npu | -| 603 | _cumsum.out | _cumsum_out_npu | -| 604 | _cumprod | _cumprod_npu | -| 605 | _cumprod.out | _cumprod_out_npu | -| 606 | _var | _var_npu | -| 607 | _amp_non_finite_check_and_unscale_ | _amp_non_finite_check_and_unscale_npu_ | -| 608 | _cat | _cat_npu | -| 609 | _cat.out | _cat_out_npu | -| 610 | _max | _max_npu | -| 611 | _max.max | _max_out_npu | -| 612 | _min | _min_npu | -| 613 | _min.min | _min_out_npu | -| 614 | mse_loss.out | mse_loss_out_npu | -| 615 | mse_loss | mse_loss_npu | -| 616 | mse_loss_backward.grad_input | mse_loss_backward_out_npu | -| 617 | mse_loss_backward | mse_loss_backward_npu | -| 618 | l1_loss.out | l1_loss_out_npu | -| 619 | l1_loss | l1_loss_npu | -| 620 | l1_loss_backward.grad_input | l1_loss_backward_out_npu | -| 621 | l1_loss_backward | l1_loss_backward_npu | -| 622 | multilabel_margin_loss.out | multilabel_margin_loss_out_npu | -| 623 | multilabel_margin_loss | multilabel_margin_loss_npu | -| 624 | multilabel_margin_loss_forward.output | multilabel_margin_loss_forward_out_npu | -| 625 | multilabel_margin_loss_forward | multilabel_margin_loss_forward_npu | -| 626 | nll_loss.out | nll_loss_out_npu | -| 627 | nll_loss | nll_loss_npu | -| 628 | nll_loss_forward.output | nll_loss_forward_out_npu | -| 629 | nll_loss_forward | nll_loss_forward_npu | -| 630 | nll_loss_backward.grad_input | nll_loss_backward_out_npu | -| 631 | nll_loss_backward | nll_loss_backward_npu | -| 632 | nll_loss2d.out | nll_loss2d_out_npu | -| 633 | nll_loss2d | nll_loss2d_npu | -| 634 | nll_loss2d_forward.output | nll_loss2d_forward_out_npu | -| 635 | nll_loss2d_forward | nll_loss2d_forward_npu | -| 636 | nll_loss2d_backward.grad_input | nll_loss2d_backward_out_npu | -| 637 | nll_loss2d_backward | nll_loss2d_backward_npu | -| 638 | smooth_l1_loss.out | smooth_l1_loss_out_npu | -| 639 | smooth_l1_loss | smooth_l1_loss_npu | -| 640 | smooth_l1_loss_backward.grad_input | smooth_l1_loss_backward_out_npu | -| 641 | smooth_l1_loss_backward | smooth_l1_loss_backward_npu | -| 642 | soft_margin_loss.out | soft_margin_loss_out_npu | -| 643 | soft_margin_loss | soft_margin_loss_npu | -| 644 | soft_margin_loss_backward.grad_input | soft_margin_loss_backward_out_npu | -| 645 | soft_margin_loss_backward | soft_margin_loss_backward_npu | -| 646 | elu.out | elu_out_npu | -| 647 | elu | elu_npu | -| 648 | elu_backward.grad_input | elu_backward_out_npu | -| 649 | elu_backward | elu_backward_npu | -| 650 | elu_ | elu_npu_ | -| 651 | glu.out | glu_out_npu | -| 652 | glu | glu_npu | -| 653 | glu_backward.grad_input | glu_backward_out_npu | -| 654 | glu_backward | glu_backward_npu | -| 655 | hardsigmoid.out | hardsigmoid_out_npu | -| 656 | hardsigmoid | hardsigmoid_npu | -| 657 | hardsigmoid_ | hardsigmoid_npu_ | -| 658 | hardsigmoid_backward | hardsigmoid_backward_npu | -| 659 | hardtanh.out | hardtanh_out_npu | -| 660 | hardtanh | hardtanh_npu | -| 661 | hardtanh_backward.grad_input | hardtanh_backward_out_npu | -| 662 | hardtanh_backward | hardtanh_backward_npu | -| 663 | hardtanh_ | hardtanh_npu_ | -| 664 | leaky_relu.out | leaky_relu_out_npu | -| 665 | leaky_relu | leaky_relu_npu | -| 666 | leaky_relu_backward | leaky_relu_backward_npu | -| 667 | leaky_relu_ | leaky_relu_npu_ | -| 668 | log_sigmoid.out | log_sigmoid_out_npu | -| 669 | log_sigmoid | log_sigmoid_npu | -| 670 | log_sigmoid_forward.output | log_sigmoid_forward_out_npu | -| 671 | log_sigmoid_forward | log_sigmoid_forward_npu | -| 672 | log_sigmoid_backward.grad_input | log_sigmoid_backward_out_npu | -| 673 | log_sigmoid_backward | log_sigmoid_backward_npu | -| 674 | softplus.out | softplus_out_npu | -| 675 | softplus | softplus_npu | -| 676 | softplus_backward.grad_input | softplus_backward_out_npu | -| 677 | softplus_backward | softplus_backward_npu | -| 678 | softshrink.out | softshrink_out_npu | -| 679 | softshrink | softshrink_npu | -| 680 | softshrink_backward.grad_input | softshrink_backward_out_npu | -| 681 | softshrink_backward | softshrink_backward_npu | -| 682 | adaptive_avg_pool2d.out | adaptive_avg_pool2d_out_npu | -| 683 | adaptive_avg_pool2d | adaptive_avg_pool2d_npu | -| 684 | _adaptive_avg_pool2d | _adaptive_avg_pool2d_npu | -| 685 | _adaptive_avg_pool2d_backward | adaptive_avg_pool2d_backward_npu | -| 686 | adaptive_avg_pool3d.out | adaptive_avg_pool3d_out_npu | -| 687 | adaptive_avg_pool3d | adaptive_avg_pool3d_npu | -| 688 | adaptive_avg_pool3d_backward.grad_input | adaptive_avg_pool3d_backward_out_npu | -| 689 | adaptive_avg_pool3d_backward | adaptive_avg_pool3d_backward_npu | -| 690 | adaptive_max_pool2d.out | adaptive_max_pool2d_out_npu | -| 691 | adaptive_max_pool2d | adaptive_max_pool2d_npu | -| 692 | adaptive_max_pool2d_backward.grad_input | adaptive_max_pool2d_backward_out_npu | -| 693 | adaptive_max_pool2d_backward | adaptive_max_pool2d_backward_npu | -| 694 | avg_pool2d.out | avg_pool2d_out_npu | -| 695 | avg_pool2d | avg_pool2d_npu | -| 696 | avg_pool2d_backward.grad_input | avg_pool2d_backward_out_npu | -| 697 | avg_pool2d_backward | avg_pool2d_backward_npu | -| 698 | avg_pool3d.out | avg_pool3d_out_npu | -| 699 | avg_pool3d | avg_pool3d_npu | -| 700 | avg_pool3d_backward.grad_input | avg_pool3d_backward_out_npu | -| 701 | avg_pool3d_backward | avg_pool3d_backward_npu | -| 702 | max_pool2d_with_indices.out | max_pool2d_with_indices_out_npu | -| 703 | max_pool2d_with_indices | max_pool2d_with_indices_npu | -| 704 | max_pool2d_with_indices_backward.grad_input | max_pool2d_with_indices_backward_out_npu | -| 705 | max_pool2d_with_indices_backward | max_pool2d_with_indices_backward_npu | -| 706 | max_pool3d_with_indices.out | max_pool3d_with_indices_out_npu | -| 707 | max_pool3d_with_indices | max_pool3d_with_indices_npu | -| 708 | max_pool3d_with_indices_backward.grad_input | max_pool3d_with_indices_backward_out_npu | -| 709 | max_pool3d_with_indices_backward | max_pool3d_with_indices_backward_npu | -| 710 | reflection_pad2d.out | reflection_pad2d_out_npu | -| 711 | reflection_pad2d | reflection_pad2d_npu | -| 712 | replication_pad2d.out | replication_pad2d_out_npu | -| 713 | replication_pad2d | replication_pad2d_npu | -| 714 | upsample_linear1d.out | upsample_linear1d_out_npu | -| 715 | upsample_linear1d | upsample_linear1d_npu | -| 716 | upsample_linear1d_backward | upsample_linear1d_backward_npu | -| 717 | upsample_bilinear2d.out | upsample_bilinear2d_out_npu | -| 718 | upsample_bilinear2d | upsample_bilinear2d_npu | -| 719 | upsample_bilinear2d_backward.grad_input | upsample_bilinear2d_backward_out_npu | -| 720 | upsample_bilinear2d_backward | upsample_bilinear2d_backward_npu | -| 721 | upsample_bicubic2d.out | upsample_bicubic2d_out_npu | -| 722 | upsample_bicubic2d | upsample_bicubic2d_npu | -| 723 | upsample_bicubic2d_backward.grad_input | upsample_bicubic2d_backward_out_npu | -| 724 | upsample_bicubic2d_backward | upsample_bicubic2d_backward_npu | -| 725 | upsample_trilinear3d.out | upsample_trilinear3d_out_npu | -| 726 | upsample_trilinear3d | upsample_trilinear3d_npu | -| 727 | upsample_trilinear3d_backward.grad_input | upsample_trilinear3d_backward_out_npu | -| 728 | upsample_trilinear3d_backward | upsample_trilinear3d_backward_npu | -| 729 | upsample_nearest1d.out | upsample_nearest1d_out_npu | -| 730 | upsample_nearest1d | upsample_nearest1d_npu | -| 731 | upsample_nearest1d_backward.grad_input | upsample_nearest1d_backward_out_npu | -| 732 | upsample_nearest1d_backward | upsample_nearest1d_backward_npu | -| 733 | upsample_nearest2d.out | upsample_nearest2d_out_npu | -| 734 | upsample_nearest2d | upsample_nearest2d_npu | -| 735 | upsample_nearest2d_backward.grad_input | upsample_nearest2d_backward_out_npu | -| 736 | upsample_nearest2d_backward | upsample_nearest2d_backward_npu | -| 737 | upsample_nearest3d.out | upsample_nearest3d_out_npu | -| 738 | upsample_nearest3d | upsample_nearest3d_npu | -| 739 | upsample_nearest3d_backward.grad_input | upsample_nearest3d_backward_out_npu | -| 740 | upsample_nearest3d_backward | upsample_nearest3d_backward_npu | -| 741 | sigmoid_backward.grad_input | sigmoid_backward_out_npu | -| 742 | sigmoid_backward | sigmoid_backward_npu | -| 743 | tanh_backward.grad_input | tanh_backward_out_npu | -| 744 | tanh_backward | tanh_backward_npu | -| 745 | slow_conv_transpose2d.out | slow_conv_transpose2d_out_npu | -| 746 | slow_conv_transpose2d | slow_conv_transpose2d_npu | -| 747 | slow_conv_transpose2d_backward.grad_output | slow_conv_transpose2d_backward_out_npu | -| 748 | slow_conv_transpose2d_backward.output_mask | slow_conv_transpose2d_backward_npu | -| 749 | thnn_conv2d.out | thnn_conv2d_out_npu | -| 750 | thnn_conv2d | thnn_conv2d_npu | -| 751 | thnn_conv2d_forward.output | thnn_conv2d_forward_out_npu | -| 752 | thnn_conv2d_forward | thnn_conv2d_forward_npu | -| 753 | thnn_conv2d_backward.output_mask | thnn_conv2d_backward_npu | -| 754 | thnn_conv_depthwise2d.out | thnn_conv_depthwise2d_out_npu | -| 755 | thnn_conv_depthwise2d | thnn_conv_depthwise2d_npu | -| 756 | thnn_conv_depthwise2d_forward.out | thnn_conv_depthwise2d_forward_out_npu | -| 757 | thnn_conv_depthwise2d_forward | thnn_conv_depthwise2d_forward_npu | -| 758 | thnn_conv_depthwise2d_backward.grad_input | thnn_conv_depthwise2d_backward_out_npu | -| 759 | thnn_conv_depthwise2d_backward.output_mask | thnn_conv_depthwise2d_backward_npu | -| 760 | slow_conv_dilated2d | slow_conv_dilated2d_npu | -| 761 | slow_conv_dilated2d_backward | slow_conv_dilated2d_backward_npu | -| 762 | col2im.out | im2col_backward_out_npu | -| 763 | col2im | im2col_backward_npu | -| 764 | col2im_backward.grad_input | col2im_backward_out_npu | -| 765 | col2im_backward | col2im_backward_npu | -| 766 | im2col.out | im2col_out_npu | -| 767 | im2col | im2col_npu | -| 768 | im2col_backward.grad_input | im2col_backward_out_npu | -| 769 | im2col_backward | im2col_backward_npu | -| 770 | isfinite | isfinite_npu | +# PyTorch适配算子清单 +- [PyTorch原生算子与昇腾算子对应表](#PyTorch原生算子与昇腾算子对应表.md) +- [PyTorch昇腾自定义算子](#PyTorch昇腾自定义算子.md) +

PyTorch原生算子与昇腾算子对应表

+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +

序号

+

PyTorch 原生算子

+

昇腾适配算子

+

1

+

dropout

+

dropout_npu

+

2

+

dropout_

+

dropout_npu_

+

3

+

abs

+

abs_npu

+

4

+

abs_

+

abs_npu_

+

5

+

abs.out

+

abs_out_npu

+

6

+

acos

+

acos_npu

+

7

+

acos_

+

acos_npu_

+

8

+

acos.out

+

acos_out_npu

+

9

+

adaptive_avg_pool1d

+

adaptive_avg_pool1d_npu

+

10

+

add.Tensor

+

add_npu

+

11

+

add_.Tensor

+

add_npu_

+

12

+

add.out

+

add_out_npu

+

13

+

add.Scalar

+

add_npu

+

14

+

add_.Scalar

+

add_npu_

+

15

+

addmv

+

addmv_npu

+

16

+

addmv_

+

addmv_npu_

+

17

+

addmv.out

+

addmv_out_npu

+

18

+

addr

+

addr_npu

+

19

+

addr_

+

addr_npu_

+

20

+

addr.out

+

addr_out_npu

+

21

+

affine_grid_generator

+

affine_grid_generator_npu

+

22

+

affine_grid_generator_backward

+

affine_grid_generator_backward_npu

+

23

+

all.dim

+

all_npu

+

24

+

all.out

+

all_out_npu

+

25

+

any.dim

+

any_npu

+

26

+

any.out

+

any_out_npu

+

27

+

arange

+

arange_npu

+

28

+

arange.start

+

arange_npu

+

29

+

arange.start_step

+

arange_npu

+

30

+

arange.out

+

arange_out_npu

+

31

+

arange.start_out

+

arange_out_npu

+

32

+

_dim_arange

+

_dim_arange_npu

+

33

+

argmax

+

argmax_npu

+

34

+

argmin

+

argmin_npu

+

35

+

as_strided

+

as_strided_npu

+

36

+

as_strided_

+

as_strided_npu_

+

37

+

asin

+

asin_npu

+

38

+

asin_

+

asin_npu_

+

39

+

asin.out

+

asin_out_npu

+

40

+

atan

+

atan_npu

+

41

+

atan_

+

atan_npu_

+

42

+

atan.out

+

atan_out_npu

+

43

+

baddbmm

+

baddbmm_npu

+

44

+

baddbmm_

+

baddbmm_npu_

+

45

+

baddbmm.out

+

baddbmm_out_npu

+

46

+

bartlett_window

+

bartlett_window_npu

+

47

+

bartlett_window.periodic

+

bartlett_window_npu

+

48

+

batch_norm

+

batch_norm_npu_

+

49

+

_batch_norm_impl_index

+

_batch_norm_impl_index_npu

+

50

+

_batch_norm_impl_index_backward

+

_batch_norm_impl_index_backward_npu

+

51

+

bernoulli

+

bernoulli_npu

+

52

+

bernoulli_.Tensor

+

bernoulli_npu_

+

53

+

bernoulli_.float

+

bernoulli_npu_

+

54

+

binary_cross_entropy

+

binary_cross_entropy_npu

+

55

+

binary_cross_entropy.out

+

binary_cross_entropy_out_npu

+

56

+

binary_cross_entropy_backward

+

binary_cross_entropy_backward_npu

+

57

+

binary_cross_entropy_backward.grad_input

+

binary_cross_entropy_backward_out_npu

+

58

+

binary_cross_entropy_with_logits

+

binary_cross_entropy_with_logits_npu

+

59

+

binary_cross_entropy_with_logits_backward

+

binary_cross_entropy_with_logits_backward_npu

+

60

+

bitwise_not

+

bitwise_not_npu

+

61

+

bitwise_not_

+

bitwise_not_npu_

+

62

+

bitwise_not.out

+

bitwise_not_out_npu

+

63

+

logical_not

+

logical_not_npu

+

64

+

logical_not_

+

logical_not_npu_

+

65

+

logical_not.out

+

logical_not_out_npu

+

66

+

logical_and

+

logical_and_npu

+

67

+

logical_and_

+

logical_and_npu_

+

68

+

logical_and.out

+

logical_and_out_npu

+

69

+

logical_or

+

logical_or_npu

+

70

+

logical_or_

+

logical_or_npu_

+

71

+

logical_or.out

+

logical_or_out_npu

+

72

+

blackman_window

+

blackman_window_npu

+

73

+

blackman_window.periodic

+

blackman_window_npu

+

74

+

bmm

+

bmm_npu

+

75

+

bmm.out

+

bmm_out_npu

+

76

+

cat

+

cat_npu

+

77

+

cat.out

+

cat_out_npu

+

78

+

cat.names

+

cat_npu

+

79

+

cat.names_out

+

cat_out_npu

+

80

+

ceil

+

ceil_npu

+

81

+

ceil_

+

ceil_npu_

+

82

+

ceil.out

+

ceil_out_npu

+

83

+

clamp

+

clamp_npu

+

84

+

clamp_

+

clamp_npu_

+

85

+

clamp.out

+

clamp_out_npu

+

86

+

clamp_max

+

clamp_max_npu

+

87

+

clamp_max_

+

clamp_max_npu_

+

88

+

clamp_max.out

+

clamp_max_out_npu

+

89

+

clamp_min

+

clamp_min_npu

+

90

+

clamp_min_

+

clamp_min_npu_

+

91

+

clamp_min.out

+

clamp_min_out_npu

+

92

+

constant_pad_nd

+

constant_pad_nd_npu

+

93

+

contiguous

+

contiguous_npu

+

94

+

convolution

+

convolution_npu

+

95

+

_convolution

+

_convolution_npu

+

96

+

_convolution_nogroup

+

_convolution_nogroup_npu

+

97

+

conv2d

+

conv2d_npu_

+

98

+

conv3d

+

_conv3d_npu

+

99

+

conv_tbc

+

conv_tbc_npu

+

100

+

conv_tbc_backward

+

conv_tbc_backward_npu

+

101

+

conv_transpose2d.input

+

conv_transpose2d_npu_

+

102

+

conv_transpose3d.input

+

conv_transpose3d_npu_

+

103

+

copy_

+

copy_npu_

+

104

+

cos

+

cos_npu

+

105

+

cos_

+

cos_npu_

+

106

+

cos.out

+

cos_out_npu

+

107

+

cosh

+

cosh_npu

+

108

+

cosh_

+

cosh_npu_

+

109

+

cosh.out

+

cosh_out_npu

+

110

+

_cummax_helper

+

cummax_helper_npu

+

111

+

_cummin_helper

+

cummin_helper_npu

+

112

+

cumprod

+

cumprod_npu

+

113

+

cumprod.out

+

cumprod_out_npu

+

114

+

cumprod.dimname

+

cumprod_npu

+

115

+

cumprod.dimname_out

+

cumprod_out_npu

+

116

+

ctc_loss.IntList

+

ctc_loss_npu

+

117

+

ctc_loss.Tensor

+

ctc_loss_npu

+

118

+

_ctc_loss

+

ctc_loss_npu

+

119

+

_ctc_loss_backward

+

ctc_loss_backward_npu

+

120

+

fill_diagonal_

+

fill_diagonal_npu_

+

121

+

div.Tensor

+

div_npu

+

122

+

div_.Tensor

+

div_npu_

+

123

+

div.out

+

div_out_npu

+

124

+

div.Scalar

+

div_npu

+

125

+

div_.Scalar

+

div_npu_

+

126

+

dot

+

dot_npu

+

127

+

dot.out

+

dot_out_npu

+

128

+

embedding

+

embedding_npu

+

129

+

embedding_backward

+

embedding_backward_npu

+

130

+

embedding_dense_backward

+

embedding_dense_backward_npu

+

131

+

embedding_renorm_

+

embedding_renorm_npu_

+

132

+

_embedding_bag

+

_embedding_bag_npu

+

133

+

empty.memory_format

+

empty_npu

+

134

+

resize_

+

resize_npu_

+

135

+

empty_like

+

empty_like_npu

+

136

+

empty_strided

+

empty_strided_npu

+

137

+

erf

+

erf_npu

+

138

+

erf_

+

erf_npu_

+

139

+

erf.out

+

erf_out_npu

+

140

+

erfc

+

erfc_npu

+

141

+

erfc_

+

erfc_npu_

+

142

+

erfc.out

+

erfc_out_npu

+

143

+

exp

+

exp_npu

+

144

+

exp_

+

exp_npu_

+

145

+

exp.out

+

exp_out_npu

+

146

+

expm1

+

expm1_npu

+

147

+

expm1_

+

expm1_npu_

+

148

+

expm1.out

+

expm1_out_npu

+

149

+

eye

+

eye_npu

+

150

+

eye.m

+

eye_npu

+

151

+

eye.out

+

eye_out_npu

+

152

+

eye.m_out

+

eye_out_npu

+

153

+

fill_.Scalar

+

fill_npu_

+

154

+

fill_.Tensor

+

fill_npu_

+

155

+

floor

+

floor_npu

+

156

+

floor_

+

floor_npu_

+

157

+

floor.out

+

floor_out_npu

+

158

+

floor_divide

+

floor_divide_npu

+

159

+

floor_divide_.Tensor

+

floor_divide_npu_

+

160

+

floor_divide.out

+

floor_divide_out_npu

+

161

+

floor_divide.Scalar

+

floor_divide_npu

+

162

+

floor_divide_.Scalar

+

floor_divide_npu_

+

163

+

frac

+

frac_npu

+

164

+

frac_

+

frac_npu_

+

165

+

frac.out

+

frac_out_npu

+

166

+

full.names

+

full_npu

+

167

+

full

+

full_npu

+

168

+

full.out

+

full_out_npu

+

169

+

grid_sampler

+

grid_sampler_npu

+

170

+

grid_sampler_3d

+

grid_sampler_3d_npu

+

171

+

grid_sampler_3d_backward

+

grid_sampler_3d_backward_npu

+

172

+

hann_window

+

hann_window_npu

+

173

+

hann_window.periodic

+

hann_window_npu

+

174

+

hamming_window

+

hamming_window_npu

+

175

+

hamming_window.periodic

+

hamming_window_npu

+

176

+

hamming_window.periodic_alpha

+

hamming_window_npu

+

177

+

hamming_window.periodic_alpha_beta

+

hamming_window_npu

+

178

+

ger

+

ger_npu

+

179

+

ger.out

+

ger_out_npu

+

180

+

index.Tensor

+

index_npu

+

181

+

index_put_

+

index_put_npu_

+

182

+

index_put

+

index_put_npu

+

183

+

_index_put_impl_

+

_index_put_impl_npu_

+

184

+

inverse

+

inverse_npu

+

185

+

inverse.out

+

inverse_out_npu

+

186

+

isclose

+

isclose_npu

+

187

+

isnan

+

isnan_npu

+

188

+

is_nonzero

+

is_nonzero_npu

+

189

+

kl_div

+

kl_div_npu

+

190

+

kl_div_backward

+

kl_div_backward_npu

+

191

+

kthvalue

+

kthvalue_npu

+

192

+

kthvalue.values

+

kthvalue_out_npu

+

193

+

kthvalue.dimname

+

kthvalue_npu

+

194

+

kthvalue.dimname_out

+

kthvalue_out_npu

+

195

+

native_layer_norm

+

layer_norm_npu

+

196

+

native_layer_norm_backward

+

layer_norm_backward_npu

+

197

+

linspace

+

linspace_npu

+

198

+

linspace.out

+

linspace_out_npu

+

199

+

log

+

log_npu

+

200

+

log_

+

log_npu_

+

201

+

log.out

+

log_out_npu

+

202

+

log10

+

log10_npu

+

203

+

log10_

+

log10_npu_

+

204

+

log10.out

+

log10_out_npu

+

205

+

log1p

+

log1p_npu

+

206

+

log1p_

+

log1p_npu_

+

207

+

log1p.out

+

log1p_out_npu

+

208

+

log2

+

log2_npu

+

209

+

log2_

+

log2_npu_

+

210

+

log2.out

+

log2_out_npu

+

211

+

logspace

+

logspace_npu

+

212

+

logspace.out

+

logspace_out_npu

+

213

+

log_softmax.int

+

log_softmax_npu

+

214

+

log_softmax.Dimname

+

log_softmax_npu

+

215

+

_log_softmax

+

_log_softmax_npu

+

216

+

_log_softmax_backward_data

+

_log_softmax_backward_npu

+

217

+

logsumexp

+

logsumexp_npu

+

218

+

logsumexp.out

+

logsumexp_out_npu

+

219

+

logsumexp.names

+

logsumexp_npu

+

220

+

logsumexp.names_out

+

logsumexp_out_npu

+

221

+

matmul

+

matmul_npu

+

222

+

matmul.out

+

matmul_out_npu

+

223

+

max.dim

+

max_npu

+

224

+

max.dim_max

+

max_out_npu

+

225

+

max_values

+

max_npu

+

226

+

max.names_dim

+

max_npu

+

227

+

max.names_dim_max

+

max_out_npu

+

228

+

max_values.names

+

max_npu

+

229

+

max_pool2d

+

max_pool2d_npu

+

230

+

mean

+

mean_npu

+

231

+

mean.dim

+

mean_npu

+

232

+

mean.out

+

mean_out_npu

+

233

+

mean.names_dim

+

mean_npu

+

234

+

mean.names_out

+

mean_out_npu

+

235

+

median.dim

+

median_npu

+

236

+

median.dim_values

+

median_out_npu

+

237

+

median.names_dim

+

median_npu

+

238

+

median.names_dim_values

+

median_out_npu

+

239

+

min.dim

+

min_npu

+

240

+

min.dim_min

+

min_out_npu

+

241

+

min_values

+

min_npu

+

242

+

min.names_dim

+

min_npu

+

243

+

min.names_dim_min

+

min_out_npu

+

244

+

min_values.names

+

min_npu

+

245

+

mm

+

mm_npu

+

246

+

mm.out

+

mm_out_npu

+

247

+

mul.Tensor

+

mul_npu

+

248

+

mul_.Tensor

+

mul_npu_

+

249

+

mul.out

+

mul_out_npu

+

250

+

mul.Scalar

+

mul_npu

+

251

+

mul_.Scalar

+

mul_npu_

+

252

+

mv

+

mv_npu

+

253

+

mv.out

+

mv_out_npu

+

254

+

narrow_copy

+

narrow_copy_npu

+

255

+

native_batch_norm

+

batch_norm_npu

+

256

+

native_batch_norm_backward

+

batch_norm_backward_npu

+

257

+

_nnpack_spatial_convolution

+

_nnpack_spatial_convolution_npu

+

258

+

ones.names

+

ones_npu

+

259

+

ones

+

ones_npu

+

260

+

ones.out

+

ones_out_npu

+

261

+

ones_like

+

ones_like_npu

+

262

+

cdist

+

cdist_npu

+

263

+

_cdist_forward

+

_cdist_forward_npu

+

264

+

_cdist_backward

+

_cdist_backward_npu

+

265

+

pdist

+

pdist_npu

+

266

+

_pdist_forward

+

_pdist_forward_npu

+

267

+

randperm

+

randperm_npu

+

268

+

randperm.generator

+

randperm_npu

+

269

+

randperm.out

+

randperm_out_npu

+

270

+

randperm.generator_out

+

randperm_out_npu

+

271

+

range.step

+

range_npu

+

272

+

range

+

range_npu

+

273

+

range.out

+

range_out_npu

+

274

+

reciprocal

+

reciprocal_npu

+

275

+

reciprocal_

+

reciprocal_npu_

+

276

+

reciprocal.out

+

reciprocal_out_npu

+

277

+

neg

+

neg_npu

+

278

+

neg_

+

neg_npu_

+

279

+

neg.out

+

neg_out_npu

+

280

+

repeat

+

repeat_npu

+

281

+

repeat_interleave.self_int

+

repeat_interleave_npu

+

282

+

round

+

round_npu

+

283

+

round_

+

round_npu_

+

284

+

round.out

+

round_out_npu

+

285

+

relu

+

relu_npu

+

286

+

relu_

+

relu_npu_

+

287

+

prelu

+

prelu_npu

+

288

+

prelu_backward

+

prelu_backward_npu

+

289

+

gelu

+

gelu_npu

+

290

+

gelu_backward

+

gelu_backward_npu

+

291

+

hardshrink

+

hardshrink_npu

+

292

+

hardshrink_backward

+

hardshrink_backward_npu

+

293

+

rsqrt

+

rsqrt_npu

+

294

+

rsqrt_

+

rsqrt_npu_

+

295

+

rsqrt.out

+

rsqrt_out_npu

+

296

+

selu

+

selu_npu

+

297

+

selu_

+

selu_npu_

+

298

+

celu

+

celu_npu

+

299

+

celu_

+

celu_npu_

+

300

+

sigmoid

+

sigmoid_npu

+

301

+

sigmoid_

+

sigmoid_npu_

+

302

+

sigmoid.out

+

sigmoid_out_npu

+

303

+

sin

+

sin_npu

+

304

+

sin_

+

sin_npu_

+

305

+

sin.out

+

sin_out_npu

+

306

+

sinh

+

sinh_npu

+

307

+

sinh_

+

sinh_npu_

+

308

+

sinh.out

+

sinh_out_npu

+

309

+

slogdet

+

slogdet_npu

+

310

+

softmax.int

+

softmax_npu

+

311

+

softmax.Dimname

+

softmax_npu

+

312

+

_softmax

+

_softmax_npu

+

313

+

_softmax_backward_data

+

_softmax_backward_npu

+

314

+

stack

+

stack_npu

+

315

+

stack.out

+

stack_out_npu

+

316

+

sum

+

sum_npu

+

317

+

sum.dim_IntList

+

sum_npu

+

318

+

sum.dim_DimnameList

+

sum_npu

+

319

+

sum.IntList_out

+

sum_out_npu

+

320

+

sum.DimnameList_out

+

sum_out_npu

+

321

+

sqrt

+

sqrt_npu

+

322

+

sqrt_

+

sqrt_npu_

+

323

+

sqrt.out

+

sqrt_out_npu

+

324

+

std

+

std_npu

+

325

+

std.dim

+

std_dim_npu

+

326

+

std_mean

+

std_mean_npu

+

327

+

std_mean.dim

+

std_mean_dim_npu

+

328

+

std_mean.names_dim

+

std_mean_names_npu

+

329

+

std.out

+

std_out_npu

+

330

+

std.names_dim

+

std_names_npu

+

331

+

std.names_out

+

std_out_npu

+

332

+

prod

+

prod_npu

+

333

+

prod.dim_int

+

prod_npu

+

334

+

prod.int_out

+

prod_out_npu

+

335

+

prod.dim_Dimname

+

prod_npu

+

336

+

prod.Dimname_out

+

prod_out_npu

+

337

+

tan

+

tan_npu

+

338

+

tan_

+

tan_npu_

+

339

+

tan.out

+

tan_out_npu

+

340

+

tanh

+

tanh_npu

+

341

+

tanh_

+

tanh_npu_

+

342

+

tanh.out

+

tanh_out_npu

+

343

+

threshold

+

threshold_npu

+

344

+

threshold_

+

threshold_npu_

+

345

+

threshold.out

+

threshold_out_npu

+

346

+

threshold_backward

+

threshold_backward_npu

+

347

+

one_hot

+

one_hot_npu1

+

348

+

flip

+

flip_npu

+

349

+

roll

+

roll_npu

+

350

+

true_divide.Tensor

+

true_divide_npu

+

351

+

true_divide_.Tensor

+

true_divide_npu_

+

352

+

true_divide.out

+

true_divide_out_npu

+

353

+

true_divide.Scalar

+

true_divide_npu

+

354

+

true_divide_.Scalar

+

true_divide_npu_

+

355

+

trunc

+

trunc_npu

+

356

+

trunc_

+

trunc_npu_

+

357

+

trunc.out

+

trunc_out_npu

+

358

+

_unique2

+

_unique2_npu

+

359

+

var

+

var_npu

+

360

+

var.dim

+

var_npu

+

361

+

var.out

+

var_out_npu

+

362

+

var.names_dim

+

var_npu

+

363

+

var.names_out

+

var_out_npu

+

364

+

var_mean

+

var_mean_npu

+

365

+

var_mean.dim

+

var_mean_npu

+

366

+

var_mean.names_dim

+

var_mean_npu

+

367

+

where.self

+

where_npu

+

368

+

where

+

where_npu

+

369

+

_s_where

+

_s_where_npu

+

370

+

zeros.names

+

zeros_npu

+

371

+

zeros

+

zeros_npu

+

372

+

zeros.out

+

zeros_out_npu

+

373

+

zeros_like

+

zeros_like_npu

+

374

+

norm.ScalarOpt_dtype

+

norm_npu

+

375

+

norm.Scalar

+

norm_npu

+

376

+

norm.ScalarOpt_dim_dtype

+

norm_npu

+

377

+

norm.ScalarOpt_dim

+

norm_npu

+

378

+

norm.dtype_out

+

norm_out_npu

+

379

+

norm.out

+

norm_out_npu

+

380

+

clone

+

clone_npu

+

381

+

resize_as_

+

resize_as_npu_

+

382

+

pow.Tensor_Scalar_out

+

pow_out_npu

+

383

+

pow.Tensor_Scalar

+

pow_npu

+

384

+

zero_

+

zero_npu_

+

385

+

sub.out

+

sub_out_npu

+

386

+

sub.Tensor

+

sub_npu

+

387

+

sub_.Tensor

+

sub_npu_

+

388

+

sub.Scalar

+

sub_npu

+

389

+

sub_.Scalar

+

sub_npu_

+

390

+

rsub.Tensor

+

rsub_npu

+

391

+

rsub.Scalar

+

rsub_npu

+

392

+

addmm.out

+

addmm_out_npu

+

393

+

addmm

+

addmm_npu

+

394

+

addmm_

+

addmm_npu_

+

395

+

quantize_per_tensor

+

quantize_per_tensor_npu

+

396

+

quantize_per_channel

+

quantize_per_channel_npu

+

397

+

to.dtype_layout

+

to_npu

+

398

+

to.device

+

to_device_npu

+

399

+

to.dtype

+

to_dtype_npu

+

400

+

to.other

+

to_other_npu

+

401

+

_local_scalar_dense

+

_local_scalar_dense_npu

+

402

+

lstm.input

+

lstm_npu

+

403

+

lstm.data

+

lstm_npu

+

404

+

gru.input

+

gru_npu_

+

405

+

_pack_padded_sequence

+

_pack_padded_sequence_npu

+

406

+

_pad_packed_sequence

+

_pad_packed_sequence_npu

+

407

+

set_.source_Storage

+

set_npu_

+

408

+

set_.source_Storage_storage_offset

+

set_npu_

+

409

+

set_.source_Tensor

+

set_npu_

+

410

+

set_

+

set_npu_

+

411

+

masked_fill_.Scalar

+

masked_fill_npu_

+

412

+

masked_fill_.Tensor

+

masked_fill_npu_

+

413

+

masked_scatter_

+

masked_scatter_npu_

+

414

+

view

+

view_npu

+

415

+

put_

+

put_npu_

+

416

+

index_add_

+

index_add_npu_

+

417

+

index_add

+

index_add_npu

+

418

+

index_add.dimname

+

index_add_npu

+

419

+

index_fill_.int_Scalar

+

index_fill_npu_

+

420

+

index_fill.int_Scalar

+

index_fill_npu

+

421

+

index_fill_.int_Tensor

+

index_fill_npu_

+

422

+

index_fill.int_Tensor

+

index_fill_npu

+

423

+

scatter_.src

+

scatter_npu_

+

424

+

scatter_.value

+

scatter_npu_

+

425

+

scatter_add_

+

scatter_add_npu_

+

426

+

scatter_add

+

scatter_add_npu

+

427

+

scatter_add.dimname

+

scatter_add_npu

+

428

+

lt_.Scalar

+

lt_npu_

+

429

+

lt_.Tensor

+

lt_npu_

+

430

+

gt_.Scalar

+

gt_npu_

+

431

+

gt_.Tensor

+

gt_npu_

+

432

+

le_.Scalar

+

le_npu_

+

433

+

le_.Tensor

+

le_npu_

+

434

+

ge_.Scalar

+

ge_npu_

+

435

+

ge_.Tensor

+

ge_npu_

+

436

+

eq_.Scalar

+

eq_npu_

+

437

+

eq_.Tensor

+

eq_npu_

+

438

+

ne_.Scalar

+

ne_npu_

+

439

+

ne_.Tensor

+

ne_npu_

+

440

+

bitwise_and.Tensor_out

+

bitwise_and_out_npu

+

441

+

bitwise_and.Scalar_out

+

bitwise_and_out_npu

+

442

+

bitwise_and.Scalar

+

bitwise_and_npu

+

443

+

bitwise_and.Tensor

+

bitwise_and_npu

+

444

+

bitwise_and_.Scalar

+

bitwise_and_npu_

+

445

+

bitwise_and_.Tensor

+

bitwise_and_npu_

+

446

+

__and__.Scalar

+

__and___npu

+

447

+

__and__.Tensor

+

__and___npu

+

448

+

bitwise_or.Tensor_out

+

bitwise_or_out_npu

+

449

+

bitwise_or.Scalar_out

+

bitwise_or_out_npu

+

450

+

bitwise_or.Scalar

+

bitwise_or_npu

+

451

+

bitwise_or.Tensor

+

bitwise_or_npu

+

452

+

bitwise_or_.Scalar

+

bitwise_or_npu_

+

453

+

bitwise_or_.Tensor

+

bitwise_or_npu_

+

454

+

__or__.Scalar

+

__or___npu

+

455

+

__or__.Tensor

+

__or___npu

+

456

+

__ior__.Scalar

+

__ior___npu

+

457

+

__ior__.Tensor

+

__ior___npu

+

458

+

bitwise_xor.Tensor_out

+

bitwise_xor_out_npu

+

459

+

bitwise_xor.Scalar_out

+

bitwise_xor_out_npu

+

460

+

bitwise_xor.Scalar

+

bitwise_xor_npu

+

461

+

bitwise_xor.Tensor

+

bitwise_xor_npu

+

462

+

bitwise_xor_.Scalar

+

bitwise_xor_npu_

+

463

+

bitwise_xor_.Tensor

+

bitwise_xor_npu_

+

464

+

__xor__.Scalar

+

__xor___npu

+

465

+

__xor__.Tensor

+

__xor___npu

+

466

+

__lshift__.Scalar

+

__lshift___npu

+

467

+

__lshift__.Tensor

+

__lshift___npu

+

468

+

__ilshift__.Scalar

+

__iLshift___npu

+

469

+

__ilshift__.Tensor

+

__iLshift___npu

+

470

+

__rshift__.Scalar

+

__rshift___npu

+

471

+

__rshift__.Tensor

+

__rshift___npu

+

472

+

__irshift__.Scalar

+

__iRshift___npu

+

473

+

__irshift__.Tensor

+

__iRshift___npu

+

474

+

atan2_

+

atan2_npu_

+

475

+

tril_

+

tril_npu_

+

476

+

triu_

+

triu_npu_

+

477

+

renorm_

+

renorm_npu_

+

478

+

pow_.Scalar

+

pow_npu_

+

479

+

pow_.Tensor

+

pow_npu_

+

480

+

lerp_.Scalar

+

lerp_npu_

+

481

+

lerp_.Tensor

+

lerp_npu_

+

482

+

fmod_.Scalar

+

fmod_npu_

+

483

+

fmod_.Tensor

+

fmod_npu_

+

484

+

remainder_.Scalar

+

remainder_npu_

+

485

+

remainder_.Tensor

+

remainder_npu_

+

486

+

addbmm_

+

addbmm_npu_

+

487

+

addbmm.out

+

addbmm_out_npu

+

488

+

addbmm

+

addbmm_npu

+

489

+

addcdiv_

+

addcdiv_npu_

+

490

+

random_.from

+

random_npu_

+

491

+

random_.to

+

random_npu_

+

492

+

random_

+

random_npu_

+

493

+

uniform_

+

uniform_npu_

+

494

+

diag.out

+

diag_out_npu

+

495

+

diag

+

diag_npu

+

496

+

cross.out

+

cross_out_npu

+

497

+

cross

+

cross_npu

+

498

+

triu.out

+

triu_out_npu

+

499

+

triu

+

triu_npu

+

500

+

tril.out

+

tril_out_npu

+

501

+

tril

+

tril_npu

+

502

+

tril_indices

+

tril_indices_npu

+

503

+

triu_indices

+

triu_indices_npu

+

504

+

ne.Scalar_out

+

ne_out_npu

+

505

+

ne.Scalar

+

ne_npu

+

506

+

ne.Tensor_out

+

ne_out_npu

+

507

+

ne.Tensor

+

ne_npu

+

508

+

eq.Scalar_out

+

eq_out_npu

+

509

+

eq.Scalar

+

eq_npu

+

510

+

eq.Tensor_out

+

eq_out_npu

+

511

+

eq.Tensor

+

eq_npu

+

512

+

ge.Scalar_out

+

ge_out_npu

+

513

+

ge.Scalar

+

ge_npu

+

514

+

ge.Tensor_out

+

ge_out_npu

+

515

+

ge.Tensor

+

ge_npu

+

516

+

le.Scalar_out

+

le_out_npu

+

517

+

le.Scalar

+

le_npu

+

518

+

le.Tensor_out

+

le_out_npu

+

519

+

le.Tensor

+

le_npu

+

520

+

gt.Scalar_out

+

gt_out_npu

+

521

+

gt.Scalar

+

gt_npu

+

522

+

gt.Tensor_out

+

gt_out_npu

+

523

+

gt.Tensor

+

gt_npu

+

524

+

lt.Scalar_out

+

lt_out_npu

+

525

+

lt.Scalar

+

lt_npu

+

526

+

lt.Tensor_out

+

lt_out_npu

+

527

+

lt.Tensor

+

lt_npu

+

528

+

take.out

+

take_out_npu

+

529

+

take

+

take_npu

+

530

+

index_select.out

+

index_select_out_npu

+

531

+

index_select

+

index_select_npu

+

532

+

index_select.dimname_out

+

index_select_out_npu

+

533

+

index_select.dimname

+

index_select_npu

+

534

+

masked_select.out

+

masked_select_out_npu

+

535

+

masked_select

+

masked_select_npu

+

536

+

nonzero.out

+

nonzero_out_npu

+

537

+

nonzero

+

nonzero_npu

+

538

+

gather.out

+

gather_out_npu

+

539

+

gather

+

gather_npu

+

540

+

gather.dimname_out

+

gather_out_npu

+

541

+

gather.dimname

+

gather_npu

+

542

+

addcmul.out

+

addcmul_out_npu

+

543

+

addcmul

+

addcmul_npu

+

544

+

addcmul_

+

addcmul_npu_

+

545

+

addcdiv.out

+

addcdiv_out_npu

+

546

+

addcdiv

+

addcdiv_npu

+

547

+

_triangular_solve_helper

+

_triangular_solve_helper_npu

+

548

+

_symeig_helper

+

_symeig_helper_npu

+

549

+

_svd_helper

+

_svd_helper_npu

+

550

+

qr.Q

+

qr_out_npu

+

551

+

qr

+

qr_npu

+

552

+

multinomial.out

+

multinomial_out_npu

+

553

+

multinomial

+

multinomial_npu

+

554

+

erfinv

+

erfinv_npu

+

555

+

erfinv_

+

erfinv_npu_

+

556

+

erfinv.out

+

erfinv_out_npu

+

557

+

sign

+

sign_npu

+

558

+

sign_

+

sign_npu_

+

559

+

sign.out

+

sign_out_npu

+

560

+

atan2.out

+

atan2_out_npu

+

561

+

atan2

+

atan2_npu

+

562

+

lerp.Scalar_out

+

lerp_out_npu

+

563

+

lerp.Tensor_out

+

lerp_out_npu

+

564

+

lerp.Scalar

+

lerp_npu

+

565

+

lerp.Tensor

+

lerp_npu

+

566

+

fmod.Scalar_out

+

fmod_out_npu

+

567

+

fmod.Scalar

+

fmod_npu

+

568

+

fmod.Tensor_out

+

fmod_out_npu

+

569

+

fmod.Tensor

+

fmod_npu

+

570

+

remainder.Scalar_out

+

remainder_out_npu

+

571

+

remainder.Scalar

+

remainder_npu

+

572

+

remainder.Tensor_out

+

remainder_out_npu

+

573

+

remainder.Tensor

+

remainder_npu

+

574

+

min.out

+

min_out_npu

+

575

+

min.other

+

min_npu

+

576

+

min

+

min_npu

+

577

+

max.out

+

max_out_npu

+

578

+

max.other

+

max_npu

+

579

+

max

+

max_npu

+

580

+

median

+

median_npu

+

581

+

sort.values

+

sort_out_npu

+

582

+

sort

+

sort_npu

+

583

+

sort.dimname_values

+

sort_out_npu

+

584

+

sort.dimname

+

sort_npu

+

585

+

argsort

+

argsort_npu

+

586

+

argsort.dimname

+

argsort_npu

+

587

+

topk.values

+

topk_out_npu

+

588

+

topk

+

topk_npu

+

589

+

all

+

all_npu

+

590

+

any

+

any_npu

+

591

+

renorm.out

+

renorm_out_npu

+

592

+

renorm

+

renorm_npu

+

593

+

unfold

+

unfold

+

594

+

equal

+

equal_npu

+

595

+

pow.Tensor_Tensor_out

+

pow_out_npu

+

596

+

pow.Tensor_Tensor

+

pow_npu

+

597

+

pow.Scalar_out

+

pow_out_npu

+

598

+

pow.Scalar

+

pow_npu

+

599

+

normal_

+

normal_npu_

+

600

+

normal.Tensor_float_out

+

normal_out_npu

+

601

+

normal.Tensor_float

+

normal_npu

+

602

+

normal.float_Tensor_out

+

normal_out_npu

+

603

+

normal.float_Tensor

+

normal_npu

+

604

+

normal.Tensor_Tensor_out

+

normal_out_npu

+

605

+

normal.Tensor_Tensor

+

normal_npu

+

606

+

normal.float_float

+

normal_npu

+

607

+

normal.float_float_out

+

normal_out_npu

+

608

+

_addr

+

_addr_npu

+

609

+

_addr_

+

_addr_npu_

+

610

+

_addr.out

+

_addr_out_npu

+

611

+

_index_copy_

+

index_copy_npu_

+

612

+

_cumsum

+

_cumsum_npu

+

613

+

_cumsum.out

+

_cumsum_out_npu

+

614

+

_cumprod

+

_cumprod_npu

+

615

+

_cumprod.out

+

_cumprod_out_npu

+

616

+

_var

+

_var_npu

+

617

+

_amp_non_finite_check_and_unscale_

+

_amp_non_finite_check_and_unscale_npu_

+

618

+

_cat

+

_cat_npu

+

619

+

_cat.out

+

_cat_out_npu

+

620

+

_max

+

_max_npu

+

621

+

_max.max

+

_max_out_npu

+

622

+

_min

+

_min_npu

+

623

+

_min.min

+

_min_out_npu

+

624

+

mse_loss.out

+

mse_loss_out_npu

+

625

+

mse_loss

+

mse_loss_npu

+

626

+

mse_loss_backward.grad_input

+

mse_loss_backward_out_npu

+

627

+

mse_loss_backward

+

mse_loss_backward_npu

+

628

+

l1_loss.out

+

l1_loss_out_npu

+

629

+

l1_loss

+

l1_loss_npu

+

630

+

l1_loss_backward.grad_input

+

l1_loss_backward_out_npu

+

631

+

l1_loss_backward

+

l1_loss_backward_npu

+

632

+

multilabel_margin_loss.out

+

multilabel_margin_loss_out_npu

+

633

+

multilabel_margin_loss

+

multilabel_margin_loss_npu

+

634

+

multilabel_margin_loss_forward.output

+

multilabel_margin_loss_forward_out_npu

+

635

+

multilabel_margin_loss_forward

+

multilabel_margin_loss_forward_npu

+

636

+

nll_loss.out

+

nll_loss_out_npu

+

637

+

nll_loss

+

nll_loss_npu

+

638

+

nll_loss_forward.output

+

nll_loss_forward_out_npu

+

639

+

nll_loss_forward

+

nll_loss_forward_npu

+

640

+

nll_loss_backward.grad_input

+

nll_loss_backward_out_npu

+

641

+

nll_loss_backward

+

nll_loss_backward_npu

+

642

+

nll_loss2d.out

+

nll_loss2d_out_npu

+

643

+

nll_loss2d

+

nll_loss2d_npu

+

644

+

nll_loss2d_forward.output

+

nll_loss2d_forward_out_npu

+

645

+

nll_loss2d_forward

+

nll_loss2d_forward_npu

+

646

+

nll_loss2d_backward.grad_input

+

nll_loss2d_backward_out_npu

+

647

+

nll_loss2d_backward

+

nll_loss2d_backward_npu

+

648

+

smooth_l1_loss.out

+

smooth_l1_loss_out_npu

+

649

+

smooth_l1_loss

+

smooth_l1_loss_npu

+

650

+

smooth_l1_loss_backward.grad_input

+

smooth_l1_loss_backward_out_npu

+

651

+

smooth_l1_loss_backward

+

smooth_l1_loss_backward_npu

+

652

+

soft_margin_loss.out

+

soft_margin_loss_out_npu

+

653

+

soft_margin_loss

+

soft_margin_loss_npu

+

654

+

soft_margin_loss_backward.grad_input

+

soft_margin_loss_backward_out_npu

+

655

+

soft_margin_loss_backward

+

soft_margin_loss_backward_npu

+

656

+

elu.out

+

elu_out_npu

+

657

+

elu

+

elu_npu

+

658

+

elu_backward.grad_input

+

elu_backward_out_npu

+

659

+

elu_backward

+

elu_backward_npu

+

660

+

elu_

+

elu_npu_

+

661

+

glu.out

+

glu_out_npu

+

662

+

glu

+

glu_npu

+

663

+

glu_backward.grad_input

+

glu_backward_out_npu

+

664

+

glu_backward

+

glu_backward_npu

+

665

+

hardsigmoid.out

+

hardsigmoid_out_npu

+

666

+

hardsigmoid

+

hardsigmoid_npu

+

667

+

hardsigmoid_

+

hardsigmoid_npu_

+

668

+

hardsigmoid_backward

+

hardsigmoid_backward_npu

+

669

+

hardtanh.out

+

hardtanh_out_npu

+

670

+

hardtanh

+

hardtanh_npu

+

671

+

hardtanh_backward.grad_input

+

hardtanh_backward_out_npu

+

672

+

hardtanh_backward

+

hardtanh_backward_npu

+

673

+

hardtanh_

+

hardtanh_npu_

+

674

+

leaky_relu.out

+

leaky_relu_out_npu

+

675

+

leaky_relu

+

leaky_relu_npu

+

676

+

leaky_relu_backward

+

leaky_relu_backward_npu

+

677

+

leaky_relu_

+

leaky_relu_npu_

+

678

+

log_sigmoid.out

+

log_sigmoid_out_npu

+

679

+

log_sigmoid

+

log_sigmoid_npu

+

680

+

log_sigmoid_forward.output

+

log_sigmoid_forward_out_npu

+

681

+

log_sigmoid_forward

+

log_sigmoid_forward_npu

+

682

+

log_sigmoid_backward.grad_input

+

log_sigmoid_backward_out_npu

+

683

+

log_sigmoid_backward

+

log_sigmoid_backward_npu

+

684

+

rrelu_with_noise.out

+

rrelu_with_noise_out_npu

+

685

+

rrelu_with_noise

+

rrelu_with_noise_npu

+

686

+

rrelu_with_noise_backward

+

rrelu_with_noise_backward_npu

+

687

+

rrelu_with_noise_

+

rrelu_with_noise_npu_

+

688

+

softplus.out

+

softplus_out_npu

+

689

+

softplus

+

softplus_npu

+

690

+

softplus_backward.grad_input

+

softplus_backward_out_npu

+

691

+

softplus_backward

+

softplus_backward_npu

+

692

+

softshrink.out

+

softshrink_out_npu

+

693

+

softshrink

+

softshrink_npu

+

694

+

softshrink_backward.grad_input

+

softshrink_backward_out_npu

+

695

+

softshrink_backward

+

softshrink_backward_npu

+

696

+

adaptive_avg_pool2d.out

+

adaptive_avg_pool2d_out_npu

+

697

+

adaptive_avg_pool2d

+

adaptive_avg_pool2d_npu

+

698

+

_adaptive_avg_pool2d

+

_adaptive_avg_pool2d_npu

+

699

+

_adaptive_avg_pool2d_backward

+

adaptive_avg_pool2d_backward_npu

+

700

+

adaptive_avg_pool3d.out

+

adaptive_avg_pool3d_out_npu

+

701

+

adaptive_avg_pool3d

+

adaptive_avg_pool3d_npu

+

702

+

adaptive_avg_pool3d_backward.grad_input

+

adaptive_avg_pool3d_backward_out_npu

+

703

+

adaptive_avg_pool3d_backward

+

adaptive_avg_pool3d_backward_npu

+

704

+

adaptive_max_pool2d.out

+

adaptive_max_pool2d_out_npu

+

705

+

adaptive_max_pool2d

+

adaptive_max_pool2d_npu

+

706

+

adaptive_max_pool2d_backward.grad_input

+

adaptive_max_pool2d_backward_out_npu

+

707

+

adaptive_max_pool2d_backward

+

adaptive_max_pool2d_backward_npu

+

708

+

avg_pool2d.out

+

avg_pool2d_out_npu

+

709

+

avg_pool2d

+

avg_pool2d_npu

+

710

+

avg_pool2d_backward.grad_input

+

avg_pool2d_backward_out_npu

+

711

+

avg_pool2d_backward

+

avg_pool2d_backward_npu

+

712

+

avg_pool3d.out

+

avg_pool3d_out_npu

+

713

+

avg_pool3d

+

avg_pool3d_npu

+

714

+

avg_pool3d_backward.grad_input

+

avg_pool3d_backward_out_npu

+

715

+

avg_pool3d_backward

+

avg_pool3d_backward_npu

+

716

+

max_pool2d_with_indices.out

+

max_pool2d_with_indices_out_npu

+

717

+

max_pool2d_with_indices

+

max_pool2d_with_indices_npu

+

718

+

max_pool2d_with_indices_backward.grad_input

+

max_pool2d_with_indices_backward_out_npu

+

719

+

max_pool2d_with_indices_backward

+

max_pool2d_with_indices_backward_npu

+

720

+

max_pool3d_with_indices.out

+

max_pool3d_with_indices_out_npu

+

721

+

max_pool3d_with_indices

+

max_pool3d_with_indices_npu

+

722

+

max_pool3d_with_indices_backward.grad_input

+

max_pool3d_with_indices_backward_out_npu

+

723

+

max_pool3d_with_indices_backward

+

max_pool3d_with_indices_backward_npu

+

724

+

reflection_pad2d.out

+

reflection_pad2d_out_npu

+

725

+

reflection_pad2d

+

reflection_pad2d_npu

+

726

+

replication_pad2d.out

+

replication_pad2d_out_npu

+

727

+

replication_pad2d

+

replication_pad2d_npu

+

728

+

upsample_linear1d.out

+

upsample_linear1d_out_npu

+

729

+

upsample_linear1d

+

upsample_linear1d_npu

+

730

+

upsample_linear1d_backward

+

upsample_linear1d_backward_npu

+

731

+

upsample_bilinear2d.out

+

upsample_bilinear2d_out_npu

+

732

+

upsample_bilinear2d

+

upsample_bilinear2d_npu

+

733

+

upsample_bilinear2d_backward.grad_input

+

upsample_bilinear2d_backward_out_npu

+

734

+

upsample_bilinear2d_backward

+

upsample_bilinear2d_backward_npu

+

735

+

upsample_bicubic2d.out

+

upsample_bicubic2d_out_npu

+

736

+

upsample_bicubic2d

+

upsample_bicubic2d_npu

+

737

+

upsample_bicubic2d_backward.grad_input

+

upsample_bicubic2d_backward_out_npu

+

738

+

upsample_bicubic2d_backward

+

upsample_bicubic2d_backward_npu

+

739

+

upsample_trilinear3d.out

+

upsample_trilinear3d_out_npu

+

740

+

upsample_trilinear3d

+

upsample_trilinear3d_npu

+

741

+

upsample_trilinear3d_backward.grad_input

+

upsample_trilinear3d_backward_out_npu

+

742

+

upsample_trilinear3d_backward

+

upsample_trilinear3d_backward_npu

+

743

+

upsample_nearest1d.out

+

upsample_nearest1d_out_npu

+

744

+

upsample_nearest1d

+

upsample_nearest1d_npu

+

745

+

upsample_nearest1d_backward.grad_input

+

upsample_nearest1d_backward_out_npu

+

746

+

upsample_nearest1d_backward

+

upsample_nearest1d_backward_npu

+

747

+

upsample_nearest2d.out

+

upsample_nearest2d_out_npu

+

748

+

upsample_nearest2d

+

upsample_nearest2d_npu

+

749

+

upsample_nearest2d_backward.grad_input

+

upsample_nearest2d_backward_out_npu

+

750

+

upsample_nearest2d_backward

+

upsample_nearest2d_backward_npu

+

751

+

upsample_nearest3d.out

+

upsample_nearest3d_out_npu

+

752

+

upsample_nearest3d

+

upsample_nearest3d_npu

+

753

+

upsample_nearest3d_backward.grad_input

+

upsample_nearest3d_backward_out_npu

+

754

+

upsample_nearest3d_backward

+

upsample_nearest3d_backward_npu

+

755

+

sigmoid_backward.grad_input

+

sigmoid_backward_out_npu

+

756

+

sigmoid_backward

+

sigmoid_backward_npu

+

757

+

tanh_backward.grad_input

+

tanh_backward_out_npu

+

758

+

tanh_backward

+

tanh_backward_npu

+

759

+

slow_conv_transpose2d.out

+

slow_conv_transpose2d_out_npu

+

760

+

slow_conv_transpose2d

+

slow_conv_transpose2d_npu

+

761

+

slow_conv_transpose2d_backward.grad_output

+

slow_conv_transpose2d_backward_out_npu

+

762

+

slow_conv_transpose2d_backward.output_mask

+

slow_conv_transpose2d_backward_npu

+

763

+

thnn_conv2d.out

+

thnn_conv2d_out_npu

+

764

+

thnn_conv2d

+

thnn_conv2d_npu

+

765

+

thnn_conv2d_forward.output

+

thnn_conv2d_forward_out_npu

+

766

+

thnn_conv2d_forward

+

thnn_conv2d_forward_npu

+

767

+

thnn_conv2d_backward.output_mask

+

thnn_conv2d_backward_npu

+

768

+

thnn_conv_depthwise2d.out

+

thnn_conv_depthwise2d_out_npu

+

769

+

thnn_conv_depthwise2d

+

thnn_conv_depthwise2d_npu

+

770

+

thnn_conv_depthwise2d_forward.out

+

thnn_conv_depthwise2d_forward_out_npu

+

771

+

thnn_conv_depthwise2d_forward

+

thnn_conv_depthwise2d_forward_npu

+

772

+

thnn_conv_depthwise2d_backward.grad_input

+

thnn_conv_depthwise2d_backward_out_npu

+

773

+

thnn_conv_depthwise2d_backward.output_mask

+

thnn_conv_depthwise2d_backward_npu

+

774

+

slow_conv3d.out

+

slow_conv3d_out_npu

+

775

+

slow_conv3d

+

slow_conv3d_npu

+

776

+

slow_conv3d_forward.output

+

slow_conv3d_forward_out_npu

+

777

+

slow_conv3d_forward

+

slow_conv3d_forward_npu

+

778

+

slow_conv_dilated2d

+

slow_conv_dilated2d_npu

+

779

+

slow_conv_dilated2d_backward

+

slow_conv_dilated2d_backward_npu

+

780

+

col2im.out

+

im2col_backward_out_npu

+

781

+

col2im

+

im2col_backward_npu

+

782

+

col2im_backward.grad_input

+

im2col_out_npu

+

783

+

col2im_backward

+

im2col_npu

+

784

+

im2col.out

+

im2col_out_npu

+

785

+

im2col

+

im2col_npu

+

786

+

im2col_backward.grad_input

+

im2col_backward_out_npu

+

787

+

im2col_backward

+

im2col_backward_npu

+

788

+

isfinite

+

isfinite_npu

+

PyTorch昇腾自定义算子

-| 序号 | PyTorch 算子(由昇腾开发) | 昇腾适配算子 | -| ---- | ---------------------------------------------- | ---------------------------------------------- | -| 1 | npu_convolution_transpose | npu_convolution_transpose | -| 2 | npu_conv_transpose2d | convolution_transpose_npu | -| 3 | npu_convolution_transpose_backward | convolution_transpose_backward_npu | -| 4 | npu_convolution | npu_convolution | -| 5 | npu_convolution_backward | npu_convolution_backward | -| 6 | npu_conv2d | conv2d_npu | -| 7 | npu_conv2d.out | conv2d_out_npu | -| 8 | npu_conv2d_backward | conv2d_backward_npu | -| 9 | npu_conv3d | conv3d_npu | -| 10 | npu_conv3d.out | conv3d_out_npu | -| 11 | npu_conv3d_backward | conv3d_backward_npu | -| 12 | one_ | one_npu_ | -| 13 | npu_sort_v2.out | sort_without_indices_out_npu | -| 14 | npu_sort_v2 | sort_without_indices_npu | -| 15 | npu_format_cast | format_cast_npu | -| 16 | npu_format_cast_.acl_format | format_cast_npu_ | -| 17 | npu_format_cast_.src | format_cast_npu_ | -| 18 | npu_transpose_to_contiguous | transpose_to_contiguous_npu | -| 19 | npu_transpose | transpose_npu | -| 20 | npu_transpose.out | transpose_out_npu | -| 21 | npu_broadcast | broadcast_npu | -| 22 | npu_broadcast.out | broadcast_out_npu | -| 23 | npu_dtype_cast | dtype_cast_npu | -| 24 | npu_dtype_cast_.Tensor | dtype_cast_npu_ | -| 25 | npu_roi_alignbk | roi_align_backward_npu | -| 26 | empty_with_format | empty_with_format_npu | -| 27 | empty_with_format.names | empty_with_format_npu | -| 28 | copy_memory_ | copy_memory_npu_ | -| 29 | npu_one_hot | one_hot_npu | -| 30 | npu_stride_add | stride_add_npu | -| 31 | npu_softmax_cross_entropy_with_logits | softmax_cross_entropy_with_logits_npu | -| 32 | npu_softmax_cross_entropy_with_logits_backward | softmax_cross_entropy_with_logits_backward_npu | -| 33 | npu_ps_roi_pooling | ps_roi_pooling_npu | -| 34 | npu_ps_roi_pooling_backward | ps_roi_pooling_backward_npu | -| 35 | npu_roi_align | roi_align_npu | -| 36 | npu_nms_v4 | nms_v4_npu | -| 37 | npu_lstm | lstm_npu | -| 38 | npu_lstm_backward | lstm_backward_npu | -| 39 | npu_iou | iou_npu | -| 40 | npu_ptiou | ptiou_npu | -| 41 | npu_nms_with_mask | nms_with_mask_npu | -| 42 | npu_pad | pad_npu | -| 43 | npu_bounding_box_encode | bounding_box_encode_npu | -| 44 | npu_bounding_box_decode | bounding_box_decode_npu | -| 45 | npu_gru | gru_npu | -| 46 | npu_gru_backward | gru_backward_npu | -| 47 | npu_set_.source_Storage_storage_offset_format | set_npu_ | -| 48 | npu_random_choice_with_mask | random_choice_with_mask_npu | -| 49 | npu_batch_nms | batch_nms_npu | -| 50 | npu_slice | slice_npu | -| 51 | npu_slice.out | slice_out_npu | -| 52 | npu_dropoutV2 | dropout_v2_npu | -| 53 | npu_dropoutV2_backward | dropout_v2_backward_npu | -| 54 | _npu_dropout | _dropout_npu | -| 55 | _npu_dropout_inplace | _dropout_npu_inplace | -| 56 | npu_dropout_backward | dropout_backward_npu | -| 57 | npu_indexing | indexing_npu | -| 58 | npu_indexing.out | indexing_out_npu | -| 59 | npu_ifmr | ifmr_npu | -| 60 | npu_max.dim | max_v1_npu | -| 61 | npu_max.names_dim | max_v1_npu | -| 62 | npu_scatter | scatter_npu | -| 63 | npu_max_backward | max_backward_npu | -| 64 | npu_apply_adam | apply_adam_npu | -| 65 | npu_layer_norm_eval | layer_norm_eval_npu | -| 66 | npu_alloc_float_status | alloc_float_status_npu | -| 67 | npu_get_float_status | get_float_status_npu | -| 68 | npu_clear_float_status | clear_float_status_npu | -| 69 | npu_confusion_transpose | confusion_transpose_npu | -| 70 | npu_confusion_transpose_backward | confusion_transpose_backward_npu | -| 71 | npu_bmmV2 | bmm_v2_npu | -| 72 | fast_gelu | fast_gelu_npu | -| 73 | fast_gelu_backward | fast_gelu_backward_npu | -| 74 | npu_sub_sample | sub_sample_npu | -| 75 | npu_deformable_conv2d | deformable_conv2d_npu | -| 76 | npu_deformable_conv2dbk | deformable_conv2d_backward_npu | -| 77 | npu_mish | mish_npu | -| 78 | npu_anchor_response_flags | anchor_response_flags_npu | -| 79 | npu_yolo_boxes_encode | yolo_boxes_encode_npu | -| 80 | npu_grid_assign_positive | grid_assign_positive_npu | -| 81 | npu_mish_backward | mish_backward_npu | -| 82 | npu_normalize_batch | normalize_batch_npu | -| 83 | npu_masked_fill_range | masked_fill_range_npu | - + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +

序号

+

PyTorch 算子(由昇腾开发)

+

昇腾适配算子

+

1

+

npu_convolution_transpose

+

npu_convolution_transpose

+

2

+

npu_conv_transpose2d

+

conv_transpose2d_npu

+

3

+

npu_convolution_transpose_backward

+

npu_convolution_transpose_backward

+

4

+

npu_conv_transpose2d_backward

+

conv_transpose2d_backward_npu

+

5

+

npu_conv_transpose3d_backward

+

conv_transpose3d_backward_npu

+

6

+

npu_convolution

+

npu_convolution

+

7

+

npu_convolution_backward

+

npu_convolution_backward

+

8

+

npu_convolution_double_backward

+

npu_convolution_double_backward

+

9

+

npu_conv2d

+

conv2d_npu

+

10

+

npu_conv2d.out

+

conv2d_out_npu

+

11

+

npu_conv2d_backward

+

conv2d_backward_npu

+

12

+

npu_conv3d

+

conv3d_npu

+

13

+

npu_conv3d.out

+

conv3d_out_npu

+

14

+

npu_conv3d_backward

+

conv3d_backward_npu

+

15

+

one_

+

one_npu_

+

16

+

npu_sort_v2.out

+

sort_without_indices_out_npu

+

17

+

npu_sort_v2

+

sort_without_indices_npu

+

18

+

npu_format_cast

+

format_cast_npu

+

19

+

npu_format_cast_.acl_format

+

format_cast_npu_

+

20

+

npu_format_cast_.src

+

format_cast_npu_

+

21

+

npu_transpose_to_contiguous

+

transpose_to_contiguous_npu

+

22

+

npu_transpose

+

transpose_npu

+

23

+

npu_transpose.out

+

transpose_out_npu

+

24

+

npu_broadcast

+

broadcast_npu

+

25

+

npu_broadcast.out

+

broadcast_out_npu

+

26

+

npu_dtype_cast

+

dtype_cast_npu

+

27

+

npu_dtype_cast_.Tensor

+

dtype_cast_npu_

+

28

+

npu_roi_alignbk

+

roi_align_backward_npu

+

29

+

empty_with_format

+

empty_with_format_npu

+

30

+

empty_with_format.names

+

empty_with_format_npu

+

31

+

copy_memory_

+

copy_memory_npu_

+

32

+

npu_one_hot

+

one_hot_npu

+

33

+

npu_stride_add

+

stride_add_npu

+

34

+

npu_softmax_cross_entropy_with_logits

+

softmax_cross_entropy_with_logits_npu

+

35

+

npu_softmax_cross_entropy_with_logits_backward

+

softmax_cross_entropy_with_logits_backward_npu

+

36

+

npu_ps_roi_pooling

+

ps_roi_pooling_npu

+

37

+

npu_ps_roi_pooling_backward

+

ps_roi_pooling_backward_npu

+

38

+

npu_roi_align

+

roi_align_npu

+

39

+

npu_nms_v4

+

nms_v4_npu

+

40

+

npu_lstm

+

lstm_npu

+

41

+

npu_lstm_backward

+

lstm_backward_npu

+

42

+

npu_iou

+

iou_npu

+

43

+

npu_ptiou

+

ptiou_npu

+

44

+

npu_nms_with_mask

+

nms_with_mask_npu

+

45

+

npu_pad

+

pad_npu

+

46

+

npu_bounding_box_encode

+

bounding_box_encode_npu

+

47

+

npu_bounding_box_decode

+

bounding_box_decode_npu

+

48

+

npu_gru

+

gru_npu

+

49

+

npu_gru_backward

+

gru_backward_npu

+

50

+

npu_set_.source_Storage_storage_offset_format

+

set_npu_

+

51

+

npu_random_choice_with_mask

+

random_choice_with_mask_npu

+

52

+

npu_batch_nms

+

batch_nms_npu

+

53

+

npu_slice

+

slice_npu

+

54

+

npu_slice.out

+

slice_out_npu

+

55

+

npu_dropoutV2

+

dropout_v2_npu

+

56

+

npu_dropoutV2_backward

+

dropout_v2_backward_npu

+

57

+

_npu_dropout

+

_dropout_npu

+

58

+

_npu_dropout_inplace

+

_dropout_npu_inplace

+

59

+

npu_dropout_backward

+

dropout_backward_npu

+

60

+

npu_indexing

+

indexing_npu

+

61

+

npu_indexing.out

+

indexing_out_npu

+

62

+

npu_ifmr

+

ifmr_npu

+

63

+

npu_max.dim

+

max_v1_npu

+

64

+

npu_max.names_dim

+

max_v1_npu

+

65

+

npu_scatter

+

scatter_npu

+

66

+

npu_max_backward

+

max_backward_npu

+

67

+

npu_apply_adam

+

apply_adam_npu

+

68

+

npu_layer_norm_eval

+

layer_norm_eval_npu

+

69

+

npu_alloc_float_status

+

alloc_float_status_npu

+

70

+

npu_get_float_status

+

get_float_status_npu

+

71

+

npu_clear_float_status

+

clear_float_status_npu

+

72

+

npu_confusion_transpose

+

confusion_transpose_npu

+

73

+

npu_confusion_transpose_backward

+

confusion_transpose_backward_npu

+

74

+

npu_bmmV2

+

bmm_v2_npu

+

75

+

fast_gelu

+

fast_gelu_npu

+

76

+

fast_gelu_backward

+

fast_gelu_backward_npu

+

77

+

npu_sub_sample

+

sub_sample_npu

+

78

+

npu_deformable_conv2d

+

deformable_conv2d_npu

+

79

+

npu_deformable_conv2dbk

+

deformable_conv2d_backward_npu

+

80

+

npu_mish

+

mish_npu

+

81

+

npu_anchor_response_flags

+

anchor_response_flags_npu

+

82

+

npu_yolo_boxes_encode

+

yolo_boxes_encode_npu

+

83

+

npu_grid_assign_positive

+

grid_assign_positive_npu

+

84

+

npu_mish_backward

+

mish_backward_npu

+

85

+

npu_normalize_batch

+

normalize_batch_npu

+

86

+

npu_masked_fill_range

+

masked_fill_range_npu

+

87

+

npu_linear

+

linear_npu

+

88

+

npu_linear_backward

+

linear_backward_npu

+

89

+

npu_bert_apply_adam

+

bert_apply_adam_npu

+

90

+

npu_giou

+

giou_npu

+

91

+

npu_giou_backward

+

giou_backward_npu

+
diff --git a/docs/zh/RELEASENOTE/RELEASENOTE.md b/docs/zh/RELEASENOTE/RELEASENOTE.md deleted file mode 100644 index 559b2b09b3b907bcf26d01d2a343da946506ba6c..0000000000000000000000000000000000000000 --- a/docs/zh/RELEASENOTE/RELEASENOTE.md +++ /dev/null @@ -1,139 +0,0 @@ -# PyTorch版本说明书 -- [用户须知](#用户须知.md) -- [新增特性](#新增特性.md) -- [特性修改](#特性修改.md) -- [已修复问题](#已修复问题.md) -- [已知问题](#已知问题.md) -- [兼容性](#兼容性.md) -

用户须知

- -本框架基于Facebook主导的开源PyTorch1.5.0进行修改,延续原生的PyTorch特性,使用NPU进行动态图训练;以算子粒度进行模型适配,代码重用性好,支持现有的网络只修改设备类型或数据类型,即可迁移到NPU上使用。 - -

新增特性

- -**表 1** PyTorch支持的版本特性列表 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

一级特性

-

二级特性

-

说明

-

适配训练模型

-

YOLOV4

-

-

-

YOLOV3

-

-

-

DB

-

-

-

RFCN

-

-

-

CRNN

-

-

-

Densenset161

-

-

-

Densenset191

-

-

-

适配NPU的PyTorch特性

-

框架基础功能

-

新增适配算子开发(详见算子清单)。

-

精度对比工具

-

新增精度对比工具,支持训练精度定界。

-

昇腾710芯片

-

新增支持昇腾710芯片在线推理。

-

OS兼容性

-

新增支持ubuntu 18.04.5、OpenEuler 20.03 LTS系统

-
- -

特性修改

- -不涉及 - -

已修复问题

- -不涉及 - -

已知问题

- - - - - - - - - - - - - - - - - - - - - - - -

已知问题

-

问题描述

-

数据类型支持

-

NPU不支持float16类型的inf/nan数据输入输出。

-

数据Format

-

出现4D以上的format时不能降维。

-

集合通信约束

-

-

要求一次训练任务中不同device上执行的图相同。

-

当前只支持1/2/4/8P粒度的分配。

-

只支持int8,int32,float16和float32数据类型。

-

Apex功能支持

-

Apex当前版本的实现方式主要为python实现,不支持APEX中的自定义优化CUDA Kernel。

-
- -

兼容性

- -A800-9010:CentOS 7.6/Ubuntu 18.04/BC-Linux 7.6/Debian 9.9/Debian 10/OpenEuler 20.03 LTS - -A800-9000:CentOS 7.6/Euler 2.8/Kylin v10/BC-Linux 7.6/OpenEuler 20.03 LTS - diff --git a/docs/zh/RELEASENOTE/public_sys-resources/icon-caution.gif "b/docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-caution.gif" similarity index 100% rename from docs/zh/RELEASENOTE/public_sys-resources/icon-caution.gif rename to "docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-caution.gif" diff --git a/docs/zh/RELEASENOTE/public_sys-resources/icon-danger.gif "b/docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-danger.gif" similarity index 100% rename from docs/zh/RELEASENOTE/public_sys-resources/icon-danger.gif rename to "docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-danger.gif" diff --git a/docs/zh/RELEASENOTE/public_sys-resources/icon-note.gif "b/docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-note.gif" similarity index 100% rename from docs/zh/RELEASENOTE/public_sys-resources/icon-note.gif rename to "docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-note.gif" diff --git a/docs/zh/RELEASENOTE/public_sys-resources/icon-notice.gif "b/docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-notice.gif" similarity index 100% rename from docs/zh/RELEASENOTE/public_sys-resources/icon-notice.gif rename to "docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-notice.gif" diff --git a/docs/zh/RELEASENOTE/public_sys-resources/icon-tip.gif "b/docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-tip.gif" similarity index 100% rename from docs/zh/RELEASENOTE/public_sys-resources/icon-tip.gif rename to "docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-tip.gif" diff --git a/docs/zh/RELEASENOTE/public_sys-resources/icon-warning.gif "b/docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-warning.gif" similarity index 100% rename from docs/zh/RELEASENOTE/public_sys-resources/icon-warning.gif rename to "docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-warning.gif" diff --git "a/docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225.md" "b/docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225.md" new file mode 100644 index 0000000000000000000000000000000000000000..2d1998453570498712489c87a1a6c9a4a7156a78 --- /dev/null +++ "b/docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225.md" @@ -0,0 +1,4618 @@ +# 支持ONNX算子清单 +- [Abs](#Abs.md) +- [Acos](#Acos.md) +- [Acosh](#Acosh.md) +- [AdaptiveAvgPool2D](#AdaptiveAvgPool2D.md) +- [AdaptiveMaxPool2D](#AdaptiveMaxPool2D.md) +- [Add](#Add.md) +- [Addcmul](#Addcmul.md) +- [AffineGrid](#AffineGrid.md) +- [And](#And.md) +- [Argmax](#Argmax.md) +- [Argmin](#Argmin.md) +- [AscendRequantS16](#AscendRequantS16.md) +- [AscendRequant](#AscendRequant.md) +- [AscendQuant](#AscendQuant.md) +- [AscendDequantS16](#AscendDequantS16.md) +- [AscendDequant](#AscendDequant.md) +- [AscendAntiQuant](#AscendAntiQuant.md) +- [Asin](#Asin.md) +- [Asinh](#Asinh.md) +- [Atan](#Atan.md) +- [Atanh](#Atanh.md) +- [AveragePool](#AveragePool.md) +- [BatchNormalization](#BatchNormalization.md) +- [BatchMatMul](#BatchMatMul.md) +- [BatchMultiClassNMS](#BatchMultiClassNMS.md) +- [BitShift](#BitShift.md) +- [Cast](#Cast.md) +- [Ceil](#Ceil.md) +- [Celu](#Celu.md) +- [Concat](#Concat.md) +- [Clip](#Clip.md) +- [ConvTranspose](#ConvTranspose.md) +- [Cumsum](#Cumsum.md) +- [Conv](#Conv.md) +- [Compress](#Compress.md) +- [Constant](#Constant.md) +- [ConstantOfShape](#ConstantOfShape.md) +- [Cos](#Cos.md) +- [Cosh](#Cosh.md) +- [DeformableConv2D](#DeformableConv2D.md) +- [Det](#Det.md) +- [DepthToSpace](#DepthToSpace.md) +- [Div](#Div.md) +- [Dropout](#Dropout.md) +- [Elu](#Elu.md) +- [EmbeddingBag](#EmbeddingBag.md) +- [Equal](#Equal.md) +- [Erf](#Erf.md) +- [Exp](#Exp.md) +- [Expand](#Expand.md) +- [EyeLike](#EyeLike.md) +- [Flatten](#Flatten.md) +- [Floor](#Floor.md) +- [Gather](#Gather.md) +- [GatherND](#GatherND.md) +- [GatherElements](#GatherElements.md) +- [Gemm](#Gemm.md) +- [GlobalAveragePool](#GlobalAveragePool.md) +- [GlobalLpPool](#GlobalLpPool.md) +- [GlobalMaxPool](#GlobalMaxPool.md) +- [Greater](#Greater.md) +- [GreaterOrEqual](#GreaterOrEqual.md) +- [HardSigmoid](#HardSigmoid.md) +- [hardmax](#hardmax.md) +- [HardSwish](#HardSwish.md) +- [Identity](#Identity.md) +- [If](#If.md) +- [InstanceNormalization](#InstanceNormalization.md) +- [Less](#Less.md) +- [LeakyRelu](#LeakyRelu.md) +- [LessOrEqual](#LessOrEqual.md) +- [Log](#Log.md) +- [LogSoftMax](#LogSoftMax.md) +- [LpNormalization](#LpNormalization.md) +- [LpPool](#LpPool.md) +- [LRN](#LRN.md) +- [LSTM](#LSTM.md) +- [MatMul](#MatMul.md) +- [Max](#Max.md) +- [MaxPool](#MaxPool.md) +- [MaxRoiPool](#MaxRoiPool.md) +- [Mean](#Mean.md) +- [MeanVarianceNormalization](#MeanVarianceNormalization.md) +- [Min](#Min.md) +- [Mod](#Mod.md) +- [Mul](#Mul.md) +- [Multinomial](#Multinomial.md) +- [Neg](#Neg.md) +- [NonMaxSuppression](#NonMaxSuppression.md) +- [NonZero](#NonZero.md) +- [Not](#Not.md) +- [OneHot](#OneHot.md) +- [Or](#Or.md) +- [RandomNormalLike](#RandomNormalLike.md) +- [RandomUniformLike](#RandomUniformLike.md) +- [RandomUniform](#RandomUniform.md) +- [Range](#Range.md) +- [Reciprocal](#Reciprocal.md) +- [ReduceL1](#ReduceL1.md) +- [ReduceL2](#ReduceL2.md) +- [ReduceLogSum](#ReduceLogSum.md) +- [ReduceLogSumExp](#ReduceLogSumExp.md) +- [ReduceMin](#ReduceMin.md) +- [ReduceMean](#ReduceMean.md) +- [ReduceProd](#ReduceProd.md) +- [ReduceSumSquare](#ReduceSumSquare.md) +- [Resize](#Resize.md) +- [Relu](#Relu.md) +- [ReduceSum](#ReduceSum.md) +- [ReduceMax](#ReduceMax.md) +- [Reshape](#Reshape.md) +- [ReverseSequence](#ReverseSequence.md) +- [RoiExtractor](#RoiExtractor.md) +- [RoiAlign](#RoiAlign.md) +- [Round](#Round.md) +- [PRelu](#PRelu.md) +- [Scatter](#Scatter.md) +- [ScatterElements](#ScatterElements.md) +- [ScatterND](#ScatterND.md) +- [Shrink](#Shrink.md) +- [Selu](#Selu.md) +- [Shape](#Shape.md) +- [Sigmoid](#Sigmoid.md) +- [Slice](#Slice.md) +- [Softmax](#Softmax.md) +- [Softsign](#Softsign.md) +- [Softplus](#Softplus.md) +- [SpaceToDepth](#SpaceToDepth.md) +- [Split](#Split.md) +- [Sqrt](#Sqrt.md) +- [Squeeze](#Squeeze.md) +- [Sub](#Sub.md) +- [Sign](#Sign.md) +- [Sin](#Sin.md) +- [Sinh](#Sinh.md) +- [Size](#Size.md) +- [Sum](#Sum.md) +- [Tanh](#Tanh.md) +- [TfIdfVectorizer](#TfIdfVectorizer.md) +- [Tile](#Tile.md) +- [ThresholdedRelu](#ThresholdedRelu.md) +- [TopK](#TopK.md) +- [Transpose](#Transpose.md) +- [Pad](#Pad.md) +- [Pow](#Pow.md) +- [Unsqueeze](#Unsqueeze.md) +- [Xor](#Xor.md) +- [Where](#Where.md) +

Abs

+ +## 功能 + +对输入张量取绝对值 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32、double、int32、int64 + +【输出】 + +一个输出 + +y:一个tensor,数据类型和shape与输入一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Acos

+ +## 功能 + +计算输入张量的反余弦值 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32、double + +【输出】 + +一个输出 + +y:一个tensor,数据类型和shape与输入一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Acosh

+ +## 功能 + +计算输入张量的反双曲余弦值 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32、double + +【输出】 + +一个输出 + +y:一个tensor,数据类型和shape与输入一致 + +## 支持的ONNX版本 + +Opset v9/v10/v11/v12/v13 + +

AdaptiveAvgPool2D

+ +## 功能 + +对输入进行2d自适应平均池化计算 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32 + +【属性】 + +一个属性: + +output\_size:int型数组,指定输出的hw的shape大小 + +【输出】 + +一个输出 + +y:一个tensor,数据类型:与x类型一致 + +## 支持的ONNX版本 + +自定义算子,无对应onnx版本 + +

AdaptiveMaxPool2D

+ +## 功能 + +对输入进行2d自适应最大池化计算 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32、float64 + +【属性】 + +一个属性: + +output\_size:int型数组,指定输出的hw的shape大小 + +【输出】 + +两个输出 + +y:一个tensor,数据类型:与x类型一致 + +argmax:一个tensor,数据类型:int32,int64 + +## 支持的ONNX版本 + +自定义算子,无对应onnx版本 + +

Add

+ +## 功能 + +按元素求和 + +## 边界 + +【输入】 + +两个输入 + +A:一个张量,数据类型:int8、int16、int32、int64、uint8、float32、float16、double + +B:一个张量,数据类型与A相同 + +【输出】 + +C:一个张量,数据类型与A相同 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Addcmul

+ +## 功能 + +元素级计算\(x1 \* x2\) \* value + input\_data + +## 边界 + +【输入】 + +四个输入 + +input\_data:一个tensor,数据类型:float16、float32、int32、int8、uint8 + +x1: 一个tensor,类型与input\_data相同 + +x2: 一个tensor,类型与input\_data相同 + +value: 一个tensor,类型与input\_data相同 + +【输出】 + +一个输出 + +y:一个tensor,数据类型:y与输入相同 + +## 支持的ONNX版本 + +自定义算子,无对应onnx版本 + +

AffineGrid

+ +## 功能 + +给定一批矩阵,生成采样网格 + +## 边界 + +【输入】 + +俩个输入 + +theta:一个tensor,数据类型:float16、float32 + +output\_size:一个tensor,数据类型:int32 + +【属性】 + +一个属性: + +align\_corners:bool型 + +【输出】 + +一个输出 + +y:一个tensor,数据类型:int + +## 支持的ONNX版本 + +自定义算子,无对应onnx版本 + +

And

+ +## 功能 + +逻辑与 + +## 边界 + +【输入】 + +两个输入 + +x1:一个tensor,数据类型:bool + +x2:一个tensor,数据类型:bool + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的type和shape + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Argmax

+ +## 功能 + +返回指定轴上最大值所对应的索引 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个张量,表示最大值的索引位置,维度比输入x少1,数据类型:int32 + +【属性】 + +axis:必选,表示计算最大值索引的方向,数据类型:int32,aixs的值为\[-len\(x.shape\), len\(x.shape\)-1\] + +keep\_dim:可选,keep\_dim默认为1,支持1或0。 + +【约束】 + +算子不支持atc工具参数--precision\_mode=must\_keep\_origin\_dtype时fp32类型输入 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Argmin

+ +## 功能 + +返回输入张量指定轴上最小值对应的索引 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个tensor,数据类型:int64 + +【属性】 + +axis:数据类型为int,含义:指定计算轴;取值范围:\[-r, r-1\],r表示输入数据的秩 + +【约束】 + +算子不支持atc工具参数--precision\_mode=must\_keep\_origin\_dtype时fp32类型输入 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

AscendRequantS16

+ +## 功能 + +重新量化算子 + +## 边界 + +【输入】 + +两个必选输入,一个可选输入 + +x0:一个tensor,数据类型:int16 + +req\_scale:一个tensor,数据类型:uint64 + +x1:一个tensor,数据类型:int16 + +【属性】 + +两个属性: + +dual\_output:bool型 + +relu\_flag:bool型 + +【输出】 + +两个输出 + +y0:一个tensor,数据类型:int8 + +y1:一个tensor,数据类型:int16 + +## 支持的ONNX版本 + +自定义算子,无对应onnx版本 + +

AscendRequant

+ +## 功能 + +重新量化算子 + +## 边界 + +【输入】 + +两个输入 + +x0:一个tensor,数据类型:int32 + +req\_scale:一个tensor,数据类型:uint64 + +【属性】 + +一个属性: + +relu\_flag,数据类型:bool + +【输出】 + +一个输出 + +y:一个tensor,数据类型:int8 + +## 支持的ONNX版本 + +自定义算子,无对应onnx版本 + +

AscendQuant

+ +## 功能 + +量化算子 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16,float32 + +【属性】 + +四个属性: + +offset,数据类型:float + +scale,数据类型:float + +sqrt\_mode,数据类型:bool + +round\_mode,数据类型:string + +【输出】 + +一个输出 + +y:一个tensor,数据类型:int8 + +## 支持的ONNX版本 + +自定义算子,无对应onnx版本 + +

AscendDequantS16

+ +## 功能 + +反量化算子 + +## 边界 + +【输入】 + +两个必选输入,一个可选输入 + +x0:一个tensor,数据类型:int32 + +req\_scale:一个tensor,数据类型:uint64 + +x1:一个tensor,数据类型:int16 + +【属性】 + +一个属性 + +relu\_flag,数据类型:bool + +【输出】 + +一个输出 + +y:一个tensor,数据类型:int16 + +## 支持的ONNX版本 + +自定义算子,无对应onnx版本 + +

AscendDequant

+ +## 功能 + +反量化算子 + +## 边界 + +【输入】 + +两个输入 + +x0:一个tensor,数据类型:int32 + +deq\_scale:一个tensor,数据类型:uint64,float16 + +【属性】 + +sqrt\_mode,数据类型:bool + +relu\_flag,数据类型:bool + +dtype,数据类型:float + +【输出】 + +一个输出 + +y:一个tensor,数据类型:float16,float + +## 支持的ONNX版本 + +自定义算子,无对应onnx版本 + +

AscendAntiQuant

+ +## 功能 + +反量化算子 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:int8 + +【属性】 + +offset,float型 + +scale,float型 + +sqrt\_mode,bool + +round\_mode,string + +【输出】 + +一个输出 + +y:一个tensor,数据类型:float16,float + +## 支持的ONNX版本 + +自定义算子,无对应onnx版本 + +

Asin

+ +## 功能 + +计算输入张量的反正弦 + +## 边界 + +【输入】 + +一个输入 + +x1:一个tensor,数据类型:float16、float32、double + +【输出】 + +一个输出 + +y:一个tensor,数据类型和shape与输入一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Asinh

+ +## 功能 + +计算输入张量双曲反正弦 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32、double + +【输出】 + +y:一个tensor,数据类型和shape与输入一致 + +## 支持的ONNX版本 + +Opset v9/v10/v11/v12/v13 + +

Atan

+ +## 功能 + +计算输入张量的反正切值 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32、double + +【输出】 + +一个输出 + +y:一个tensor,数据类型和shape与输入一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Atanh

+ +## 功能 + +计算输入张量的双曲反正切 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32、double + +【输出】 + +一个输出 + +y:一个tensor,数据类型和shape与输入一致 + +## 支持的ONNX版本 + +Opset v9/v10/v11/v12/v13 + +

AveragePool

+ +## 功能 + +平均池化层 + +## 边界 + +【输入】 + +X:一个张量,数据类型:float16、float32,格式为NCHW + +【输出】 + +Y:一个张量,数据类型:float16、float32,格式为NCHW + +【属性】 + +auto\_pad:可选,支持NOTSET、SAME\_UPPER、SAME\_LOWER与VALID + +count\_include\_pad:int,暂不支持 + +kernel\_shape:可选,包括: + +− kernel\_shape\[0\]:数据类型:int32,指定沿H维度的窗口大小,取值范围为\[1, 32768\],默认为1 + +− kernel\_shape\[1\]:数据类型:int32,指定沿W维度的窗口大小,取值范围为\[1, 32768\],默认为1 + +strides:可选,包括: + +− strides\[0\]:数据类型:int32,指定沿H维度的步长,默认为1 + +− strides\[1\]:数据类型:int32,指定沿W维度的步长,默认为1 + +pads:可选,包括: + +− pads\[0\]:数据类型:int32,指定顶部padding,默认为0 + +− pads\[1\]:数据类型:int32,指定底部padding,默认为0 + +− pads\[2\]:数据类型:int32,指定左部padding,默认为0 + +− pads\[3\]:数据类型:int32,指定右部padding,默认为0 + +ceil\_mode:可选,数据类型:int32,取值:0(floor模式),1(ceil模式),默认为0 + +【约束】 + +strides\[0\]或者strides\[1\]取值步长大于63时,会使用AI CPU计算,性能会下降; + +kernel\_shape\_H或kernel\_shape\_W取值超过\[1,255\],或者kernel\_shape\_H \* kernel\_shape\_W \> 256时,会使用AI CPU计算,导致性能下降; + +1 <= input\_w <= 4096; + +当输入张量的N是一个质数时,N应当小于65535; + +ceil\_mode参数仅在auto\_pad='NOTSET'时生效; + +不支持atc工具参数--precision\_mode=must\_keep\_origin\_dtype时fp32类型输入; + +auto\_pad属性值SAME\_UPPER, SAME\_LOWER统一使用的TBE的SAME属性,即TBE算子没有根据这个属性区分pad的填充位置,可能会带来精度问题 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

BatchNormalization

+ +## 功能 + +标准化张量 + +## 边界 + +【输入】 + +五个输入 + +X:数据类型为float16、float32的4D张量 + +scale:数据类型为float32的张量,指定尺度因子 + +B:数据类型为float32的张量,指定偏移量 + +mean:数据类型为float32的张量,指定均值 + +var:数据类型为float32的张量,指定方差 + +【输出】 + +五个输出 + +Y:标准化之后的张量,数据类型为float16或float32 + +mean:均值 + +var:方差 + +saved\_mean:在训练过程中使用已保存的平均值来加快梯度计算 + +saved\_var:在训练过程中使用已保存的方差来加快梯度计算 + +【属性】 + +epsilon:可选,数据类型:float32,指定一个小值与var相加,以避免除以0,默认为0.0001 + +momentum:float32,该参数暂不支持 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

BatchMatMul

+ +## 功能 + +将两个输入执行矩阵乘 + +## 边界 + +【输入】 + +两个输入 + +x1:一个tensor,数据类型:float16,float,int32 + +x2:一个tensor,数据类型:float16,float,int32 + +【属性】 + +两个属性: + +adj\_x1:bool型 + +adj\_x2:bool型 + +【输出】 + +一个输出 + +y:一个tensor,数据类型:float16,float,int32 + +## 支持的ONNX版本 + +自定义算子,无对应onnx版本 + +

BatchMultiClassNMS

+ +## 功能 + +为输入boxes和输入score计算nms + +## 边界 + +【输入】 + +两个必选输入,两个可选输入 + +boxes:一个tensor,数据类型:float16 + +scores:一个tensor,数据类型:float16 + +clip\_window:一个tensor,数据类型:float16 + +num\_valid\_boxes:一个tensor,数据类型:int32 + +【属性】 + +六个属性: + +score\_threshold:float型 + +iou\_threshold:float型 + +max\_size\_per\_class:int型 + +max\_total\_size:int型 + +change\_coordinate\_frame:bool型 + +transpose\_box:bool型 + +【输出】 + +四个输出 + +nmsed\_boxes:一个tensor,数据类型:float16 + +nmsed\_scores:一个tensor,数据类型:float16 + +nmsed\_classes:一个tensor,数据类型:float16 + +nmsed\_num:一个tensor,数据类型:float16 + +## 支持的ONNX版本 + +自定义算子,无对应onnx版本 + +

BitShift

+ +## 功能 + +元素级位移算子 + +## 边界 + +【输入】 + +两个输入 + +x:一个tensor,表示被位移的输入 + +y:一个tensor,表示位移的数量 + +【输出】 + +z:一个tensor,表示位移后的结果 + +【属性】 + +direction:数据类型:string,必选,指定位移方向,取值范围:"RIGHT"或者"LEFT" + +【约束】 + +当direction="LEFT"时不支持UINT16,UIN32,UINT64 + +## 支持的ONNX版本 + +Opset v11/v12/v13 + +

Cast

+ +## 功能 + +将输入数据的type转换为指定的type + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor + +【输出】 + +y:一个tensor,输出的数据类型为属性指定的类型,数据类型:bool、float16、float32、int8、int32、uint8等 + +【属性】 + +to:数据类型:int,必选,指定目标数据类型,取值范围:在指定的数据类型范围内 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Ceil

+ +## 功能 + +对输入张量向上取整 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32、double + +【输出】 + +一个输出 + +y:一个tensor,数据类型和shape与输入一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Celu

+ +## 功能 + +连续可微的指数线性单位:对输入张量X按元素执行线性单位,使用公式: + +max\(0,x\) + min\(0,alpha\*\(exp\(x/alpha\)-1\)\) + +## 边界 + +【输入】 + +X:tensor\(float\) + +【输出】 + +Y:tensor\(float\) + +【属性】 + +alpha:float,默认值:1.0 + +## 支持的ONNX版本 + +Opset v12/v13 + +

Concat

+ +## 功能 + +对多个张量Concat + +## 边界 + +【输入】 + +inputs:多个输入张量,数据类型:float16、float32、int32、uint8、int16、int8、int64、qint8、quint8、qint32、uint16、uint32、uint64、qint16、quint16 + +【输出】 + +concat\_result:张量,与输入张量类型一致 + +【属性】 + +axis:指定哪一个轴进行concat操作,负数表示从后往前对维度计数,取值范围为\[-r, r - 1\],r=rank\(inputs\) + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Clip

+ +## 功能 + +将张量值剪辑到指定的最小值和最大值之间 + +## 边界 + +【输入】 + +三个输入 + +X :一个张量,数据类型:float16、float32、int32 + +min:一个scalar + +max:一个scalar + +【输出】 + +一个输出 + +Y:一个张量,剪辑后的输出,数据类型和shape与输入一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

ConvTranspose

+ +## 功能 + +转置卷积 + +## 边界 + +【输入】 + +3个输入 + +x:tensor,数据类型:float16、float32 + +w:tensor,数据类型:float16、float32 + +b:可选tensor,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的type和shape + +【属性】 + +auto\_pad:str,默认为NOTSET,含义:显式使用padding的方式 + +dilations:ints,默认为全1序列,含义:filter的每轴空洞值 + +group:int,默认为1,含义:输入通道分组数 + +kernel\_shape:ints,默认为w,含义:卷积核大小 + +output\_padding:ints,默认为全0数组,含义:指定padding值 + +output\_shape:ints,根据pad自动计算,含义:输出shape + +pads:ints,默认为全0矩阵,含义:每根轴指定pad值 + +strides:ints,默认为全1矩阵,含义:每根轴的stride值 + +【约束】 + +目前只支持2D的转置卷积,3D及以上暂不支持 + +dilations只支持1 + +output\_shape支持限制:实现部分功能。现在支持output shape的大小,小于原始输入大小,但是不支持大于原始输入大小 + +算子不支持atc工具参数--precision\_mode=must\_keep\_origin\_dtype时fp32,fp64的输入 + +属性auto\_pad不支持 "SAME\_UPPER","SAME\_LOWER" + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Cumsum

+ +## 功能 + +计算输入张量在给定axis上面的累加和 + +## 边界 + +【输入】 + +两个输入 + +x:一个tensor,数据类型:float16、float32、int32 + +axis:一个int32或者int64的标量,默认为0,范围为\[-rank\(x\), rank\(x\)-1\] + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的type + +【属性】 + +exclusive:int,默认为0,含义:是否返回不包括顶层元素的和 + +reverse:int,默认为0,含义:是否反方向求和 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Conv

+ +## 功能 + +卷积 + +## 边界 + +【输入】 + +X:输入4D张量 + +W:权重张量 + +B:可选,偏差,一维张量 + +【输出】 + +Y:卷积输出张量 + +【属性】 + +auto\_pad:可选,支持VALID、NOTSET + +dilations:4个整数的列表,指定用于扩张卷积的扩张率,H和W维度取值范围为\[1, 255\] + +group:从输入通道到输出通道的阻塞连接数,输入通道和输出通道都必须被“group”整除;数据类型为int32,必须设置为1 + +pads:4个整数的列表,指定顶部、底部、左侧和右侧填充,取值范围为\[0, 255\] + +strides:4个整数的列表,指定沿高度H和宽度W的卷积步长。H和W维度取值范围为\[1, 63\],默认情况下,N和C尺寸设置为1 + +【约束】 + +输入张量,W维度取值范围为\[1, 4096\] + +权重张量,H维度和W维度取值范围为\[1, 255\] + +当输出张量的W == 1且H == 1时,输入张量和权重的H和W维度需相同 + +当输出张量的W = 1,H != 1时,算子不支持 + +不支持atc工具--precision\_mode=must\_keep\_origin\_dtype参数时输入类型为fp32和fp64 + +## 支持的ONNX版本 + +Opset v9/v10/v11/v12/v13 + +

Compress

+ +## 功能 + +按指定轴进行切片。 + +## 边界 + +【输入】 + +两个输入: + +input:维度大于等于1的tensor,支持类型:uint8, uint16, uint32, uint64, int8, int16, int32, int64, float16, float, string, bool + +condition:1维tensor,用于指定切片和需要选择的元素,支持类型:bool + +【输出】 + +一个输出 + +output:tensor,类型:与输入一致 + +【属性】 + +axis:可选,int类型,进行切片的轴,如果没有指定轴,在切片之前将输入tensor展平。取值范围是\[-r,r-1\],r为输入tensor的维数。 + +## 支持的ONNX版本 + +Opset v9//v11/v12/v13 + +

Constant

+ +## 功能 + +构建constant节点张量 + +## 边界 + +【输入】 + +无 + +【输出】 + +一个输出 + +Y:输出张量,和提供的tensor值一致 + +【属性】 + +value:输出张量的值 + +【约束】 + +sparse\_value:不支持 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

ConstantOfShape

+ +## 功能 + +用给定的值和shape生成张量 + +## 边界 + +【输入】 + +x:1D的int64的tensor,表示输出数据的shape,所有的值必须大于0 + +【输出】 + +y:一个tensor,shape由输入指定,如果属性value指定了值,那输出的值和数据类型就等于value指定的值,如果属性value不指定,输出tensor的值默认为0,数据类型默认为float32 + +【属性】 + +value:指定输出tensor的数据和类型 + +【约束】 + +x:1<=len\(shape\)<=8 + +## 支持的ONNX版本 + +Opset v9/v10/v11/v12/v13 + +

Cos

+ +## 功能 + +计算输入张量的余弦值 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32、double + +【输出】 + +一个输出 + +y:一个tensor,数据类型和shape与输入一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Cosh

+ +## 功能 + +计算输入张量的双曲余弦 + +## 边界 + +【输入】 + +一个输入 + +X1:一个tensor,数据类型:float16、float、double + +【输出】 + +一个输出 + +y:一个张量,数据类型和shape与输入一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

DeformableConv2D

+ +## 功能 + +形变卷积 + +## 边界 + +【输入】 + +X:输入4D张量 + +filter:权重张量 + +offsets:偏移量,4维张量 + +bias:可选,偏差,一维张量 + +【输出】 + +Y:形变卷积输出张量 + +【属性】 + +auto\_pad:可选,支持VALID、NOTSET + +dilations:4个整数的列表,指定用于扩张卷积的扩张率,H和W维度取值范围为\[1, 255\] + +group:从输入通道到输出通道的阻塞连接数,输入通道和输出通道都必须被“group”整除;数据类型为int32,必须设置为1 + +pads:4个整数的列表,指定顶部、底部、左侧和右侧填充,取值范围为\[0, 255\] + +strides:4个整数的列表,指定沿高度H和宽度W的卷积步长。H和W维度取值范围为\[1, 63\],默认情况下,N和C尺寸设置为1 + +data\_format:string,表示输入数据format,默认是“NHWC” + +deformable\_groups:分组卷积通道数,缺省为1 + +modulated:bool,指定DeformableConv2D版本,true表示v2版本,false表示v1版本,当前只支持true + +【限制】 + +输入张量,W维度取值范围为\[1, 4096 / filter\_width\],H取值范围为\[1, 100000 / filter\_height\] + +权重张量,W维度取值范围为\[1, 63\],H取值范围为\[1, 63\] + +不支持atc工具--precision\_mode=must\_keep\_origin\_dtype参数时输入类型为fp32和fp64 + +## 支持的ONNX版本 + +自定义算子,无对应onnx版本 + +

Det

+ +## 功能 + +计算方形矩阵行列式 + +## 边界 + +【输入】 + +1个输入 + +x:tensor,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的type和shape + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

DepthToSpace

+ +## 功能 + +将数据由深度重排到空间数据块 + +## 边界 + +【输入】 + +1个输入 + +input:format为NCHW的tensor输入,类型:float16、float32,double,int32,int64等 + +【输出】 + +1个输出 + +output:一个张量,shape为\[N, C/\(blocksize \* blocksize\), H \* blocksize, W \* blocksize\] + +【属性】 + +blocksize:int,必选 指定被移动的块的大小 + +mode: string 指定是depth-column-row还是column-row-depth排列,默认DCR + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Div

+ +## 功能 + +按元素进行除法运算 + +## 边界 + +【输入】 + +两个输入 + +x1:一个tensor,数据类型:float16、float32、double、int32、int64 + +x2:一个tensor,数据类型:float16、float32、double、int32、int64 + +【输出】 + +一个输出 + +y:一个tensor,数据类型和输入一致 + +【约束】 + +输入、输出的type相同 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Dropout

+ +## 功能 + +拷贝或者屏蔽输入数据 + +## 边界 + +【输入】 + +1-3个输入 + +data:tensor输入,类型:float16、float32,double等 + +ratio:可选输入,类型:float16、float32,double等 + +training\_mode:可选输入,类型:bool + +【输出】 + +1-2个输出 + +output:一个张量 + +mask: 一个张量 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Elu

+ +## 功能 + +Elu激活函数 + +## 边界 + +【输入】 + +1个输入 + +x:tensor,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的type和shape + +【属性】 + +alpha:float,默认为1.0,含义:系数 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

EmbeddingBag

+ +## 功能 + +计算embedding函数的反向输出 + +## 边界 + +【输入】 + +两个必选输入,两个可选输入 + +weight:一个tensor,数据类型:float32 + +indices:一个tensor,数据类型:int32 + +offset:一个tensor,数据类型:int32 + +per\_sample\_weights:一个tensor,数据类型:float32 + +【属性】 + +四个属性: + +mode:string型 + +scale\_grad\_by\_fraq:bool型 + +sparse:bool型 + +include\_last\_offset:bool型 + +【输出】 + +一个输出 + +y:一个tensor,数据类型:float32 + +## 支持的ONNX版本 + +自定义算子,无对应onnx版本 + +

Equal

+ +## 功能 + +判断两个输入张量对应位置是否相等 + +## 边界 + +【输入】 + +两个输入 + +X1:一个tensor + +X2:一个tensor + +【输出】 + +一个输出 + +y:一个tensor ,数据类型:bool + +【约束】 + +输入X1、X2的数据类型和格式相同,支持如下数据类型:bool、uint8、int8、int16、int32、int64、float16、float32、double + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Erf

+ +## 功能 + +高斯误差函数 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个tensor,数据类型和格式与输入一致 + +## 支持的ONNX版本 + +Opset v9/v10/v11/v12/v13 + +

Exp

+ +## 功能 + +计算输入张量的指数 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个tensor,数据类型和shape与输入一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Expand

+ +## 功能 + +将输入tensor广播到指定shape + +## 边界 + +【输入】 + +2个输入 + +input:tensor,数据类型:float16、float32 + +shape:tensor,数据类型:int64 + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的type和shape + +【约束】 + +需要修改模型将输入shape由placeholder改为const类型,可以使用onnxsimplifier简化模型 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

EyeLike

+ +## 功能 + +生成一个2D矩阵,主对角线是1,其他为0 + +## 边界 + +【输入】 + +1个输入 + +x:2维tensor,用于拷贝tensor的shape + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的shape + +【属性】 + +dtype:int,指定输出数据类型 + +k:int,默认是0,表示主对角线被广播成1的索引。如y是输出,则y\[i, i+k\] = 1 + +【约束】 + +仅支持k=0 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Flatten

+ +## 功能 + +将张量展平 + +## 边界 + +【输入】 + +input:多维张量,数据类型:int8、uint8、int16、uint16、int32、uint32、int64、uint64、float16、float32 + +【输出】 + +具有输入张量的内容的2D张量 + +【属性】 + +axis:int,该参数暂不支持负值索引 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Floor

+ +## 功能 + +对输入张量向下取整 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32、double + +【输出】 + +一个输出 + +y:一个tensor,数据类型和shape与输入一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Gather

+ +## 功能 + +根据相应的轴从“x”中收集切片 + +## 边界 + +【输入】 + +两个输入 + +x1:一个tensor,数据类型:float16、float32、int32、int64、int8、int16、uint8、uint16、uint32、uint64、bool + +indices:一个tensor,数据类型:int32、int64 + +【输出】 + +一个输出 + +y:一个张量,数据类型和输入x1类型一致 + +【属性】 + +axis:数据类型:int,指定gather的轴,取值范围为\[-r, r-1\](r表示输入数据的秩) + +【约束】 + +不支持indices为负值的索引 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

GatherND

+ +## 功能 + +将输入数据切片输出 + +## 边界 + +【输入】 + +2个输入 + +data:秩r\>=1的tensor输入,类型:float16, float32, double, int32, int64等 + +indices:int64的索引张量,秩q\>=1 + +【输出】 + +1个输出 + +output:一个张量, 秩为q + r - indices\_shape\[-1\] - 1 + +【属性】 + +batch\_dims:int,默认为0 批处理轴的数量 + +【约束】 + +不支持atc工具参数--precision\_mode=must\_keep\_origin\_dtype时double的输入 + +## 支持的ONNX版本 + +Opset v11/v12/v13 + +

GatherElements

+ +## 功能 + +获取索引位置的元素产生输出 + +## 边界 + +【输入】 + +2个输入 + +input:秩大于1的tensor输入,类型:float16、float32,double,int32,int64等 + +indices:int32/int64的索引张量 + +【输出】 + +1个输出 + +output:一个张量,与indices的shape相同 + +【属性】 + +axis:int,默认为0 指定聚集的轴 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Gemm

+ +## 功能 + +通用矩阵乘 + +## 边界 + +【输入】 + +A:2D矩阵张量,数据类型:float16、float32 + +B:2D矩阵张量,数据类型:float16、float32 + +C:偏差,可选,该参数暂不支持 + +【输出】 + +Y:2D矩阵张量,数据类型:float16、float32 + +【属性】 + +transA:bool,是否A需要转置 + +transB:bool,是否B需要转置 + +alpha:float,该参数暂不支持 + +beta:float,该参数暂不支持 + +【约束】 + +v8/v9/v10版本不支持atc工具参数--precision\_mode=must\_keep\_origin\_dtype时fp32类型输入 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

GlobalAveragePool

+ +## 功能 + +全局平均池化 + +## 边界 + +【输入】 + +X:一个张量,数据类型:float16、float32,格式为NCHW + +【输出】 + +Y:池化输出张量,数据类型与X相同,格式为NCHW + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

GlobalLpPool

+ +## 功能 + +全局范数池化算子 + +## 边界 + +【输入】 + +2个输入 + +input:tensor,数据类型:float16、float32 + +p:可选属性, int32,默认2 + +【输出】 + +1个输出 + +y:更新后的张量数据,数据类型和输入一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

GlobalMaxPool

+ +## 功能 + +全局最大池化算子 + +## 边界 + +【输入】 + +1个输入 + +x:前一个节点的输出tensor,类型:float16, float32, double + +【输出】 + +1个输出 + +output:池化后的张量 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Greater

+ +## 功能 + +按元素比较输入x1和x2的大小,若x1\>x2,对应位置返回true + +## 边界 + +【输入】 + +两个输入 + +x1:一个tensor,数据类型:float16、float32、int32、int8、uint8 + +x2:一个tensor,数据类型:float16、float32、int32、int8、uint8 + +【输出】 + +一个输出 + +y:一个tensor,数据类型:bool + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

GreaterOrEqual

+ +## 功能 + +按元素比较输入x1和x2的大小,若x1\>=x2,对应位置返回true + +## 边界 + +【输入】 + +两个输入 + +x1:一个tensor,数据类型:float16、float32、int32、int8、uint8等 + +x2:一个tensor,数据类型:float16、float32、int32、int8、uint8等 + +【输出】 + +一个输出 + +y:一个tensor,数据类型:bool + +## 支持的ONNX版本 + +Opset v8/v12 + +

HardSigmoid

+ +## 功能 + +HardSigmoid接受一个输入数据\(张量\)并生成一个输出数据\(张量\),HardSigmoid函数y = max\(0, min\(1, alpha \* x + beta\)\)应用于张量元素方面。 + +## 边界 + +【输入】 + +1个输入 + +X:,类型:tensor\(float16\), tensor\(float\), tensor\(double\) + +【输出】 + +1个输出 + +Y:,类型:tensor\(float16\), tensor\(float\), tensor\(double\) + +【属性】 + +alpha:float,默认值:0.2 + +beta:float,默认值:0.2 + +## 支持的ONNX版本 + +Opset v1/v6/v8/v9/v10/v11/v12/v13 + +

hardmax

+ +## 功能 + +计算hardmax结果,如果元素是指定axis的最大元素则设为1,否则为0 + +## 边界 + +【输入】 + +1个输入 + +x:tensor,rank=2,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的type和shape + +【属性】 + +axis:int,默认为-1,含义:指定计算轴 + +【约束】 + +使用atc工具--precision\_mode参数必须为allow\_fp32\_to\_fp16 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

HardSwish

+ +## 功能 + +HardSwish激活函数。y=x \* max\(0, min\(1, alpha \* x + beta \)\),其中alpha=1/6,beat=0.5 + +## 边界 + +【输入】 + +1个输入 + +x:tensor,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:tensor,数据类型:float16、float32 + +## 支持的ONNX版本 + +Opset v14 + +

Identity

+ +## 功能 + +恒等操作 + +## 边界 + +【输入】 + +1个输入 + +x:tensor,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的type和shape + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

If

+ +## 功能 + +逻辑控制判断算子 + +## 边界 + +【输入】 + +一个输入 + +cond:If op的条件 + +两个属性 + +else\_branch:条件为假的分支 + +then\_branch:条件为真的分支 + +【输出】 + +一到多个输出 + +y:tensor或者tensor序列 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

InstanceNormalization

+ +## 功能 + +计算y = scale \* \(x - mean\) / sqrt\(variance + epsilon\) + B,其中mean 和 variance 是每个实例每个通道的均值和方法 + +## 边界 + +【输入】 + +3个输入 + +x: tensor,数据类型是float16,float + +scale:1维tensor,维度同x的C轴长度,和输入x同样的dtype + +B:1维tensor,维度同x的C轴长度,和输入x同样的dtype + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的shape和dtype + +【属性】 + +epsilon:float,默认是1e-05,避免除0 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Less

+ +## 功能 + +按元素比较输入x1和x2的大小,若x1 + +【输入】 + +两个输入 + +x1:一个tensor,数据类型:float16、float32、int32、int8、uint8 + +x2:一个tensor,数据类型:float16、float32、int32、int8、uint8 + +【输出】 + +一个输出 + +y:一个tensor,数据类型:bool + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

LeakyRelu

+ +## 功能 + +对输入张量用leakrelu函数激活 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32 + +【输出】 + +一个输出 + +y: 一个tensor,数据类型和shape与输入一致 + +【属性】 + +alpha:数据类型为float,默认0.01,表示leakage系数 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

LessOrEqual

+ +## 功能 + +小于等于计算 + +## 边界 + +【输入】 + +2个输入 + +x:tensor,数据类型:float16、float32 + +y:tensor,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的shape,数据类型:bool + +## 支持的ONNX版本 + +Opset v12/v13 + +

Log

+ +## 功能 + +计算输入的自然对数 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个tensor,数据类型与输入一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

LogSoftMax

+ +## 功能 + +对输入张量计算logsoftmax值 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个tensor,数据类型和shape与输入一致 + +【属性】 + +axis:数据类型为int;指定计算的轴,取值范围:\[-r, r-1\],r为输入的秩 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

LpNormalization

+ +## 功能 + +给定一个矩阵,沿给定的轴应用LpNormalization。 + +## 边界 + +【输入】 + +1个输入 + +input,类型:tensor\(float16\), tensor\(float\) + +【输出】 + +1个输出 + +output,类型:tensor\(float16\), tensor\(float\) + +【属性】 + +axis:int,默认值:-1 + +p:int,默认值:2 + +【约束】 + +auto\_pad属性值SAME\_UPPER, SAME\_LOWER统一使用的TBE的SAME属性,即TBE算子没有根据这个属性区分pad的填充位置,可能会带来精度问题 + +## 支持的ONNX版本 + +Opset v1/v8/v9/v10/v11/v12/v13 + +

LpPool

+ +## 功能 + +Lp范数池化。 + +## 边界 + +【输入】 + +一个输入 + +x:tensor,数据类型:float16 + +【输出】 + +一个输出 + +y:tensor,数据类型:float16 + +【属性】 + +auto\_pad:string,默认为NOTSET,支持:NOTSET, SAME\_UPPER, SAME\_LOWER 或者 VALID + +kernel\_shape:必选,int列表,kernel每个轴上的尺寸 + +p:int,范数,默认为2 + +pads:int列表 + +strides:int列表 + +【约束】 + +auto\_pad属性值SAME\_UPPER, SAME\_LOWER统一使用的TBE的SAME属性,即TBE算子没有根据这个属性区分pad的填充位置,可能会带来精度问题 + +## 支持的ONNX版本 + +Opset v11/v12/v13 + +

LRN

+ +## 功能 + +对输入张量做局部响应归一化 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的type和format + +【属性】 + +alpha:float,缩放因子 + +beta:float,指数项 + +bias:float + +size:int,求和的通道数,只支持奇数 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

LSTM

+ +## 功能 + +计算单层LSTM。这个操作符通常通过一些自定义实现\(如CuDNN\)来支持。 + +## 边界 + +【输入3-8】 + +X:,类型:tensor\(float16\), tensor\(float\), tensor\(double\) + +W:,类型:tensor\(float16\), tensor\(float\), tensor\(double\) + +R:,类型:tensor\(float16\), tensor\(float\), tensor\(double\) + +B:,类型:tensor\(float16\), tensor\(float\), tensor\(double\) + +sequence\_lens:,类型:tensor\(int32\) + +initial\_h:,类型:tensor\(float16\), tensor\(float\), tensor\(double\) + +initial\_c:,类型:tensor\(float16\), tensor\(float\), tensor\(double\) + +p:,类型:tensor\(float16\), tensor\(float\), tensor\(double\) + +【输出0-3】 + +Y:,类型:tensor\(float16\), tensor\(float\), tensor\(double\) + +Y\_h:,类型:tensor\(float16\), tensor\(float\), tensor\(double\) + +Y\_c:,类型:tensor\(float16\), tensor\(float\), tensor\(double\) + +【属性】 + +activation\_alpha:list of floats + +activation\_beta:list of floats + +activations:list of strings + +clip: float + +direction: string,默认值:forward + +hidden\_size: int + +input\_forget: int,默认值:0 + +layout: int,默认值:0 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

MatMul

+ +## 功能 + +矩阵乘 + +## 边界 + +【输入】 + +两个输入 + +x1:一个2D的tensor,数据类型:float16 + +x2:一个2D的tensor,数据类型:float16 + +【输出】 + +一个输出 + +y:一个2D的tensor,数据类型:float16 + +【约束】 + +仅支持1-6维输入 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Max

+ +## 功能 + +元素级比较输入tensor的大小 + +## 边界 + +【输入】 + +多个输入\(1-∞\) + +data\_0:tensor的列表,类型:float16、float32,int8,int16,int32等 + +【输出】 + +一个输出 + +max:一个张量,和输入x同样的type和shape(广播后的shape) + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

MaxPool

+ +## 功能 + +最大池化 + +## 边界 + +【输入】 + +X:一个张量,数据类型:float16、float32,格式为NCHW + +【输出】 + +Y:一个张量,数据类型:float16、float32,格式为NCHW + +【属性】 + +auto\_pad:可选,支持SAME\_UPPER、SAME\_LOWER、VALID、NOTSET + +storage\_order:暂不支持该参数 + +kernel\_shape:可选,包括: + +- kernel\_shape\[0\]:数据类型:int32,指定沿H维度的窗口大小,取值范围为\[1, 32768\],默认为1 +- kernel\_shape\[1\]:数据类型:int32,指定沿W维度的窗口大小,取值范围为\[1, 32768\],默认为1 + +strides:可选,包括: + +- strides\[0\]:数据类型:int32,指定沿H维度的步长,默认为1 +- strides\[1\]:数据类型:int32,指定沿W维度的步长,默认为1 + +pads:可选,包括: + +- pads\[0\]:数据类型:int32,指定顶部padding,默认为0 +- pads\[1\]:数据类型:int32,指定底部padding,默认为0 +- pads\[2\]:数据类型:int32,指定左部padding,默认为0 +- pads\[3\]:数据类型:int32,指定右部padding,默认为0 + +ceil\_mode:可选,数据类型:int32,取值:0\(floor模式),1(ceil模式),默认为0 + +【约束】 + +strides\[0\]或者strides\[1\]取值步长大于63时,会使用AI CPU计算,性能会下降; + +kernel\_shape\_H或kernel\_shape\_W取值超过\[1,255\],或者kernel\_shape\_H \* kernel\_shape\_W \> 256时,会使用AI CPU计算,导致性能下降; + +1 <= input\_w <= 4096 + +当输入张量的N是一个质数时,N应小于65535 + +2D tensor输入不支持dilations + +auto\_pad属性是VALID时,ceil\_mode属性值必须为0 + +不支持atc工具参数--precision\_mode=must\_keep\_origin\_dtype时fp32类型输入 + +pads属性和auto\_pad属性不可同时使用 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

MaxRoiPool

+ +## 功能 + +ROI最大池消耗一个输入张量X和感兴趣区域\(ROI\),以便在每个ROI上应用最大池,从而产生输出的4-D形状张量\(num\_roi, channels, pooled\_shape\[0\], pooled\_shape\[1\]\)。 + +## 边界 + +【输入】 + +X:,类型:tensor\(float16\), tensor\(float\) + +rois:,类型:tensor\(float16\), tensor\(float\) + +【输出】 + +Y:,类型:tensor\(float16\), tensor\(float\), tensor\(double\) + +【属性】 + +pooled\_shape: list of ints + +spatial\_scale: float,默认值:1.0 + +【约束】 + +不支持atc工具参数--precision\_mode=must\_keep\_origin\_dtype时fp32类型输入 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/13 + +

Mean

+ +## 功能 + +每个输入张量的元素均值\(支持numpy风格的广播\)。所有输入和输出必须具有相同的数据类型。该操作符支持多向\(即numpy风格\)广播。 + +## 边界 + +【输入1-∞】 + +data\_0:,类型:tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\) + +【输出】 + +mean:,类型:tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\) + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

MeanVarianceNormalization

+ +## 功能 + +使用公式对输入张量X进行均值方差标准化:\(X-EX\)/sqrt\(E\(X-EX\)^2\) + +## 边界 + +【输入】 + +X:,类型:tensor\(float16\), tensor\(float\), tensor\(bfloat16\) + +【输出】 + +Y:,类型:tensor\(float16\), tensor\(float\), tensor\(bfloat16\) + +【属性】 + +axes: list of ints,默认值:\['0', '2', '3'\] + +## 支持的ONNX版本 + +Opset v9/v10/v11/v12/v13 + +

Min

+ +## 功能 + +计算输入tensors的最小值 + +## 边界 + +【输入】 + +1个输入 + +x:tensor列表,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:计算出最小值的tensor + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Mod

+ +## 功能 + +执行元素二进制模数\(支持numpy风格的广播\)。余数的符号与除数的符号相同。 + +## 边界 + +【输入】 + +A:tensor\(uint8\), tensor\(uint16\), tensor\(uint32\), tensor\(uint64\), tensor\(int8\), tensor\(int16\), tensor\(int32\), tensor\(int64\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\) + +B:tensor\(uint8\), tensor\(uint16\), tensor\(uint32\), tensor\(uint64\), tensor\(int8\), tensor\(int16\), tensor\(int32\), tensor\(int64\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\) + +【输出】 + +C:,类型:tensor\(uint8\), tensor\(uint16\), tensor\(uint32\), tensor\(uint64\), tensor\(int8\), tensor\(int16\), tensor\(int32\), tensor\(int64\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\) + +【属性】 + +fmod:int,默认值:0 + +【约束】 + +当输入类型为浮点时,fmod不支持为0 + +## 支持的ONNX版本 + +Opset v10/v11/v12/v13 + +

Mul

+ +## 功能 + +矩阵点乘 + +## 边界 + +【输入】 + +A:一个张量,数据类型:float16、float32、uint8、int8、int16、int32 + +B:一个张量,数据类型:float16、float32、uint8、int8、int16、int32 + +【输出】 + +C:一个张量,数据类型与输入张量一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Multinomial

+ +## 功能 + +返回Multinomial采样结果矩阵 + +## 边界 + +【输入】 + +1个输入 + +x:tensor,shape=\[batch\_size, class\_size\],数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个张量,shape=\[batch\_size, sample\_size\],输出type是int32、int64 + +【属性】 + +dtype:int,默认为6,含义:输出dtype,默认为int32 + +sample\_size:int,默认为1,含义:采样次数 + +seed:float,随机数种子 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Neg

+ +## 功能 + +求输入的负数 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32、int32 + +【输出】 + +一个输出 + +y:一个tensor,数据类型与输入一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

NonMaxSuppression

+ +## 功能 + +过滤掉与先前选定的框有较高重叠的“交集-并集”\(IOU\)框。移除得分小于score\_threshold的边界框。边界框格式由属性center\_point\_box表示。注意,该算法不知道原点在坐标系中的位置,更普遍地说,它对坐标系的正交变换和平移是不变的;因此,平移或反射坐标系统的结果在相同的方框被算法选择。selected\_indices输出是一组整数,索引到表示所选框的边界框的输入集合中。然后,可以使用Gather或gathernd操作获得与所选索引对应的边框坐标。 + +## 边界 + +【输入2-5】 + +boxes: tensor\(float\) + +scores: tensor\(float\) + +max\_output\_boxes\_per\_class: 可选,数据类型:tensor\(int64\) + +iou\_threshold: 可选,数据类型:tensor\(float\) + +score\_threshold: 可选,数据类型:tensor\(float\) + +【输出】 + +selected\_indices: tensor\(int64\) + +【属性】 + +center\_point\_box: int 默认值:0 + +## 支持的ONNX版本 + +Opset v10/v11/v12/v13 + +

NonZero

+ +## 功能 + +返回非零元素的索引(行主序) + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32、int32、int8、uint8等 + +【输出】 + +一个输出 + +y:一个tensor,数据类型:int64 + +## 支持的ONNX版本 + +Opset v9/v10/v11/v12/v13 + +

Not

+ +## 功能 + +逻辑非 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:bool + +【输出】 + +一个输出 + +y:一个tensor,数据类型:bool + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

OneHot

+ +## 功能 + +根据输入生成独热编码张量 + +## 边界 + +【输入】 + +三个输入 + +indices:一个tensor,数据类型:uint8,uint16, uint32,uint64,int8,int16,int32,int64,float16,float,double + +depth:一个tensor,数据类型:uint8,uint16, uint32,uint64,int8,int16,int32,int64,float16,float,double + +values:一个tensor,数据类型:uint8,uint16, uint32,uint64,int8,int16,int32,int64,float16,float,double + +【属性】 + +一个属性 + +axis:(可选)添加独热表示的轴 + +【输出】 + +一个输出 + +y:一个tensor,数据类型与values输入的类型一致 + +【约束】 + +算子属性不支持axis<-1 + +## 支持的ONNX版本 + +Opset v9/v10/v11/v12/v13 + +

Or

+ +## 功能 + +逻辑或 + +## 边界 + +【输入】 + +两个输入 + +X1:一个tensor,数据类型:bool + +X2:一个tensor,数据类型:bool + +【输出】 + +一个输出 + +y:一个tensor,数据类型:bool + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

RandomNormalLike

+ +## 功能 + +根据正态分布生成随机数矩阵,输出tensor的shape与输入相同 + +## 边界 + +【输入】 + +1个输入 + +x: tensor,数据类型是float16,float + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的shape和dtype + +【属性】 + +dtype:int,指定输出tensor的dtype + +mean:float,默认是0.0,正态分布的均值 + +scale:float,默认是1.0,正态分布的标准差 + +seed:float,随机数种子 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

RandomUniformLike

+ +## 功能 + +根据均匀分布生成随机数矩阵,输出tensor的shape与输入相同 + +## 边界 + +【输入】 + +1个输入 + +x:tensor,数据类型是float16,float + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的shape和dtype + +【属性】 + +dtype:int,指定输出tensor的dtype + +high:float,默认是1.0,均匀分布的上界 + +low:float,默认是0.0,均匀分布的下界 + +seed:float,随机数种子 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

RandomUniform

+ +## 功能 + +生成具有从均匀分布绘制的随机值的张量 + +## 边界 + +【属性】 + +五个属性 + +dtype:int类型,指明输出类型 + +high:float型,指明上边界 + +low:float型,指明下边界 + +seed:\(可选\),随机种子 + +shape:输出的形状 + +【输出】 + +一个输出 + +y:一个tensor,数据类型与dtype属性指定类型一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Range

+ +## 功能 + +产生一个连续序列的tensor + +## 边界 + +【输入】 + +3个输入 + +start:scalar,数据类型:float16、float32 + +limit:scalar,数据类型:float16、float32 + +delta:scalar,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的type + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Reciprocal

+ +## 功能 + +将输入张量取倒数 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32、double + +【输出】 + +一个输出 + +y:一个tensor,数据类型和shape与输入一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

ReduceL1

+ +## 功能 + +沿所提供的轴计算输入张量元素的L1范数。如果keepdim等于1,得到的张量的秩与输入的相同。如果keepdim等于0,那么得到的张量就会被精简维数。上述行为与numpy类似,只是numpy默认keepdim为False而不是True。 + +## 边界 + +【输入】 + +data:tensor\(uint32\), tensor\(uint64\), tensor\(int32\), tensor\(int64\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\) + +【输出】 + +reduced:tensor\(uint32\), tensor\(uint64\), tensor\(int32\), tensor\(int64\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\) + +【属性】 + +axes: list of ints + +keepdims: int,默认值:1 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

ReduceL2

+ +## 功能 + +沿所提供的轴计算输入张量元素的L2范数。如果keepdim等于1,得到的张量的秩与输入的相同。如果keepdim等于0,那么得到的张量就会被精简维数。上述行为与numpy类似,只是numpy默认keepdim为False而不是True。 + +## 边界 + +【输入】 + +data:tensor\(uint32\), tensor\(uint64\), tensor\(int32\), tensor\(int64\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\) + +【输出】 + +reduced:tensor\(uint32\), tensor\(uint64\), tensor\(int32\), tensor\(int64\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\) + +【属性】 + +axes: list of ints + +keepdims: int,默认值:1 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

ReduceLogSum

+ +## 功能 + +计算输入张量指定方向的对数和 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16, float32 + +【输出】 + +一个输出 + +y:一个tensor,数据类型:float16, float32 + +【属性】 + +axes:数据类型为listInt;含义:指定计算轴;取值范围:\[-r, r-1\],r是输入数据的维数 + +keepdims:数据类型为int;含义:是否保留缩减后的维度;默认为1 + +## 支持的ONNX版本 + +Opset v11/v13 + +

ReduceLogSumExp

+ +## 功能 + +计算输入张量指定方向的对数和的指数 + +## 边界 + +【输入】 + +一个输入 + +data:一个tensor,数据类型:float16, float32 + +【输出】 + +一个输出 + +reduced:一个tensor,数据类型:float16, float32 + +【属性】 + +axes:一维tensor,数据类型int32、int64,含义:指定计算轴;取值范围:\[-r, r-1\],r是输入数据的维数 + +keepdims:数据类型为int;含义:是否缩减维度;默认为1表示缩减维度 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

ReduceMin

+ +## 功能 + +计算输入张量指定方向的最小值 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个tensor,数据类型:float16、float32 + +【属性】 + +axes:数据类型为listInt;含义:指定计算轴;取值范围:\[-r, r-1\],r是输入数据的维数 + +keepdims:数据类型为int;含义:是否保留缩减后的维度;默认为1 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

ReduceMean

+ +## 功能 + +计算输入张量的指定维度的元素的均值 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的type和format + +【属性】 + +axes:一个1D的整数列表,含义:指定精减的维度,取值范围为\[-r, r - 1\],r是输入矩阵的秩 + +keepdims:数据类型为int,默认为1,含义:是否保留缩减后的维度 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

ReduceProd

+ +## 功能 + +计算输入张量的元素沿所提供的轴的乘积。如果keepdim等于1,得到的张量的秩与输入的相同。如果keepdim等于0,那么得到的张量就会被精简维数。 + +## 边界 + +【输入】 + +data:tensor\(uint32\), tensor\(uint64\), tensor\(int32\), tensor\(int64\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\) + +【输出】 + +reduced:tensor\(uint32\), tensor\(uint64\), tensor\(int32\), tensor\(int64\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\) + +【属性】 + +axes: list of ints + +keepdims: int,默认值:1 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

ReduceSumSquare

+ +## 功能 + +沿所提供的轴计算输入张量元素的平方和。如果keepdim等于1,得到的张量的秩与输入的相同。如果keepdim等于0,那么得到的张量就会被精简维数。上述行为与numpy类似,只是numpy默认keepdim为False而不是True。 + +## 边界 + +【输入】 + +data:tensor\(uint32\), tensor\(uint64\), tensor\(int32\), tensor\(int64\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\) + +【输出】 + +reduced:tensor\(uint32\), tensor\(uint64\), tensor\(int32\), tensor\(int64\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\) + +【属性】 + +axes: list of ints + +keepdims: int,默认值:1 + +## 支持的ONNX版本 + +Opset v1/v8/v9/v10/v11/v12/v13 + +

Resize

+ +## 功能 + +调整输入tensor大小 + +## 边界 + +【输入】 + +4个输入 + +x:一个tensor,数据类型:float16、float32 + +roi: 被输入图像归一化的1Dtensor,\[start1, ..., startN, end1, ..., endN\],数据类型:float16、float32 + +scales:与输入x的秩相等的数组 + +sizes:输出tensor的size + +【输出】 + +一个输出 + +y:缩放后的张量 + +【属性】 + +coordinate\_transformation\_mode:str,默认为half\_pixel,含义:定义缩放后图像与原图像的坐标转换 + +cubic\_coeff\_a:float,默认为-0.75,含义:三次插值系数 + +exclude\_outside:int,默认为0,含义:超出tensor外的权重 + +mode:str,默认为nearest,含义:插值算法,包括nearest, linear and cubic + +nearest\_mode:str,默认为round\_prefer\_floor,含义:最近邻算子模式 + +【约束】 + +目前仅支持nearest和linear插值方式来处理图片,并且需要修改模型将输入scales或sizes由placeholder改为const类型,可以使用onnxsimplifier简化模型 + +## 支持的ONNX版本 + +Opset v10/v11/v12 + +

Relu

+ +## 功能 + +整流线性单位函数 + +## 边界 + +【输入】 + +X:输入张量,数据类型:float32、int32、uint8、int16、int8、uint16、float16、qint8 + +【输出】 + +Y:输出张量,数据类型与X一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

ReduceSum

+ +## 功能 + +计算输入张量指定维度的元素的和 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个张量,和输入x的type和format相同 + +【属性】 + +axes:一个1D的整数列表,含义:指定精减的维度,取值范围为\[-r, r - 1\](r是输入矩阵的秩) + +keepdims:数据类型为int,默认为1,含义:是否保留缩减后的维度 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

ReduceMax

+ +## 功能 + +计算输入张量指定方向的最大值 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32、int32 + +【输出】 + +一个输出 + +y:一个tensor,数据类型:float16、float32、int32 + +【属性】 + +axes:数据类型为listInt;含义:指定计算轴;取值范围:\[-r, r-1\],r是输入数据的秩 + +keepdims:数据类型为int;含义:是否保留缩减后的维度;默认为1 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Reshape

+ +## 功能 + +改变输入维度 + +## 边界 + +【输入】 + +两个输入 + +data:一个张量 + +shape:一个张量,定义了输出张量的形状,int64 + +【输出】 + +reshaped:一个张量 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

ReverseSequence

+ +## 功能 + +根据指定长度对batch序列进行排序 + +## 边界 + +【输入】 + +2个输入 + +x:tensor,rank \>= 2,数据类型:float16、float32 + +sequence\_lens:tensor,每个batch的指定长度,数据类型:int64 + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的type和shape + +【属性】 + +batch\_axis:int,默认为1,含义:指定batch轴 + +time\_axis:int,默认为1,含义:指定time轴 + +## 支持的ONNX版本 + +Opset v10/v11/v12/v13 + +

RoiExtractor

+ +## 功能 + +从特征映射列表中获取ROI特征矩阵 + +## 边界 + +【输入】 + +两个输入 + +features:一个tensor,数据类型:float32,float16 + +rois:一个tensor,数据类型:float32,float16 + +【属性】 + +八个属性: + +finest\_scale:int型 + +roi\_scale\_factor:float型 + +spatial\_scale:float型数组 + +pooled\_height:int型 + +pooled\_width:int型 + +sample\_num:int型 + +pool\_mode:string型 + +aligned:bool型 + +【输出】 + +一个输出 + +y:一个tensor,数据类型:float32,float16 + +## 支持的ONNX版本 + +自定义算子,无对应onnx版本 + +

RoiAlign

+ +## 功能 + +在每个roi区域进行池化处理 + +## 边界 + +【输入】 + +3个输入 + +x:tensor,4D输入,数据类型:float16、float32 + +rois:shape=\(num\_rois, 4\),数据类型:float16、float32 + +batch\_indices :shape=\(num\_rois,\),数据类型:int64 + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的type,shape=\(num\_rois, C, output\_height, output\_width\) + +【属性】 + +mode:string,默认为avg,含义:池化方式 + +output\_height:int,默认为1,含义:y的高度 + +output\_width:int,默认为1,含义:y的宽度 + +sampling\_ratio :int,默认为0,含义:插值算法采样点数 + +spatial\_scale:float,默认为1.0,含义:相对于输入图像的空间采样率 + +【约束】 + +batch\_indices数据类型只能写int32不能写int64 + +不支持atc工具参数--precision\_mode=must\_keep\_origin\_dtype时fp32,fp64的输入 + +## 支持的ONNX版本 + +Opset v10/v11/v12/v13 + +

Round

+ +## 功能 + +对输入张量做四舍五入的运算 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32、double + +【输出】 + +一个输出 + +y:一个tensor,数据类型和shape与输入一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

PRelu

+ +## 功能 + +PRelu激活函数 + +## 边界 + +【输入】 + +两个输入 + +x:一个tensor,数据类型:float16、float32 + +slope:slope张量,数据类型和输入x一致 + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的type和shape + +【约束】 + +slope必须是1维,当输入x的shape是1维时,slope的维度值必须为1;输入x的shape是其他维度时,slope的维度值可以为1或者为输入x的shape\[1\] + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Scatter

+ +## 功能 + +根据updates和indices来更新data的值,并把结果返回。 + +## 边界 + +【输入】 + +3个输入 + +data: tensor,数据类型是float16,float,int32 + +indices:tensor,数据类型是int32、int64 + +updates:tensor,数据类型同data + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的shape和dtype + +【属性】 + +axis:int,默认是0,表示沿axis取数据 + +## 支持的ONNX版本 + +Opset v9/v10 + +

ScatterElements

+ +## 功能 + +根据updates和indices来更新data的值,并把结果返回。 + +## 边界 + +【输入】 + +1个输入 + +data: tensor,数据类型是float16,float,int32 + +indices:tensor,数据类型是int32、int64 + +updates:tensor,数据类型同data + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的shape和dtype + +【属性】 + +axis:int,默认是0,表示沿axis取数据 + +## 支持的ONNX版本 + +Opset v11/v12/v13 + +

ScatterND

+ +## 功能 + +创建data的拷贝,同时在指定indices处根据updates更新 + +## 边界 + +【输入】 + +3个输入 + +data:tensor,rank \>= 1,数据类型:float16、float32 + +indices:tensor,rank \>= 1,数据类型:int64 + +updates:tensor,rank = q + r - indices\_shape\[-1\] - 1,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的type和shape + +## 支持的ONNX版本 + +Opset v11 + +

Shrink

+ +## 功能 + +单输入单输出计算,If x < -lambd, y = x + bias; If x \> lambd, y = x - bias; Otherwise, y = 0. + +## 边界 + +【输入】 + +1个输入 + +data: tensor,数据类型是float16,float + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的shape和dtype + +【属性】 + +bias:float,默认是0.0 + +lambda:float,默认是0.5 + +## 支持的ONNX版本 + +Opset v9/v10/v11/ v12/v13 + +

Selu

+ +## 功能 + +在元素级别使用指数线性单位函数y = gamma \* \(alpha \* e^x - alpha\) for x <= 0, y = gamma \* x for x \> 0 生成张量 + +## 边界 + +【输入】 + +一个输入 + +x:fp16,fp32,double类型的tensor + +两个属性 + +alpha:乘数因子 + +gamma:乘数因子 + +【输出】 + +一个输出 + +y:与输入类型相同的tensor + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Shape

+ +## 功能 + +获取输入tensor的shape + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor + +【输出】 + +y:输入tensor的shape,数据类型为int64的tensor + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Sigmoid

+ +## 功能 + +对输入做sigmoid + +## 边界 + +【输入】 + +一个输入 + +x:数据类型支持float16、float32 + +【输出】 + +一个输出 + +y:数据类型和输入x一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Slice

+ +## 功能 + +获取输入tensor的切片 + +## 边界 + +【输入】 + +五个输入 + +x:输入的tensor,数据类型:float16、float32、int32、uint8、bool、int8 + +starts:1Dtensor,int32或者int64,表示开始的索引位置 + +ends:1Dtensor,int32或者int64,表示结束的索引位置 + +axes:可选,1Dtensor,int32或者int64,表示切片的轴,取值范围为\[-r, r-1\](r表示输入数据的秩) + +steps:可选,1Dtensor,int32或者int64,表示切片的步长,最后一个轴的steps取值必须为1 + +【输出】 + +y:切片后的张量数据,数据类型和输入一致 + +【约束】 + +x:输入tensor维度不能为1 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Softmax

+ +## 功能 + +对输入进行softmax + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32、double + +【输出】 + +一个输出 + +y:一个tensor,类型和shape与输入x一致 + +【属性】 + +axis:Int,可选,表示进行softmax的方向,默认值为-1,范围为\[ -len\(x.shape\), len\(x.shape\)-1\] + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Softsign

+ +## 功能 + +计算输入张量的softsign\(x/\(1+|x|\)\) + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32、double + +【输出】 + +一个输出 + +y:一个tensor,数据类型和shape与输入一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Softplus

+ +## 功能 + +计算softplus + +## 边界 + +【输入】 + +一个输入 + +X:1D的输入张量 + +【输出】 + +一个输出 + +Y:1D的张量 + +【约束】 + +数据类型仅支持float16、float32 + +输入、输出的数据类型一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

SpaceToDepth

+ +## 功能 + +SpaceToDepth将空间数据块重新排列成深度。更具体地说,这个op输出一个输入张量的副本,其中高度和宽度维度的值移动到深度维度。 + +## 边界 + +【输入】 + +input:tensor\(uint8\), tensor\(uint16\), tensor\(uint32\), tensor\(uint64\), tensor\(int8\), tensor\(int16\), tensor\(int32\), tensor\(int64\), tensor\(bfloat16\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(string\), tensor\(bool\), tensor\(complex64\), tensor\(complex128\) + +【输出】 + +output:tensor\(uint8\), tensor\(uint16\), tensor\(uint32\), tensor\(uint64\), tensor\(int8\), tensor\(int16\), tensor\(int32\), tensor\(int64\), tensor\(bfloat16\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(string\), tensor\(bool\), tensor\(complex64\), tensor\(complex128\) + +【属性】 + +blocksize: int + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Split

+ +## 功能 + +将输入切分成多个输出 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32、int8、int16、int32、int64、uint8、uint16、uint32、uint64 + +【输出】 + +一个输出 + +y:由多个输出tensor组成的列表,每个tensor数据类型和输入x一致 + +【属性】 + +split:list,数据类型:int8、int16、int32、int64,指定每个输出tensor沿着切分方向的大小 + +axis:数据类型:int8、int16、int32、int64,指定切分的方向 + +【约束】 + +split的每个元素必须\>=1 + +split的所有元素之和必须等于axis指定的切分方向的size + +axis在\[ -len\(x.shape\), len\(x.shape\)-1\] 之间 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Sqrt

+ +## 功能 + +计算元素的平方根 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor + +【输出】 + +一个输出 + +y:一个tensor + +【约束】 + +输入、输出的数据类型相同,支持的数据类型:float16、float32 + +如果x小于0,返回Nan + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Squeeze

+ +## 功能 + +从输入中去除尺寸为1的维度 + +## 边界 + +【输入】 + +一个输入 + +x:一个张量,数据类型:float16、float32、double、uint8、uint16、uint32、uint64、int8、int16、int32、int64、bool + +【输出】 + +y:一个tensor,数据类型和输入一致 + +【属性】 + +axes:一个数据类型为int32或者int64的整形列表,维度为1;取值范围为\[-r, r-1\](r表示输入张量的秩,负数表示从后面计算维度);含义:指定要去除的维度 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Sub

+ +## 功能 + +进行张量的减法运算 + +## 边界 + +【输入】 + +两个输入 + +x1:一个tensor + +x2:一个tensor + +【输出】 + +一个输出 + +y:一个张量,数据类型和输入一致 + +【约束】 + +输入、输出的shape和dtype相同,支持的数据类型:int32、float16、float32 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Sign

+ +## 功能 + +逐元素计算输入tensor的符号 + +## 边界 + +【输入】 + +1个输入 + +x:tensor,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的type和shape + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Sin

+ +## 功能 + +计算输入张量的正弦值 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32、double + +【输出】 + +一个输出 + +y:一个tensor,数据类型和shape与输入一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Sinh

+ +## 功能 + +计算输入张量双曲正弦值 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32、double + +【输出】 + +一个输出 + +y:一个tensor,数据类型和shape与输入一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Size

+ +## 功能 + +计算输入tensor的元素个数 + +## 边界 + +【输入】 + +1个输入 + +x:tensor,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个int64的scalar + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Sum

+ +## 功能 + +求和 + +## 边界 + +【输入】 + +1个输入 + +x:tensor序列,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的type和shape + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Tanh

+ +## 功能 + +计算输入的双曲正切值 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个tensor,数据类型与输入一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

TfIdfVectorizer

+ +## 功能 + +将输入文本序列向量化 + +## 边界 + +【输入】 + +1个输入 + +data: tensor,数据类型是int32,int64 + +【输出】 + +一个输出 + +y:一个张量,数据类型是float + +【属性】 + +max\_gram\_length:int,最大n-gram长度 + +max\_skip\_count:int,从data中构造n-gram时最多skip数 + +min\_gram\_length:int,最小n-gram长度 + +mode:string,加权模式。可选为"TF" \(term frequency\), "IDF" \(inverse document frequency\)和"TFIDF" \(the combination of TF and IDF\) + +ngram\_counts:int列表,n-gram池化的开始索引,有助于确认两个连续n-gram边界 + +ngram\_indexes:int列表,第i个元素表示输出tensor中第i个n-gram的坐标 + +pool\_int64s:int列表,不能与pool\_strings同时赋值,表示从训练集学到的n-grams + +pool\_strings:string列表,与pool\_int64s含义一样。 + +weights:float列表,存储每个n-gram的池化权重数值 + +## 支持的ONNX版本 + +Opset v9/v10/v11/ v12/v13 + +

Tile

+ +## 功能 + +将输入张量沿指定维度重复 + +## 边界 + +【输入】 + +两个输入 + +x:一个tensor + +repeats:一个1D的int64的tensor,size和输入的维度数一样 + +【输出】 + +一个输出 + +y:输出的tensor,type和维度与输入一致,output\_dim\[i\] = input\_dim\[i\] \* repeats\[i\] + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

ThresholdedRelu

+ +## 功能 + +当x \> alpha时y = x,否则y=0 + +## 边界 + +【输入】 + +1个输入 + +x:tensor,数据类型:float16、float32 + +【输出】 + +一个输出 + +y:一个张量,和输入x同样的type和shape + +【属性】 + +alpha:float,默认为1.0,含义:阈值 + +## 支持的ONNX版本 + +Opset v10/v11/v12/v13 + +

TopK

+ +## 功能 + +返回指定轴的k个最大或最小值 + +## 边界 + +【输入】 + +2个输入 + +x:tensor,数据类型:float16、float32 + +k:tensor,数据类型:int64 + +【输出】 + +2个输出 + +Values:topk的返回值 + +Indices:topk的返回值索引 + +【属性】 + +axis:int,默认为-1,含义:指定排序的轴 + +largest:int,默认为1,含义:返回k个最大/最小值 + +sorted:int,默认为1,含义:是否升序 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Transpose

+ +## 功能 + +转置 + +## 边界 + +【输入】 + +data:一个张量,数据类型:float16、float32、int8、int16、int32、int64、uint8、uint16、uint32、uint64 + +【输出】 + +transposed:转置之后的张量 + +【属性】 + +perm:必选,整数列表, 张量data的维度排列 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Pad

+ +## 功能 + +对输入tensor做填充 + +## 边界 + +【输入】 + +两个输入 + +x:数据类型支持float16、float32、int32 + +pads:数据类型支持int32 、int64 + +【输出】 + +一个输出 + +y:数据类型和输入x一致 + +【约束】 + +当mode值为constant时,目前仅支持constant\_value=0 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Pow

+ +## 功能 + +计算输入x1的x2次幂 + +## 边界 + +【输入】 + +两个输入 + +x1:一个tensor,数据类型:float16、float32、double、int32、int8、uint8 + +x2:一个tensor,数据类型和输入x1一致 + +【输出】 + +一个输出 + +y:数据类型和输入x1一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Unsqueeze

+ +## 功能 + +在输入张量(数据)的形状中插入一维项 + +## 边界 + +【输入】 + +一个输入 + +x:一个tensor,数据类型:uint8、uint16、uint32、int8、int16、int32、float16、float32 + +【输出】 + +一个输出 + +y:一个tensor,数据类型和输入x一致 + +【属性】 + +axes:ListInt,表示在指定的维度进行插1维项,取值范围为\[-input\_rank, input\_rank\],input\_rank为输入张量的秩,axes的内容不可以重复 + +## 支持的ONNX版本 + +Opset v8/v9/10/v11/v12 + +

Xor

+ +## 功能 + +输入张量元素的xor逻辑运算 + +## 边界 + +【输入】 + +两个输入 + +a:一个tensor,数据类型bool + +b:一个tensor,数据类型bool + +【输出】 + +c:一个tensor,数据类型bool + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 + +

Where

+ +## 功能 + +根据条件从两个输入中选择元素 + +## 边界 + +【输入】 + +三个输入 + +condition,条件,数据类型:bool + +x:一个tensor,条件为true时从x中选取元素,数据类型支持float16、float32、int8、int32、uint8 + +y:一个tensor,条件为false时从y中选取元素,和x的数据类型一致 + +【输出】 + +一个tensor,数据类型和输入x一致 + +## 支持的ONNX版本 + +Opset v8/v9/v10/v11/v12/v13 +