静态Loss Scale功能
@@ -1234,12 +1270,12 @@ def main():
**图 1** 远程登录控制台

-2. 在虚拟界面工具栏中,单击启动项工具,弹出启动项配置界面,如[图2](#fig744814574243)。
+2. 在虚拟界面工具栏中,单击启动项工具,弹出启动项配置界面,如[图2](#fig744814574243)。
**图 2** 启动项工具

-3. 在启动项配置界面选择,选择“BIOS设置”,然后在虚拟界面工具栏中单击重启工具,重启服务器。
+3. 在启动项配置界面选择,选择“BIOS设置”,然后在虚拟界面工具栏中单击重启工具,重启服务器。
4. 系统重启后进入BIOS配置界面,依次选择“Advanced”\>“Socket Configuration”,如[图3](#fig4546303814)所示。
**图 3** Socket Configuration
@@ -1322,7 +1358,6 @@ def main():
systemctl start cpupower
```
-
3. 设置CPU为performance模式。
```
@@ -1342,12 +1377,12 @@ def main():
**图 1** 远程登录控制台

-2. 在虚拟界面工具栏中,单击启动项工具,弹出启动项配置界面,如[图2](#fig744814574243)。
+2. 在虚拟界面工具栏中,单击启动项工具,弹出启动项配置界面,如[图2](#fig744814574243)。
**图 2** 启动项工具

-3. 在启动项配置界面选择,选择“BIOS设置”,然后在虚拟界面工具栏中单击重启工具,重启服务器。
+3. 在启动项配置界面选择,选择“BIOS设置”,然后在虚拟界面工具栏中单击重启工具,重启服务器。
4. 系统重启后进入BIOS配置界面,依次选择“Advanced”\>“ Performance Config”,如[图3](#fig4546303814)所示。
**图 3** Performance Config
@@ -1420,7 +1455,10 @@ def main():
模型训练
-训练脚本迁移完成后,需要参见[配置环境变量](#配置环境变量.md)设置环境变量,然后执行**python3.7** _xxx_进行模型训练。具体样例请参考[脚本执行](#脚本执行.md)。
+训练脚本迁移完成后,需要参见[配置环境变量](#配置环境变量.md)设置环境变量,然后执行**python3** _xxx_进行模型训练。具体样例请参考[脚本执行](#脚本执行.md)。
+
+> **说明:**
+>执行“python3 xxx“命令时,须将python3软链接到与当前pytorch适配版本的python安装路径。
性能调优和分析
@@ -1461,23 +1499,51 @@ def main():
## Profiling数据采集
-当吞吐量指标不达标时,需要通过采集训练过程中的profiling数据,分析哪个环节、哪个算子导致的性能消耗。请参见以下步骤进行profiling数据的获取。
+当模型训练过程中吞吐量指标不达标时,可以通过采集训练过程中的profiling数据,分析哪个环节、哪个算子导致的性能消耗。Profiling数据采集分为PyTorch层面和CANN层面的采集,PyTorch层面采集的是PyTorch API的数据,CANN层面采集的是TBE算子的数据。
-1. 获取chrome\_trace文件。使用profile接口对原始代码的loss计算和优化过程进行改造。
+请参见以下方式进行profiling数据的获取,并根据实际情况选择需要的数据采集方式。
+
+- PyTorch层面Profiling数据采集。
+ 1. 获取chrome\_trace文件。
+
+ 使用profile接口对原始代码的loss计算和优化过程进行改造。
+
+ ```
+ # 使用ascend-pytorch适配的profile接口,即可获得,推荐只运行一个step
+ with torch.autograd.profiler.profile(use_npu=True) as prof:
+ out = model(input_tensor)
+ loss=loss_func(out)
+ loss.backward()
+ optimizer.zero_grad()
+ optimizer.step()
+ # 导出chrome_trace文件到指定路径
+ output_path = '/home/HwHiAiUser/profile_data.json'
+ prof.export_chrome_trace(output_path)
+ ```
+
+ 2. 查看chrome\_trace文件。
+
+ chrome\_trace文件可以通过以下方式打开查看:在Chrome浏览器中输入“chrome://tracing“地址,然后将落盘文件拖到空白处即可打开文件内容,通过键盘W、A、S、D键,可以对profiler的结果进行缩放和移动。
+
+
+- CANN层面Profiling数据采集。
+ 1. 获取性能数据文件。
+
+ ```
+ profiler_result_path = "/home/profiling_data" # profiling 数据保存的文件夹,需提前手动创建,请根据实际指定。
+ with torch.npu.profile(profiler_result_path) as prof:
+ out = model(input_tensor)
+ loss=loss_func(out)
+ loss.backward()
+ optimizer.zero_grad()
+ optimizer.step()
+ ```
+
+ 2. 解析性能数据文件。
+
+ 请参见《CANN 开发辅助工具指南》中“Profiling工具使用指南(训练)”章节。
- ```
- # 使用ascend-pytorch适配的profile接口,即可获得,推荐只运行一个step
- with torch.autograd.profiler.profile(use_npu=True) as prof:
- out = model(input_tensor)
- loss=loss_func(out)
- loss.backward()
- optimizer.zero_grad()
- optimizer.step()
- # 导出chrome_trace文件到指定路径
- prof.export_chrome_trace(output_path)
- ```
-2. chrome\_trace文件可以通过以下方式打开查看:在Chrome浏览器中输入“chrome://tracing“地址,然后将落盘文件拖到空白处即可打开文件内容,通过键盘W、A、S、D键,可以对profiler的结果进行缩放和移动。
## 获取算子信息OP\_INFO
@@ -1541,7 +1607,7 @@ def main():
5. 解析host侧日志会在当前目录下得到OPInfo信息ascend\_op\_info\_summary.txt。
```
- python3.7 get_ascend_op_info.py --host_log_folder $HOME/ascend/log/plog
+ python3 get_ascend_op_info.py --host_log_folder $HOME/ascend/log/plog
```
6. 分析TaskInfo中额外的task,尤其关注transdata。
@@ -1675,7 +1741,6 @@ def main():
- 解决方案:改进算子精度或功能问题。
-
2. loss计算错误。
- 定位思路:由于Loss的特殊性和可以自定义,在判断Loss计算错误后建议dump网络中的loss的输入来测试而非随机同shape tensor,这样才能更好地复现证明。
@@ -1683,7 +1748,6 @@ def main():
- 解决方案:改进算子精度或功能问题(loss也是由算子构成)。
-
3. 参数更新错误。
- 定位思路:在每个optim.step\(\)前对网络中的参数逐个打印其grad进行排查判断是哪个地方有较大嫌疑,然后构建单算子用例逐渐缩小错误范围,证明该算子在当前网络场景下梯度计算有误,可以对比CPU或GPU结果证明。该项优先级应低于[1.](#li17755175510322)与[2.](#li25281726103316),因为1与2的错误同样可以造成grad异常。
@@ -1692,7 +1756,6 @@ def main():
- 解决方案:改进计算grad的算子精度或功能问题。
-
4. 多卡计算错误。
- 定位思路:在保证单卡精度OK的前提下,稳定复现多卡不收敛。
@@ -1703,6 +1766,55 @@ def main():
精度调优方法
+模型出现精度问题一般有:因算子溢出导致的训练loss不收敛或者精度不达标问题,整个网络训练引起的性能不达标问题。用户可通过单算子溢出检测和整网调测适度解决模型精度不达标问题。
+
+- **[单算子溢出检测](#单算子溢出检测.md)**
+
+- **[整网调测](#整网调测.md)**
+
+
+单算子溢出检测
+
+用户通过采集训练过程中各算子的运算结果(即Dump数据),然后查看算子是否产生溢出,从而帮助开发人员快速定位并解决算子精度问题。
+
+## 约束说明
+
+- 需要安装hdf5工具以支持算子dump功能,安装详情请参见[编译安装hdf5](#编译安装hdf5.md);
+- 本功能只提供IR级别的算子溢出检测,且只支持AICORE的溢出检测,不支持Atomic溢出检测;
+- 须在PyTorch源代码“build.sh“文件中添加“USE\_DUMP=1”字段。
+
+ ```
+ 修改前: DEBUG=0 USE_DISTRIBUTED=1 USE_HCCL=1 USE_MKLDNN=0 USE_CUDA=0 USE_NPU=1 BUILD_TEST=0 USE_NNPACK=0 python3 setup.py build bdist_wheel
+ 修改后: DEBUG=0 USE_DISTRIBUTED=1 USE_HCCL=1 USE_MKLDNN=0 USE_CUDA=0 USE_NPU=1 BUILD_TEST=0 USE_NNPACK=0 USE_DUMP=1 python3 setup.py build
+ ```
+
+ 并参见《PyTorch安装指南》的“手动编译安装”章节重新编译并安装PyTorch。
+
+- 使用单算子溢出检测功能时,请不要同时开启apex的动态loss scale模式和使用tensor融合功能。
+
+## 采集算子Dump数据
+
+```
+# check_overflow为溢出检测控制开关
+# dump_path为dump文件保存路径
+with torch.utils.dumper(check_overflow=check_overflow, dump_path=dump_path, load_file_path='') as dump:
+ # 需要算子采集的代码片段
+```
+
+模型运行过程中,如果有算子溢出,会打印出相应IR的名字。
+
+## 查看Dump数据
+
+如果训练过程中采集到了Dump数据,则会在\{dump\_path\}路径下生成dump数据的.h5文件,用户可进入路径自行查看。
+
+## 解决方法
+
+请将算子溢出的打印截图及采集到的.h5文件通过Issue附件形式反馈给华为开发人员。
+
+整网调测
+
+用户也可通过分析整个网络的方式来进行网络模型的精度调测。
+
1. 通过对比CPU和昇腾AI处理器的结果,判断在昇腾AI处理器上计算是否正确。
代码样例(本样例只体现基本方法,禁止直接复制)如下:
@@ -1780,7 +1892,7 @@ def main():
离线推理应用构建请参考《CANN 应用软件开发指南\(C&C++, 推理\)》。整体流程如下:
-
+
模型保存
@@ -1813,7 +1925,6 @@ Pytorch在训练过程中,通常使用torch.save\(\)来保存Checkpoint文件
model.eval()
```
-
> **须知:**
>保存.pth或.pt文件扩展名的文件时要提供模型定义文件,否则无法部署。
@@ -2061,10 +2172,10 @@ if __name__ == "__main__":
# if not torch.cuda.is_available():
# print('using CPU, this will be slow')
# elif args.distributed:
- ############## npu modify begin #############
+ ############## npu modify begin #############
# 迁移后为直接判断是否进行分布式训练,去掉判断是否在GPU上进行训练
if args.distributed:
- ############## npu modify end #############
+ ############## npu modify end #############
# For multiprocessing distributed, DistributedDataParallel constructor
# should always set the single device scope, otherwise,
# DistributedDataParallel will use all available devices.
@@ -2122,7 +2233,6 @@ if __name__ == "__main__":
############## npu modify end #############
```
-
- 代码位置:main.py文件中的validate\(\)函数(修改部分为字体加粗部分):
```
@@ -2142,7 +2252,6 @@ if __name__ == "__main__":
############## npu modify end #############
```
-
6. 设置当前正在使用的device。
代码位置:main.py文件中的主函数入口(修改部分为字体加粗部分):
@@ -2395,7 +2504,7 @@ if __name__ == "__main__":
if args.amp:
model, optimizer = amp.initialize(model, optimizer, opt_level=args.opt_level, loss_scale=args.loss_scale)
- model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[args.gpu], broadcast_buffers=False)
+ model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[args.gpu])
# optionally resume from a checkpoint
if args.resume:
@@ -2525,7 +2634,7 @@ if __name__ == "__main__":
单卡:
```
-python3.7 main.py /home/data/resnet50/imagenet --batch-size 128 \ # 训练批次大小
+python3 main.py /home/data/resnet50/imagenet --batch-size 128 \ # 训练批次大小
--lr 0.1 \ # 学习率
--epochs 90 \ # 训练迭代轮数
--arch resnet50 \ # 模型架构
@@ -2539,7 +2648,7 @@ python3.7 main.py /home/data/resnet50/imagenet --batch-size 128 \ # 训练
分布式:
```
-python3.7 main.py /home/data/resnet50/imagenet --addr='1.1.1.1' \ # 示例IP地址,请根据实际修改
+python3 main.py /home/data/resnet50/imagenet --addr='1.1.1.1' \ # 示例IP地址,请根据实际修改
--seed 49 \ # 随机种子
--workers 160 \ # 加载数据进程数
--lr 0.8 \
@@ -3112,6 +3221,8 @@ for group in [2, 4, 8]:
- **[安装7.3.0版本gcc](#安装7-3-0版本gcc.md)**
+- **[编译安装hdf5](#编译安装hdf5.md)**
+
单算子样例编写说明
@@ -3303,7 +3414,7 @@ torch.npu.finalize_dump()
4. 调用Python,转换numpy文件为txt文件。举例:
- **$ python3.7.5**
+ **$ python3**
**\>\>\> import numpy as np**
@@ -3431,6 +3542,43 @@ torch.npu.finalize_dump()
>本步骤为用户在需要用到gcc升级后的编译环境时才配置环境变量。
+编译安装hdf5
+
+以下步骤请在root用户下执行。
+
+1. 获取代码。
+
+ ```
+ git clone https://github.com/HDFGroup/hdf5.git
+ ```
+
+2. 切换到hdf5-1\_10\_7分支。
+
+ ```
+ cd hdf5
+ git checkout remotes/origin/hdf5_1_10_7
+ ```
+
+3. 编译hdf5。
+
+ ```
+ ./configure --prefix=/usr/local/hdf5 --enable-cxx
+ make -j72 #-j 后的数值可以根据CPU的核数设置
+ make check # run test suite.
+ make install
+ make check-install # verify installation.
+ ```
+
+4. 添加环境变量。
+
+ ```
+ export PATH=/usr/local/hdf5/bin:$PATH
+ export LD_LIBRARY_PATH=/usr/local/hdf5/lib:$LD_LIBRARY_PATH
+ export LIBRARY_PATH=/usr/local/hdf5/lib:$LIBRARY_PATH
+ export CPATH=/usr/local/hdf5/include:$CPATH
+ ```
+
+
FAQ
- **[软件安装常见问题](#软件安装常见问题.md)**
@@ -3488,7 +3636,7 @@ pip3.7 install pillow==5.3.0安装失败。
- **[在模型运行时遇到报错“MemCopySync:drvMemcpy failed.”](#在模型运行时遇到报错-MemCopySync-drvMemcpy-failed.md)**
-- **[在模型运行时遇到报错“MemCopySync:drvMemcpy failed.”1](#在模型运行时遇到报错-MemCopySync-drvMemcpy-failed-1.md)**
+- **[在模型运行时遇到报错“MemCopySync:drvMemcpy failed.”](#在模型运行时遇到报错-MemCopySync-drvMemcpy-failed-7.md)**
- **[在模型运行时将多任务下发关闭\(export TASK\_QUEUE\_ENABLE=0\)后仍然遇到报错“HelpACLExecute.”](#在模型运行时将多任务下发关闭(export-TASK_QUEUE_ENABLE-0)后仍然遇到报错-HelpACLExecute.md)**
@@ -3677,7 +3825,7 @@ shell报错是在同步操作中和AI CPU错误,而日志报错信息却是在
4. 打印stack所有参数的shape、dtype、npu\_format,通过构造单算子用例复现问题。定位到问题原因为减法计算输入参数数据类型不同,导致a-b和b-a结果的数据类型不一致,最终在stack算子中报错。
5. 将stack入参数据类型转换为一致即可临时规避问题。
-在模型运行时遇到报错“MemCopySync:drvMemcpy failed.”1
+在模型运行时遇到报错“MemCopySync:drvMemcpy failed.”
## 现象描述
@@ -3884,7 +4032,7 @@ pytorch算子在npu上运行,通过ACL接口调用底层经过优化的算子
## 现象描述
-
+
## 可能原因
diff --git "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/FAQ12.png" "b/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/FAQ12.png"
deleted file mode 100644
index dfe1d90a7e99b19c64039c771b8f0f3ee095489d..0000000000000000000000000000000000000000
Binary files "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/FAQ12.png" and /dev/null differ
diff --git "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/model_faq11_20210728.jpg" "b/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/model_faq11_20210728.jpg"
new file mode 100644
index 0000000000000000000000000000000000000000..ac24282446804eb5ee80070a09978910919d103a
Binary files /dev/null and "b/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/model_faq11_20210728.jpg" differ
diff --git "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001106176216.png" "b/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001106176216.png"
deleted file mode 100644
index ede83f4bc1b0ed21a9c746c358c45681d5ffb49a..0000000000000000000000000000000000000000
Binary files "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001106176216.png" and /dev/null differ
diff --git "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001106176222.png" "b/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001144082132.png"
similarity index 100%
rename from "docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001106176222.png"
rename to "docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001144082132.png"
diff --git "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001152616281.png" "b/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001144082138.png"
similarity index 100%
rename from "docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001152616281.png"
rename to "docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001144082138.png"
diff --git "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001106016350.png" "b/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001144241932.png"
similarity index 100%
rename from "docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001106016350.png"
rename to "docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001144241932.png"
diff --git "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001152736233.png" "b/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001190201999.png"
similarity index 100%
rename from "docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001152736233.png"
rename to "docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001190201999.png"
diff --git "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001152616289.png" "b/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001190202013.png"
similarity index 100%
rename from "docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001152616289.png"
rename to "docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/zh-cn_image_0000001190202013.png"
diff --git "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/\347\216\257\345\242\203\345\207\206\345\244\207\346\265\201\347\250\213\345\233\276.png" "b/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/\347\216\257\345\242\203\345\207\206\345\244\207\346\265\201\347\250\213\345\233\276.png"
deleted file mode 100644
index cdda4fab2365a81d54807e9118cc617a25b8f4f2..0000000000000000000000000000000000000000
Binary files "a/docs/zh/PyTorch\347\275\221\347\273\234\346\250\241\345\236\213\347\247\273\346\244\215&\350\256\255\347\273\203\346\214\207\345\215\227/figures/\347\216\257\345\242\203\345\207\206\345\244\207\346\265\201\347\250\213\345\233\276.png" and /dev/null differ
diff --git "a/docs/zh/PyTorch\351\200\202\351\205\215\347\256\227\345\255\220\346\270\205\345\215\225/PyTorch\351\200\202\351\205\215\347\256\227\345\255\220\346\270\205\345\215\225.md" "b/docs/zh/PyTorch\351\200\202\351\205\215\347\256\227\345\255\220\346\270\205\345\215\225/PyTorch\351\200\202\351\205\215\347\256\227\345\255\220\346\270\205\345\215\225.md"
index 6b13eaeb75451e1ef70e93f46ff1ec2a4a031e07..c253042254a7ad957ea721d152cd4c77f4b43aa1 100644
--- "a/docs/zh/PyTorch\351\200\202\351\205\215\347\256\227\345\255\220\346\270\205\345\215\225/PyTorch\351\200\202\351\205\215\347\256\227\345\255\220\346\270\205\345\215\225.md"
+++ "b/docs/zh/PyTorch\351\200\202\351\205\215\347\256\227\345\255\220\346\270\205\345\215\225/PyTorch\351\200\202\351\205\215\347\256\227\345\255\220\346\270\205\345\215\225.md"
@@ -1,868 +1,6184 @@
-# **PyTorch适配算子清单**
-- **[PyTorch原生API昇腾算子对应表](#PyTorch原生API昇腾算子对应表.md)**
-- **[PyTorch昇腾自定义算子](#PyTorch昇腾自定义算子.md)**
-PyTorch原生API昇腾算子对应表
-
-| 序号 | PyTorch 原生算子 | 昇腾适配算子 |
-| ---- | ------------------------------------------- | --------------------------------------------- |
-| 1 | dropout | dropout_npu |
-| 2 | dropout_ | dropout_npu_ |
-| 3 | abs | abs_npu |
-| 4 | abs_ | abs_npu_ |
-| 5 | abs.out | abs_out_npu |
-| 6 | acos | acos_npu |
-| 7 | acos_ | acos_npu_ |
-| 8 | acos.out | acos_out_npu |
-| 9 | adaptive_avg_pool1d | adaptive_avg_pool1d_npu |
-| 10 | add.Tensor | add_npu |
-| 11 | add_.Tensor | add_npu_ |
-| 12 | add.out | add_out_npu |
-| 13 | add.Scalar | add_npu |
-| 14 | add_.Scalar | add_npu_ |
-| 15 | addmv | addmv_npu |
-| 16 | addmv_ | addmv_npu_ |
-| 17 | addmv.out | addmv_out_npu |
-| 18 | addr | addr_npu |
-| 19 | addr_ | addr_npu_ |
-| 20 | addr.out | addr_out_npu |
-| 21 | affine_grid_generator | affine_grid_generator_npu |
-| 22 | affine_grid_generator_backward | affine_grid_generator_backward_npu |
-| 23 | all.dim | all_npu |
-| 24 | all.out | all_out_npu |
-| 25 | any.dim | any_npu |
-| 26 | any.out | any_out_npu |
-| 27 | arange | arange_npu |
-| 28 | arange.start | arange_npu |
-| 29 | arange.start_step | arange_npu |
-| 30 | arange.out | arange_out_npu |
-| 31 | arange.start_out | arange_out_npu |
-| 32 | _dim_arange | _dim_arange_npu |
-| 33 | argmax | argmax_npu |
-| 34 | argmin | argmin_npu |
-| 35 | as_strided | as_strided_npu |
-| 36 | as_strided_ | as_strided_npu_ |
-| 37 | asin | asin_npu |
-| 38 | asin_ | asin_npu_ |
-| 39 | asin.out | asin_out_npu |
-| 40 | atan | atan_npu |
-| 41 | atan_ | atan_npu_ |
-| 42 | atan.out | atan_out_npu |
-| 43 | baddbmm | baddbmm_npu |
-| 44 | baddbmm_ | baddbmm_npu_ |
-| 45 | baddbmm.out | baddbmm_out_npu |
-| 46 | bartlett_window | bartlett_window_npu |
-| 47 | bartlett_window.periodic | bartlett_window_npu |
-| 48 | batch_norm | batch_norm_npu_ |
-| 49 | _batch_norm_impl_index | _batch_norm_impl_index_npu |
-| 50 | _batch_norm_impl_index_backward | _batch_norm_impl_index_backward_npu |
-| 51 | bernoulli | bernoulli_npu |
-| 52 | bernoulli_.Tensor | bernoulli_npu_ |
-| 53 | bernoulli_.float | bernoulli_npu_ |
-| 54 | binary_cross_entropy | binary_cross_entropy_npu |
-| 55 | binary_cross_entropy.out | binary_cross_entropy_out_npu |
-| 56 | binary_cross_entropy_backward | binary_cross_entropy_backward_npu |
-| 57 | binary_cross_entropy_backward.grad_input | binary_cross_entropy_backward_out_npu |
-| 58 | binary_cross_entropy_with_logits | binary_cross_entropy_with_logits_npu |
-| 59 | binary_cross_entropy_with_logits_backward | binary_cross_entropy_with_logits_backward_npu |
-| 60 | bitwise_not | bitwise_not_npu |
-| 61 | bitwise_not_ | bitwise_not_npu_ |
-| 62 | bitwise_not.out | bitwise_not_out_npu |
-| 63 | logical_not | logical_not_npu |
-| 64 | logical_not_ | logical_not_npu_ |
-| 65 | logical_not.out | logical_not_out_npu |
-| 66 | logical_and | logical_and_npu |
-| 67 | logical_and_ | logical_and_npu_ |
-| 68 | logical_and.out | logical_and_out_npu |
-| 69 | logical_or | logical_or_npu |
-| 70 | logical_or_ | logical_or_npu_ |
-| 71 | logical_or.out | logical_or_out_npu |
-| 72 | blackman_window | blackman_window_npu |
-| 73 | blackman_window.periodic | blackman_window_npu |
-| 74 | bmm | bmm_npu |
-| 75 | bmm.out | bmm_out_npu |
-| 76 | cat | cat_npu |
-| 77 | cat.out | cat_out_npu |
-| 78 | cat.names | cat_npu |
-| 79 | cat.names_out | cat_out_npu |
-| 80 | ceil | ceil_npu |
-| 81 | ceil_ | ceil_npu_ |
-| 82 | ceil.out | ceil_out_npu |
-| 83 | clamp | clamp_npu |
-| 84 | clamp_ | clamp_npu_ |
-| 85 | clamp.out | clamp_out_npu |
-| 86 | clamp_max | clamp_max_npu |
-| 87 | clamp_max_ | clamp_max_npu_ |
-| 88 | clamp_max.out | clamp_max_out_npu |
-| 89 | clamp_min | clamp_min_npu |
-| 90 | clamp_min_ | clamp_min_npu_ |
-| 91 | clamp_min.out | clamp_min_out_npu |
-| 92 | constant_pad_nd | constant_pad_nd_npu |
-| 93 | contiguous | contiguous_npu |
-| 94 | convolution | convolution_npu |
-| 95 | _convolution | _convolution_npu |
-| 96 | _convolution_nogroup | _convolution_nogroup_npu |
-| 97 | conv2d | conv2d_npu_ |
-| 98 | conv3d | _conv3d_npu |
-| 99 | conv_tbc | conv_tbc_npu |
-| 100 | conv_tbc_backward | conv_tbc_backward_npu |
-| 101 | conv_transpose2d.input | conv_transpose2d_npu_ |
-| 102 | copy_ | copy_npu_ |
-| 103 | cos | cos_npu |
-| 104 | cos_ | cos_npu_ |
-| 105 | cos.out | cos_out_npu |
-| 106 | cosh | cosh_npu |
-| 107 | cosh_ | cosh_npu_ |
-| 108 | cosh.out | cosh_out_npu |
-| 109 | cummin | cummin_npu |
-| 110 | cummin.out | cummin_out_npu |
-| 111 | cummin.dimname | cummin_npu |
-| 112 | cummin.dimname_out | cummin_out_npu |
-| 113 | cumprod | cumprod_npu |
-| 114 | cumprod.out | cumprod_out_npu |
-| 115 | cumprod.dimname | cumprod_npu |
-| 116 | cumprod.dimname_out | cumprod_out_npu |
-| 117 | ctc_loss.IntList | ctc_loss_npu |
-| 118 | ctc_loss.Tensor | ctc_loss_npu |
-| 119 | _ctc_loss | ctc_loss_npu |
-| 120 | _ctc_loss_backward | ctc_loss_backward_npu |
-| 121 | fill_diagonal_ | fill_diagonal_npu_ |
-| 122 | div.Tensor | div_npu |
-| 123 | div_.Tensor | div_npu_ |
-| 124 | div.out | div_out_npu |
-| 125 | div.Scalar | div_npu |
-| 126 | div_.Scalar | div_npu_ |
-| 127 | dot | dot_npu |
-| 128 | dot.out | dot_out_npu |
-| 129 | embedding | embedding_npu |
-| 130 | embedding_backward | embedding_backward_npu |
-| 131 | embedding_dense_backward | embedding_dense_backward_npu |
-| 132 | embedding_renorm_ | embedding_renorm_npu_ |
-| 133 | _embedding_bag | _embedding_bag_npu |
-| 134 | empty.memory_format | empty_npu |
-| 135 | resize_ | resize_npu_ |
-| 136 | empty_like | empty_like_npu |
-| 137 | empty_strided | empty_strided_npu |
-| 138 | erf | erf_npu |
-| 139 | erf_ | erf_npu_ |
-| 140 | erf.out | erf_out_npu |
-| 141 | exp | exp_npu |
-| 142 | exp_ | exp_npu_ |
-| 143 | exp.out | exp_out_npu |
-| 144 | expm1 | expm1_npu |
-| 145 | expm1_ | expm1_npu_ |
-| 146 | expm1.out | expm1_out_npu |
-| 147 | eye | eye_npu |
-| 148 | eye.m | eye_npu |
-| 149 | eye.out | eye_out_npu |
-| 150 | eye.m_out | eye_out_npu |
-| 151 | fill_.Scalar | fill_npu_ |
-| 152 | fill_.Tensor | fill_npu_ |
-| 153 | floor | floor_npu |
-| 154 | floor_ | floor_npu_ |
-| 155 | floor.out | floor_out_npu |
-| 156 | floor_divide | floor_divide_npu |
-| 157 | floor_divide_.Tensor | floor_divide_npu_ |
-| 158 | floor_divide.out | floor_divide_out_npu |
-| 159 | floor_divide.Scalar | floor_divide_npu |
-| 160 | floor_divide_.Scalar | floor_divide_npu_ |
-| 161 | frac | frac_npu |
-| 162 | frac_ | frac_npu_ |
-| 163 | frac.out | frac_out_npu |
-| 164 | full.names | full_npu |
-| 165 | full | full_npu |
-| 166 | full.out | full_out_npu |
-| 167 | grid_sampler | grid_sampler_npu |
-| 168 | grid_sampler_3d | grid_sampler_3d_npu |
-| 169 | grid_sampler_3d_backward | grid_sampler_3d_backward_npu |
-| 170 | hann_window | hann_window_npu |
-| 171 | hann_window.periodic | hann_window_npu |
-| 172 | hamming_window | hamming_window_npu |
-| 173 | hamming_window.periodic | hamming_window_npu |
-| 174 | hamming_window.periodic_alpha | hamming_window_npu |
-| 175 | hamming_window.periodic_alpha_beta | hamming_window_npu |
-| 176 | ger | ger_npu |
-| 177 | ger.out | ger_out_npu |
-| 178 | index.Tensor | index_npu |
-| 179 | index_put_ | index_put_npu_ |
-| 180 | index_put | index_put_npu |
-| 181 | _index_put_impl_ | _index_put_impl_npu_ |
-| 182 | inverse | inverse_npu |
-| 183 | inverse.out | inverse_out_npu |
-| 184 | isclose | isclose_npu |
-| 185 | isnan | isnan_npu |
-| 186 | is_nonzero | is_nonzero_npu |
-| 187 | kl_div | kl_div_npu |
-| 188 | kl_div_backward | kl_div_backward_npu |
-| 189 | kthvalue | kthvalue_npu |
-| 190 | kthvalue.values | kthvalue_out_npu |
-| 191 | kthvalue.dimname | kthvalue_npu |
-| 192 | kthvalue.dimname_out | kthvalue_out_npu |
-| 193 | native_layer_norm | layer_norm_npu |
-| 194 | native_layer_norm_backward | layer_norm_backward_npu |
-| 195 | linspace | linspace_npu |
-| 196 | linspace.out | linspace_out_npu |
-| 197 | log | log_npu |
-| 198 | log_ | log_npu_ |
-| 199 | log.out | log_out_npu |
-| 200 | log10 | log10_npu |
-| 201 | log10_ | log10_npu_ |
-| 202 | log10.out | log10_out_npu |
-| 203 | log1p | log1p_npu |
-| 204 | log1p_ | log1p_npu_ |
-| 205 | log1p.out | log1p_out_npu |
-| 206 | log2 | log2_npu |
-| 207 | log2_ | log2_npu_ |
-| 208 | log2.out | log2_out_npu |
-| 209 | logspace | logspace_npu |
-| 210 | logspace.out | logspace_out_npu |
-| 211 | log_softmax.int | log_softmax_npu |
-| 212 | log_softmax.Dimname | log_softmax_npu |
-| 213 | _log_softmax | _log_softmax_npu |
-| 214 | _log_softmax_backward_data | _log_softmax_backward_npu |
-| 215 | logsumexp | logsumexp_npu |
-| 216 | logsumexp.out | logsumexp_out_npu |
-| 217 | logsumexp.names | logsumexp_npu |
-| 218 | logsumexp.names_out | logsumexp_out_npu |
-| 219 | matmul | matmul_npu |
-| 220 | matmul.out | matmul_out_npu |
-| 221 | matrix_power | matrix_power_npu |
-| 222 | max.dim | max_npu |
-| 223 | max.dim_max | max_out_npu |
-| 224 | max_values | max_npu |
-| 225 | max.names_dim | max_npu |
-| 226 | max.names_dim_max | max_out_npu |
-| 227 | max_values.names | max_npu |
-| 228 | max_pool2d | max_pool2d_npu |
-| 229 | quantized_max_pool2d | quantized_max_pool2d_npu |
-| 230 | mean | mean_npu |
-| 231 | mean.dim | mean_npu |
-| 232 | mean.out | mean_out_npu |
-| 233 | mean.names_dim | mean_npu |
-| 234 | mean.names_out | mean_out_npu |
-| 235 | median.dim | median_npu |
-| 236 | median.dim_values | median_out_npu |
-| 237 | median.names_dim | median_npu |
-| 238 | median.names_dim_values | median_out_npu |
-| 239 | min.dim | min_npu |
-| 240 | min.dim_min | min_out_npu |
-| 241 | min_values | min_npu |
-| 242 | min.names_dim | min_npu |
-| 243 | min.names_dim_min | min_out_npu |
-| 244 | min_values.names | min_npu |
-| 245 | mm | mm_npu |
-| 246 | mm.out | mm_out_npu |
-| 247 | mode | mode_npu |
-| 248 | mode.values | mode_out_npu |
-| 249 | mul.Tensor | mul_npu |
-| 250 | mul_.Tensor | mul_npu_ |
-| 251 | mul.out | mul_out_npu |
-| 252 | mul.Scalar | mul_npu |
-| 253 | mul_.Scalar | mul_npu_ |
-| 254 | mv | mv_npu |
-| 255 | mv.out | mv_out_npu |
-| 256 | narrow_copy | narrow_copy_npu |
-| 257 | native_batch_norm | batch_norm_npu |
-| 258 | native_batch_norm_backward | batch_norm_backward_npu |
-| 259 | _nnpack_spatial_convolution | _nnpack_spatial_convolution_npu |
-| 260 | ones.names | ones_npu |
-| 261 | ones | ones_npu |
-| 262 | ones.out | ones_out_npu |
-| 263 | ones_like | ones_like_npu |
-| 264 | cdist | cdist_npu |
-| 265 | _cdist_forward | _cdist_forward_npu |
-| 266 | _cdist_backward | _cdist_backward_npu |
-| 267 | pdist | pdist_npu |
-| 268 | _pdist_forward | _pdist_forward_npu |
-| 269 | randperm | randperm_npu |
-| 270 | randperm.generator | randperm_npu |
-| 271 | randperm.out | randperm_out_npu |
-| 272 | randperm.generator_out | randperm_out_npu |
-| 273 | range.step | range_npu |
-| 274 | range | range_npu |
-| 275 | range.out | range_out_npu |
-| 276 | reciprocal | reciprocal_npu |
-| 277 | reciprocal_ | reciprocal_npu_ |
-| 278 | reciprocal.out | reciprocal_out_npu |
-| 279 | neg | neg_npu |
-| 280 | neg_ | neg_npu_ |
-| 281 | neg.out | neg_out_npu |
-| 282 | repeat | repeat_npu |
-| 283 | repeat_interleave.self_int | repeat_interleave_npu |
-| 284 | round | round_npu |
-| 285 | round_ | round_npu_ |
-| 286 | round.out | round_out_npu |
-| 287 | relu | relu_npu |
-| 288 | relu_ | relu_npu_ |
-| 289 | prelu | prelu_npu |
-| 290 | prelu_backward | prelu_backward_npu |
-| 291 | gelu | gelu_npu |
-| 292 | gelu_backward | gelu_backward_npu |
-| 293 | hardshrink | hardshrink_npu |
-| 294 | hardshrink_backward | hardshrink_backward_npu |
-| 295 | rsqrt | rsqrt_npu |
-| 296 | rsqrt_ | rsqrt_npu_ |
-| 297 | rsqrt.out | rsqrt_out_npu |
-| 298 | selu | selu_npu |
-| 299 | selu_ | selu_npu_ |
-| 300 | celu | celu_npu |
-| 301 | celu_ | celu_npu_ |
-| 302 | sigmoid | sigmoid_npu |
-| 303 | sigmoid_ | sigmoid_npu_ |
-| 304 | sigmoid.out | sigmoid_out_npu |
-| 305 | sin | sin_npu |
-| 306 | sin_ | sin_npu_ |
-| 307 | sin.out | sin_out_npu |
-| 308 | sinh | sinh_npu |
-| 309 | sinh_ | sinh_npu_ |
-| 310 | sinh.out | sinh_out_npu |
-| 311 | slogdet | slogdet_npu |
-| 312 | softmax.int | softmax_npu |
-| 313 | softmax.Dimname | softmax_npu |
-| 314 | _softmax | _softmax_npu |
-| 315 | _softmax_backward_data | _softmax_backward_npu |
-| 316 | stack | stack_npu |
-| 317 | stack.out | stack_out_npu |
-| 318 | sum | sum_npu |
-| 319 | sum.dim_IntList | sum_npu |
-| 320 | sum.dim_DimnameList | sum_npu |
-| 321 | sum.IntList_out | sum_out_npu |
-| 322 | sum.DimnameList_out | sum_out_npu |
-| 323 | sqrt | sqrt_npu |
-| 324 | sqrt_ | sqrt_npu_ |
-| 325 | sqrt.out | sqrt_out_npu |
-| 326 | std | std_npu |
-| 327 | std.dim | std_dim_npu |
-| 328 | std_mean | std_mean_npu |
-| 329 | std_mean.dim | std_mean_dim_npu |
-| 330 | std_mean.names_dim | std_mean_names_npu |
-| 331 | std.out | std_out_npu |
-| 332 | std.names_dim | std_names_npu |
-| 333 | std.names_out | std_out_npu |
-| 334 | prod | prod_npu |
-| 335 | prod.dim_int | prod_npu |
-| 336 | prod.int_out | prod_out_npu |
-| 337 | prod.dim_Dimname | prod_npu |
-| 338 | prod.Dimname_out | prod_out_npu |
-| 339 | tan | tan_npu |
-| 340 | tan_ | tan_npu_ |
-| 341 | tan.out | tan_out_npu |
-| 342 | tanh | tanh_npu |
-| 343 | tanh_ | tanh_npu_ |
-| 344 | tanh.out | tanh_out_npu |
-| 345 | threshold | threshold_npu |
-| 346 | threshold_ | threshold_npu_ |
-| 347 | threshold.out | threshold_out_npu |
-| 348 | threshold_backward | threshold_backward_npu |
-| 349 | one_hot | one_hot_npu1 |
-| 350 | flip | flip_npu |
-| 351 | roll | roll_npu |
-| 352 | true_divide.Tensor | true_divide_npu |
-| 353 | true_divide_.Tensor | true_divide_npu_ |
-| 354 | true_divide.out | true_divide_out_npu |
-| 355 | true_divide.Scalar | true_divide_npu |
-| 356 | true_divide_.Scalar | true_divide_npu_ |
-| 357 | trunc | trunc_npu |
-| 358 | trunc_ | trunc_npu_ |
-| 359 | trunc.out | trunc_out_npu |
-| 360 | _unique2 | _unique2_npu |
-| 361 | var | var_npu |
-| 362 | var.dim | var_npu |
-| 363 | var.out | var_out_npu |
-| 364 | var.names_dim | var_npu |
-| 365 | var.names_out | var_out_npu |
-| 366 | var_mean | var_mean_npu |
-| 367 | var_mean.dim | var_mean_npu |
-| 368 | var_mean.names_dim | var_mean_npu |
-| 369 | where.self | where_npu |
-| 370 | where | where_npu |
-| 371 | _s_where | _s_where_npu |
-| 372 | zeros.names | zeros_npu |
-| 373 | zeros | zeros_npu |
-| 374 | zeros.out | zeros_out_npu |
-| 375 | zeros_like | zeros_like_npu |
-| 376 | norm.ScalarOpt_dtype | norm_npu |
-| 377 | norm.Scalar | norm_npu |
-| 378 | norm.ScalarOpt_dim_dtype | norm_npu |
-| 379 | norm.ScalarOpt_dim | norm_npu |
-| 380 | norm.dtype_out | norm_out_npu |
-| 381 | norm.out | norm_out_npu |
-| 382 | clone | clone_npu |
-| 383 | resize_as_ | resize_as_npu_ |
-| 384 | pow.Tensor_Scalar_out | pow_out_npu |
-| 385 | pow.Tensor_Scalar | pow_npu |
-| 386 | zero_ | zero_npu_ |
-| 387 | sub.out | sub_out_npu |
-| 388 | sub.Tensor | sub_npu |
-| 389 | sub_.Tensor | sub_npu_ |
-| 390 | sub.Scalar | sub_npu |
-| 391 | sub_.Scalar | sub_npu_ |
-| 392 | rsub.Tensor | rsub_npu |
-| 393 | rsub.Scalar | rsub_npu |
-| 394 | addmm.out | addmm_out_npu |
-| 395 | addmm | addmm_npu |
-| 396 | addmm_ | addmm_npu_ |
-| 397 | quantize_per_tensor | quantize_per_tensor_npu |
-| 398 | quantize_per_channel | quantize_per_channel_npu |
-| 399 | to.dtype_layout | to_npu |
-| 400 | to.device | to_device_npu |
-| 401 | to.dtype | to_dtype_npu |
-| 402 | to.other | to_other_npu |
-| 403 | _local_scalar_dense | _local_scalar_dense_npu |
-| 404 | lstm.input | lstm_npu |
-| 405 | lstm.data | lstm_npu |
-| 406 | gru.input | gru_npu_ |
-| 407 | _pack_padded_sequence | _pack_padded_sequence_npu |
-| 408 | _pad_packed_sequence | _pad_packed_sequence_npu |
-| 409 | set_.source_Storage | set_npu_ |
-| 410 | set_.source_Storage_storage_offset | set_npu_ |
-| 411 | set_.source_Tensor | set_npu_ |
-| 412 | set_ | set_npu_ |
-| 413 | masked_fill_.Scalar | masked_fill_npu_ |
-| 414 | masked_fill_.Tensor | masked_fill_npu_ |
-| 415 | masked_scatter_ | masked_scatter_npu_ |
-| 416 | view | view_npu |
-| 417 | put_ | put_npu_ |
-| 418 | index_add_ | index_add_npu_ |
-| 419 | index_add | index_add_npu |
-| 420 | index_add.dimname | index_add_npu |
-| 421 | index_fill_.int_Scalar | index_fill_npu_ |
-| 422 | index_fill.int_Scalar | index_fill_npu |
-| 423 | index_fill_.int_Tensor | index_fill_npu_ |
-| 424 | index_fill.int_Tensor | index_fill_npu |
-| 425 | scatter_.src | scatter_npu_ |
-| 426 | scatter_.value | scatter_npu_ |
-| 427 | scatter_add_ | scatter_add_npu_ |
-| 428 | scatter_add | scatter_add_npu |
-| 429 | scatter_add.dimname | scatter_add_npu |
-| 430 | lt_.Scalar | lt_npu_ |
-| 431 | lt_.Tensor | lt_npu_ |
-| 432 | gt_.Scalar | gt_npu_ |
-| 433 | gt_.Tensor | gt_npu_ |
-| 434 | le_.Scalar | le_npu_ |
-| 435 | le_.Tensor | le_npu_ |
-| 436 | ge_.Scalar | ge_npu_ |
-| 437 | ge_.Tensor | ge_npu_ |
-| 438 | eq_.Scalar | eq_npu_ |
-| 439 | eq_.Tensor | eq_npu_ |
-| 440 | ne_.Scalar | ne_npu_ |
-| 441 | ne_.Tensor | ne_npu_ |
-| 442 | bitwise_and.Tensor_out | bitwise_and_out_npu |
-| 443 | bitwise_and.Scalar_out | bitwise_and_out_npu |
-| 444 | bitwise_and.Scalar | bitwise_and_npu |
-| 445 | bitwise_and.Tensor | bitwise_and_npu |
-| 446 | bitwise_and_.Scalar | bitwise_and_npu_ |
-| 447 | bitwise_and_.Tensor | bitwise_and_npu_ |
-| 448 | and.Scalar | and_npu |
-| 449 | and.Tensor | and_npu |
-| 450 | bitwise_or.Tensor_out | bitwise_or_out_npu |
-| 451 | bitwise_or.Scalar_out | bitwise_or_out_npu |
-| 452 | bitwise_or.Scalar | bitwise_or_npu |
-| 453 | bitwise_or.Tensor | bitwise_or_npu |
-| 454 | bitwise_or_.Scalar | bitwise_or_npu_ |
-| 455 | bitwise_or_.Tensor | bitwise_or_npu_ |
-| 456 | or.Scalar | or_npu |
-| 457 | or.Tensor | or_npu |
-| 458 | ior.Scalar | ior_npu |
-| 459 | ior.Tensor | ior_npu |
-| 460 | bitwise_xor.Tensor_out | bitwise_xor_out_npu |
-| 461 | bitwise_xor.Scalar_out | bitwise_xor_out_npu |
-| 462 | bitwise_xor.Scalar | bitwise_xor_npu |
-| 463 | bitwise_xor.Tensor | bitwise_xor_npu |
-| 464 | bitwise_xor_.Scalar | bitwise_xor_npu_ |
-| 465 | bitwise_xor_.Tensor | bitwise_xor_npu_ |
-| 466 | xor.Scalar | xor_npu |
-| 467 | xor.Tensor | xor_npu |
-| 468 | atan2_ | atan2_npu_ |
-| 469 | tril_ | tril_npu_ |
-| 470 | triu_ | triu_npu_ |
-| 471 | renorm_ | renorm_npu_ |
-| 472 | pow_.Scalar | pow_npu_ |
-| 473 | pow_.Tensor | pow_npu_ |
-| 474 | lerp_.Scalar | lerp_npu_ |
-| 475 | lerp_.Tensor | lerp_npu_ |
-| 476 | fmod_.Scalar | fmod_npu_ |
-| 477 | fmod_.Tensor | fmod_npu_ |
-| 478 | remainder_.Scalar | remainder_npu_ |
-| 479 | remainder_.Tensor | remainder_npu_ |
-| 480 | addbmm_ | addbmm_npu_ |
-| 481 | addbmm.out | addbmm_out_npu |
-| 482 | addbmm | addbmm_npu |
-| 483 | addcdiv_ | addcdiv_npu_ |
-| 484 | random_.from | random_npu_ |
-| 485 | random_.to | random_npu_ |
-| 486 | random_ | random_npu_ |
-| 487 | uniform_ | uniform_npu_ |
-| 488 | diag.out | diag_out_npu |
-| 489 | diag | diag_npu |
-| 490 | cross.out | cross_out_npu |
-| 491 | cross | cross_npu |
-| 492 | triu.out | triu_out_npu |
-| 493 | triu | triu_npu |
-| 494 | tril.out | tril_out_npu |
-| 495 | tril | tril_npu |
-| 496 | ne.Scalar_out | ne_out_npu |
-| 497 | ne.Scalar | ne_npu |
-| 498 | ne.Tensor_out | ne_out_npu |
-| 499 | ne.Tensor | ne_npu |
-| 500 | eq.Scalar_out | eq_out_npu |
-| 501 | eq.Scalar | eq_npu |
-| 502 | eq.Tensor_out | eq_out_npu |
-| 503 | eq.Tensor | eq_npu |
-| 504 | ge.Scalar_out | ge_out_npu |
-| 505 | ge.Scalar | ge_npu |
-| 506 | ge.Tensor_out | ge_out_npu |
-| 507 | ge.Tensor | ge_npu |
-| 508 | le.Scalar_out | le_out_npu |
-| 509 | le.Scalar | le_npu |
-| 510 | le.Tensor_out | le_out_npu |
-| 511 | le.Tensor | le_npu |
-| 512 | gt.Scalar_out | gt_out_npu |
-| 513 | gt.Scalar | gt_npu |
-| 514 | gt.Tensor_out | gt_out_npu |
-| 515 | gt.Tensor | gt_npu |
-| 516 | lt.Scalar_out | lt_out_npu |
-| 517 | lt.Scalar | lt_npu |
-| 518 | lt.Tensor_out | lt_out_npu |
-| 519 | lt.Tensor | lt_npu |
-| 520 | take.out | take_out_npu |
-| 521 | take | take_npu |
-| 522 | index_select.out | index_select_out_npu |
-| 523 | index_select | index_select_npu |
-| 524 | index_select.dimname_out | index_select_out_npu |
-| 525 | index_select.dimname | index_select_npu |
-| 526 | masked_select.out | masked_select_out_npu |
-| 527 | masked_select | masked_select_npu |
-| 528 | nonzero.out | nonzero_out_npu |
-| 529 | nonzero | nonzero_npu |
-| 530 | gather.out | gather_out_npu |
-| 531 | gather | gather_npu |
-| 532 | gather.dimname_out | gather_out_npu |
-| 533 | gather.dimname | gather_npu |
-| 534 | addcmul.out | addcmul_out_npu |
-| 535 | addcmul | addcmul_npu |
-| 536 | addcmul_ | addcmul_npu_ |
-| 537 | addcdiv.out | addcdiv_out_npu |
-| 538 | addcdiv | addcdiv_npu |
-| 539 | qr.Q | qr_out_npu |
-| 540 | qr | qr_npu |
-| 541 | multinomial.out | multinomial_out_npu |
-| 542 | multinomial | multinomial_npu |
-| 543 | erfinv | erfinv_npu |
-| 544 | erfinv_ | erfinv_npu_ |
-| 545 | erfinv.out | erfinv_out_npu |
-| 546 | sign | sign_npu |
-| 547 | sign_ | sign_npu_ |
-| 548 | sign.out | sign_out_npu |
-| 549 | atan2.out | atan2_out_npu |
-| 550 | atan2 | atan2_npu |
-| 551 | lerp.Scalar_out | lerp_out_npu |
-| 552 | lerp.Tensor_out | lerp_out_npu |
-| 553 | lerp.Scalar | lerp_npu |
-| 554 | lerp.Tensor | lerp_npu |
-| 555 | histc.out | histc_out_npu |
-| 556 | histc | histc_npu |
-| 557 | fmod.Scalar_out | fmod_out_npu |
-| 558 | fmod.Scalar | fmod_npu |
-| 559 | fmod.Tensor_out | fmod_out_npu |
-| 560 | fmod.Tensor | fmod_npu |
-| 561 | remainder.Scalar_out | remainder_out_npu |
-| 562 | remainder.Scalar | remainder_npu |
-| 563 | remainder.Tensor_out | remainder_out_npu |
-| 564 | remainder.Tensor | remainder_npu |
-| 565 | min.out | min_out_npu |
-| 566 | min.other | min_npu |
-| 567 | min | min_npu |
-| 568 | max.out | max_out_npu |
-| 569 | max.other | max_npu |
-| 570 | max | max_npu |
-| 571 | median | median_npu |
-| 572 | sort.values | sort_out_npu |
-| 573 | sort | sort_npu |
-| 574 | sort.dimname_values | sort_out_npu |
-| 575 | sort.dimname | sort_npu |
-| 576 | argsort | argsort_npu |
-| 577 | argsort.dimname | argsort_npu |
-| 578 | topk.values | topk_out_npu |
-| 579 | topk | topk_npu |
-| 580 | all | all_npu |
-| 581 | any | any_npu |
-| 582 | renorm.out | renorm_out_npu |
-| 583 | renorm | renorm_npu |
-| 584 | unfold | unfold |
-| 585 | equal | equal_npu |
-| 586 | pow.Tensor_Tensor_out | pow_out_npu |
-| 587 | pow.Tensor_Tensor | pow_npu |
-| 588 | pow.Scalar_out | pow_out_npu |
-| 589 | pow.Scalar | pow_npu |
-| 590 | normal_ | normal_npu_ |
-| 591 | normal.Tensor_float_out | normal_out_npu |
-| 592 | normal.Tensor_float | normal_npu |
-| 593 | normal.float_Tensor_out | normal_out_npu |
-| 594 | normal.float_Tensor | normal_npu |
-| 595 | normal.Tensor_Tensor_out | normal_out_npu |
-| 596 | normal.Tensor_Tensor | normal_npu |
-| 597 | normal.float_float | normal_npu |
-| 598 | normal.float_float_out | normal_out_npu |
-| 599 | _addr | _addr_npu |
-| 600 | _addr_ | _addr_npu_ |
-| 601 | _addr.out | _addr_out_npu |
-| 602 | _cumsum | _cumsum_npu |
-| 603 | _cumsum.out | _cumsum_out_npu |
-| 604 | _cumprod | _cumprod_npu |
-| 605 | _cumprod.out | _cumprod_out_npu |
-| 606 | _var | _var_npu |
-| 607 | _amp_non_finite_check_and_unscale_ | _amp_non_finite_check_and_unscale_npu_ |
-| 608 | _cat | _cat_npu |
-| 609 | _cat.out | _cat_out_npu |
-| 610 | _max | _max_npu |
-| 611 | _max.max | _max_out_npu |
-| 612 | _min | _min_npu |
-| 613 | _min.min | _min_out_npu |
-| 614 | mse_loss.out | mse_loss_out_npu |
-| 615 | mse_loss | mse_loss_npu |
-| 616 | mse_loss_backward.grad_input | mse_loss_backward_out_npu |
-| 617 | mse_loss_backward | mse_loss_backward_npu |
-| 618 | l1_loss.out | l1_loss_out_npu |
-| 619 | l1_loss | l1_loss_npu |
-| 620 | l1_loss_backward.grad_input | l1_loss_backward_out_npu |
-| 621 | l1_loss_backward | l1_loss_backward_npu |
-| 622 | multilabel_margin_loss.out | multilabel_margin_loss_out_npu |
-| 623 | multilabel_margin_loss | multilabel_margin_loss_npu |
-| 624 | multilabel_margin_loss_forward.output | multilabel_margin_loss_forward_out_npu |
-| 625 | multilabel_margin_loss_forward | multilabel_margin_loss_forward_npu |
-| 626 | nll_loss.out | nll_loss_out_npu |
-| 627 | nll_loss | nll_loss_npu |
-| 628 | nll_loss_forward.output | nll_loss_forward_out_npu |
-| 629 | nll_loss_forward | nll_loss_forward_npu |
-| 630 | nll_loss_backward.grad_input | nll_loss_backward_out_npu |
-| 631 | nll_loss_backward | nll_loss_backward_npu |
-| 632 | nll_loss2d.out | nll_loss2d_out_npu |
-| 633 | nll_loss2d | nll_loss2d_npu |
-| 634 | nll_loss2d_forward.output | nll_loss2d_forward_out_npu |
-| 635 | nll_loss2d_forward | nll_loss2d_forward_npu |
-| 636 | nll_loss2d_backward.grad_input | nll_loss2d_backward_out_npu |
-| 637 | nll_loss2d_backward | nll_loss2d_backward_npu |
-| 638 | smooth_l1_loss.out | smooth_l1_loss_out_npu |
-| 639 | smooth_l1_loss | smooth_l1_loss_npu |
-| 640 | smooth_l1_loss_backward.grad_input | smooth_l1_loss_backward_out_npu |
-| 641 | smooth_l1_loss_backward | smooth_l1_loss_backward_npu |
-| 642 | soft_margin_loss.out | soft_margin_loss_out_npu |
-| 643 | soft_margin_loss | soft_margin_loss_npu |
-| 644 | soft_margin_loss_backward.grad_input | soft_margin_loss_backward_out_npu |
-| 645 | soft_margin_loss_backward | soft_margin_loss_backward_npu |
-| 646 | elu.out | elu_out_npu |
-| 647 | elu | elu_npu |
-| 648 | elu_backward.grad_input | elu_backward_out_npu |
-| 649 | elu_backward | elu_backward_npu |
-| 650 | elu_ | elu_npu_ |
-| 651 | glu.out | glu_out_npu |
-| 652 | glu | glu_npu |
-| 653 | glu_backward.grad_input | glu_backward_out_npu |
-| 654 | glu_backward | glu_backward_npu |
-| 655 | hardsigmoid.out | hardsigmoid_out_npu |
-| 656 | hardsigmoid | hardsigmoid_npu |
-| 657 | hardsigmoid_ | hardsigmoid_npu_ |
-| 658 | hardsigmoid_backward | hardsigmoid_backward_npu |
-| 659 | hardtanh.out | hardtanh_out_npu |
-| 660 | hardtanh | hardtanh_npu |
-| 661 | hardtanh_backward.grad_input | hardtanh_backward_out_npu |
-| 662 | hardtanh_backward | hardtanh_backward_npu |
-| 663 | hardtanh_ | hardtanh_npu_ |
-| 664 | leaky_relu.out | leaky_relu_out_npu |
-| 665 | leaky_relu | leaky_relu_npu |
-| 666 | leaky_relu_backward | leaky_relu_backward_npu |
-| 667 | leaky_relu_ | leaky_relu_npu_ |
-| 668 | log_sigmoid.out | log_sigmoid_out_npu |
-| 669 | log_sigmoid | log_sigmoid_npu |
-| 670 | log_sigmoid_forward.output | log_sigmoid_forward_out_npu |
-| 671 | log_sigmoid_forward | log_sigmoid_forward_npu |
-| 672 | log_sigmoid_backward.grad_input | log_sigmoid_backward_out_npu |
-| 673 | log_sigmoid_backward | log_sigmoid_backward_npu |
-| 674 | softplus.out | softplus_out_npu |
-| 675 | softplus | softplus_npu |
-| 676 | softplus_backward.grad_input | softplus_backward_out_npu |
-| 677 | softplus_backward | softplus_backward_npu |
-| 678 | softshrink.out | softshrink_out_npu |
-| 679 | softshrink | softshrink_npu |
-| 680 | softshrink_backward.grad_input | softshrink_backward_out_npu |
-| 681 | softshrink_backward | softshrink_backward_npu |
-| 682 | adaptive_avg_pool2d.out | adaptive_avg_pool2d_out_npu |
-| 683 | adaptive_avg_pool2d | adaptive_avg_pool2d_npu |
-| 684 | _adaptive_avg_pool2d | _adaptive_avg_pool2d_npu |
-| 685 | _adaptive_avg_pool2d_backward | adaptive_avg_pool2d_backward_npu |
-| 686 | adaptive_avg_pool3d.out | adaptive_avg_pool3d_out_npu |
-| 687 | adaptive_avg_pool3d | adaptive_avg_pool3d_npu |
-| 688 | adaptive_avg_pool3d_backward.grad_input | adaptive_avg_pool3d_backward_out_npu |
-| 689 | adaptive_avg_pool3d_backward | adaptive_avg_pool3d_backward_npu |
-| 690 | adaptive_max_pool2d.out | adaptive_max_pool2d_out_npu |
-| 691 | adaptive_max_pool2d | adaptive_max_pool2d_npu |
-| 692 | adaptive_max_pool2d_backward.grad_input | adaptive_max_pool2d_backward_out_npu |
-| 693 | adaptive_max_pool2d_backward | adaptive_max_pool2d_backward_npu |
-| 694 | avg_pool2d.out | avg_pool2d_out_npu |
-| 695 | avg_pool2d | avg_pool2d_npu |
-| 696 | avg_pool2d_backward.grad_input | avg_pool2d_backward_out_npu |
-| 697 | avg_pool2d_backward | avg_pool2d_backward_npu |
-| 698 | avg_pool3d.out | avg_pool3d_out_npu |
-| 699 | avg_pool3d | avg_pool3d_npu |
-| 700 | avg_pool3d_backward.grad_input | avg_pool3d_backward_out_npu |
-| 701 | avg_pool3d_backward | avg_pool3d_backward_npu |
-| 702 | max_pool2d_with_indices.out | max_pool2d_with_indices_out_npu |
-| 703 | max_pool2d_with_indices | max_pool2d_with_indices_npu |
-| 704 | max_pool2d_with_indices_backward.grad_input | max_pool2d_with_indices_backward_out_npu |
-| 705 | max_pool2d_with_indices_backward | max_pool2d_with_indices_backward_npu |
-| 706 | max_pool3d_with_indices.out | max_pool3d_with_indices_out_npu |
-| 707 | max_pool3d_with_indices | max_pool3d_with_indices_npu |
-| 708 | max_pool3d_with_indices_backward.grad_input | max_pool3d_with_indices_backward_out_npu |
-| 709 | max_pool3d_with_indices_backward | max_pool3d_with_indices_backward_npu |
-| 710 | reflection_pad2d.out | reflection_pad2d_out_npu |
-| 711 | reflection_pad2d | reflection_pad2d_npu |
-| 712 | replication_pad2d.out | replication_pad2d_out_npu |
-| 713 | replication_pad2d | replication_pad2d_npu |
-| 714 | upsample_linear1d.out | upsample_linear1d_out_npu |
-| 715 | upsample_linear1d | upsample_linear1d_npu |
-| 716 | upsample_linear1d_backward | upsample_linear1d_backward_npu |
-| 717 | upsample_bilinear2d.out | upsample_bilinear2d_out_npu |
-| 718 | upsample_bilinear2d | upsample_bilinear2d_npu |
-| 719 | upsample_bilinear2d_backward.grad_input | upsample_bilinear2d_backward_out_npu |
-| 720 | upsample_bilinear2d_backward | upsample_bilinear2d_backward_npu |
-| 721 | upsample_bicubic2d.out | upsample_bicubic2d_out_npu |
-| 722 | upsample_bicubic2d | upsample_bicubic2d_npu |
-| 723 | upsample_bicubic2d_backward.grad_input | upsample_bicubic2d_backward_out_npu |
-| 724 | upsample_bicubic2d_backward | upsample_bicubic2d_backward_npu |
-| 725 | upsample_trilinear3d.out | upsample_trilinear3d_out_npu |
-| 726 | upsample_trilinear3d | upsample_trilinear3d_npu |
-| 727 | upsample_trilinear3d_backward.grad_input | upsample_trilinear3d_backward_out_npu |
-| 728 | upsample_trilinear3d_backward | upsample_trilinear3d_backward_npu |
-| 729 | upsample_nearest1d.out | upsample_nearest1d_out_npu |
-| 730 | upsample_nearest1d | upsample_nearest1d_npu |
-| 731 | upsample_nearest1d_backward.grad_input | upsample_nearest1d_backward_out_npu |
-| 732 | upsample_nearest1d_backward | upsample_nearest1d_backward_npu |
-| 733 | upsample_nearest2d.out | upsample_nearest2d_out_npu |
-| 734 | upsample_nearest2d | upsample_nearest2d_npu |
-| 735 | upsample_nearest2d_backward.grad_input | upsample_nearest2d_backward_out_npu |
-| 736 | upsample_nearest2d_backward | upsample_nearest2d_backward_npu |
-| 737 | upsample_nearest3d.out | upsample_nearest3d_out_npu |
-| 738 | upsample_nearest3d | upsample_nearest3d_npu |
-| 739 | upsample_nearest3d_backward.grad_input | upsample_nearest3d_backward_out_npu |
-| 740 | upsample_nearest3d_backward | upsample_nearest3d_backward_npu |
-| 741 | sigmoid_backward.grad_input | sigmoid_backward_out_npu |
-| 742 | sigmoid_backward | sigmoid_backward_npu |
-| 743 | tanh_backward.grad_input | tanh_backward_out_npu |
-| 744 | tanh_backward | tanh_backward_npu |
-| 745 | slow_conv_transpose2d.out | slow_conv_transpose2d_out_npu |
-| 746 | slow_conv_transpose2d | slow_conv_transpose2d_npu |
-| 747 | slow_conv_transpose2d_backward.grad_output | slow_conv_transpose2d_backward_out_npu |
-| 748 | slow_conv_transpose2d_backward.output_mask | slow_conv_transpose2d_backward_npu |
-| 749 | thnn_conv2d.out | thnn_conv2d_out_npu |
-| 750 | thnn_conv2d | thnn_conv2d_npu |
-| 751 | thnn_conv2d_forward.output | thnn_conv2d_forward_out_npu |
-| 752 | thnn_conv2d_forward | thnn_conv2d_forward_npu |
-| 753 | thnn_conv2d_backward.output_mask | thnn_conv2d_backward_npu |
-| 754 | thnn_conv_depthwise2d.out | thnn_conv_depthwise2d_out_npu |
-| 755 | thnn_conv_depthwise2d | thnn_conv_depthwise2d_npu |
-| 756 | thnn_conv_depthwise2d_forward.out | thnn_conv_depthwise2d_forward_out_npu |
-| 757 | thnn_conv_depthwise2d_forward | thnn_conv_depthwise2d_forward_npu |
-| 758 | thnn_conv_depthwise2d_backward.grad_input | thnn_conv_depthwise2d_backward_out_npu |
-| 759 | thnn_conv_depthwise2d_backward.output_mask | thnn_conv_depthwise2d_backward_npu |
-| 760 | slow_conv_dilated2d | slow_conv_dilated2d_npu |
-| 761 | slow_conv_dilated2d_backward | slow_conv_dilated2d_backward_npu |
-| 762 | col2im.out | im2col_backward_out_npu |
-| 763 | col2im | im2col_backward_npu |
-| 764 | col2im_backward.grad_input | col2im_backward_out_npu |
-| 765 | col2im_backward | col2im_backward_npu |
-| 766 | im2col.out | im2col_out_npu |
-| 767 | im2col | im2col_npu |
-| 768 | im2col_backward.grad_input | im2col_backward_out_npu |
-| 769 | im2col_backward | im2col_backward_npu |
-| 770 | isfinite | isfinite_npu |
+# PyTorch适配算子清单
+- [PyTorch原生算子与昇腾算子对应表](#PyTorch原生算子与昇腾算子对应表.md)
+- [PyTorch昇腾自定义算子](#PyTorch昇腾自定义算子.md)
+PyTorch原生算子与昇腾算子对应表
+
+序号
+ |
+PyTorch 原生算子
+ |
+昇腾适配算子
+ |
+
+
+1
+ |
+dropout
+ |
+dropout_npu
+ |
+
+2
+ |
+dropout_
+ |
+dropout_npu_
+ |
+
+3
+ |
+abs
+ |
+abs_npu
+ |
+
+4
+ |
+abs_
+ |
+abs_npu_
+ |
+
+5
+ |
+abs.out
+ |
+abs_out_npu
+ |
+
+6
+ |
+acos
+ |
+acos_npu
+ |
+
+7
+ |
+acos_
+ |
+acos_npu_
+ |
+
+8
+ |
+acos.out
+ |
+acos_out_npu
+ |
+
+9
+ |
+adaptive_avg_pool1d
+ |
+adaptive_avg_pool1d_npu
+ |
+
+10
+ |
+add.Tensor
+ |
+add_npu
+ |
+
+11
+ |
+add_.Tensor
+ |
+add_npu_
+ |
+
+12
+ |
+add.out
+ |
+add_out_npu
+ |
+
+13
+ |
+add.Scalar
+ |
+add_npu
+ |
+
+14
+ |
+add_.Scalar
+ |
+add_npu_
+ |
+
+15
+ |
+addmv
+ |
+addmv_npu
+ |
+
+16
+ |
+addmv_
+ |
+addmv_npu_
+ |
+
+17
+ |
+addmv.out
+ |
+addmv_out_npu
+ |
+
+18
+ |
+addr
+ |
+addr_npu
+ |
+
+19
+ |
+addr_
+ |
+addr_npu_
+ |
+
+20
+ |
+addr.out
+ |
+addr_out_npu
+ |
+
+21
+ |
+affine_grid_generator
+ |
+affine_grid_generator_npu
+ |
+
+22
+ |
+affine_grid_generator_backward
+ |
+affine_grid_generator_backward_npu
+ |
+
+23
+ |
+all.dim
+ |
+all_npu
+ |
+
+24
+ |
+all.out
+ |
+all_out_npu
+ |
+
+25
+ |
+any.dim
+ |
+any_npu
+ |
+
+26
+ |
+any.out
+ |
+any_out_npu
+ |
+
+27
+ |
+arange
+ |
+arange_npu
+ |
+
+28
+ |
+arange.start
+ |
+arange_npu
+ |
+
+29
+ |
+arange.start_step
+ |
+arange_npu
+ |
+
+30
+ |
+arange.out
+ |
+arange_out_npu
+ |
+
+31
+ |
+arange.start_out
+ |
+arange_out_npu
+ |
+
+32
+ |
+_dim_arange
+ |
+_dim_arange_npu
+ |
+
+33
+ |
+argmax
+ |
+argmax_npu
+ |
+
+34
+ |
+argmin
+ |
+argmin_npu
+ |
+
+35
+ |
+as_strided
+ |
+as_strided_npu
+ |
+
+36
+ |
+as_strided_
+ |
+as_strided_npu_
+ |
+
+37
+ |
+asin
+ |
+asin_npu
+ |
+
+38
+ |
+asin_
+ |
+asin_npu_
+ |
+
+39
+ |
+asin.out
+ |
+asin_out_npu
+ |
+
+40
+ |
+atan
+ |
+atan_npu
+ |
+
+41
+ |
+atan_
+ |
+atan_npu_
+ |
+
+42
+ |
+atan.out
+ |
+atan_out_npu
+ |
+
+43
+ |
+baddbmm
+ |
+baddbmm_npu
+ |
+
+44
+ |
+baddbmm_
+ |
+baddbmm_npu_
+ |
+
+45
+ |
+baddbmm.out
+ |
+baddbmm_out_npu
+ |
+
+46
+ |
+bartlett_window
+ |
+bartlett_window_npu
+ |
+
+47
+ |
+bartlett_window.periodic
+ |
+bartlett_window_npu
+ |
+
+48
+ |
+batch_norm
+ |
+batch_norm_npu_
+ |
+
+49
+ |
+_batch_norm_impl_index
+ |
+_batch_norm_impl_index_npu
+ |
+
+50
+ |
+_batch_norm_impl_index_backward
+ |
+_batch_norm_impl_index_backward_npu
+ |
+
+51
+ |
+bernoulli
+ |
+bernoulli_npu
+ |
+
+52
+ |
+bernoulli_.Tensor
+ |
+bernoulli_npu_
+ |
+
+53
+ |
+bernoulli_.float
+ |
+bernoulli_npu_
+ |
+
+54
+ |
+binary_cross_entropy
+ |
+binary_cross_entropy_npu
+ |
+
+55
+ |
+binary_cross_entropy.out
+ |
+binary_cross_entropy_out_npu
+ |
+
+56
+ |
+binary_cross_entropy_backward
+ |
+binary_cross_entropy_backward_npu
+ |
+
+57
+ |
+binary_cross_entropy_backward.grad_input
+ |
+binary_cross_entropy_backward_out_npu
+ |
+
+58
+ |
+binary_cross_entropy_with_logits
+ |
+binary_cross_entropy_with_logits_npu
+ |
+
+59
+ |
+binary_cross_entropy_with_logits_backward
+ |
+binary_cross_entropy_with_logits_backward_npu
+ |
+
+60
+ |
+bitwise_not
+ |
+bitwise_not_npu
+ |
+
+61
+ |
+bitwise_not_
+ |
+bitwise_not_npu_
+ |
+
+62
+ |
+bitwise_not.out
+ |
+bitwise_not_out_npu
+ |
+
+63
+ |
+logical_not
+ |
+logical_not_npu
+ |
+
+64
+ |
+logical_not_
+ |
+logical_not_npu_
+ |
+
+65
+ |
+logical_not.out
+ |
+logical_not_out_npu
+ |
+
+66
+ |
+logical_and
+ |
+logical_and_npu
+ |
+
+67
+ |
+logical_and_
+ |
+logical_and_npu_
+ |
+
+68
+ |
+logical_and.out
+ |
+logical_and_out_npu
+ |
+
+69
+ |
+logical_or
+ |
+logical_or_npu
+ |
+
+70
+ |
+logical_or_
+ |
+logical_or_npu_
+ |
+
+71
+ |
+logical_or.out
+ |
+logical_or_out_npu
+ |
+
+72
+ |
+blackman_window
+ |
+blackman_window_npu
+ |
+
+73
+ |
+blackman_window.periodic
+ |
+blackman_window_npu
+ |
+
+74
+ |
+bmm
+ |
+bmm_npu
+ |
+
+75
+ |
+bmm.out
+ |
+bmm_out_npu
+ |
+
+76
+ |
+cat
+ |
+cat_npu
+ |
+
+77
+ |
+cat.out
+ |
+cat_out_npu
+ |
+
+78
+ |
+cat.names
+ |
+cat_npu
+ |
+
+79
+ |
+cat.names_out
+ |
+cat_out_npu
+ |
+
+80
+ |
+ceil
+ |
+ceil_npu
+ |
+
+81
+ |
+ceil_
+ |
+ceil_npu_
+ |
+
+82
+ |
+ceil.out
+ |
+ceil_out_npu
+ |
+
+83
+ |
+clamp
+ |
+clamp_npu
+ |
+
+84
+ |
+clamp_
+ |
+clamp_npu_
+ |
+
+85
+ |
+clamp.out
+ |
+clamp_out_npu
+ |
+
+86
+ |
+clamp_max
+ |
+clamp_max_npu
+ |
+
+87
+ |
+clamp_max_
+ |
+clamp_max_npu_
+ |
+
+88
+ |
+clamp_max.out
+ |
+clamp_max_out_npu
+ |
+
+89
+ |
+clamp_min
+ |
+clamp_min_npu
+ |
+
+90
+ |
+clamp_min_
+ |
+clamp_min_npu_
+ |
+
+91
+ |
+clamp_min.out
+ |
+clamp_min_out_npu
+ |
+
+92
+ |
+constant_pad_nd
+ |
+constant_pad_nd_npu
+ |
+
+93
+ |
+contiguous
+ |
+contiguous_npu
+ |
+
+94
+ |
+convolution
+ |
+convolution_npu
+ |
+
+95
+ |
+_convolution
+ |
+_convolution_npu
+ |
+
+96
+ |
+_convolution_nogroup
+ |
+_convolution_nogroup_npu
+ |
+
+97
+ |
+conv2d
+ |
+conv2d_npu_
+ |
+
+98
+ |
+conv3d
+ |
+_conv3d_npu
+ |
+
+99
+ |
+conv_tbc
+ |
+conv_tbc_npu
+ |
+
+100
+ |
+conv_tbc_backward
+ |
+conv_tbc_backward_npu
+ |
+
+101
+ |
+conv_transpose2d.input
+ |
+conv_transpose2d_npu_
+ |
+
+102
+ |
+conv_transpose3d.input
+ |
+conv_transpose3d_npu_
+ |
+
+103
+ |
+copy_
+ |
+copy_npu_
+ |
+
+104
+ |
+cos
+ |
+cos_npu
+ |
+
+105
+ |
+cos_
+ |
+cos_npu_
+ |
+
+106
+ |
+cos.out
+ |
+cos_out_npu
+ |
+
+107
+ |
+cosh
+ |
+cosh_npu
+ |
+
+108
+ |
+cosh_
+ |
+cosh_npu_
+ |
+
+109
+ |
+cosh.out
+ |
+cosh_out_npu
+ |
+
+110
+ |
+_cummax_helper
+ |
+cummax_helper_npu
+ |
+
+111
+ |
+_cummin_helper
+ |
+cummin_helper_npu
+ |
+
+112
+ |
+cumprod
+ |
+cumprod_npu
+ |
+
+113
+ |
+cumprod.out
+ |
+cumprod_out_npu
+ |
+
+114
+ |
+cumprod.dimname
+ |
+cumprod_npu
+ |
+
+115
+ |
+cumprod.dimname_out
+ |
+cumprod_out_npu
+ |
+
+116
+ |
+ctc_loss.IntList
+ |
+ctc_loss_npu
+ |
+
+117
+ |
+ctc_loss.Tensor
+ |
+ctc_loss_npu
+ |
+
+118
+ |
+_ctc_loss
+ |
+ctc_loss_npu
+ |
+
+119
+ |
+_ctc_loss_backward
+ |
+ctc_loss_backward_npu
+ |
+
+120
+ |
+fill_diagonal_
+ |
+fill_diagonal_npu_
+ |
+
+121
+ |
+div.Tensor
+ |
+div_npu
+ |
+
+122
+ |
+div_.Tensor
+ |
+div_npu_
+ |
+
+123
+ |
+div.out
+ |
+div_out_npu
+ |
+
+124
+ |
+div.Scalar
+ |
+div_npu
+ |
+
+125
+ |
+div_.Scalar
+ |
+div_npu_
+ |
+
+126
+ |
+dot
+ |
+dot_npu
+ |
+
+127
+ |
+dot.out
+ |
+dot_out_npu
+ |
+
+128
+ |
+embedding
+ |
+embedding_npu
+ |
+
+129
+ |
+embedding_backward
+ |
+embedding_backward_npu
+ |
+
+130
+ |
+embedding_dense_backward
+ |
+embedding_dense_backward_npu
+ |
+
+131
+ |
+embedding_renorm_
+ |
+embedding_renorm_npu_
+ |
+
+132
+ |
+_embedding_bag
+ |
+_embedding_bag_npu
+ |
+
+133
+ |
+empty.memory_format
+ |
+empty_npu
+ |
+
+134
+ |
+resize_
+ |
+resize_npu_
+ |
+
+135
+ |
+empty_like
+ |
+empty_like_npu
+ |
+
+136
+ |
+empty_strided
+ |
+empty_strided_npu
+ |
+
+137
+ |
+erf
+ |
+erf_npu
+ |
+
+138
+ |
+erf_
+ |
+erf_npu_
+ |
+
+139
+ |
+erf.out
+ |
+erf_out_npu
+ |
+
+140
+ |
+erfc
+ |
+erfc_npu
+ |
+
+141
+ |
+erfc_
+ |
+erfc_npu_
+ |
+
+142
+ |
+erfc.out
+ |
+erfc_out_npu
+ |
+
+143
+ |
+exp
+ |
+exp_npu
+ |
+
+144
+ |
+exp_
+ |
+exp_npu_
+ |
+
+145
+ |
+exp.out
+ |
+exp_out_npu
+ |
+
+146
+ |
+expm1
+ |
+expm1_npu
+ |
+
+147
+ |
+expm1_
+ |
+expm1_npu_
+ |
+
+148
+ |
+expm1.out
+ |
+expm1_out_npu
+ |
+
+149
+ |
+eye
+ |
+eye_npu
+ |
+
+150
+ |
+eye.m
+ |
+eye_npu
+ |
+
+151
+ |
+eye.out
+ |
+eye_out_npu
+ |
+
+152
+ |
+eye.m_out
+ |
+eye_out_npu
+ |
+
+153
+ |
+fill_.Scalar
+ |
+fill_npu_
+ |
+
+154
+ |
+fill_.Tensor
+ |
+fill_npu_
+ |
+
+155
+ |
+floor
+ |
+floor_npu
+ |
+
+156
+ |
+floor_
+ |
+floor_npu_
+ |
+
+157
+ |
+floor.out
+ |
+floor_out_npu
+ |
+
+158
+ |
+floor_divide
+ |
+floor_divide_npu
+ |
+
+159
+ |
+floor_divide_.Tensor
+ |
+floor_divide_npu_
+ |
+
+160
+ |
+floor_divide.out
+ |
+floor_divide_out_npu
+ |
+
+161
+ |
+floor_divide.Scalar
+ |
+floor_divide_npu
+ |
+
+162
+ |
+floor_divide_.Scalar
+ |
+floor_divide_npu_
+ |
+
+163
+ |
+frac
+ |
+frac_npu
+ |
+
+164
+ |
+frac_
+ |
+frac_npu_
+ |
+
+165
+ |
+frac.out
+ |
+frac_out_npu
+ |
+
+166
+ |
+full.names
+ |
+full_npu
+ |
+
+167
+ |
+full
+ |
+full_npu
+ |
+
+168
+ |
+full.out
+ |
+full_out_npu
+ |
+
+169
+ |
+grid_sampler
+ |
+grid_sampler_npu
+ |
+
+170
+ |
+grid_sampler_3d
+ |
+grid_sampler_3d_npu
+ |
+
+171
+ |
+grid_sampler_3d_backward
+ |
+grid_sampler_3d_backward_npu
+ |
+
+172
+ |
+hann_window
+ |
+hann_window_npu
+ |
+
+173
+ |
+hann_window.periodic
+ |
+hann_window_npu
+ |
+
+174
+ |
+hamming_window
+ |
+hamming_window_npu
+ |
+
+175
+ |
+hamming_window.periodic
+ |
+hamming_window_npu
+ |
+
+176
+ |
+hamming_window.periodic_alpha
+ |
+hamming_window_npu
+ |
+
+177
+ |
+hamming_window.periodic_alpha_beta
+ |
+hamming_window_npu
+ |
+
+178
+ |
+ger
+ |
+ger_npu
+ |
+
+179
+ |
+ger.out
+ |
+ger_out_npu
+ |
+
+180
+ |
+index.Tensor
+ |
+index_npu
+ |
+
+181
+ |
+index_put_
+ |
+index_put_npu_
+ |
+
+182
+ |
+index_put
+ |
+index_put_npu
+ |
+
+183
+ |
+_index_put_impl_
+ |
+_index_put_impl_npu_
+ |
+
+184
+ |
+inverse
+ |
+inverse_npu
+ |
+
+185
+ |
+inverse.out
+ |
+inverse_out_npu
+ |
+
+186
+ |
+isclose
+ |
+isclose_npu
+ |
+
+187
+ |
+isnan
+ |
+isnan_npu
+ |
+
+188
+ |
+is_nonzero
+ |
+is_nonzero_npu
+ |
+
+189
+ |
+kl_div
+ |
+kl_div_npu
+ |
+
+190
+ |
+kl_div_backward
+ |
+kl_div_backward_npu
+ |
+
+191
+ |
+kthvalue
+ |
+kthvalue_npu
+ |
+
+192
+ |
+kthvalue.values
+ |
+kthvalue_out_npu
+ |
+
+193
+ |
+kthvalue.dimname
+ |
+kthvalue_npu
+ |
+
+194
+ |
+kthvalue.dimname_out
+ |
+kthvalue_out_npu
+ |
+
+195
+ |
+native_layer_norm
+ |
+layer_norm_npu
+ |
+
+196
+ |
+native_layer_norm_backward
+ |
+layer_norm_backward_npu
+ |
+
+197
+ |
+linspace
+ |
+linspace_npu
+ |
+
+198
+ |
+linspace.out
+ |
+linspace_out_npu
+ |
+
+199
+ |
+log
+ |
+log_npu
+ |
+
+200
+ |
+log_
+ |
+log_npu_
+ |
+
+201
+ |
+log.out
+ |
+log_out_npu
+ |
+
+202
+ |
+log10
+ |
+log10_npu
+ |
+
+203
+ |
+log10_
+ |
+log10_npu_
+ |
+
+204
+ |
+log10.out
+ |
+log10_out_npu
+ |
+
+205
+ |
+log1p
+ |
+log1p_npu
+ |
+
+206
+ |
+log1p_
+ |
+log1p_npu_
+ |
+
+207
+ |
+log1p.out
+ |
+log1p_out_npu
+ |
+
+208
+ |
+log2
+ |
+log2_npu
+ |
+
+209
+ |
+log2_
+ |
+log2_npu_
+ |
+
+210
+ |
+log2.out
+ |
+log2_out_npu
+ |
+
+211
+ |
+logspace
+ |
+logspace_npu
+ |
+
+212
+ |
+logspace.out
+ |
+logspace_out_npu
+ |
+
+213
+ |
+log_softmax.int
+ |
+log_softmax_npu
+ |
+
+214
+ |
+log_softmax.Dimname
+ |
+log_softmax_npu
+ |
+
+215
+ |
+_log_softmax
+ |
+_log_softmax_npu
+ |
+
+216
+ |
+_log_softmax_backward_data
+ |
+_log_softmax_backward_npu
+ |
+
+217
+ |
+logsumexp
+ |
+logsumexp_npu
+ |
+
+218
+ |
+logsumexp.out
+ |
+logsumexp_out_npu
+ |
+
+219
+ |
+logsumexp.names
+ |
+logsumexp_npu
+ |
+
+220
+ |
+logsumexp.names_out
+ |
+logsumexp_out_npu
+ |
+
+221
+ |
+matmul
+ |
+matmul_npu
+ |
+
+222
+ |
+matmul.out
+ |
+matmul_out_npu
+ |
+
+223
+ |
+max.dim
+ |
+max_npu
+ |
+
+224
+ |
+max.dim_max
+ |
+max_out_npu
+ |
+
+225
+ |
+max_values
+ |
+max_npu
+ |
+
+226
+ |
+max.names_dim
+ |
+max_npu
+ |
+
+227
+ |
+max.names_dim_max
+ |
+max_out_npu
+ |
+
+228
+ |
+max_values.names
+ |
+max_npu
+ |
+
+229
+ |
+max_pool2d
+ |
+max_pool2d_npu
+ |
+
+230
+ |
+mean
+ |
+mean_npu
+ |
+
+231
+ |
+mean.dim
+ |
+mean_npu
+ |
+
+232
+ |
+mean.out
+ |
+mean_out_npu
+ |
+
+233
+ |
+mean.names_dim
+ |
+mean_npu
+ |
+
+234
+ |
+mean.names_out
+ |
+mean_out_npu
+ |
+
+235
+ |
+median.dim
+ |
+median_npu
+ |
+
+236
+ |
+median.dim_values
+ |
+median_out_npu
+ |
+
+237
+ |
+median.names_dim
+ |
+median_npu
+ |
+
+238
+ |
+median.names_dim_values
+ |
+median_out_npu
+ |
+
+239
+ |
+min.dim
+ |
+min_npu
+ |
+
+240
+ |
+min.dim_min
+ |
+min_out_npu
+ |
+
+241
+ |
+min_values
+ |
+min_npu
+ |
+
+242
+ |
+min.names_dim
+ |
+min_npu
+ |
+
+243
+ |
+min.names_dim_min
+ |
+min_out_npu
+ |
+
+244
+ |
+min_values.names
+ |
+min_npu
+ |
+
+245
+ |
+mm
+ |
+mm_npu
+ |
+
+246
+ |
+mm.out
+ |
+mm_out_npu
+ |
+
+247
+ |
+mul.Tensor
+ |
+mul_npu
+ |
+
+248
+ |
+mul_.Tensor
+ |
+mul_npu_
+ |
+
+249
+ |
+mul.out
+ |
+mul_out_npu
+ |
+
+250
+ |
+mul.Scalar
+ |
+mul_npu
+ |
+
+251
+ |
+mul_.Scalar
+ |
+mul_npu_
+ |
+
+252
+ |
+mv
+ |
+mv_npu
+ |
+
+253
+ |
+mv.out
+ |
+mv_out_npu
+ |
+
+254
+ |
+narrow_copy
+ |
+narrow_copy_npu
+ |
+
+255
+ |
+native_batch_norm
+ |
+batch_norm_npu
+ |
+
+256
+ |
+native_batch_norm_backward
+ |
+batch_norm_backward_npu
+ |
+
+257
+ |
+_nnpack_spatial_convolution
+ |
+_nnpack_spatial_convolution_npu
+ |
+
+258
+ |
+ones.names
+ |
+ones_npu
+ |
+
+259
+ |
+ones
+ |
+ones_npu
+ |
+
+260
+ |
+ones.out
+ |
+ones_out_npu
+ |
+
+261
+ |
+ones_like
+ |
+ones_like_npu
+ |
+
+262
+ |
+cdist
+ |
+cdist_npu
+ |
+
+263
+ |
+_cdist_forward
+ |
+_cdist_forward_npu
+ |
+
+264
+ |
+_cdist_backward
+ |
+_cdist_backward_npu
+ |
+
+265
+ |
+pdist
+ |
+pdist_npu
+ |
+
+266
+ |
+_pdist_forward
+ |
+_pdist_forward_npu
+ |
+
+267
+ |
+randperm
+ |
+randperm_npu
+ |
+
+268
+ |
+randperm.generator
+ |
+randperm_npu
+ |
+
+269
+ |
+randperm.out
+ |
+randperm_out_npu
+ |
+
+270
+ |
+randperm.generator_out
+ |
+randperm_out_npu
+ |
+
+271
+ |
+range.step
+ |
+range_npu
+ |
+
+272
+ |
+range
+ |
+range_npu
+ |
+
+273
+ |
+range.out
+ |
+range_out_npu
+ |
+
+274
+ |
+reciprocal
+ |
+reciprocal_npu
+ |
+
+275
+ |
+reciprocal_
+ |
+reciprocal_npu_
+ |
+
+276
+ |
+reciprocal.out
+ |
+reciprocal_out_npu
+ |
+
+277
+ |
+neg
+ |
+neg_npu
+ |
+
+278
+ |
+neg_
+ |
+neg_npu_
+ |
+
+279
+ |
+neg.out
+ |
+neg_out_npu
+ |
+
+280
+ |
+repeat
+ |
+repeat_npu
+ |
+
+281
+ |
+repeat_interleave.self_int
+ |
+repeat_interleave_npu
+ |
+
+282
+ |
+round
+ |
+round_npu
+ |
+
+283
+ |
+round_
+ |
+round_npu_
+ |
+
+284
+ |
+round.out
+ |
+round_out_npu
+ |
+
+285
+ |
+relu
+ |
+relu_npu
+ |
+
+286
+ |
+relu_
+ |
+relu_npu_
+ |
+
+287
+ |
+prelu
+ |
+prelu_npu
+ |
+
+288
+ |
+prelu_backward
+ |
+prelu_backward_npu
+ |
+
+289
+ |
+gelu
+ |
+gelu_npu
+ |
+
+290
+ |
+gelu_backward
+ |
+gelu_backward_npu
+ |
+
+291
+ |
+hardshrink
+ |
+hardshrink_npu
+ |
+
+292
+ |
+hardshrink_backward
+ |
+hardshrink_backward_npu
+ |
+
+293
+ |
+rsqrt
+ |
+rsqrt_npu
+ |
+
+294
+ |
+rsqrt_
+ |
+rsqrt_npu_
+ |
+
+295
+ |
+rsqrt.out
+ |
+rsqrt_out_npu
+ |
+
+296
+ |
+selu
+ |
+selu_npu
+ |
+
+297
+ |
+selu_
+ |
+selu_npu_
+ |
+
+298
+ |
+celu
+ |
+celu_npu
+ |
+
+299
+ |
+celu_
+ |
+celu_npu_
+ |
+
+300
+ |
+sigmoid
+ |
+sigmoid_npu
+ |
+
+301
+ |
+sigmoid_
+ |
+sigmoid_npu_
+ |
+
+302
+ |
+sigmoid.out
+ |
+sigmoid_out_npu
+ |
+
+303
+ |
+sin
+ |
+sin_npu
+ |
+
+304
+ |
+sin_
+ |
+sin_npu_
+ |
+
+305
+ |
+sin.out
+ |
+sin_out_npu
+ |
+
+306
+ |
+sinh
+ |
+sinh_npu
+ |
+
+307
+ |
+sinh_
+ |
+sinh_npu_
+ |
+
+308
+ |
+sinh.out
+ |
+sinh_out_npu
+ |
+
+309
+ |
+slogdet
+ |
+slogdet_npu
+ |
+
+310
+ |
+softmax.int
+ |
+softmax_npu
+ |
+
+311
+ |
+softmax.Dimname
+ |
+softmax_npu
+ |
+
+312
+ |
+_softmax
+ |
+_softmax_npu
+ |
+
+313
+ |
+_softmax_backward_data
+ |
+_softmax_backward_npu
+ |
+
+314
+ |
+stack
+ |
+stack_npu
+ |
+
+315
+ |
+stack.out
+ |
+stack_out_npu
+ |
+
+316
+ |
+sum
+ |
+sum_npu
+ |
+
+317
+ |
+sum.dim_IntList
+ |
+sum_npu
+ |
+
+318
+ |
+sum.dim_DimnameList
+ |
+sum_npu
+ |
+
+319
+ |
+sum.IntList_out
+ |
+sum_out_npu
+ |
+
+320
+ |
+sum.DimnameList_out
+ |
+sum_out_npu
+ |
+
+321
+ |
+sqrt
+ |
+sqrt_npu
+ |
+
+322
+ |
+sqrt_
+ |
+sqrt_npu_
+ |
+
+323
+ |
+sqrt.out
+ |
+sqrt_out_npu
+ |
+
+324
+ |
+std
+ |
+std_npu
+ |
+
+325
+ |
+std.dim
+ |
+std_dim_npu
+ |
+
+326
+ |
+std_mean
+ |
+std_mean_npu
+ |
+
+327
+ |
+std_mean.dim
+ |
+std_mean_dim_npu
+ |
+
+328
+ |
+std_mean.names_dim
+ |
+std_mean_names_npu
+ |
+
+329
+ |
+std.out
+ |
+std_out_npu
+ |
+
+330
+ |
+std.names_dim
+ |
+std_names_npu
+ |
+
+331
+ |
+std.names_out
+ |
+std_out_npu
+ |
+
+332
+ |
+prod
+ |
+prod_npu
+ |
+
+333
+ |
+prod.dim_int
+ |
+prod_npu
+ |
+
+334
+ |
+prod.int_out
+ |
+prod_out_npu
+ |
+
+335
+ |
+prod.dim_Dimname
+ |
+prod_npu
+ |
+
+336
+ |
+prod.Dimname_out
+ |
+prod_out_npu
+ |
+
+337
+ |
+tan
+ |
+tan_npu
+ |
+
+338
+ |
+tan_
+ |
+tan_npu_
+ |
+
+339
+ |
+tan.out
+ |
+tan_out_npu
+ |
+
+340
+ |
+tanh
+ |
+tanh_npu
+ |
+
+341
+ |
+tanh_
+ |
+tanh_npu_
+ |
+
+342
+ |
+tanh.out
+ |
+tanh_out_npu
+ |
+
+343
+ |
+threshold
+ |
+threshold_npu
+ |
+
+344
+ |
+threshold_
+ |
+threshold_npu_
+ |
+
+345
+ |
+threshold.out
+ |
+threshold_out_npu
+ |
+
+346
+ |
+threshold_backward
+ |
+threshold_backward_npu
+ |
+
+347
+ |
+one_hot
+ |
+one_hot_npu1
+ |
+
+348
+ |
+flip
+ |
+flip_npu
+ |
+
+349
+ |
+roll
+ |
+roll_npu
+ |
+
+350
+ |
+true_divide.Tensor
+ |
+true_divide_npu
+ |
+
+351
+ |
+true_divide_.Tensor
+ |
+true_divide_npu_
+ |
+
+352
+ |
+true_divide.out
+ |
+true_divide_out_npu
+ |
+
+353
+ |
+true_divide.Scalar
+ |
+true_divide_npu
+ |
+
+354
+ |
+true_divide_.Scalar
+ |
+true_divide_npu_
+ |
+
+355
+ |
+trunc
+ |
+trunc_npu
+ |
+
+356
+ |
+trunc_
+ |
+trunc_npu_
+ |
+
+357
+ |
+trunc.out
+ |
+trunc_out_npu
+ |
+
+358
+ |
+_unique2
+ |
+_unique2_npu
+ |
+
+359
+ |
+var
+ |
+var_npu
+ |
+
+360
+ |
+var.dim
+ |
+var_npu
+ |
+
+361
+ |
+var.out
+ |
+var_out_npu
+ |
+
+362
+ |
+var.names_dim
+ |
+var_npu
+ |
+
+363
+ |
+var.names_out
+ |
+var_out_npu
+ |
+
+364
+ |
+var_mean
+ |
+var_mean_npu
+ |
+
+365
+ |
+var_mean.dim
+ |
+var_mean_npu
+ |
+
+366
+ |
+var_mean.names_dim
+ |
+var_mean_npu
+ |
+
+367
+ |
+where.self
+ |
+where_npu
+ |
+
+368
+ |
+where
+ |
+where_npu
+ |
+
+369
+ |
+_s_where
+ |
+_s_where_npu
+ |
+
+370
+ |
+zeros.names
+ |
+zeros_npu
+ |
+
+371
+ |
+zeros
+ |
+zeros_npu
+ |
+
+372
+ |
+zeros.out
+ |
+zeros_out_npu
+ |
+
+373
+ |
+zeros_like
+ |
+zeros_like_npu
+ |
+
+374
+ |
+norm.ScalarOpt_dtype
+ |
+norm_npu
+ |
+
+375
+ |
+norm.Scalar
+ |
+norm_npu
+ |
+
+376
+ |
+norm.ScalarOpt_dim_dtype
+ |
+norm_npu
+ |
+
+377
+ |
+norm.ScalarOpt_dim
+ |
+norm_npu
+ |
+
+378
+ |
+norm.dtype_out
+ |
+norm_out_npu
+ |
+
+379
+ |
+norm.out
+ |
+norm_out_npu
+ |
+
+380
+ |
+clone
+ |
+clone_npu
+ |
+
+381
+ |
+resize_as_
+ |
+resize_as_npu_
+ |
+
+382
+ |
+pow.Tensor_Scalar_out
+ |
+pow_out_npu
+ |
+
+383
+ |
+pow.Tensor_Scalar
+ |
+pow_npu
+ |
+
+384
+ |
+zero_
+ |
+zero_npu_
+ |
+
+385
+ |
+sub.out
+ |
+sub_out_npu
+ |
+
+386
+ |
+sub.Tensor
+ |
+sub_npu
+ |
+
+387
+ |
+sub_.Tensor
+ |
+sub_npu_
+ |
+
+388
+ |
+sub.Scalar
+ |
+sub_npu
+ |
+
+389
+ |
+sub_.Scalar
+ |
+sub_npu_
+ |
+
+390
+ |
+rsub.Tensor
+ |
+rsub_npu
+ |
+
+391
+ |
+rsub.Scalar
+ |
+rsub_npu
+ |
+
+392
+ |
+addmm.out
+ |
+addmm_out_npu
+ |
+
+393
+ |
+addmm
+ |
+addmm_npu
+ |
+
+394
+ |
+addmm_
+ |
+addmm_npu_
+ |
+
+395
+ |
+quantize_per_tensor
+ |
+quantize_per_tensor_npu
+ |
+
+396
+ |
+quantize_per_channel
+ |
+quantize_per_channel_npu
+ |
+
+397
+ |
+to.dtype_layout
+ |
+to_npu
+ |
+
+398
+ |
+to.device
+ |
+to_device_npu
+ |
+
+399
+ |
+to.dtype
+ |
+to_dtype_npu
+ |
+
+400
+ |
+to.other
+ |
+to_other_npu
+ |
+
+401
+ |
+_local_scalar_dense
+ |
+_local_scalar_dense_npu
+ |
+
+402
+ |
+lstm.input
+ |
+lstm_npu
+ |
+
+403
+ |
+lstm.data
+ |
+lstm_npu
+ |
+
+404
+ |
+gru.input
+ |
+gru_npu_
+ |
+
+405
+ |
+_pack_padded_sequence
+ |
+_pack_padded_sequence_npu
+ |
+
+406
+ |
+_pad_packed_sequence
+ |
+_pad_packed_sequence_npu
+ |
+
+407
+ |
+set_.source_Storage
+ |
+set_npu_
+ |
+
+408
+ |
+set_.source_Storage_storage_offset
+ |
+set_npu_
+ |
+
+409
+ |
+set_.source_Tensor
+ |
+set_npu_
+ |
+
+410
+ |
+set_
+ |
+set_npu_
+ |
+
+411
+ |
+masked_fill_.Scalar
+ |
+masked_fill_npu_
+ |
+
+412
+ |
+masked_fill_.Tensor
+ |
+masked_fill_npu_
+ |
+
+413
+ |
+masked_scatter_
+ |
+masked_scatter_npu_
+ |
+
+414
+ |
+view
+ |
+view_npu
+ |
+
+415
+ |
+put_
+ |
+put_npu_
+ |
+
+416
+ |
+index_add_
+ |
+index_add_npu_
+ |
+
+417
+ |
+index_add
+ |
+index_add_npu
+ |
+
+418
+ |
+index_add.dimname
+ |
+index_add_npu
+ |
+
+419
+ |
+index_fill_.int_Scalar
+ |
+index_fill_npu_
+ |
+
+420
+ |
+index_fill.int_Scalar
+ |
+index_fill_npu
+ |
+
+421
+ |
+index_fill_.int_Tensor
+ |
+index_fill_npu_
+ |
+
+422
+ |
+index_fill.int_Tensor
+ |
+index_fill_npu
+ |
+
+423
+ |
+scatter_.src
+ |
+scatter_npu_
+ |
+
+424
+ |
+scatter_.value
+ |
+scatter_npu_
+ |
+
+425
+ |
+scatter_add_
+ |
+scatter_add_npu_
+ |
+
+426
+ |
+scatter_add
+ |
+scatter_add_npu
+ |
+
+427
+ |
+scatter_add.dimname
+ |
+scatter_add_npu
+ |
+
+428
+ |
+lt_.Scalar
+ |
+lt_npu_
+ |
+
+429
+ |
+lt_.Tensor
+ |
+lt_npu_
+ |
+
+430
+ |
+gt_.Scalar
+ |
+gt_npu_
+ |
+
+431
+ |
+gt_.Tensor
+ |
+gt_npu_
+ |
+
+432
+ |
+le_.Scalar
+ |
+le_npu_
+ |
+
+433
+ |
+le_.Tensor
+ |
+le_npu_
+ |
+
+434
+ |
+ge_.Scalar
+ |
+ge_npu_
+ |
+
+435
+ |
+ge_.Tensor
+ |
+ge_npu_
+ |
+
+436
+ |
+eq_.Scalar
+ |
+eq_npu_
+ |
+
+437
+ |
+eq_.Tensor
+ |
+eq_npu_
+ |
+
+438
+ |
+ne_.Scalar
+ |
+ne_npu_
+ |
+
+439
+ |
+ne_.Tensor
+ |
+ne_npu_
+ |
+
+440
+ |
+bitwise_and.Tensor_out
+ |
+bitwise_and_out_npu
+ |
+
+441
+ |
+bitwise_and.Scalar_out
+ |
+bitwise_and_out_npu
+ |
+
+442
+ |
+bitwise_and.Scalar
+ |
+bitwise_and_npu
+ |
+
+443
+ |
+bitwise_and.Tensor
+ |
+bitwise_and_npu
+ |
+
+444
+ |
+bitwise_and_.Scalar
+ |
+bitwise_and_npu_
+ |
+
+445
+ |
+bitwise_and_.Tensor
+ |
+bitwise_and_npu_
+ |
+
+446
+ |
+__and__.Scalar
+ |
+__and___npu
+ |
+
+447
+ |
+__and__.Tensor
+ |
+__and___npu
+ |
+
+448
+ |
+bitwise_or.Tensor_out
+ |
+bitwise_or_out_npu
+ |
+
+449
+ |
+bitwise_or.Scalar_out
+ |
+bitwise_or_out_npu
+ |
+
+450
+ |
+bitwise_or.Scalar
+ |
+bitwise_or_npu
+ |
+
+451
+ |
+bitwise_or.Tensor
+ |
+bitwise_or_npu
+ |
+
+452
+ |
+bitwise_or_.Scalar
+ |
+bitwise_or_npu_
+ |
+
+453
+ |
+bitwise_or_.Tensor
+ |
+bitwise_or_npu_
+ |
+
+454
+ |
+__or__.Scalar
+ |
+__or___npu
+ |
+
+455
+ |
+__or__.Tensor
+ |
+__or___npu
+ |
+
+456
+ |
+__ior__.Scalar
+ |
+__ior___npu
+ |
+
+457
+ |
+__ior__.Tensor
+ |
+__ior___npu
+ |
+
+458
+ |
+bitwise_xor.Tensor_out
+ |
+bitwise_xor_out_npu
+ |
+
+459
+ |
+bitwise_xor.Scalar_out
+ |
+bitwise_xor_out_npu
+ |
+
+460
+ |
+bitwise_xor.Scalar
+ |
+bitwise_xor_npu
+ |
+
+461
+ |
+bitwise_xor.Tensor
+ |
+bitwise_xor_npu
+ |
+
+462
+ |
+bitwise_xor_.Scalar
+ |
+bitwise_xor_npu_
+ |
+
+463
+ |
+bitwise_xor_.Tensor
+ |
+bitwise_xor_npu_
+ |
+
+464
+ |
+__xor__.Scalar
+ |
+__xor___npu
+ |
+
+465
+ |
+__xor__.Tensor
+ |
+__xor___npu
+ |
+
+466
+ |
+__lshift__.Scalar
+ |
+__lshift___npu
+ |
+
+467
+ |
+__lshift__.Tensor
+ |
+__lshift___npu
+ |
+
+468
+ |
+__ilshift__.Scalar
+ |
+__iLshift___npu
+ |
+
+469
+ |
+__ilshift__.Tensor
+ |
+__iLshift___npu
+ |
+
+470
+ |
+__rshift__.Scalar
+ |
+__rshift___npu
+ |
+
+471
+ |
+__rshift__.Tensor
+ |
+__rshift___npu
+ |
+
+472
+ |
+__irshift__.Scalar
+ |
+__iRshift___npu
+ |
+
+473
+ |
+__irshift__.Tensor
+ |
+__iRshift___npu
+ |
+
+474
+ |
+atan2_
+ |
+atan2_npu_
+ |
+
+475
+ |
+tril_
+ |
+tril_npu_
+ |
+
+476
+ |
+triu_
+ |
+triu_npu_
+ |
+
+477
+ |
+renorm_
+ |
+renorm_npu_
+ |
+
+478
+ |
+pow_.Scalar
+ |
+pow_npu_
+ |
+
+479
+ |
+pow_.Tensor
+ |
+pow_npu_
+ |
+
+480
+ |
+lerp_.Scalar
+ |
+lerp_npu_
+ |
+
+481
+ |
+lerp_.Tensor
+ |
+lerp_npu_
+ |
+
+482
+ |
+fmod_.Scalar
+ |
+fmod_npu_
+ |
+
+483
+ |
+fmod_.Tensor
+ |
+fmod_npu_
+ |
+
+484
+ |
+remainder_.Scalar
+ |
+remainder_npu_
+ |
+
+485
+ |
+remainder_.Tensor
+ |
+remainder_npu_
+ |
+
+486
+ |
+addbmm_
+ |
+addbmm_npu_
+ |
+
+487
+ |
+addbmm.out
+ |
+addbmm_out_npu
+ |
+
+488
+ |
+addbmm
+ |
+addbmm_npu
+ |
+
+489
+ |
+addcdiv_
+ |
+addcdiv_npu_
+ |
+
+490
+ |
+random_.from
+ |
+random_npu_
+ |
+
+491
+ |
+random_.to
+ |
+random_npu_
+ |
+
+492
+ |
+random_
+ |
+random_npu_
+ |
+
+493
+ |
+uniform_
+ |
+uniform_npu_
+ |
+
+494
+ |
+diag.out
+ |
+diag_out_npu
+ |
+
+495
+ |
+diag
+ |
+diag_npu
+ |
+
+496
+ |
+cross.out
+ |
+cross_out_npu
+ |
+
+497
+ |
+cross
+ |
+cross_npu
+ |
+
+498
+ |
+triu.out
+ |
+triu_out_npu
+ |
+
+499
+ |
+triu
+ |
+triu_npu
+ |
+
+500
+ |
+tril.out
+ |
+tril_out_npu
+ |
+
+501
+ |
+tril
+ |
+tril_npu
+ |
+
+502
+ |
+tril_indices
+ |
+tril_indices_npu
+ |
+
+503
+ |
+triu_indices
+ |
+triu_indices_npu
+ |
+
+504
+ |
+ne.Scalar_out
+ |
+ne_out_npu
+ |
+
+505
+ |
+ne.Scalar
+ |
+ne_npu
+ |
+
+506
+ |
+ne.Tensor_out
+ |
+ne_out_npu
+ |
+
+507
+ |
+ne.Tensor
+ |
+ne_npu
+ |
+
+508
+ |
+eq.Scalar_out
+ |
+eq_out_npu
+ |
+
+509
+ |
+eq.Scalar
+ |
+eq_npu
+ |
+
+510
+ |
+eq.Tensor_out
+ |
+eq_out_npu
+ |
+
+511
+ |
+eq.Tensor
+ |
+eq_npu
+ |
+
+512
+ |
+ge.Scalar_out
+ |
+ge_out_npu
+ |
+
+513
+ |
+ge.Scalar
+ |
+ge_npu
+ |
+
+514
+ |
+ge.Tensor_out
+ |
+ge_out_npu
+ |
+
+515
+ |
+ge.Tensor
+ |
+ge_npu
+ |
+
+516
+ |
+le.Scalar_out
+ |
+le_out_npu
+ |
+
+517
+ |
+le.Scalar
+ |
+le_npu
+ |
+
+518
+ |
+le.Tensor_out
+ |
+le_out_npu
+ |
+
+519
+ |
+le.Tensor
+ |
+le_npu
+ |
+
+520
+ |
+gt.Scalar_out
+ |
+gt_out_npu
+ |
+
+521
+ |
+gt.Scalar
+ |
+gt_npu
+ |
+
+522
+ |
+gt.Tensor_out
+ |
+gt_out_npu
+ |
+
+523
+ |
+gt.Tensor
+ |
+gt_npu
+ |
+
+524
+ |
+lt.Scalar_out
+ |
+lt_out_npu
+ |
+
+525
+ |
+lt.Scalar
+ |
+lt_npu
+ |
+
+526
+ |
+lt.Tensor_out
+ |
+lt_out_npu
+ |
+
+527
+ |
+lt.Tensor
+ |
+lt_npu
+ |
+
+528
+ |
+take.out
+ |
+take_out_npu
+ |
+
+529
+ |
+take
+ |
+take_npu
+ |
+
+530
+ |
+index_select.out
+ |
+index_select_out_npu
+ |
+
+531
+ |
+index_select
+ |
+index_select_npu
+ |
+
+532
+ |
+index_select.dimname_out
+ |
+index_select_out_npu
+ |
+
+533
+ |
+index_select.dimname
+ |
+index_select_npu
+ |
+
+534
+ |
+masked_select.out
+ |
+masked_select_out_npu
+ |
+
+535
+ |
+masked_select
+ |
+masked_select_npu
+ |
+
+536
+ |
+nonzero.out
+ |
+nonzero_out_npu
+ |
+
+537
+ |
+nonzero
+ |
+nonzero_npu
+ |
+
+538
+ |
+gather.out
+ |
+gather_out_npu
+ |
+
+539
+ |
+gather
+ |
+gather_npu
+ |
+
+540
+ |
+gather.dimname_out
+ |
+gather_out_npu
+ |
+
+541
+ |
+gather.dimname
+ |
+gather_npu
+ |
+
+542
+ |
+addcmul.out
+ |
+addcmul_out_npu
+ |
+
+543
+ |
+addcmul
+ |
+addcmul_npu
+ |
+
+544
+ |
+addcmul_
+ |
+addcmul_npu_
+ |
+
+545
+ |
+addcdiv.out
+ |
+addcdiv_out_npu
+ |
+
+546
+ |
+addcdiv
+ |
+addcdiv_npu
+ |
+
+547
+ |
+_triangular_solve_helper
+ |
+_triangular_solve_helper_npu
+ |
+
+548
+ |
+_symeig_helper
+ |
+_symeig_helper_npu
+ |
+
+549
+ |
+_svd_helper
+ |
+_svd_helper_npu
+ |
+
+550
+ |
+qr.Q
+ |
+qr_out_npu
+ |
+
+551
+ |
+qr
+ |
+qr_npu
+ |
+
+552
+ |
+multinomial.out
+ |
+multinomial_out_npu
+ |
+
+553
+ |
+multinomial
+ |
+multinomial_npu
+ |
+
+554
+ |
+erfinv
+ |
+erfinv_npu
+ |
+
+555
+ |
+erfinv_
+ |
+erfinv_npu_
+ |
+
+556
+ |
+erfinv.out
+ |
+erfinv_out_npu
+ |
+
+557
+ |
+sign
+ |
+sign_npu
+ |
+
+558
+ |
+sign_
+ |
+sign_npu_
+ |
+
+559
+ |
+sign.out
+ |
+sign_out_npu
+ |
+
+560
+ |
+atan2.out
+ |
+atan2_out_npu
+ |
+
+561
+ |
+atan2
+ |
+atan2_npu
+ |
+
+562
+ |
+lerp.Scalar_out
+ |
+lerp_out_npu
+ |
+
+563
+ |
+lerp.Tensor_out
+ |
+lerp_out_npu
+ |
+
+564
+ |
+lerp.Scalar
+ |
+lerp_npu
+ |
+
+565
+ |
+lerp.Tensor
+ |
+lerp_npu
+ |
+
+566
+ |
+fmod.Scalar_out
+ |
+fmod_out_npu
+ |
+
+567
+ |
+fmod.Scalar
+ |
+fmod_npu
+ |
+
+568
+ |
+fmod.Tensor_out
+ |
+fmod_out_npu
+ |
+
+569
+ |
+fmod.Tensor
+ |
+fmod_npu
+ |
+
+570
+ |
+remainder.Scalar_out
+ |
+remainder_out_npu
+ |
+
+571
+ |
+remainder.Scalar
+ |
+remainder_npu
+ |
+
+572
+ |
+remainder.Tensor_out
+ |
+remainder_out_npu
+ |
+
+573
+ |
+remainder.Tensor
+ |
+remainder_npu
+ |
+
+574
+ |
+min.out
+ |
+min_out_npu
+ |
+
+575
+ |
+min.other
+ |
+min_npu
+ |
+
+576
+ |
+min
+ |
+min_npu
+ |
+
+577
+ |
+max.out
+ |
+max_out_npu
+ |
+
+578
+ |
+max.other
+ |
+max_npu
+ |
+
+579
+ |
+max
+ |
+max_npu
+ |
+
+580
+ |
+median
+ |
+median_npu
+ |
+
+581
+ |
+sort.values
+ |
+sort_out_npu
+ |
+
+582
+ |
+sort
+ |
+sort_npu
+ |
+
+583
+ |
+sort.dimname_values
+ |
+sort_out_npu
+ |
+
+584
+ |
+sort.dimname
+ |
+sort_npu
+ |
+
+585
+ |
+argsort
+ |
+argsort_npu
+ |
+
+586
+ |
+argsort.dimname
+ |
+argsort_npu
+ |
+
+587
+ |
+topk.values
+ |
+topk_out_npu
+ |
+
+588
+ |
+topk
+ |
+topk_npu
+ |
+
+589
+ |
+all
+ |
+all_npu
+ |
+
+590
+ |
+any
+ |
+any_npu
+ |
+
+591
+ |
+renorm.out
+ |
+renorm_out_npu
+ |
+
+592
+ |
+renorm
+ |
+renorm_npu
+ |
+
+593
+ |
+unfold
+ |
+unfold
+ |
+
+594
+ |
+equal
+ |
+equal_npu
+ |
+
+595
+ |
+pow.Tensor_Tensor_out
+ |
+pow_out_npu
+ |
+
+596
+ |
+pow.Tensor_Tensor
+ |
+pow_npu
+ |
+
+597
+ |
+pow.Scalar_out
+ |
+pow_out_npu
+ |
+
+598
+ |
+pow.Scalar
+ |
+pow_npu
+ |
+
+599
+ |
+normal_
+ |
+normal_npu_
+ |
+
+600
+ |
+normal.Tensor_float_out
+ |
+normal_out_npu
+ |
+
+601
+ |
+normal.Tensor_float
+ |
+normal_npu
+ |
+
+602
+ |
+normal.float_Tensor_out
+ |
+normal_out_npu
+ |
+
+603
+ |
+normal.float_Tensor
+ |
+normal_npu
+ |
+
+604
+ |
+normal.Tensor_Tensor_out
+ |
+normal_out_npu
+ |
+
+605
+ |
+normal.Tensor_Tensor
+ |
+normal_npu
+ |
+
+606
+ |
+normal.float_float
+ |
+normal_npu
+ |
+
+607
+ |
+normal.float_float_out
+ |
+normal_out_npu
+ |
+
+608
+ |
+_addr
+ |
+_addr_npu
+ |
+
+609
+ |
+_addr_
+ |
+_addr_npu_
+ |
+
+610
+ |
+_addr.out
+ |
+_addr_out_npu
+ |
+
+611
+ |
+_index_copy_
+ |
+index_copy_npu_
+ |
+
+612
+ |
+_cumsum
+ |
+_cumsum_npu
+ |
+
+613
+ |
+_cumsum.out
+ |
+_cumsum_out_npu
+ |
+
+614
+ |
+_cumprod
+ |
+_cumprod_npu
+ |
+
+615
+ |
+_cumprod.out
+ |
+_cumprod_out_npu
+ |
+
+616
+ |
+_var
+ |
+_var_npu
+ |
+
+617
+ |
+_amp_non_finite_check_and_unscale_
+ |
+_amp_non_finite_check_and_unscale_npu_
+ |
+
+618
+ |
+_cat
+ |
+_cat_npu
+ |
+
+619
+ |
+_cat.out
+ |
+_cat_out_npu
+ |
+
+620
+ |
+_max
+ |
+_max_npu
+ |
+
+621
+ |
+_max.max
+ |
+_max_out_npu
+ |
+
+622
+ |
+_min
+ |
+_min_npu
+ |
+
+623
+ |
+_min.min
+ |
+_min_out_npu
+ |
+
+624
+ |
+mse_loss.out
+ |
+mse_loss_out_npu
+ |
+
+625
+ |
+mse_loss
+ |
+mse_loss_npu
+ |
+
+626
+ |
+mse_loss_backward.grad_input
+ |
+mse_loss_backward_out_npu
+ |
+
+627
+ |
+mse_loss_backward
+ |
+mse_loss_backward_npu
+ |
+
+628
+ |
+l1_loss.out
+ |
+l1_loss_out_npu
+ |
+
+629
+ |
+l1_loss
+ |
+l1_loss_npu
+ |
+
+630
+ |
+l1_loss_backward.grad_input
+ |
+l1_loss_backward_out_npu
+ |
+
+631
+ |
+l1_loss_backward
+ |
+l1_loss_backward_npu
+ |
+
+632
+ |
+multilabel_margin_loss.out
+ |
+multilabel_margin_loss_out_npu
+ |
+
+633
+ |
+multilabel_margin_loss
+ |
+multilabel_margin_loss_npu
+ |
+
+634
+ |
+multilabel_margin_loss_forward.output
+ |
+multilabel_margin_loss_forward_out_npu
+ |
+
+635
+ |
+multilabel_margin_loss_forward
+ |
+multilabel_margin_loss_forward_npu
+ |
+
+636
+ |
+nll_loss.out
+ |
+nll_loss_out_npu
+ |
+
+637
+ |
+nll_loss
+ |
+nll_loss_npu
+ |
+
+638
+ |
+nll_loss_forward.output
+ |
+nll_loss_forward_out_npu
+ |
+
+639
+ |
+nll_loss_forward
+ |
+nll_loss_forward_npu
+ |
+
+640
+ |
+nll_loss_backward.grad_input
+ |
+nll_loss_backward_out_npu
+ |
+
+641
+ |
+nll_loss_backward
+ |
+nll_loss_backward_npu
+ |
+
+642
+ |
+nll_loss2d.out
+ |
+nll_loss2d_out_npu
+ |
+
+643
+ |
+nll_loss2d
+ |
+nll_loss2d_npu
+ |
+
+644
+ |
+nll_loss2d_forward.output
+ |
+nll_loss2d_forward_out_npu
+ |
+
+645
+ |
+nll_loss2d_forward
+ |
+nll_loss2d_forward_npu
+ |
+
+646
+ |
+nll_loss2d_backward.grad_input
+ |
+nll_loss2d_backward_out_npu
+ |
+
+647
+ |
+nll_loss2d_backward
+ |
+nll_loss2d_backward_npu
+ |
+
+648
+ |
+smooth_l1_loss.out
+ |
+smooth_l1_loss_out_npu
+ |
+
+649
+ |
+smooth_l1_loss
+ |
+smooth_l1_loss_npu
+ |
+
+650
+ |
+smooth_l1_loss_backward.grad_input
+ |
+smooth_l1_loss_backward_out_npu
+ |
+
+651
+ |
+smooth_l1_loss_backward
+ |
+smooth_l1_loss_backward_npu
+ |
+
+652
+ |
+soft_margin_loss.out
+ |
+soft_margin_loss_out_npu
+ |
+
+653
+ |
+soft_margin_loss
+ |
+soft_margin_loss_npu
+ |
+
+654
+ |
+soft_margin_loss_backward.grad_input
+ |
+soft_margin_loss_backward_out_npu
+ |
+
+655
+ |
+soft_margin_loss_backward
+ |
+soft_margin_loss_backward_npu
+ |
+
+656
+ |
+elu.out
+ |
+elu_out_npu
+ |
+
+657
+ |
+elu
+ |
+elu_npu
+ |
+
+658
+ |
+elu_backward.grad_input
+ |
+elu_backward_out_npu
+ |
+
+659
+ |
+elu_backward
+ |
+elu_backward_npu
+ |
+
+660
+ |
+elu_
+ |
+elu_npu_
+ |
+
+661
+ |
+glu.out
+ |
+glu_out_npu
+ |
+
+662
+ |
+glu
+ |
+glu_npu
+ |
+
+663
+ |
+glu_backward.grad_input
+ |
+glu_backward_out_npu
+ |
+
+664
+ |
+glu_backward
+ |
+glu_backward_npu
+ |
+
+665
+ |
+hardsigmoid.out
+ |
+hardsigmoid_out_npu
+ |
+
+666
+ |
+hardsigmoid
+ |
+hardsigmoid_npu
+ |
+
+667
+ |
+hardsigmoid_
+ |
+hardsigmoid_npu_
+ |
+
+668
+ |
+hardsigmoid_backward
+ |
+hardsigmoid_backward_npu
+ |
+
+669
+ |
+hardtanh.out
+ |
+hardtanh_out_npu
+ |
+
+670
+ |
+hardtanh
+ |
+hardtanh_npu
+ |
+
+671
+ |
+hardtanh_backward.grad_input
+ |
+hardtanh_backward_out_npu
+ |
+
+672
+ |
+hardtanh_backward
+ |
+hardtanh_backward_npu
+ |
+
+673
+ |
+hardtanh_
+ |
+hardtanh_npu_
+ |
+
+674
+ |
+leaky_relu.out
+ |
+leaky_relu_out_npu
+ |
+
+675
+ |
+leaky_relu
+ |
+leaky_relu_npu
+ |
+
+676
+ |
+leaky_relu_backward
+ |
+leaky_relu_backward_npu
+ |
+
+677
+ |
+leaky_relu_
+ |
+leaky_relu_npu_
+ |
+
+678
+ |
+log_sigmoid.out
+ |
+log_sigmoid_out_npu
+ |
+
+679
+ |
+log_sigmoid
+ |
+log_sigmoid_npu
+ |
+
+680
+ |
+log_sigmoid_forward.output
+ |
+log_sigmoid_forward_out_npu
+ |
+
+681
+ |
+log_sigmoid_forward
+ |
+log_sigmoid_forward_npu
+ |
+
+682
+ |
+log_sigmoid_backward.grad_input
+ |
+log_sigmoid_backward_out_npu
+ |
+
+683
+ |
+log_sigmoid_backward
+ |
+log_sigmoid_backward_npu
+ |
+
+684
+ |
+rrelu_with_noise.out
+ |
+rrelu_with_noise_out_npu
+ |
+
+685
+ |
+rrelu_with_noise
+ |
+rrelu_with_noise_npu
+ |
+
+686
+ |
+rrelu_with_noise_backward
+ |
+rrelu_with_noise_backward_npu
+ |
+
+687
+ |
+rrelu_with_noise_
+ |
+rrelu_with_noise_npu_
+ |
+
+688
+ |
+softplus.out
+ |
+softplus_out_npu
+ |
+
+689
+ |
+softplus
+ |
+softplus_npu
+ |
+
+690
+ |
+softplus_backward.grad_input
+ |
+softplus_backward_out_npu
+ |
+
+691
+ |
+softplus_backward
+ |
+softplus_backward_npu
+ |
+
+692
+ |
+softshrink.out
+ |
+softshrink_out_npu
+ |
+
+693
+ |
+softshrink
+ |
+softshrink_npu
+ |
+
+694
+ |
+softshrink_backward.grad_input
+ |
+softshrink_backward_out_npu
+ |
+
+695
+ |
+softshrink_backward
+ |
+softshrink_backward_npu
+ |
+
+696
+ |
+adaptive_avg_pool2d.out
+ |
+adaptive_avg_pool2d_out_npu
+ |
+
+697
+ |
+adaptive_avg_pool2d
+ |
+adaptive_avg_pool2d_npu
+ |
+
+698
+ |
+_adaptive_avg_pool2d
+ |
+_adaptive_avg_pool2d_npu
+ |
+
+699
+ |
+_adaptive_avg_pool2d_backward
+ |
+adaptive_avg_pool2d_backward_npu
+ |
+
+700
+ |
+adaptive_avg_pool3d.out
+ |
+adaptive_avg_pool3d_out_npu
+ |
+
+701
+ |
+adaptive_avg_pool3d
+ |
+adaptive_avg_pool3d_npu
+ |
+
+702
+ |
+adaptive_avg_pool3d_backward.grad_input
+ |
+adaptive_avg_pool3d_backward_out_npu
+ |
+
+703
+ |
+adaptive_avg_pool3d_backward
+ |
+adaptive_avg_pool3d_backward_npu
+ |
+
+704
+ |
+adaptive_max_pool2d.out
+ |
+adaptive_max_pool2d_out_npu
+ |
+
+705
+ |
+adaptive_max_pool2d
+ |
+adaptive_max_pool2d_npu
+ |
+
+706
+ |
+adaptive_max_pool2d_backward.grad_input
+ |
+adaptive_max_pool2d_backward_out_npu
+ |
+
+707
+ |
+adaptive_max_pool2d_backward
+ |
+adaptive_max_pool2d_backward_npu
+ |
+
+708
+ |
+avg_pool2d.out
+ |
+avg_pool2d_out_npu
+ |
+
+709
+ |
+avg_pool2d
+ |
+avg_pool2d_npu
+ |
+
+710
+ |
+avg_pool2d_backward.grad_input
+ |
+avg_pool2d_backward_out_npu
+ |
+
+711
+ |
+avg_pool2d_backward
+ |
+avg_pool2d_backward_npu
+ |
+
+712
+ |
+avg_pool3d.out
+ |
+avg_pool3d_out_npu
+ |
+
+713
+ |
+avg_pool3d
+ |
+avg_pool3d_npu
+ |
+
+714
+ |
+avg_pool3d_backward.grad_input
+ |
+avg_pool3d_backward_out_npu
+ |
+
+715
+ |
+avg_pool3d_backward
+ |
+avg_pool3d_backward_npu
+ |
+
+716
+ |
+max_pool2d_with_indices.out
+ |
+max_pool2d_with_indices_out_npu
+ |
+
+717
+ |
+max_pool2d_with_indices
+ |
+max_pool2d_with_indices_npu
+ |
+
+718
+ |
+max_pool2d_with_indices_backward.grad_input
+ |
+max_pool2d_with_indices_backward_out_npu
+ |
+
+719
+ |
+max_pool2d_with_indices_backward
+ |
+max_pool2d_with_indices_backward_npu
+ |
+
+720
+ |
+max_pool3d_with_indices.out
+ |
+max_pool3d_with_indices_out_npu
+ |
+
+721
+ |
+max_pool3d_with_indices
+ |
+max_pool3d_with_indices_npu
+ |
+
+722
+ |
+max_pool3d_with_indices_backward.grad_input
+ |
+max_pool3d_with_indices_backward_out_npu
+ |
+
+723
+ |
+max_pool3d_with_indices_backward
+ |
+max_pool3d_with_indices_backward_npu
+ |
+
+724
+ |
+reflection_pad2d.out
+ |
+reflection_pad2d_out_npu
+ |
+
+725
+ |
+reflection_pad2d
+ |
+reflection_pad2d_npu
+ |
+
+726
+ |
+replication_pad2d.out
+ |
+replication_pad2d_out_npu
+ |
+
+727
+ |
+replication_pad2d
+ |
+replication_pad2d_npu
+ |
+
+728
+ |
+upsample_linear1d.out
+ |
+upsample_linear1d_out_npu
+ |
+
+729
+ |
+upsample_linear1d
+ |
+upsample_linear1d_npu
+ |
+
+730
+ |
+upsample_linear1d_backward
+ |
+upsample_linear1d_backward_npu
+ |
+
+731
+ |
+upsample_bilinear2d.out
+ |
+upsample_bilinear2d_out_npu
+ |
+
+732
+ |
+upsample_bilinear2d
+ |
+upsample_bilinear2d_npu
+ |
+
+733
+ |
+upsample_bilinear2d_backward.grad_input
+ |
+upsample_bilinear2d_backward_out_npu
+ |
+
+734
+ |
+upsample_bilinear2d_backward
+ |
+upsample_bilinear2d_backward_npu
+ |
+
+735
+ |
+upsample_bicubic2d.out
+ |
+upsample_bicubic2d_out_npu
+ |
+
+736
+ |
+upsample_bicubic2d
+ |
+upsample_bicubic2d_npu
+ |
+
+737
+ |
+upsample_bicubic2d_backward.grad_input
+ |
+upsample_bicubic2d_backward_out_npu
+ |
+
+738
+ |
+upsample_bicubic2d_backward
+ |
+upsample_bicubic2d_backward_npu
+ |
+
+739
+ |
+upsample_trilinear3d.out
+ |
+upsample_trilinear3d_out_npu
+ |
+
+740
+ |
+upsample_trilinear3d
+ |
+upsample_trilinear3d_npu
+ |
+
+741
+ |
+upsample_trilinear3d_backward.grad_input
+ |
+upsample_trilinear3d_backward_out_npu
+ |
+
+742
+ |
+upsample_trilinear3d_backward
+ |
+upsample_trilinear3d_backward_npu
+ |
+
+743
+ |
+upsample_nearest1d.out
+ |
+upsample_nearest1d_out_npu
+ |
+
+744
+ |
+upsample_nearest1d
+ |
+upsample_nearest1d_npu
+ |
+
+745
+ |
+upsample_nearest1d_backward.grad_input
+ |
+upsample_nearest1d_backward_out_npu
+ |
+
+746
+ |
+upsample_nearest1d_backward
+ |
+upsample_nearest1d_backward_npu
+ |
+
+747
+ |
+upsample_nearest2d.out
+ |
+upsample_nearest2d_out_npu
+ |
+
+748
+ |
+upsample_nearest2d
+ |
+upsample_nearest2d_npu
+ |
+
+749
+ |
+upsample_nearest2d_backward.grad_input
+ |
+upsample_nearest2d_backward_out_npu
+ |
+
+750
+ |
+upsample_nearest2d_backward
+ |
+upsample_nearest2d_backward_npu
+ |
+
+751
+ |
+upsample_nearest3d.out
+ |
+upsample_nearest3d_out_npu
+ |
+
+752
+ |
+upsample_nearest3d
+ |
+upsample_nearest3d_npu
+ |
+
+753
+ |
+upsample_nearest3d_backward.grad_input
+ |
+upsample_nearest3d_backward_out_npu
+ |
+
+754
+ |
+upsample_nearest3d_backward
+ |
+upsample_nearest3d_backward_npu
+ |
+
+755
+ |
+sigmoid_backward.grad_input
+ |
+sigmoid_backward_out_npu
+ |
+
+756
+ |
+sigmoid_backward
+ |
+sigmoid_backward_npu
+ |
+
+757
+ |
+tanh_backward.grad_input
+ |
+tanh_backward_out_npu
+ |
+
+758
+ |
+tanh_backward
+ |
+tanh_backward_npu
+ |
+
+759
+ |
+slow_conv_transpose2d.out
+ |
+slow_conv_transpose2d_out_npu
+ |
+
+760
+ |
+slow_conv_transpose2d
+ |
+slow_conv_transpose2d_npu
+ |
+
+761
+ |
+slow_conv_transpose2d_backward.grad_output
+ |
+slow_conv_transpose2d_backward_out_npu
+ |
+
+762
+ |
+slow_conv_transpose2d_backward.output_mask
+ |
+slow_conv_transpose2d_backward_npu
+ |
+
+763
+ |
+thnn_conv2d.out
+ |
+thnn_conv2d_out_npu
+ |
+
+764
+ |
+thnn_conv2d
+ |
+thnn_conv2d_npu
+ |
+
+765
+ |
+thnn_conv2d_forward.output
+ |
+thnn_conv2d_forward_out_npu
+ |
+
+766
+ |
+thnn_conv2d_forward
+ |
+thnn_conv2d_forward_npu
+ |
+
+767
+ |
+thnn_conv2d_backward.output_mask
+ |
+thnn_conv2d_backward_npu
+ |
+
+768
+ |
+thnn_conv_depthwise2d.out
+ |
+thnn_conv_depthwise2d_out_npu
+ |
+
+769
+ |
+thnn_conv_depthwise2d
+ |
+thnn_conv_depthwise2d_npu
+ |
+
+770
+ |
+thnn_conv_depthwise2d_forward.out
+ |
+thnn_conv_depthwise2d_forward_out_npu
+ |
+
+771
+ |
+thnn_conv_depthwise2d_forward
+ |
+thnn_conv_depthwise2d_forward_npu
+ |
+
+772
+ |
+thnn_conv_depthwise2d_backward.grad_input
+ |
+thnn_conv_depthwise2d_backward_out_npu
+ |
+
+773
+ |
+thnn_conv_depthwise2d_backward.output_mask
+ |
+thnn_conv_depthwise2d_backward_npu
+ |
+
+774
+ |
+slow_conv3d.out
+ |
+slow_conv3d_out_npu
+ |
+
+775
+ |
+slow_conv3d
+ |
+slow_conv3d_npu
+ |
+
+776
+ |
+slow_conv3d_forward.output
+ |
+slow_conv3d_forward_out_npu
+ |
+
+777
+ |
+slow_conv3d_forward
+ |
+slow_conv3d_forward_npu
+ |
+
+778
+ |
+slow_conv_dilated2d
+ |
+slow_conv_dilated2d_npu
+ |
+
+779
+ |
+slow_conv_dilated2d_backward
+ |
+slow_conv_dilated2d_backward_npu
+ |
+
+780
+ |
+col2im.out
+ |
+im2col_backward_out_npu
+ |
+
+781
+ |
+col2im
+ |
+im2col_backward_npu
+ |
+
+782
+ |
+col2im_backward.grad_input
+ |
+im2col_out_npu
+ |
+
+783
+ |
+col2im_backward
+ |
+im2col_npu
+ |
+
+784
+ |
+im2col.out
+ |
+im2col_out_npu
+ |
+
+785
+ |
+im2col
+ |
+im2col_npu
+ |
+
+786
+ |
+im2col_backward.grad_input
+ |
+im2col_backward_out_npu
+ |
+
+787
+ |
+im2col_backward
+ |
+im2col_backward_npu
+ |
+
+788
+ |
+isfinite
+ |
+isfinite_npu
+ |
+
+
+
PyTorch昇腾自定义算子
-| 序号 | PyTorch 算子(由昇腾开发) | 昇腾适配算子 |
-| ---- | ---------------------------------------------- | ---------------------------------------------- |
-| 1 | npu_convolution_transpose | npu_convolution_transpose |
-| 2 | npu_conv_transpose2d | convolution_transpose_npu |
-| 3 | npu_convolution_transpose_backward | convolution_transpose_backward_npu |
-| 4 | npu_convolution | npu_convolution |
-| 5 | npu_convolution_backward | npu_convolution_backward |
-| 6 | npu_conv2d | conv2d_npu |
-| 7 | npu_conv2d.out | conv2d_out_npu |
-| 8 | npu_conv2d_backward | conv2d_backward_npu |
-| 9 | npu_conv3d | conv3d_npu |
-| 10 | npu_conv3d.out | conv3d_out_npu |
-| 11 | npu_conv3d_backward | conv3d_backward_npu |
-| 12 | one_ | one_npu_ |
-| 13 | npu_sort_v2.out | sort_without_indices_out_npu |
-| 14 | npu_sort_v2 | sort_without_indices_npu |
-| 15 | npu_format_cast | format_cast_npu |
-| 16 | npu_format_cast_.acl_format | format_cast_npu_ |
-| 17 | npu_format_cast_.src | format_cast_npu_ |
-| 18 | npu_transpose_to_contiguous | transpose_to_contiguous_npu |
-| 19 | npu_transpose | transpose_npu |
-| 20 | npu_transpose.out | transpose_out_npu |
-| 21 | npu_broadcast | broadcast_npu |
-| 22 | npu_broadcast.out | broadcast_out_npu |
-| 23 | npu_dtype_cast | dtype_cast_npu |
-| 24 | npu_dtype_cast_.Tensor | dtype_cast_npu_ |
-| 25 | npu_roi_alignbk | roi_align_backward_npu |
-| 26 | empty_with_format | empty_with_format_npu |
-| 27 | empty_with_format.names | empty_with_format_npu |
-| 28 | copy_memory_ | copy_memory_npu_ |
-| 29 | npu_one_hot | one_hot_npu |
-| 30 | npu_stride_add | stride_add_npu |
-| 31 | npu_softmax_cross_entropy_with_logits | softmax_cross_entropy_with_logits_npu |
-| 32 | npu_softmax_cross_entropy_with_logits_backward | softmax_cross_entropy_with_logits_backward_npu |
-| 33 | npu_ps_roi_pooling | ps_roi_pooling_npu |
-| 34 | npu_ps_roi_pooling_backward | ps_roi_pooling_backward_npu |
-| 35 | npu_roi_align | roi_align_npu |
-| 36 | npu_nms_v4 | nms_v4_npu |
-| 37 | npu_lstm | lstm_npu |
-| 38 | npu_lstm_backward | lstm_backward_npu |
-| 39 | npu_iou | iou_npu |
-| 40 | npu_ptiou | ptiou_npu |
-| 41 | npu_nms_with_mask | nms_with_mask_npu |
-| 42 | npu_pad | pad_npu |
-| 43 | npu_bounding_box_encode | bounding_box_encode_npu |
-| 44 | npu_bounding_box_decode | bounding_box_decode_npu |
-| 45 | npu_gru | gru_npu |
-| 46 | npu_gru_backward | gru_backward_npu |
-| 47 | npu_set_.source_Storage_storage_offset_format | set_npu_ |
-| 48 | npu_random_choice_with_mask | random_choice_with_mask_npu |
-| 49 | npu_batch_nms | batch_nms_npu |
-| 50 | npu_slice | slice_npu |
-| 51 | npu_slice.out | slice_out_npu |
-| 52 | npu_dropoutV2 | dropout_v2_npu |
-| 53 | npu_dropoutV2_backward | dropout_v2_backward_npu |
-| 54 | _npu_dropout | _dropout_npu |
-| 55 | _npu_dropout_inplace | _dropout_npu_inplace |
-| 56 | npu_dropout_backward | dropout_backward_npu |
-| 57 | npu_indexing | indexing_npu |
-| 58 | npu_indexing.out | indexing_out_npu |
-| 59 | npu_ifmr | ifmr_npu |
-| 60 | npu_max.dim | max_v1_npu |
-| 61 | npu_max.names_dim | max_v1_npu |
-| 62 | npu_scatter | scatter_npu |
-| 63 | npu_max_backward | max_backward_npu |
-| 64 | npu_apply_adam | apply_adam_npu |
-| 65 | npu_layer_norm_eval | layer_norm_eval_npu |
-| 66 | npu_alloc_float_status | alloc_float_status_npu |
-| 67 | npu_get_float_status | get_float_status_npu |
-| 68 | npu_clear_float_status | clear_float_status_npu |
-| 69 | npu_confusion_transpose | confusion_transpose_npu |
-| 70 | npu_confusion_transpose_backward | confusion_transpose_backward_npu |
-| 71 | npu_bmmV2 | bmm_v2_npu |
-| 72 | fast_gelu | fast_gelu_npu |
-| 73 | fast_gelu_backward | fast_gelu_backward_npu |
-| 74 | npu_sub_sample | sub_sample_npu |
-| 75 | npu_deformable_conv2d | deformable_conv2d_npu |
-| 76 | npu_deformable_conv2dbk | deformable_conv2d_backward_npu |
-| 77 | npu_mish | mish_npu |
-| 78 | npu_anchor_response_flags | anchor_response_flags_npu |
-| 79 | npu_yolo_boxes_encode | yolo_boxes_encode_npu |
-| 80 | npu_grid_assign_positive | grid_assign_positive_npu |
-| 81 | npu_mish_backward | mish_backward_npu |
-| 82 | npu_normalize_batch | normalize_batch_npu |
-| 83 | npu_masked_fill_range | masked_fill_range_npu |
-
+
+序号
+ |
+PyTorch 算子(由昇腾开发)
+ |
+昇腾适配算子
+ |
+
+
+1
+ |
+npu_convolution_transpose
+ |
+npu_convolution_transpose
+ |
+
+2
+ |
+npu_conv_transpose2d
+ |
+conv_transpose2d_npu
+ |
+
+3
+ |
+npu_convolution_transpose_backward
+ |
+npu_convolution_transpose_backward
+ |
+
+4
+ |
+npu_conv_transpose2d_backward
+ |
+conv_transpose2d_backward_npu
+ |
+
+5
+ |
+npu_conv_transpose3d_backward
+ |
+conv_transpose3d_backward_npu
+ |
+
+6
+ |
+npu_convolution
+ |
+npu_convolution
+ |
+
+7
+ |
+npu_convolution_backward
+ |
+npu_convolution_backward
+ |
+
+8
+ |
+npu_convolution_double_backward
+ |
+npu_convolution_double_backward
+ |
+
+9
+ |
+npu_conv2d
+ |
+conv2d_npu
+ |
+
+10
+ |
+npu_conv2d.out
+ |
+conv2d_out_npu
+ |
+
+11
+ |
+npu_conv2d_backward
+ |
+conv2d_backward_npu
+ |
+
+12
+ |
+npu_conv3d
+ |
+conv3d_npu
+ |
+
+13
+ |
+npu_conv3d.out
+ |
+conv3d_out_npu
+ |
+
+14
+ |
+npu_conv3d_backward
+ |
+conv3d_backward_npu
+ |
+
+15
+ |
+one_
+ |
+one_npu_
+ |
+
+16
+ |
+npu_sort_v2.out
+ |
+sort_without_indices_out_npu
+ |
+
+17
+ |
+npu_sort_v2
+ |
+sort_without_indices_npu
+ |
+
+18
+ |
+npu_format_cast
+ |
+format_cast_npu
+ |
+
+19
+ |
+npu_format_cast_.acl_format
+ |
+format_cast_npu_
+ |
+
+20
+ |
+npu_format_cast_.src
+ |
+format_cast_npu_
+ |
+
+21
+ |
+npu_transpose_to_contiguous
+ |
+transpose_to_contiguous_npu
+ |
+
+22
+ |
+npu_transpose
+ |
+transpose_npu
+ |
+
+23
+ |
+npu_transpose.out
+ |
+transpose_out_npu
+ |
+
+24
+ |
+npu_broadcast
+ |
+broadcast_npu
+ |
+
+25
+ |
+npu_broadcast.out
+ |
+broadcast_out_npu
+ |
+
+26
+ |
+npu_dtype_cast
+ |
+dtype_cast_npu
+ |
+
+27
+ |
+npu_dtype_cast_.Tensor
+ |
+dtype_cast_npu_
+ |
+
+28
+ |
+npu_roi_alignbk
+ |
+roi_align_backward_npu
+ |
+
+29
+ |
+empty_with_format
+ |
+empty_with_format_npu
+ |
+
+30
+ |
+empty_with_format.names
+ |
+empty_with_format_npu
+ |
+
+31
+ |
+copy_memory_
+ |
+copy_memory_npu_
+ |
+
+32
+ |
+npu_one_hot
+ |
+one_hot_npu
+ |
+
+33
+ |
+npu_stride_add
+ |
+stride_add_npu
+ |
+
+34
+ |
+npu_softmax_cross_entropy_with_logits
+ |
+softmax_cross_entropy_with_logits_npu
+ |
+
+35
+ |
+npu_softmax_cross_entropy_with_logits_backward
+ |
+softmax_cross_entropy_with_logits_backward_npu
+ |
+
+36
+ |
+npu_ps_roi_pooling
+ |
+ps_roi_pooling_npu
+ |
+
+37
+ |
+npu_ps_roi_pooling_backward
+ |
+ps_roi_pooling_backward_npu
+ |
+
+38
+ |
+npu_roi_align
+ |
+roi_align_npu
+ |
+
+39
+ |
+npu_nms_v4
+ |
+nms_v4_npu
+ |
+
+40
+ |
+npu_lstm
+ |
+lstm_npu
+ |
+
+41
+ |
+npu_lstm_backward
+ |
+lstm_backward_npu
+ |
+
+42
+ |
+npu_iou
+ |
+iou_npu
+ |
+
+43
+ |
+npu_ptiou
+ |
+ptiou_npu
+ |
+
+44
+ |
+npu_nms_with_mask
+ |
+nms_with_mask_npu
+ |
+
+45
+ |
+npu_pad
+ |
+pad_npu
+ |
+
+46
+ |
+npu_bounding_box_encode
+ |
+bounding_box_encode_npu
+ |
+
+47
+ |
+npu_bounding_box_decode
+ |
+bounding_box_decode_npu
+ |
+
+48
+ |
+npu_gru
+ |
+gru_npu
+ |
+
+49
+ |
+npu_gru_backward
+ |
+gru_backward_npu
+ |
+
+50
+ |
+npu_set_.source_Storage_storage_offset_format
+ |
+set_npu_
+ |
+
+51
+ |
+npu_random_choice_with_mask
+ |
+random_choice_with_mask_npu
+ |
+
+52
+ |
+npu_batch_nms
+ |
+batch_nms_npu
+ |
+
+53
+ |
+npu_slice
+ |
+slice_npu
+ |
+
+54
+ |
+npu_slice.out
+ |
+slice_out_npu
+ |
+
+55
+ |
+npu_dropoutV2
+ |
+dropout_v2_npu
+ |
+
+56
+ |
+npu_dropoutV2_backward
+ |
+dropout_v2_backward_npu
+ |
+
+57
+ |
+_npu_dropout
+ |
+_dropout_npu
+ |
+
+58
+ |
+_npu_dropout_inplace
+ |
+_dropout_npu_inplace
+ |
+
+59
+ |
+npu_dropout_backward
+ |
+dropout_backward_npu
+ |
+
+60
+ |
+npu_indexing
+ |
+indexing_npu
+ |
+
+61
+ |
+npu_indexing.out
+ |
+indexing_out_npu
+ |
+
+62
+ |
+npu_ifmr
+ |
+ifmr_npu
+ |
+
+63
+ |
+npu_max.dim
+ |
+max_v1_npu
+ |
+
+64
+ |
+npu_max.names_dim
+ |
+max_v1_npu
+ |
+
+65
+ |
+npu_scatter
+ |
+scatter_npu
+ |
+
+66
+ |
+npu_max_backward
+ |
+max_backward_npu
+ |
+
+67
+ |
+npu_apply_adam
+ |
+apply_adam_npu
+ |
+
+68
+ |
+npu_layer_norm_eval
+ |
+layer_norm_eval_npu
+ |
+
+69
+ |
+npu_alloc_float_status
+ |
+alloc_float_status_npu
+ |
+
+70
+ |
+npu_get_float_status
+ |
+get_float_status_npu
+ |
+
+71
+ |
+npu_clear_float_status
+ |
+clear_float_status_npu
+ |
+
+72
+ |
+npu_confusion_transpose
+ |
+confusion_transpose_npu
+ |
+
+73
+ |
+npu_confusion_transpose_backward
+ |
+confusion_transpose_backward_npu
+ |
+
+74
+ |
+npu_bmmV2
+ |
+bmm_v2_npu
+ |
+
+75
+ |
+fast_gelu
+ |
+fast_gelu_npu
+ |
+
+76
+ |
+fast_gelu_backward
+ |
+fast_gelu_backward_npu
+ |
+
+77
+ |
+npu_sub_sample
+ |
+sub_sample_npu
+ |
+
+78
+ |
+npu_deformable_conv2d
+ |
+deformable_conv2d_npu
+ |
+
+79
+ |
+npu_deformable_conv2dbk
+ |
+deformable_conv2d_backward_npu
+ |
+
+80
+ |
+npu_mish
+ |
+mish_npu
+ |
+
+81
+ |
+npu_anchor_response_flags
+ |
+anchor_response_flags_npu
+ |
+
+82
+ |
+npu_yolo_boxes_encode
+ |
+yolo_boxes_encode_npu
+ |
+
+83
+ |
+npu_grid_assign_positive
+ |
+grid_assign_positive_npu
+ |
+
+84
+ |
+npu_mish_backward
+ |
+mish_backward_npu
+ |
+
+85
+ |
+npu_normalize_batch
+ |
+normalize_batch_npu
+ |
+
+86
+ |
+npu_masked_fill_range
+ |
+masked_fill_range_npu
+ |
+
+87
+ |
+npu_linear
+ |
+linear_npu
+ |
+
+88
+ |
+npu_linear_backward
+ |
+linear_backward_npu
+ |
+
+89
+ |
+npu_bert_apply_adam
+ |
+bert_apply_adam_npu
+ |
+
+90
+ |
+npu_giou
+ |
+giou_npu
+ |
+
+91
+ |
+npu_giou_backward
+ |
+giou_backward_npu
+ |
+
+
+
diff --git a/docs/zh/RELEASENOTE/RELEASENOTE.md b/docs/zh/RELEASENOTE/RELEASENOTE.md
deleted file mode 100644
index 559b2b09b3b907bcf26d01d2a343da946506ba6c..0000000000000000000000000000000000000000
--- a/docs/zh/RELEASENOTE/RELEASENOTE.md
+++ /dev/null
@@ -1,139 +0,0 @@
-# PyTorch版本说明书
-- [用户须知](#用户须知.md)
-- [新增特性](#新增特性.md)
-- [特性修改](#特性修改.md)
-- [已修复问题](#已修复问题.md)
-- [已知问题](#已知问题.md)
-- [兼容性](#兼容性.md)
-用户须知
-
-本框架基于Facebook主导的开源PyTorch1.5.0进行修改,延续原生的PyTorch特性,使用NPU进行动态图训练;以算子粒度进行模型适配,代码重用性好,支持现有的网络只修改设备类型或数据类型,即可迁移到NPU上使用。
-
-新增特性
-
-**表 1** PyTorch支持的版本特性列表
-
-
-一级特性
- |
-二级特性
- |
-说明
- |
-
-
-适配训练模型
- |
-YOLOV4
- |
--
- |
-
-YOLOV3
- |
--
- |
-
-DB
- |
--
- |
-
-RFCN
- |
--
- |
-
-CRNN
- |
--
- |
-
-Densenset161
- |
--
- |
-
-Densenset191
- |
--
- |
-
-适配NPU的PyTorch特性
- |
-框架基础功能
- |
-新增适配算子开发(详见算子清单)。
- |
-
-精度对比工具
- |
-新增精度对比工具,支持训练精度定界。
- |
-
-昇腾710芯片
- |
-新增支持昇腾710芯片在线推理。
- |
-
-OS兼容性
- |
-新增支持ubuntu 18.04.5、OpenEuler 20.03 LTS系统
- |
-
-
-
-
-特性修改
-
-不涉及
-
-已修复问题
-
-不涉及
-
-已知问题
-
-
-已知问题
- |
-问题描述
- |
-
-
-数据类型支持
- |
-NPU不支持float16类型的inf/nan数据输入输出。
- |
-
-数据Format
- |
-出现4D以上的format时不能降维。
- |
-
-集合通信约束
-
- |
-要求一次训练任务中不同device上执行的图相同。
- |
-
-当前只支持1/2/4/8P粒度的分配。
- |
-
-只支持int8,int32,float16和float32数据类型。
- |
-
-Apex功能支持
- |
-Apex当前版本的实现方式主要为python实现,不支持APEX中的自定义优化CUDA Kernel。
- |
-
-
-
-
-兼容性
-
-A800-9010:CentOS 7.6/Ubuntu 18.04/BC-Linux 7.6/Debian 9.9/Debian 10/OpenEuler 20.03 LTS
-
-A800-9000:CentOS 7.6/Euler 2.8/Kylin v10/BC-Linux 7.6/OpenEuler 20.03 LTS
-
diff --git a/docs/zh/RELEASENOTE/public_sys-resources/icon-caution.gif "b/docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-caution.gif"
similarity index 100%
rename from docs/zh/RELEASENOTE/public_sys-resources/icon-caution.gif
rename to "docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-caution.gif"
diff --git a/docs/zh/RELEASENOTE/public_sys-resources/icon-danger.gif "b/docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-danger.gif"
similarity index 100%
rename from docs/zh/RELEASENOTE/public_sys-resources/icon-danger.gif
rename to "docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-danger.gif"
diff --git a/docs/zh/RELEASENOTE/public_sys-resources/icon-note.gif "b/docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-note.gif"
similarity index 100%
rename from docs/zh/RELEASENOTE/public_sys-resources/icon-note.gif
rename to "docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-note.gif"
diff --git a/docs/zh/RELEASENOTE/public_sys-resources/icon-notice.gif "b/docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-notice.gif"
similarity index 100%
rename from docs/zh/RELEASENOTE/public_sys-resources/icon-notice.gif
rename to "docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-notice.gif"
diff --git a/docs/zh/RELEASENOTE/public_sys-resources/icon-tip.gif "b/docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-tip.gif"
similarity index 100%
rename from docs/zh/RELEASENOTE/public_sys-resources/icon-tip.gif
rename to "docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-tip.gif"
diff --git a/docs/zh/RELEASENOTE/public_sys-resources/icon-warning.gif "b/docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-warning.gif"
similarity index 100%
rename from docs/zh/RELEASENOTE/public_sys-resources/icon-warning.gif
rename to "docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/public_sys-resources/icon-warning.gif"
diff --git "a/docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225.md" "b/docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225.md"
new file mode 100644
index 0000000000000000000000000000000000000000..2d1998453570498712489c87a1a6c9a4a7156a78
--- /dev/null
+++ "b/docs/zh/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225/\346\224\257\346\214\201ONNX\347\256\227\345\255\220\346\270\205\345\215\225.md"
@@ -0,0 +1,4618 @@
+# 支持ONNX算子清单
+- [Abs](#Abs.md)
+- [Acos](#Acos.md)
+- [Acosh](#Acosh.md)
+- [AdaptiveAvgPool2D](#AdaptiveAvgPool2D.md)
+- [AdaptiveMaxPool2D](#AdaptiveMaxPool2D.md)
+- [Add](#Add.md)
+- [Addcmul](#Addcmul.md)
+- [AffineGrid](#AffineGrid.md)
+- [And](#And.md)
+- [Argmax](#Argmax.md)
+- [Argmin](#Argmin.md)
+- [AscendRequantS16](#AscendRequantS16.md)
+- [AscendRequant](#AscendRequant.md)
+- [AscendQuant](#AscendQuant.md)
+- [AscendDequantS16](#AscendDequantS16.md)
+- [AscendDequant](#AscendDequant.md)
+- [AscendAntiQuant](#AscendAntiQuant.md)
+- [Asin](#Asin.md)
+- [Asinh](#Asinh.md)
+- [Atan](#Atan.md)
+- [Atanh](#Atanh.md)
+- [AveragePool](#AveragePool.md)
+- [BatchNormalization](#BatchNormalization.md)
+- [BatchMatMul](#BatchMatMul.md)
+- [BatchMultiClassNMS](#BatchMultiClassNMS.md)
+- [BitShift](#BitShift.md)
+- [Cast](#Cast.md)
+- [Ceil](#Ceil.md)
+- [Celu](#Celu.md)
+- [Concat](#Concat.md)
+- [Clip](#Clip.md)
+- [ConvTranspose](#ConvTranspose.md)
+- [Cumsum](#Cumsum.md)
+- [Conv](#Conv.md)
+- [Compress](#Compress.md)
+- [Constant](#Constant.md)
+- [ConstantOfShape](#ConstantOfShape.md)
+- [Cos](#Cos.md)
+- [Cosh](#Cosh.md)
+- [DeformableConv2D](#DeformableConv2D.md)
+- [Det](#Det.md)
+- [DepthToSpace](#DepthToSpace.md)
+- [Div](#Div.md)
+- [Dropout](#Dropout.md)
+- [Elu](#Elu.md)
+- [EmbeddingBag](#EmbeddingBag.md)
+- [Equal](#Equal.md)
+- [Erf](#Erf.md)
+- [Exp](#Exp.md)
+- [Expand](#Expand.md)
+- [EyeLike](#EyeLike.md)
+- [Flatten](#Flatten.md)
+- [Floor](#Floor.md)
+- [Gather](#Gather.md)
+- [GatherND](#GatherND.md)
+- [GatherElements](#GatherElements.md)
+- [Gemm](#Gemm.md)
+- [GlobalAveragePool](#GlobalAveragePool.md)
+- [GlobalLpPool](#GlobalLpPool.md)
+- [GlobalMaxPool](#GlobalMaxPool.md)
+- [Greater](#Greater.md)
+- [GreaterOrEqual](#GreaterOrEqual.md)
+- [HardSigmoid](#HardSigmoid.md)
+- [hardmax](#hardmax.md)
+- [HardSwish](#HardSwish.md)
+- [Identity](#Identity.md)
+- [If](#If.md)
+- [InstanceNormalization](#InstanceNormalization.md)
+- [Less](#Less.md)
+- [LeakyRelu](#LeakyRelu.md)
+- [LessOrEqual](#LessOrEqual.md)
+- [Log](#Log.md)
+- [LogSoftMax](#LogSoftMax.md)
+- [LpNormalization](#LpNormalization.md)
+- [LpPool](#LpPool.md)
+- [LRN](#LRN.md)
+- [LSTM](#LSTM.md)
+- [MatMul](#MatMul.md)
+- [Max](#Max.md)
+- [MaxPool](#MaxPool.md)
+- [MaxRoiPool](#MaxRoiPool.md)
+- [Mean](#Mean.md)
+- [MeanVarianceNormalization](#MeanVarianceNormalization.md)
+- [Min](#Min.md)
+- [Mod](#Mod.md)
+- [Mul](#Mul.md)
+- [Multinomial](#Multinomial.md)
+- [Neg](#Neg.md)
+- [NonMaxSuppression](#NonMaxSuppression.md)
+- [NonZero](#NonZero.md)
+- [Not](#Not.md)
+- [OneHot](#OneHot.md)
+- [Or](#Or.md)
+- [RandomNormalLike](#RandomNormalLike.md)
+- [RandomUniformLike](#RandomUniformLike.md)
+- [RandomUniform](#RandomUniform.md)
+- [Range](#Range.md)
+- [Reciprocal](#Reciprocal.md)
+- [ReduceL1](#ReduceL1.md)
+- [ReduceL2](#ReduceL2.md)
+- [ReduceLogSum](#ReduceLogSum.md)
+- [ReduceLogSumExp](#ReduceLogSumExp.md)
+- [ReduceMin](#ReduceMin.md)
+- [ReduceMean](#ReduceMean.md)
+- [ReduceProd](#ReduceProd.md)
+- [ReduceSumSquare](#ReduceSumSquare.md)
+- [Resize](#Resize.md)
+- [Relu](#Relu.md)
+- [ReduceSum](#ReduceSum.md)
+- [ReduceMax](#ReduceMax.md)
+- [Reshape](#Reshape.md)
+- [ReverseSequence](#ReverseSequence.md)
+- [RoiExtractor](#RoiExtractor.md)
+- [RoiAlign](#RoiAlign.md)
+- [Round](#Round.md)
+- [PRelu](#PRelu.md)
+- [Scatter](#Scatter.md)
+- [ScatterElements](#ScatterElements.md)
+- [ScatterND](#ScatterND.md)
+- [Shrink](#Shrink.md)
+- [Selu](#Selu.md)
+- [Shape](#Shape.md)
+- [Sigmoid](#Sigmoid.md)
+- [Slice](#Slice.md)
+- [Softmax](#Softmax.md)
+- [Softsign](#Softsign.md)
+- [Softplus](#Softplus.md)
+- [SpaceToDepth](#SpaceToDepth.md)
+- [Split](#Split.md)
+- [Sqrt](#Sqrt.md)
+- [Squeeze](#Squeeze.md)
+- [Sub](#Sub.md)
+- [Sign](#Sign.md)
+- [Sin](#Sin.md)
+- [Sinh](#Sinh.md)
+- [Size](#Size.md)
+- [Sum](#Sum.md)
+- [Tanh](#Tanh.md)
+- [TfIdfVectorizer](#TfIdfVectorizer.md)
+- [Tile](#Tile.md)
+- [ThresholdedRelu](#ThresholdedRelu.md)
+- [TopK](#TopK.md)
+- [Transpose](#Transpose.md)
+- [Pad](#Pad.md)
+- [Pow](#Pow.md)
+- [Unsqueeze](#Unsqueeze.md)
+- [Xor](#Xor.md)
+- [Where](#Where.md)
+Abs
+
+## 功能
+
+对输入张量取绝对值
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32、double、int32、int64
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型和shape与输入一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Acos
+
+## 功能
+
+计算输入张量的反余弦值
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32、double
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型和shape与输入一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Acosh
+
+## 功能
+
+计算输入张量的反双曲余弦值
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32、double
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型和shape与输入一致
+
+## 支持的ONNX版本
+
+Opset v9/v10/v11/v12/v13
+
+AdaptiveAvgPool2D
+
+## 功能
+
+对输入进行2d自适应平均池化计算
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32
+
+【属性】
+
+一个属性:
+
+output\_size:int型数组,指定输出的hw的shape大小
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型:与x类型一致
+
+## 支持的ONNX版本
+
+自定义算子,无对应onnx版本
+
+AdaptiveMaxPool2D
+
+## 功能
+
+对输入进行2d自适应最大池化计算
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32、float64
+
+【属性】
+
+一个属性:
+
+output\_size:int型数组,指定输出的hw的shape大小
+
+【输出】
+
+两个输出
+
+y:一个tensor,数据类型:与x类型一致
+
+argmax:一个tensor,数据类型:int32,int64
+
+## 支持的ONNX版本
+
+自定义算子,无对应onnx版本
+
+Add
+
+## 功能
+
+按元素求和
+
+## 边界
+
+【输入】
+
+两个输入
+
+A:一个张量,数据类型:int8、int16、int32、int64、uint8、float32、float16、double
+
+B:一个张量,数据类型与A相同
+
+【输出】
+
+C:一个张量,数据类型与A相同
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Addcmul
+
+## 功能
+
+元素级计算\(x1 \* x2\) \* value + input\_data
+
+## 边界
+
+【输入】
+
+四个输入
+
+input\_data:一个tensor,数据类型:float16、float32、int32、int8、uint8
+
+x1: 一个tensor,类型与input\_data相同
+
+x2: 一个tensor,类型与input\_data相同
+
+value: 一个tensor,类型与input\_data相同
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型:y与输入相同
+
+## 支持的ONNX版本
+
+自定义算子,无对应onnx版本
+
+AffineGrid
+
+## 功能
+
+给定一批矩阵,生成采样网格
+
+## 边界
+
+【输入】
+
+俩个输入
+
+theta:一个tensor,数据类型:float16、float32
+
+output\_size:一个tensor,数据类型:int32
+
+【属性】
+
+一个属性:
+
+align\_corners:bool型
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型:int
+
+## 支持的ONNX版本
+
+自定义算子,无对应onnx版本
+
+And
+
+## 功能
+
+逻辑与
+
+## 边界
+
+【输入】
+
+两个输入
+
+x1:一个tensor,数据类型:bool
+
+x2:一个tensor,数据类型:bool
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的type和shape
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Argmax
+
+## 功能
+
+返回指定轴上最大值所对应的索引
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个张量,表示最大值的索引位置,维度比输入x少1,数据类型:int32
+
+【属性】
+
+axis:必选,表示计算最大值索引的方向,数据类型:int32,aixs的值为\[-len\(x.shape\), len\(x.shape\)-1\]
+
+keep\_dim:可选,keep\_dim默认为1,支持1或0。
+
+【约束】
+
+算子不支持atc工具参数--precision\_mode=must\_keep\_origin\_dtype时fp32类型输入
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Argmin
+
+## 功能
+
+返回输入张量指定轴上最小值对应的索引
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型:int64
+
+【属性】
+
+axis:数据类型为int,含义:指定计算轴;取值范围:\[-r, r-1\],r表示输入数据的秩
+
+【约束】
+
+算子不支持atc工具参数--precision\_mode=must\_keep\_origin\_dtype时fp32类型输入
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+AscendRequantS16
+
+## 功能
+
+重新量化算子
+
+## 边界
+
+【输入】
+
+两个必选输入,一个可选输入
+
+x0:一个tensor,数据类型:int16
+
+req\_scale:一个tensor,数据类型:uint64
+
+x1:一个tensor,数据类型:int16
+
+【属性】
+
+两个属性:
+
+dual\_output:bool型
+
+relu\_flag:bool型
+
+【输出】
+
+两个输出
+
+y0:一个tensor,数据类型:int8
+
+y1:一个tensor,数据类型:int16
+
+## 支持的ONNX版本
+
+自定义算子,无对应onnx版本
+
+AscendRequant
+
+## 功能
+
+重新量化算子
+
+## 边界
+
+【输入】
+
+两个输入
+
+x0:一个tensor,数据类型:int32
+
+req\_scale:一个tensor,数据类型:uint64
+
+【属性】
+
+一个属性:
+
+relu\_flag,数据类型:bool
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型:int8
+
+## 支持的ONNX版本
+
+自定义算子,无对应onnx版本
+
+AscendQuant
+
+## 功能
+
+量化算子
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16,float32
+
+【属性】
+
+四个属性:
+
+offset,数据类型:float
+
+scale,数据类型:float
+
+sqrt\_mode,数据类型:bool
+
+round\_mode,数据类型:string
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型:int8
+
+## 支持的ONNX版本
+
+自定义算子,无对应onnx版本
+
+AscendDequantS16
+
+## 功能
+
+反量化算子
+
+## 边界
+
+【输入】
+
+两个必选输入,一个可选输入
+
+x0:一个tensor,数据类型:int32
+
+req\_scale:一个tensor,数据类型:uint64
+
+x1:一个tensor,数据类型:int16
+
+【属性】
+
+一个属性
+
+relu\_flag,数据类型:bool
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型:int16
+
+## 支持的ONNX版本
+
+自定义算子,无对应onnx版本
+
+AscendDequant
+
+## 功能
+
+反量化算子
+
+## 边界
+
+【输入】
+
+两个输入
+
+x0:一个tensor,数据类型:int32
+
+deq\_scale:一个tensor,数据类型:uint64,float16
+
+【属性】
+
+sqrt\_mode,数据类型:bool
+
+relu\_flag,数据类型:bool
+
+dtype,数据类型:float
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型:float16,float
+
+## 支持的ONNX版本
+
+自定义算子,无对应onnx版本
+
+AscendAntiQuant
+
+## 功能
+
+反量化算子
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:int8
+
+【属性】
+
+offset,float型
+
+scale,float型
+
+sqrt\_mode,bool
+
+round\_mode,string
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型:float16,float
+
+## 支持的ONNX版本
+
+自定义算子,无对应onnx版本
+
+Asin
+
+## 功能
+
+计算输入张量的反正弦
+
+## 边界
+
+【输入】
+
+一个输入
+
+x1:一个tensor,数据类型:float16、float32、double
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型和shape与输入一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Asinh
+
+## 功能
+
+计算输入张量双曲反正弦
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32、double
+
+【输出】
+
+y:一个tensor,数据类型和shape与输入一致
+
+## 支持的ONNX版本
+
+Opset v9/v10/v11/v12/v13
+
+Atan
+
+## 功能
+
+计算输入张量的反正切值
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32、double
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型和shape与输入一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Atanh
+
+## 功能
+
+计算输入张量的双曲反正切
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32、double
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型和shape与输入一致
+
+## 支持的ONNX版本
+
+Opset v9/v10/v11/v12/v13
+
+AveragePool
+
+## 功能
+
+平均池化层
+
+## 边界
+
+【输入】
+
+X:一个张量,数据类型:float16、float32,格式为NCHW
+
+【输出】
+
+Y:一个张量,数据类型:float16、float32,格式为NCHW
+
+【属性】
+
+auto\_pad:可选,支持NOTSET、SAME\_UPPER、SAME\_LOWER与VALID
+
+count\_include\_pad:int,暂不支持
+
+kernel\_shape:可选,包括:
+
+− kernel\_shape\[0\]:数据类型:int32,指定沿H维度的窗口大小,取值范围为\[1, 32768\],默认为1
+
+− kernel\_shape\[1\]:数据类型:int32,指定沿W维度的窗口大小,取值范围为\[1, 32768\],默认为1
+
+strides:可选,包括:
+
+− strides\[0\]:数据类型:int32,指定沿H维度的步长,默认为1
+
+− strides\[1\]:数据类型:int32,指定沿W维度的步长,默认为1
+
+pads:可选,包括:
+
+− pads\[0\]:数据类型:int32,指定顶部padding,默认为0
+
+− pads\[1\]:数据类型:int32,指定底部padding,默认为0
+
+− pads\[2\]:数据类型:int32,指定左部padding,默认为0
+
+− pads\[3\]:数据类型:int32,指定右部padding,默认为0
+
+ceil\_mode:可选,数据类型:int32,取值:0(floor模式),1(ceil模式),默认为0
+
+【约束】
+
+strides\[0\]或者strides\[1\]取值步长大于63时,会使用AI CPU计算,性能会下降;
+
+kernel\_shape\_H或kernel\_shape\_W取值超过\[1,255\],或者kernel\_shape\_H \* kernel\_shape\_W \> 256时,会使用AI CPU计算,导致性能下降;
+
+1 <= input\_w <= 4096;
+
+当输入张量的N是一个质数时,N应当小于65535;
+
+ceil\_mode参数仅在auto\_pad='NOTSET'时生效;
+
+不支持atc工具参数--precision\_mode=must\_keep\_origin\_dtype时fp32类型输入;
+
+auto\_pad属性值SAME\_UPPER, SAME\_LOWER统一使用的TBE的SAME属性,即TBE算子没有根据这个属性区分pad的填充位置,可能会带来精度问题
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+BatchNormalization
+
+## 功能
+
+标准化张量
+
+## 边界
+
+【输入】
+
+五个输入
+
+X:数据类型为float16、float32的4D张量
+
+scale:数据类型为float32的张量,指定尺度因子
+
+B:数据类型为float32的张量,指定偏移量
+
+mean:数据类型为float32的张量,指定均值
+
+var:数据类型为float32的张量,指定方差
+
+【输出】
+
+五个输出
+
+Y:标准化之后的张量,数据类型为float16或float32
+
+mean:均值
+
+var:方差
+
+saved\_mean:在训练过程中使用已保存的平均值来加快梯度计算
+
+saved\_var:在训练过程中使用已保存的方差来加快梯度计算
+
+【属性】
+
+epsilon:可选,数据类型:float32,指定一个小值与var相加,以避免除以0,默认为0.0001
+
+momentum:float32,该参数暂不支持
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+BatchMatMul
+
+## 功能
+
+将两个输入执行矩阵乘
+
+## 边界
+
+【输入】
+
+两个输入
+
+x1:一个tensor,数据类型:float16,float,int32
+
+x2:一个tensor,数据类型:float16,float,int32
+
+【属性】
+
+两个属性:
+
+adj\_x1:bool型
+
+adj\_x2:bool型
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型:float16,float,int32
+
+## 支持的ONNX版本
+
+自定义算子,无对应onnx版本
+
+BatchMultiClassNMS
+
+## 功能
+
+为输入boxes和输入score计算nms
+
+## 边界
+
+【输入】
+
+两个必选输入,两个可选输入
+
+boxes:一个tensor,数据类型:float16
+
+scores:一个tensor,数据类型:float16
+
+clip\_window:一个tensor,数据类型:float16
+
+num\_valid\_boxes:一个tensor,数据类型:int32
+
+【属性】
+
+六个属性:
+
+score\_threshold:float型
+
+iou\_threshold:float型
+
+max\_size\_per\_class:int型
+
+max\_total\_size:int型
+
+change\_coordinate\_frame:bool型
+
+transpose\_box:bool型
+
+【输出】
+
+四个输出
+
+nmsed\_boxes:一个tensor,数据类型:float16
+
+nmsed\_scores:一个tensor,数据类型:float16
+
+nmsed\_classes:一个tensor,数据类型:float16
+
+nmsed\_num:一个tensor,数据类型:float16
+
+## 支持的ONNX版本
+
+自定义算子,无对应onnx版本
+
+BitShift
+
+## 功能
+
+元素级位移算子
+
+## 边界
+
+【输入】
+
+两个输入
+
+x:一个tensor,表示被位移的输入
+
+y:一个tensor,表示位移的数量
+
+【输出】
+
+z:一个tensor,表示位移后的结果
+
+【属性】
+
+direction:数据类型:string,必选,指定位移方向,取值范围:"RIGHT"或者"LEFT"
+
+【约束】
+
+当direction="LEFT"时不支持UINT16,UIN32,UINT64
+
+## 支持的ONNX版本
+
+Opset v11/v12/v13
+
+Cast
+
+## 功能
+
+将输入数据的type转换为指定的type
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor
+
+【输出】
+
+y:一个tensor,输出的数据类型为属性指定的类型,数据类型:bool、float16、float32、int8、int32、uint8等
+
+【属性】
+
+to:数据类型:int,必选,指定目标数据类型,取值范围:在指定的数据类型范围内
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Ceil
+
+## 功能
+
+对输入张量向上取整
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32、double
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型和shape与输入一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Celu
+
+## 功能
+
+连续可微的指数线性单位:对输入张量X按元素执行线性单位,使用公式:
+
+max\(0,x\) + min\(0,alpha\*\(exp\(x/alpha\)-1\)\)
+
+## 边界
+
+【输入】
+
+X:tensor\(float\)
+
+【输出】
+
+Y:tensor\(float\)
+
+【属性】
+
+alpha:float,默认值:1.0
+
+## 支持的ONNX版本
+
+Opset v12/v13
+
+Concat
+
+## 功能
+
+对多个张量Concat
+
+## 边界
+
+【输入】
+
+inputs:多个输入张量,数据类型:float16、float32、int32、uint8、int16、int8、int64、qint8、quint8、qint32、uint16、uint32、uint64、qint16、quint16
+
+【输出】
+
+concat\_result:张量,与输入张量类型一致
+
+【属性】
+
+axis:指定哪一个轴进行concat操作,负数表示从后往前对维度计数,取值范围为\[-r, r - 1\],r=rank\(inputs\)
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Clip
+
+## 功能
+
+将张量值剪辑到指定的最小值和最大值之间
+
+## 边界
+
+【输入】
+
+三个输入
+
+X :一个张量,数据类型:float16、float32、int32
+
+min:一个scalar
+
+max:一个scalar
+
+【输出】
+
+一个输出
+
+Y:一个张量,剪辑后的输出,数据类型和shape与输入一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+ConvTranspose
+
+## 功能
+
+转置卷积
+
+## 边界
+
+【输入】
+
+3个输入
+
+x:tensor,数据类型:float16、float32
+
+w:tensor,数据类型:float16、float32
+
+b:可选tensor,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的type和shape
+
+【属性】
+
+auto\_pad:str,默认为NOTSET,含义:显式使用padding的方式
+
+dilations:ints,默认为全1序列,含义:filter的每轴空洞值
+
+group:int,默认为1,含义:输入通道分组数
+
+kernel\_shape:ints,默认为w,含义:卷积核大小
+
+output\_padding:ints,默认为全0数组,含义:指定padding值
+
+output\_shape:ints,根据pad自动计算,含义:输出shape
+
+pads:ints,默认为全0矩阵,含义:每根轴指定pad值
+
+strides:ints,默认为全1矩阵,含义:每根轴的stride值
+
+【约束】
+
+目前只支持2D的转置卷积,3D及以上暂不支持
+
+dilations只支持1
+
+output\_shape支持限制:实现部分功能。现在支持output shape的大小,小于原始输入大小,但是不支持大于原始输入大小
+
+算子不支持atc工具参数--precision\_mode=must\_keep\_origin\_dtype时fp32,fp64的输入
+
+属性auto\_pad不支持 "SAME\_UPPER","SAME\_LOWER"
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Cumsum
+
+## 功能
+
+计算输入张量在给定axis上面的累加和
+
+## 边界
+
+【输入】
+
+两个输入
+
+x:一个tensor,数据类型:float16、float32、int32
+
+axis:一个int32或者int64的标量,默认为0,范围为\[-rank\(x\), rank\(x\)-1\]
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的type
+
+【属性】
+
+exclusive:int,默认为0,含义:是否返回不包括顶层元素的和
+
+reverse:int,默认为0,含义:是否反方向求和
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Conv
+
+## 功能
+
+卷积
+
+## 边界
+
+【输入】
+
+X:输入4D张量
+
+W:权重张量
+
+B:可选,偏差,一维张量
+
+【输出】
+
+Y:卷积输出张量
+
+【属性】
+
+auto\_pad:可选,支持VALID、NOTSET
+
+dilations:4个整数的列表,指定用于扩张卷积的扩张率,H和W维度取值范围为\[1, 255\]
+
+group:从输入通道到输出通道的阻塞连接数,输入通道和输出通道都必须被“group”整除;数据类型为int32,必须设置为1
+
+pads:4个整数的列表,指定顶部、底部、左侧和右侧填充,取值范围为\[0, 255\]
+
+strides:4个整数的列表,指定沿高度H和宽度W的卷积步长。H和W维度取值范围为\[1, 63\],默认情况下,N和C尺寸设置为1
+
+【约束】
+
+输入张量,W维度取值范围为\[1, 4096\]
+
+权重张量,H维度和W维度取值范围为\[1, 255\]
+
+当输出张量的W == 1且H == 1时,输入张量和权重的H和W维度需相同
+
+当输出张量的W = 1,H != 1时,算子不支持
+
+不支持atc工具--precision\_mode=must\_keep\_origin\_dtype参数时输入类型为fp32和fp64
+
+## 支持的ONNX版本
+
+Opset v9/v10/v11/v12/v13
+
+Compress
+
+## 功能
+
+按指定轴进行切片。
+
+## 边界
+
+【输入】
+
+两个输入:
+
+input:维度大于等于1的tensor,支持类型:uint8, uint16, uint32, uint64, int8, int16, int32, int64, float16, float, string, bool
+
+condition:1维tensor,用于指定切片和需要选择的元素,支持类型:bool
+
+【输出】
+
+一个输出
+
+output:tensor,类型:与输入一致
+
+【属性】
+
+axis:可选,int类型,进行切片的轴,如果没有指定轴,在切片之前将输入tensor展平。取值范围是\[-r,r-1\],r为输入tensor的维数。
+
+## 支持的ONNX版本
+
+Opset v9//v11/v12/v13
+
+Constant
+
+## 功能
+
+构建constant节点张量
+
+## 边界
+
+【输入】
+
+无
+
+【输出】
+
+一个输出
+
+Y:输出张量,和提供的tensor值一致
+
+【属性】
+
+value:输出张量的值
+
+【约束】
+
+sparse\_value:不支持
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+ConstantOfShape
+
+## 功能
+
+用给定的值和shape生成张量
+
+## 边界
+
+【输入】
+
+x:1D的int64的tensor,表示输出数据的shape,所有的值必须大于0
+
+【输出】
+
+y:一个tensor,shape由输入指定,如果属性value指定了值,那输出的值和数据类型就等于value指定的值,如果属性value不指定,输出tensor的值默认为0,数据类型默认为float32
+
+【属性】
+
+value:指定输出tensor的数据和类型
+
+【约束】
+
+x:1<=len\(shape\)<=8
+
+## 支持的ONNX版本
+
+Opset v9/v10/v11/v12/v13
+
+Cos
+
+## 功能
+
+计算输入张量的余弦值
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32、double
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型和shape与输入一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Cosh
+
+## 功能
+
+计算输入张量的双曲余弦
+
+## 边界
+
+【输入】
+
+一个输入
+
+X1:一个tensor,数据类型:float16、float、double
+
+【输出】
+
+一个输出
+
+y:一个张量,数据类型和shape与输入一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+
+
+## 功能
+
+形变卷积
+
+## 边界
+
+【输入】
+
+X:输入4D张量
+
+filter:权重张量
+
+offsets:偏移量,4维张量
+
+bias:可选,偏差,一维张量
+
+【输出】
+
+Y:形变卷积输出张量
+
+【属性】
+
+auto\_pad:可选,支持VALID、NOTSET
+
+dilations:4个整数的列表,指定用于扩张卷积的扩张率,H和W维度取值范围为\[1, 255\]
+
+group:从输入通道到输出通道的阻塞连接数,输入通道和输出通道都必须被“group”整除;数据类型为int32,必须设置为1
+
+pads:4个整数的列表,指定顶部、底部、左侧和右侧填充,取值范围为\[0, 255\]
+
+strides:4个整数的列表,指定沿高度H和宽度W的卷积步长。H和W维度取值范围为\[1, 63\],默认情况下,N和C尺寸设置为1
+
+data\_format:string,表示输入数据format,默认是“NHWC”
+
+deformable\_groups:分组卷积通道数,缺省为1
+
+modulated:bool,指定DeformableConv2D版本,true表示v2版本,false表示v1版本,当前只支持true
+
+【限制】
+
+输入张量,W维度取值范围为\[1, 4096 / filter\_width\],H取值范围为\[1, 100000 / filter\_height\]
+
+权重张量,W维度取值范围为\[1, 63\],H取值范围为\[1, 63\]
+
+不支持atc工具--precision\_mode=must\_keep\_origin\_dtype参数时输入类型为fp32和fp64
+
+## 支持的ONNX版本
+
+自定义算子,无对应onnx版本
+
+Det
+
+## 功能
+
+计算方形矩阵行列式
+
+## 边界
+
+【输入】
+
+1个输入
+
+x:tensor,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的type和shape
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+DepthToSpace
+
+## 功能
+
+将数据由深度重排到空间数据块
+
+## 边界
+
+【输入】
+
+1个输入
+
+input:format为NCHW的tensor输入,类型:float16、float32,double,int32,int64等
+
+【输出】
+
+1个输出
+
+output:一个张量,shape为\[N, C/\(blocksize \* blocksize\), H \* blocksize, W \* blocksize\]
+
+【属性】
+
+blocksize:int,必选 指定被移动的块的大小
+
+mode: string 指定是depth-column-row还是column-row-depth排列,默认DCR
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Div
+
+## 功能
+
+按元素进行除法运算
+
+## 边界
+
+【输入】
+
+两个输入
+
+x1:一个tensor,数据类型:float16、float32、double、int32、int64
+
+x2:一个tensor,数据类型:float16、float32、double、int32、int64
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型和输入一致
+
+【约束】
+
+输入、输出的type相同
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Dropout
+
+## 功能
+
+拷贝或者屏蔽输入数据
+
+## 边界
+
+【输入】
+
+1-3个输入
+
+data:tensor输入,类型:float16、float32,double等
+
+ratio:可选输入,类型:float16、float32,double等
+
+training\_mode:可选输入,类型:bool
+
+【输出】
+
+1-2个输出
+
+output:一个张量
+
+mask: 一个张量
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Elu
+
+## 功能
+
+Elu激活函数
+
+## 边界
+
+【输入】
+
+1个输入
+
+x:tensor,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的type和shape
+
+【属性】
+
+alpha:float,默认为1.0,含义:系数
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+EmbeddingBag
+
+## 功能
+
+计算embedding函数的反向输出
+
+## 边界
+
+【输入】
+
+两个必选输入,两个可选输入
+
+weight:一个tensor,数据类型:float32
+
+indices:一个tensor,数据类型:int32
+
+offset:一个tensor,数据类型:int32
+
+per\_sample\_weights:一个tensor,数据类型:float32
+
+【属性】
+
+四个属性:
+
+mode:string型
+
+scale\_grad\_by\_fraq:bool型
+
+sparse:bool型
+
+include\_last\_offset:bool型
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型:float32
+
+## 支持的ONNX版本
+
+自定义算子,无对应onnx版本
+
+Equal
+
+## 功能
+
+判断两个输入张量对应位置是否相等
+
+## 边界
+
+【输入】
+
+两个输入
+
+X1:一个tensor
+
+X2:一个tensor
+
+【输出】
+
+一个输出
+
+y:一个tensor ,数据类型:bool
+
+【约束】
+
+输入X1、X2的数据类型和格式相同,支持如下数据类型:bool、uint8、int8、int16、int32、int64、float16、float32、double
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Erf
+
+## 功能
+
+高斯误差函数
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型和格式与输入一致
+
+## 支持的ONNX版本
+
+Opset v9/v10/v11/v12/v13
+
+Exp
+
+## 功能
+
+计算输入张量的指数
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型和shape与输入一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Expand
+
+## 功能
+
+将输入tensor广播到指定shape
+
+## 边界
+
+【输入】
+
+2个输入
+
+input:tensor,数据类型:float16、float32
+
+shape:tensor,数据类型:int64
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的type和shape
+
+【约束】
+
+需要修改模型将输入shape由placeholder改为const类型,可以使用onnxsimplifier简化模型
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+EyeLike
+
+## 功能
+
+生成一个2D矩阵,主对角线是1,其他为0
+
+## 边界
+
+【输入】
+
+1个输入
+
+x:2维tensor,用于拷贝tensor的shape
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的shape
+
+【属性】
+
+dtype:int,指定输出数据类型
+
+k:int,默认是0,表示主对角线被广播成1的索引。如y是输出,则y\[i, i+k\] = 1
+
+【约束】
+
+仅支持k=0
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Flatten
+
+## 功能
+
+将张量展平
+
+## 边界
+
+【输入】
+
+input:多维张量,数据类型:int8、uint8、int16、uint16、int32、uint32、int64、uint64、float16、float32
+
+【输出】
+
+具有输入张量的内容的2D张量
+
+【属性】
+
+axis:int,该参数暂不支持负值索引
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Floor
+
+## 功能
+
+对输入张量向下取整
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32、double
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型和shape与输入一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Gather
+
+## 功能
+
+根据相应的轴从“x”中收集切片
+
+## 边界
+
+【输入】
+
+两个输入
+
+x1:一个tensor,数据类型:float16、float32、int32、int64、int8、int16、uint8、uint16、uint32、uint64、bool
+
+indices:一个tensor,数据类型:int32、int64
+
+【输出】
+
+一个输出
+
+y:一个张量,数据类型和输入x1类型一致
+
+【属性】
+
+axis:数据类型:int,指定gather的轴,取值范围为\[-r, r-1\](r表示输入数据的秩)
+
+【约束】
+
+不支持indices为负值的索引
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+GatherND
+
+## 功能
+
+将输入数据切片输出
+
+## 边界
+
+【输入】
+
+2个输入
+
+data:秩r\>=1的tensor输入,类型:float16, float32, double, int32, int64等
+
+indices:int64的索引张量,秩q\>=1
+
+【输出】
+
+1个输出
+
+output:一个张量, 秩为q + r - indices\_shape\[-1\] - 1
+
+【属性】
+
+batch\_dims:int,默认为0 批处理轴的数量
+
+【约束】
+
+不支持atc工具参数--precision\_mode=must\_keep\_origin\_dtype时double的输入
+
+## 支持的ONNX版本
+
+Opset v11/v12/v13
+
+GatherElements
+
+## 功能
+
+获取索引位置的元素产生输出
+
+## 边界
+
+【输入】
+
+2个输入
+
+input:秩大于1的tensor输入,类型:float16、float32,double,int32,int64等
+
+indices:int32/int64的索引张量
+
+【输出】
+
+1个输出
+
+output:一个张量,与indices的shape相同
+
+【属性】
+
+axis:int,默认为0 指定聚集的轴
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Gemm
+
+## 功能
+
+通用矩阵乘
+
+## 边界
+
+【输入】
+
+A:2D矩阵张量,数据类型:float16、float32
+
+B:2D矩阵张量,数据类型:float16、float32
+
+C:偏差,可选,该参数暂不支持
+
+【输出】
+
+Y:2D矩阵张量,数据类型:float16、float32
+
+【属性】
+
+transA:bool,是否A需要转置
+
+transB:bool,是否B需要转置
+
+alpha:float,该参数暂不支持
+
+beta:float,该参数暂不支持
+
+【约束】
+
+v8/v9/v10版本不支持atc工具参数--precision\_mode=must\_keep\_origin\_dtype时fp32类型输入
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+GlobalAveragePool
+
+## 功能
+
+全局平均池化
+
+## 边界
+
+【输入】
+
+X:一个张量,数据类型:float16、float32,格式为NCHW
+
+【输出】
+
+Y:池化输出张量,数据类型与X相同,格式为NCHW
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+GlobalLpPool
+
+## 功能
+
+全局范数池化算子
+
+## 边界
+
+【输入】
+
+2个输入
+
+input:tensor,数据类型:float16、float32
+
+p:可选属性, int32,默认2
+
+【输出】
+
+1个输出
+
+y:更新后的张量数据,数据类型和输入一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+GlobalMaxPool
+
+## 功能
+
+全局最大池化算子
+
+## 边界
+
+【输入】
+
+1个输入
+
+x:前一个节点的输出tensor,类型:float16, float32, double
+
+【输出】
+
+1个输出
+
+output:池化后的张量
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Greater
+
+## 功能
+
+按元素比较输入x1和x2的大小,若x1\>x2,对应位置返回true
+
+## 边界
+
+【输入】
+
+两个输入
+
+x1:一个tensor,数据类型:float16、float32、int32、int8、uint8
+
+x2:一个tensor,数据类型:float16、float32、int32、int8、uint8
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型:bool
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+GreaterOrEqual
+
+## 功能
+
+按元素比较输入x1和x2的大小,若x1\>=x2,对应位置返回true
+
+## 边界
+
+【输入】
+
+两个输入
+
+x1:一个tensor,数据类型:float16、float32、int32、int8、uint8等
+
+x2:一个tensor,数据类型:float16、float32、int32、int8、uint8等
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型:bool
+
+## 支持的ONNX版本
+
+Opset v8/v12
+
+HardSigmoid
+
+## 功能
+
+HardSigmoid接受一个输入数据\(张量\)并生成一个输出数据\(张量\),HardSigmoid函数y = max\(0, min\(1, alpha \* x + beta\)\)应用于张量元素方面。
+
+## 边界
+
+【输入】
+
+1个输入
+
+X:,类型:tensor\(float16\), tensor\(float\), tensor\(double\)
+
+【输出】
+
+1个输出
+
+Y:,类型:tensor\(float16\), tensor\(float\), tensor\(double\)
+
+【属性】
+
+alpha:float,默认值:0.2
+
+beta:float,默认值:0.2
+
+## 支持的ONNX版本
+
+Opset v1/v6/v8/v9/v10/v11/v12/v13
+
+hardmax
+
+## 功能
+
+计算hardmax结果,如果元素是指定axis的最大元素则设为1,否则为0
+
+## 边界
+
+【输入】
+
+1个输入
+
+x:tensor,rank=2,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的type和shape
+
+【属性】
+
+axis:int,默认为-1,含义:指定计算轴
+
+【约束】
+
+使用atc工具--precision\_mode参数必须为allow\_fp32\_to\_fp16
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+HardSwish
+
+## 功能
+
+HardSwish激活函数。y=x \* max\(0, min\(1, alpha \* x + beta \)\),其中alpha=1/6,beat=0.5
+
+## 边界
+
+【输入】
+
+1个输入
+
+x:tensor,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:tensor,数据类型:float16、float32
+
+## 支持的ONNX版本
+
+Opset v14
+
+Identity
+
+## 功能
+
+恒等操作
+
+## 边界
+
+【输入】
+
+1个输入
+
+x:tensor,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的type和shape
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+If
+
+## 功能
+
+逻辑控制判断算子
+
+## 边界
+
+【输入】
+
+一个输入
+
+cond:If op的条件
+
+两个属性
+
+else\_branch:条件为假的分支
+
+then\_branch:条件为真的分支
+
+【输出】
+
+一到多个输出
+
+y:tensor或者tensor序列
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+InstanceNormalization
+
+## 功能
+
+计算y = scale \* \(x - mean\) / sqrt\(variance + epsilon\) + B,其中mean 和 variance 是每个实例每个通道的均值和方法
+
+## 边界
+
+【输入】
+
+3个输入
+
+x: tensor,数据类型是float16,float
+
+scale:1维tensor,维度同x的C轴长度,和输入x同样的dtype
+
+B:1维tensor,维度同x的C轴长度,和输入x同样的dtype
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的shape和dtype
+
+【属性】
+
+epsilon:float,默认是1e-05,避免除0
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Less
+
+## 功能
+
+按元素比较输入x1和x2的大小,若x1
+
+【输入】
+
+两个输入
+
+x1:一个tensor,数据类型:float16、float32、int32、int8、uint8
+
+x2:一个tensor,数据类型:float16、float32、int32、int8、uint8
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型:bool
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+LeakyRelu
+
+## 功能
+
+对输入张量用leakrelu函数激活
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y: 一个tensor,数据类型和shape与输入一致
+
+【属性】
+
+alpha:数据类型为float,默认0.01,表示leakage系数
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+LessOrEqual
+
+## 功能
+
+小于等于计算
+
+## 边界
+
+【输入】
+
+2个输入
+
+x:tensor,数据类型:float16、float32
+
+y:tensor,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的shape,数据类型:bool
+
+## 支持的ONNX版本
+
+Opset v12/v13
+
+Log
+
+## 功能
+
+计算输入的自然对数
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型与输入一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+LogSoftMax
+
+## 功能
+
+对输入张量计算logsoftmax值
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型和shape与输入一致
+
+【属性】
+
+axis:数据类型为int;指定计算的轴,取值范围:\[-r, r-1\],r为输入的秩
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+LpNormalization
+
+## 功能
+
+给定一个矩阵,沿给定的轴应用LpNormalization。
+
+## 边界
+
+【输入】
+
+1个输入
+
+input,类型:tensor\(float16\), tensor\(float\)
+
+【输出】
+
+1个输出
+
+output,类型:tensor\(float16\), tensor\(float\)
+
+【属性】
+
+axis:int,默认值:-1
+
+p:int,默认值:2
+
+【约束】
+
+auto\_pad属性值SAME\_UPPER, SAME\_LOWER统一使用的TBE的SAME属性,即TBE算子没有根据这个属性区分pad的填充位置,可能会带来精度问题
+
+## 支持的ONNX版本
+
+Opset v1/v8/v9/v10/v11/v12/v13
+
+LpPool
+
+## 功能
+
+Lp范数池化。
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:tensor,数据类型:float16
+
+【输出】
+
+一个输出
+
+y:tensor,数据类型:float16
+
+【属性】
+
+auto\_pad:string,默认为NOTSET,支持:NOTSET, SAME\_UPPER, SAME\_LOWER 或者 VALID
+
+kernel\_shape:必选,int列表,kernel每个轴上的尺寸
+
+p:int,范数,默认为2
+
+pads:int列表
+
+strides:int列表
+
+【约束】
+
+auto\_pad属性值SAME\_UPPER, SAME\_LOWER统一使用的TBE的SAME属性,即TBE算子没有根据这个属性区分pad的填充位置,可能会带来精度问题
+
+## 支持的ONNX版本
+
+Opset v11/v12/v13
+
+LRN
+
+## 功能
+
+对输入张量做局部响应归一化
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的type和format
+
+【属性】
+
+alpha:float,缩放因子
+
+beta:float,指数项
+
+bias:float
+
+size:int,求和的通道数,只支持奇数
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+LSTM
+
+## 功能
+
+计算单层LSTM。这个操作符通常通过一些自定义实现\(如CuDNN\)来支持。
+
+## 边界
+
+【输入3-8】
+
+X:,类型:tensor\(float16\), tensor\(float\), tensor\(double\)
+
+W:,类型:tensor\(float16\), tensor\(float\), tensor\(double\)
+
+R:,类型:tensor\(float16\), tensor\(float\), tensor\(double\)
+
+B:,类型:tensor\(float16\), tensor\(float\), tensor\(double\)
+
+sequence\_lens:,类型:tensor\(int32\)
+
+initial\_h:,类型:tensor\(float16\), tensor\(float\), tensor\(double\)
+
+initial\_c:,类型:tensor\(float16\), tensor\(float\), tensor\(double\)
+
+p:,类型:tensor\(float16\), tensor\(float\), tensor\(double\)
+
+【输出0-3】
+
+Y:,类型:tensor\(float16\), tensor\(float\), tensor\(double\)
+
+Y\_h:,类型:tensor\(float16\), tensor\(float\), tensor\(double\)
+
+Y\_c:,类型:tensor\(float16\), tensor\(float\), tensor\(double\)
+
+【属性】
+
+activation\_alpha:list of floats
+
+activation\_beta:list of floats
+
+activations:list of strings
+
+clip: float
+
+direction: string,默认值:forward
+
+hidden\_size: int
+
+input\_forget: int,默认值:0
+
+layout: int,默认值:0
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+MatMul
+
+## 功能
+
+矩阵乘
+
+## 边界
+
+【输入】
+
+两个输入
+
+x1:一个2D的tensor,数据类型:float16
+
+x2:一个2D的tensor,数据类型:float16
+
+【输出】
+
+一个输出
+
+y:一个2D的tensor,数据类型:float16
+
+【约束】
+
+仅支持1-6维输入
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Max
+
+## 功能
+
+元素级比较输入tensor的大小
+
+## 边界
+
+【输入】
+
+多个输入\(1-∞\)
+
+data\_0:tensor的列表,类型:float16、float32,int8,int16,int32等
+
+【输出】
+
+一个输出
+
+max:一个张量,和输入x同样的type和shape(广播后的shape)
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+MaxPool
+
+## 功能
+
+最大池化
+
+## 边界
+
+【输入】
+
+X:一个张量,数据类型:float16、float32,格式为NCHW
+
+【输出】
+
+Y:一个张量,数据类型:float16、float32,格式为NCHW
+
+【属性】
+
+auto\_pad:可选,支持SAME\_UPPER、SAME\_LOWER、VALID、NOTSET
+
+storage\_order:暂不支持该参数
+
+kernel\_shape:可选,包括:
+
+- kernel\_shape\[0\]:数据类型:int32,指定沿H维度的窗口大小,取值范围为\[1, 32768\],默认为1
+- kernel\_shape\[1\]:数据类型:int32,指定沿W维度的窗口大小,取值范围为\[1, 32768\],默认为1
+
+strides:可选,包括:
+
+- strides\[0\]:数据类型:int32,指定沿H维度的步长,默认为1
+- strides\[1\]:数据类型:int32,指定沿W维度的步长,默认为1
+
+pads:可选,包括:
+
+- pads\[0\]:数据类型:int32,指定顶部padding,默认为0
+- pads\[1\]:数据类型:int32,指定底部padding,默认为0
+- pads\[2\]:数据类型:int32,指定左部padding,默认为0
+- pads\[3\]:数据类型:int32,指定右部padding,默认为0
+
+ceil\_mode:可选,数据类型:int32,取值:0\(floor模式),1(ceil模式),默认为0
+
+【约束】
+
+strides\[0\]或者strides\[1\]取值步长大于63时,会使用AI CPU计算,性能会下降;
+
+kernel\_shape\_H或kernel\_shape\_W取值超过\[1,255\],或者kernel\_shape\_H \* kernel\_shape\_W \> 256时,会使用AI CPU计算,导致性能下降;
+
+1 <= input\_w <= 4096
+
+当输入张量的N是一个质数时,N应小于65535
+
+2D tensor输入不支持dilations
+
+auto\_pad属性是VALID时,ceil\_mode属性值必须为0
+
+不支持atc工具参数--precision\_mode=must\_keep\_origin\_dtype时fp32类型输入
+
+pads属性和auto\_pad属性不可同时使用
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+MaxRoiPool
+
+## 功能
+
+ROI最大池消耗一个输入张量X和感兴趣区域\(ROI\),以便在每个ROI上应用最大池,从而产生输出的4-D形状张量\(num\_roi, channels, pooled\_shape\[0\], pooled\_shape\[1\]\)。
+
+## 边界
+
+【输入】
+
+X:,类型:tensor\(float16\), tensor\(float\)
+
+rois:,类型:tensor\(float16\), tensor\(float\)
+
+【输出】
+
+Y:,类型:tensor\(float16\), tensor\(float\), tensor\(double\)
+
+【属性】
+
+pooled\_shape: list of ints
+
+spatial\_scale: float,默认值:1.0
+
+【约束】
+
+不支持atc工具参数--precision\_mode=must\_keep\_origin\_dtype时fp32类型输入
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/13
+
+Mean
+
+## 功能
+
+每个输入张量的元素均值\(支持numpy风格的广播\)。所有输入和输出必须具有相同的数据类型。该操作符支持多向\(即numpy风格\)广播。
+
+## 边界
+
+【输入1-∞】
+
+data\_0:,类型:tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\)
+
+【输出】
+
+mean:,类型:tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\)
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+MeanVarianceNormalization
+
+## 功能
+
+使用公式对输入张量X进行均值方差标准化:\(X-EX\)/sqrt\(E\(X-EX\)^2\)
+
+## 边界
+
+【输入】
+
+X:,类型:tensor\(float16\), tensor\(float\), tensor\(bfloat16\)
+
+【输出】
+
+Y:,类型:tensor\(float16\), tensor\(float\), tensor\(bfloat16\)
+
+【属性】
+
+axes: list of ints,默认值:\['0', '2', '3'\]
+
+## 支持的ONNX版本
+
+Opset v9/v10/v11/v12/v13
+
+Min
+
+## 功能
+
+计算输入tensors的最小值
+
+## 边界
+
+【输入】
+
+1个输入
+
+x:tensor列表,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:计算出最小值的tensor
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Mod
+
+## 功能
+
+执行元素二进制模数\(支持numpy风格的广播\)。余数的符号与除数的符号相同。
+
+## 边界
+
+【输入】
+
+A:tensor\(uint8\), tensor\(uint16\), tensor\(uint32\), tensor\(uint64\), tensor\(int8\), tensor\(int16\), tensor\(int32\), tensor\(int64\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\)
+
+B:tensor\(uint8\), tensor\(uint16\), tensor\(uint32\), tensor\(uint64\), tensor\(int8\), tensor\(int16\), tensor\(int32\), tensor\(int64\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\)
+
+【输出】
+
+C:,类型:tensor\(uint8\), tensor\(uint16\), tensor\(uint32\), tensor\(uint64\), tensor\(int8\), tensor\(int16\), tensor\(int32\), tensor\(int64\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\)
+
+【属性】
+
+fmod:int,默认值:0
+
+【约束】
+
+当输入类型为浮点时,fmod不支持为0
+
+## 支持的ONNX版本
+
+Opset v10/v11/v12/v13
+
+Mul
+
+## 功能
+
+矩阵点乘
+
+## 边界
+
+【输入】
+
+A:一个张量,数据类型:float16、float32、uint8、int8、int16、int32
+
+B:一个张量,数据类型:float16、float32、uint8、int8、int16、int32
+
+【输出】
+
+C:一个张量,数据类型与输入张量一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Multinomial
+
+## 功能
+
+返回Multinomial采样结果矩阵
+
+## 边界
+
+【输入】
+
+1个输入
+
+x:tensor,shape=\[batch\_size, class\_size\],数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个张量,shape=\[batch\_size, sample\_size\],输出type是int32、int64
+
+【属性】
+
+dtype:int,默认为6,含义:输出dtype,默认为int32
+
+sample\_size:int,默认为1,含义:采样次数
+
+seed:float,随机数种子
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Neg
+
+## 功能
+
+求输入的负数
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32、int32
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型与输入一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+NonMaxSuppression
+
+## 功能
+
+过滤掉与先前选定的框有较高重叠的“交集-并集”\(IOU\)框。移除得分小于score\_threshold的边界框。边界框格式由属性center\_point\_box表示。注意,该算法不知道原点在坐标系中的位置,更普遍地说,它对坐标系的正交变换和平移是不变的;因此,平移或反射坐标系统的结果在相同的方框被算法选择。selected\_indices输出是一组整数,索引到表示所选框的边界框的输入集合中。然后,可以使用Gather或gathernd操作获得与所选索引对应的边框坐标。
+
+## 边界
+
+【输入2-5】
+
+boxes: tensor\(float\)
+
+scores: tensor\(float\)
+
+max\_output\_boxes\_per\_class: 可选,数据类型:tensor\(int64\)
+
+iou\_threshold: 可选,数据类型:tensor\(float\)
+
+score\_threshold: 可选,数据类型:tensor\(float\)
+
+【输出】
+
+selected\_indices: tensor\(int64\)
+
+【属性】
+
+center\_point\_box: int 默认值:0
+
+## 支持的ONNX版本
+
+Opset v10/v11/v12/v13
+
+NonZero
+
+## 功能
+
+返回非零元素的索引(行主序)
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32、int32、int8、uint8等
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型:int64
+
+## 支持的ONNX版本
+
+Opset v9/v10/v11/v12/v13
+
+Not
+
+## 功能
+
+逻辑非
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:bool
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型:bool
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+OneHot
+
+## 功能
+
+根据输入生成独热编码张量
+
+## 边界
+
+【输入】
+
+三个输入
+
+indices:一个tensor,数据类型:uint8,uint16, uint32,uint64,int8,int16,int32,int64,float16,float,double
+
+depth:一个tensor,数据类型:uint8,uint16, uint32,uint64,int8,int16,int32,int64,float16,float,double
+
+values:一个tensor,数据类型:uint8,uint16, uint32,uint64,int8,int16,int32,int64,float16,float,double
+
+【属性】
+
+一个属性
+
+axis:(可选)添加独热表示的轴
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型与values输入的类型一致
+
+【约束】
+
+算子属性不支持axis<-1
+
+## 支持的ONNX版本
+
+Opset v9/v10/v11/v12/v13
+
+Or
+
+## 功能
+
+逻辑或
+
+## 边界
+
+【输入】
+
+两个输入
+
+X1:一个tensor,数据类型:bool
+
+X2:一个tensor,数据类型:bool
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型:bool
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+RandomNormalLike
+
+## 功能
+
+根据正态分布生成随机数矩阵,输出tensor的shape与输入相同
+
+## 边界
+
+【输入】
+
+1个输入
+
+x: tensor,数据类型是float16,float
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的shape和dtype
+
+【属性】
+
+dtype:int,指定输出tensor的dtype
+
+mean:float,默认是0.0,正态分布的均值
+
+scale:float,默认是1.0,正态分布的标准差
+
+seed:float,随机数种子
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+
+
+## 功能
+
+根据均匀分布生成随机数矩阵,输出tensor的shape与输入相同
+
+## 边界
+
+【输入】
+
+1个输入
+
+x:tensor,数据类型是float16,float
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的shape和dtype
+
+【属性】
+
+dtype:int,指定输出tensor的dtype
+
+high:float,默认是1.0,均匀分布的上界
+
+low:float,默认是0.0,均匀分布的下界
+
+seed:float,随机数种子
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+
+
+## 功能
+
+生成具有从均匀分布绘制的随机值的张量
+
+## 边界
+
+【属性】
+
+五个属性
+
+dtype:int类型,指明输出类型
+
+high:float型,指明上边界
+
+low:float型,指明下边界
+
+seed:\(可选\),随机种子
+
+shape:输出的形状
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型与dtype属性指定类型一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Range
+
+## 功能
+
+产生一个连续序列的tensor
+
+## 边界
+
+【输入】
+
+3个输入
+
+start:scalar,数据类型:float16、float32
+
+limit:scalar,数据类型:float16、float32
+
+delta:scalar,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的type
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Reciprocal
+
+## 功能
+
+将输入张量取倒数
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32、double
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型和shape与输入一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+ReduceL1
+
+## 功能
+
+沿所提供的轴计算输入张量元素的L1范数。如果keepdim等于1,得到的张量的秩与输入的相同。如果keepdim等于0,那么得到的张量就会被精简维数。上述行为与numpy类似,只是numpy默认keepdim为False而不是True。
+
+## 边界
+
+【输入】
+
+data:tensor\(uint32\), tensor\(uint64\), tensor\(int32\), tensor\(int64\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\)
+
+【输出】
+
+reduced:tensor\(uint32\), tensor\(uint64\), tensor\(int32\), tensor\(int64\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\)
+
+【属性】
+
+axes: list of ints
+
+keepdims: int,默认值:1
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+ReduceL2
+
+## 功能
+
+沿所提供的轴计算输入张量元素的L2范数。如果keepdim等于1,得到的张量的秩与输入的相同。如果keepdim等于0,那么得到的张量就会被精简维数。上述行为与numpy类似,只是numpy默认keepdim为False而不是True。
+
+## 边界
+
+【输入】
+
+data:tensor\(uint32\), tensor\(uint64\), tensor\(int32\), tensor\(int64\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\)
+
+【输出】
+
+reduced:tensor\(uint32\), tensor\(uint64\), tensor\(int32\), tensor\(int64\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\)
+
+【属性】
+
+axes: list of ints
+
+keepdims: int,默认值:1
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+ReduceLogSum
+
+## 功能
+
+计算输入张量指定方向的对数和
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16, float32
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型:float16, float32
+
+【属性】
+
+axes:数据类型为listInt;含义:指定计算轴;取值范围:\[-r, r-1\],r是输入数据的维数
+
+keepdims:数据类型为int;含义:是否保留缩减后的维度;默认为1
+
+## 支持的ONNX版本
+
+Opset v11/v13
+
+ReduceLogSumExp
+
+## 功能
+
+计算输入张量指定方向的对数和的指数
+
+## 边界
+
+【输入】
+
+一个输入
+
+data:一个tensor,数据类型:float16, float32
+
+【输出】
+
+一个输出
+
+reduced:一个tensor,数据类型:float16, float32
+
+【属性】
+
+axes:一维tensor,数据类型int32、int64,含义:指定计算轴;取值范围:\[-r, r-1\],r是输入数据的维数
+
+keepdims:数据类型为int;含义:是否缩减维度;默认为1表示缩减维度
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+ReduceMin
+
+## 功能
+
+计算输入张量指定方向的最小值
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型:float16、float32
+
+【属性】
+
+axes:数据类型为listInt;含义:指定计算轴;取值范围:\[-r, r-1\],r是输入数据的维数
+
+keepdims:数据类型为int;含义:是否保留缩减后的维度;默认为1
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+ReduceMean
+
+## 功能
+
+计算输入张量的指定维度的元素的均值
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的type和format
+
+【属性】
+
+axes:一个1D的整数列表,含义:指定精减的维度,取值范围为\[-r, r - 1\],r是输入矩阵的秩
+
+keepdims:数据类型为int,默认为1,含义:是否保留缩减后的维度
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+ReduceProd
+
+## 功能
+
+计算输入张量的元素沿所提供的轴的乘积。如果keepdim等于1,得到的张量的秩与输入的相同。如果keepdim等于0,那么得到的张量就会被精简维数。
+
+## 边界
+
+【输入】
+
+data:tensor\(uint32\), tensor\(uint64\), tensor\(int32\), tensor\(int64\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\)
+
+【输出】
+
+reduced:tensor\(uint32\), tensor\(uint64\), tensor\(int32\), tensor\(int64\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\)
+
+【属性】
+
+axes: list of ints
+
+keepdims: int,默认值:1
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+ReduceSumSquare
+
+## 功能
+
+沿所提供的轴计算输入张量元素的平方和。如果keepdim等于1,得到的张量的秩与输入的相同。如果keepdim等于0,那么得到的张量就会被精简维数。上述行为与numpy类似,只是numpy默认keepdim为False而不是True。
+
+## 边界
+
+【输入】
+
+data:tensor\(uint32\), tensor\(uint64\), tensor\(int32\), tensor\(int64\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\)
+
+【输出】
+
+reduced:tensor\(uint32\), tensor\(uint64\), tensor\(int32\), tensor\(int64\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(bfloat16\)
+
+【属性】
+
+axes: list of ints
+
+keepdims: int,默认值:1
+
+## 支持的ONNX版本
+
+Opset v1/v8/v9/v10/v11/v12/v13
+
+Resize
+
+## 功能
+
+调整输入tensor大小
+
+## 边界
+
+【输入】
+
+4个输入
+
+x:一个tensor,数据类型:float16、float32
+
+roi: 被输入图像归一化的1Dtensor,\[start1, ..., startN, end1, ..., endN\],数据类型:float16、float32
+
+scales:与输入x的秩相等的数组
+
+sizes:输出tensor的size
+
+【输出】
+
+一个输出
+
+y:缩放后的张量
+
+【属性】
+
+coordinate\_transformation\_mode:str,默认为half\_pixel,含义:定义缩放后图像与原图像的坐标转换
+
+cubic\_coeff\_a:float,默认为-0.75,含义:三次插值系数
+
+exclude\_outside:int,默认为0,含义:超出tensor外的权重
+
+mode:str,默认为nearest,含义:插值算法,包括nearest, linear and cubic
+
+nearest\_mode:str,默认为round\_prefer\_floor,含义:最近邻算子模式
+
+【约束】
+
+目前仅支持nearest和linear插值方式来处理图片,并且需要修改模型将输入scales或sizes由placeholder改为const类型,可以使用onnxsimplifier简化模型
+
+## 支持的ONNX版本
+
+Opset v10/v11/v12
+
+Relu
+
+## 功能
+
+整流线性单位函数
+
+## 边界
+
+【输入】
+
+X:输入张量,数据类型:float32、int32、uint8、int16、int8、uint16、float16、qint8
+
+【输出】
+
+Y:输出张量,数据类型与X一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+ReduceSum
+
+## 功能
+
+计算输入张量指定维度的元素的和
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x的type和format相同
+
+【属性】
+
+axes:一个1D的整数列表,含义:指定精减的维度,取值范围为\[-r, r - 1\](r是输入矩阵的秩)
+
+keepdims:数据类型为int,默认为1,含义:是否保留缩减后的维度
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+ReduceMax
+
+## 功能
+
+计算输入张量指定方向的最大值
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32、int32
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型:float16、float32、int32
+
+【属性】
+
+axes:数据类型为listInt;含义:指定计算轴;取值范围:\[-r, r-1\],r是输入数据的秩
+
+keepdims:数据类型为int;含义:是否保留缩减后的维度;默认为1
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Reshape
+
+## 功能
+
+改变输入维度
+
+## 边界
+
+【输入】
+
+两个输入
+
+data:一个张量
+
+shape:一个张量,定义了输出张量的形状,int64
+
+【输出】
+
+reshaped:一个张量
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+ReverseSequence
+
+## 功能
+
+根据指定长度对batch序列进行排序
+
+## 边界
+
+【输入】
+
+2个输入
+
+x:tensor,rank \>= 2,数据类型:float16、float32
+
+sequence\_lens:tensor,每个batch的指定长度,数据类型:int64
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的type和shape
+
+【属性】
+
+batch\_axis:int,默认为1,含义:指定batch轴
+
+time\_axis:int,默认为1,含义:指定time轴
+
+## 支持的ONNX版本
+
+Opset v10/v11/v12/v13
+
+
+
+## 功能
+
+从特征映射列表中获取ROI特征矩阵
+
+## 边界
+
+【输入】
+
+两个输入
+
+features:一个tensor,数据类型:float32,float16
+
+rois:一个tensor,数据类型:float32,float16
+
+【属性】
+
+八个属性:
+
+finest\_scale:int型
+
+roi\_scale\_factor:float型
+
+spatial\_scale:float型数组
+
+pooled\_height:int型
+
+pooled\_width:int型
+
+sample\_num:int型
+
+pool\_mode:string型
+
+aligned:bool型
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型:float32,float16
+
+## 支持的ONNX版本
+
+自定义算子,无对应onnx版本
+
+RoiAlign
+
+## 功能
+
+在每个roi区域进行池化处理
+
+## 边界
+
+【输入】
+
+3个输入
+
+x:tensor,4D输入,数据类型:float16、float32
+
+rois:shape=\(num\_rois, 4\),数据类型:float16、float32
+
+batch\_indices :shape=\(num\_rois,\),数据类型:int64
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的type,shape=\(num\_rois, C, output\_height, output\_width\)
+
+【属性】
+
+mode:string,默认为avg,含义:池化方式
+
+output\_height:int,默认为1,含义:y的高度
+
+output\_width:int,默认为1,含义:y的宽度
+
+sampling\_ratio :int,默认为0,含义:插值算法采样点数
+
+spatial\_scale:float,默认为1.0,含义:相对于输入图像的空间采样率
+
+【约束】
+
+batch\_indices数据类型只能写int32不能写int64
+
+不支持atc工具参数--precision\_mode=must\_keep\_origin\_dtype时fp32,fp64的输入
+
+## 支持的ONNX版本
+
+Opset v10/v11/v12/v13
+
+Round
+
+## 功能
+
+对输入张量做四舍五入的运算
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32、double
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型和shape与输入一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+PRelu
+
+## 功能
+
+PRelu激活函数
+
+## 边界
+
+【输入】
+
+两个输入
+
+x:一个tensor,数据类型:float16、float32
+
+slope:slope张量,数据类型和输入x一致
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的type和shape
+
+【约束】
+
+slope必须是1维,当输入x的shape是1维时,slope的维度值必须为1;输入x的shape是其他维度时,slope的维度值可以为1或者为输入x的shape\[1\]
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Scatter
+
+## 功能
+
+根据updates和indices来更新data的值,并把结果返回。
+
+## 边界
+
+【输入】
+
+3个输入
+
+data: tensor,数据类型是float16,float,int32
+
+indices:tensor,数据类型是int32、int64
+
+updates:tensor,数据类型同data
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的shape和dtype
+
+【属性】
+
+axis:int,默认是0,表示沿axis取数据
+
+## 支持的ONNX版本
+
+Opset v9/v10
+
+ScatterElements
+
+## 功能
+
+根据updates和indices来更新data的值,并把结果返回。
+
+## 边界
+
+【输入】
+
+1个输入
+
+data: tensor,数据类型是float16,float,int32
+
+indices:tensor,数据类型是int32、int64
+
+updates:tensor,数据类型同data
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的shape和dtype
+
+【属性】
+
+axis:int,默认是0,表示沿axis取数据
+
+## 支持的ONNX版本
+
+Opset v11/v12/v13
+
+ScatterND
+
+## 功能
+
+创建data的拷贝,同时在指定indices处根据updates更新
+
+## 边界
+
+【输入】
+
+3个输入
+
+data:tensor,rank \>= 1,数据类型:float16、float32
+
+indices:tensor,rank \>= 1,数据类型:int64
+
+updates:tensor,rank = q + r - indices\_shape\[-1\] - 1,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的type和shape
+
+## 支持的ONNX版本
+
+Opset v11
+
+Shrink
+
+## 功能
+
+单输入单输出计算,If x < -lambd, y = x + bias; If x \> lambd, y = x - bias; Otherwise, y = 0.
+
+## 边界
+
+【输入】
+
+1个输入
+
+data: tensor,数据类型是float16,float
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的shape和dtype
+
+【属性】
+
+bias:float,默认是0.0
+
+lambda:float,默认是0.5
+
+## 支持的ONNX版本
+
+Opset v9/v10/v11/ v12/v13
+
+Selu
+
+## 功能
+
+在元素级别使用指数线性单位函数y = gamma \* \(alpha \* e^x - alpha\) for x <= 0, y = gamma \* x for x \> 0 生成张量
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:fp16,fp32,double类型的tensor
+
+两个属性
+
+alpha:乘数因子
+
+gamma:乘数因子
+
+【输出】
+
+一个输出
+
+y:与输入类型相同的tensor
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Shape
+
+## 功能
+
+获取输入tensor的shape
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor
+
+【输出】
+
+y:输入tensor的shape,数据类型为int64的tensor
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Sigmoid
+
+## 功能
+
+对输入做sigmoid
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:数据类型支持float16、float32
+
+【输出】
+
+一个输出
+
+y:数据类型和输入x一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Slice
+
+## 功能
+
+获取输入tensor的切片
+
+## 边界
+
+【输入】
+
+五个输入
+
+x:输入的tensor,数据类型:float16、float32、int32、uint8、bool、int8
+
+starts:1Dtensor,int32或者int64,表示开始的索引位置
+
+ends:1Dtensor,int32或者int64,表示结束的索引位置
+
+axes:可选,1Dtensor,int32或者int64,表示切片的轴,取值范围为\[-r, r-1\](r表示输入数据的秩)
+
+steps:可选,1Dtensor,int32或者int64,表示切片的步长,最后一个轴的steps取值必须为1
+
+【输出】
+
+y:切片后的张量数据,数据类型和输入一致
+
+【约束】
+
+x:输入tensor维度不能为1
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Softmax
+
+## 功能
+
+对输入进行softmax
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32、double
+
+【输出】
+
+一个输出
+
+y:一个tensor,类型和shape与输入x一致
+
+【属性】
+
+axis:Int,可选,表示进行softmax的方向,默认值为-1,范围为\[ -len\(x.shape\), len\(x.shape\)-1\]
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Softsign
+
+## 功能
+
+计算输入张量的softsign\(x/\(1+|x|\)\)
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32、double
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型和shape与输入一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Softplus
+
+## 功能
+
+计算softplus
+
+## 边界
+
+【输入】
+
+一个输入
+
+X:1D的输入张量
+
+【输出】
+
+一个输出
+
+Y:1D的张量
+
+【约束】
+
+数据类型仅支持float16、float32
+
+输入、输出的数据类型一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+SpaceToDepth
+
+## 功能
+
+SpaceToDepth将空间数据块重新排列成深度。更具体地说,这个op输出一个输入张量的副本,其中高度和宽度维度的值移动到深度维度。
+
+## 边界
+
+【输入】
+
+input:tensor\(uint8\), tensor\(uint16\), tensor\(uint32\), tensor\(uint64\), tensor\(int8\), tensor\(int16\), tensor\(int32\), tensor\(int64\), tensor\(bfloat16\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(string\), tensor\(bool\), tensor\(complex64\), tensor\(complex128\)
+
+【输出】
+
+output:tensor\(uint8\), tensor\(uint16\), tensor\(uint32\), tensor\(uint64\), tensor\(int8\), tensor\(int16\), tensor\(int32\), tensor\(int64\), tensor\(bfloat16\), tensor\(float16\), tensor\(float\), tensor\(double\), tensor\(string\), tensor\(bool\), tensor\(complex64\), tensor\(complex128\)
+
+【属性】
+
+blocksize: int
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Split
+
+## 功能
+
+将输入切分成多个输出
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32、int8、int16、int32、int64、uint8、uint16、uint32、uint64
+
+【输出】
+
+一个输出
+
+y:由多个输出tensor组成的列表,每个tensor数据类型和输入x一致
+
+【属性】
+
+split:list,数据类型:int8、int16、int32、int64,指定每个输出tensor沿着切分方向的大小
+
+axis:数据类型:int8、int16、int32、int64,指定切分的方向
+
+【约束】
+
+split的每个元素必须\>=1
+
+split的所有元素之和必须等于axis指定的切分方向的size
+
+axis在\[ -len\(x.shape\), len\(x.shape\)-1\] 之间
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Sqrt
+
+## 功能
+
+计算元素的平方根
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor
+
+【输出】
+
+一个输出
+
+y:一个tensor
+
+【约束】
+
+输入、输出的数据类型相同,支持的数据类型:float16、float32
+
+如果x小于0,返回Nan
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Squeeze
+
+## 功能
+
+从输入中去除尺寸为1的维度
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个张量,数据类型:float16、float32、double、uint8、uint16、uint32、uint64、int8、int16、int32、int64、bool
+
+【输出】
+
+y:一个tensor,数据类型和输入一致
+
+【属性】
+
+axes:一个数据类型为int32或者int64的整形列表,维度为1;取值范围为\[-r, r-1\](r表示输入张量的秩,负数表示从后面计算维度);含义:指定要去除的维度
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Sub
+
+## 功能
+
+进行张量的减法运算
+
+## 边界
+
+【输入】
+
+两个输入
+
+x1:一个tensor
+
+x2:一个tensor
+
+【输出】
+
+一个输出
+
+y:一个张量,数据类型和输入一致
+
+【约束】
+
+输入、输出的shape和dtype相同,支持的数据类型:int32、float16、float32
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Sign
+
+## 功能
+
+逐元素计算输入tensor的符号
+
+## 边界
+
+【输入】
+
+1个输入
+
+x:tensor,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的type和shape
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Sin
+
+## 功能
+
+计算输入张量的正弦值
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32、double
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型和shape与输入一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Sinh
+
+## 功能
+
+计算输入张量双曲正弦值
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32、double
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型和shape与输入一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Size
+
+## 功能
+
+计算输入tensor的元素个数
+
+## 边界
+
+【输入】
+
+1个输入
+
+x:tensor,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个int64的scalar
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Sum
+
+## 功能
+
+求和
+
+## 边界
+
+【输入】
+
+1个输入
+
+x:tensor序列,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的type和shape
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Tanh
+
+## 功能
+
+计算输入的双曲正切值
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型与输入一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+TfIdfVectorizer
+
+## 功能
+
+将输入文本序列向量化
+
+## 边界
+
+【输入】
+
+1个输入
+
+data: tensor,数据类型是int32,int64
+
+【输出】
+
+一个输出
+
+y:一个张量,数据类型是float
+
+【属性】
+
+max\_gram\_length:int,最大n-gram长度
+
+max\_skip\_count:int,从data中构造n-gram时最多skip数
+
+min\_gram\_length:int,最小n-gram长度
+
+mode:string,加权模式。可选为"TF" \(term frequency\), "IDF" \(inverse document frequency\)和"TFIDF" \(the combination of TF and IDF\)
+
+ngram\_counts:int列表,n-gram池化的开始索引,有助于确认两个连续n-gram边界
+
+ngram\_indexes:int列表,第i个元素表示输出tensor中第i个n-gram的坐标
+
+pool\_int64s:int列表,不能与pool\_strings同时赋值,表示从训练集学到的n-grams
+
+pool\_strings:string列表,与pool\_int64s含义一样。
+
+weights:float列表,存储每个n-gram的池化权重数值
+
+## 支持的ONNX版本
+
+Opset v9/v10/v11/ v12/v13
+
+Tile
+
+## 功能
+
+将输入张量沿指定维度重复
+
+## 边界
+
+【输入】
+
+两个输入
+
+x:一个tensor
+
+repeats:一个1D的int64的tensor,size和输入的维度数一样
+
+【输出】
+
+一个输出
+
+y:输出的tensor,type和维度与输入一致,output\_dim\[i\] = input\_dim\[i\] \* repeats\[i\]
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+ThresholdedRelu
+
+## 功能
+
+当x \> alpha时y = x,否则y=0
+
+## 边界
+
+【输入】
+
+1个输入
+
+x:tensor,数据类型:float16、float32
+
+【输出】
+
+一个输出
+
+y:一个张量,和输入x同样的type和shape
+
+【属性】
+
+alpha:float,默认为1.0,含义:阈值
+
+## 支持的ONNX版本
+
+Opset v10/v11/v12/v13
+
+TopK
+
+## 功能
+
+返回指定轴的k个最大或最小值
+
+## 边界
+
+【输入】
+
+2个输入
+
+x:tensor,数据类型:float16、float32
+
+k:tensor,数据类型:int64
+
+【输出】
+
+2个输出
+
+Values:topk的返回值
+
+Indices:topk的返回值索引
+
+【属性】
+
+axis:int,默认为-1,含义:指定排序的轴
+
+largest:int,默认为1,含义:返回k个最大/最小值
+
+sorted:int,默认为1,含义:是否升序
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Transpose
+
+## 功能
+
+转置
+
+## 边界
+
+【输入】
+
+data:一个张量,数据类型:float16、float32、int8、int16、int32、int64、uint8、uint16、uint32、uint64
+
+【输出】
+
+transposed:转置之后的张量
+
+【属性】
+
+perm:必选,整数列表, 张量data的维度排列
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Pad
+
+## 功能
+
+对输入tensor做填充
+
+## 边界
+
+【输入】
+
+两个输入
+
+x:数据类型支持float16、float32、int32
+
+pads:数据类型支持int32 、int64
+
+【输出】
+
+一个输出
+
+y:数据类型和输入x一致
+
+【约束】
+
+当mode值为constant时,目前仅支持constant\_value=0
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Pow
+
+## 功能
+
+计算输入x1的x2次幂
+
+## 边界
+
+【输入】
+
+两个输入
+
+x1:一个tensor,数据类型:float16、float32、double、int32、int8、uint8
+
+x2:一个tensor,数据类型和输入x1一致
+
+【输出】
+
+一个输出
+
+y:数据类型和输入x1一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Unsqueeze
+
+## 功能
+
+在输入张量(数据)的形状中插入一维项
+
+## 边界
+
+【输入】
+
+一个输入
+
+x:一个tensor,数据类型:uint8、uint16、uint32、int8、int16、int32、float16、float32
+
+【输出】
+
+一个输出
+
+y:一个tensor,数据类型和输入x一致
+
+【属性】
+
+axes:ListInt,表示在指定的维度进行插1维项,取值范围为\[-input\_rank, input\_rank\],input\_rank为输入张量的秩,axes的内容不可以重复
+
+## 支持的ONNX版本
+
+Opset v8/v9/10/v11/v12
+
+Xor
+
+## 功能
+
+输入张量元素的xor逻辑运算
+
+## 边界
+
+【输入】
+
+两个输入
+
+a:一个tensor,数据类型bool
+
+b:一个tensor,数据类型bool
+
+【输出】
+
+c:一个tensor,数据类型bool
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
+Where
+
+## 功能
+
+根据条件从两个输入中选择元素
+
+## 边界
+
+【输入】
+
+三个输入
+
+condition,条件,数据类型:bool
+
+x:一个tensor,条件为true时从x中选取元素,数据类型支持float16、float32、int8、int32、uint8
+
+y:一个tensor,条件为false时从y中选取元素,和x的数据类型一致
+
+【输出】
+
+一个tensor,数据类型和输入x一致
+
+## 支持的ONNX版本
+
+Opset v8/v9/v10/v11/v12/v13
+
|