登录
注册
开源
企业版
高校版
搜索
帮助中心
使用条款
关于我们
开源
企业版
高校版
私有云
模力方舟
我知道了
查看详情
登录
注册
6月21日 Gitee Talk | 模力方舟 AI 应用沙龙 · 青岛站开放报名,来聊聊 AI+ 应用的多场景落地实践~
代码拉取完成,页面将自动刷新
捐赠
捐赠前请先登录
取消
前往登录
扫描微信二维码支付
取消
支付完成
支付提示
将跳转至支付宝完成支付
确定
取消
Watch
不关注
关注所有动态
仅关注版本发行动态
关注但不提醒动态
1
Star
0
Fork
1.1K
油泼香菇
/
pytorch
forked from
Ascend
/
pytorch
确定同步?
同步操作将从
Ascend/pytorch
强制同步,此操作会覆盖自 Fork 仓库以来所做的任何修改,且无法恢复!!!
确定后同步将在后台操作,完成时将刷新页面,请耐心等待。
删除在远程仓库中不存在的分支和标签
同步 Wiki
(当前仓库的 wiki 将会被覆盖!)
取消
确定
代码
Issues
0
Pull Requests
0
Wiki
统计
流水线
服务
Gitee Pages
质量分析
Jenkins for Gitee
腾讯云托管
腾讯云 Serverless
悬镜安全
阿里云 SAE
Codeblitz
SBOM
我知道了,不再自动展开
标签
标签名
描述
提交信息
操作
v7.0.RC1.alpha002-pytorch2.5.1
配套 CANN 8.1.RC1.alpha002使用
41f51b3
2025-03-24 21:56
下载
v7.0.RC1.alpha002-pytorch2.4.0
配套 CANN 8.1.RC1.alpha002使用
9a9c0a1
2025-03-24 22:11
下载
v7.0.RC1.alpha002-pytorch2.3.1
配套 CANN 8.1.RC1.alpha002使用
70a82d2
2025-03-24 21:56
下载
v7.0.RC1.alpha002-pytorch2.1.0
配套 CANN 8.1.RC1.alpha002使用
73d38f6
2025-03-24 22:11
下载
v7.0.RC1.alpha001-pytorch2.5.1
配套 CANN 8.1.RC1.alpha001使用
7ceac1c
2025-02-12 19:18
下载
v7.0.RC1.alpha001-pytorch2.1.0
配套 CANN 8.1.RC1.alpha001使用
3b53045
2025-02-12 19:18
下载
v7.0.RC1.alpha001-pytorch2.4.0
配套 CANN 8.1.RC1.alpha001使用
516b950
2025-02-12 19:18
下载
v7.0.RC1.alpha001-pytorch2.3.1
配套 CANN 8.1.RC1.alpha001使用
0fe2c36
2025-02-12 19:18
下载
v6.0.0-pytorch2.4.0
### 一 新增说明 1. 新增特性 • Ascend Extension for PyTorch 新增细粒度绑核,进一步优化算子下发性能 • Ascend Extension for PyTorch 支持设备同步超时时间配置,提升训练灵活度和dfx能力 • Ascend Extension for PyTorch 新增支持通信域单独设置HCCL_BUFFERSIZE,提升集合通信效率 • Ascend Extension for PyTorch 新增支持同步流下发接口,为训练任务卡住时提供逃生通道,保证ckpt能正常保存 ### 二 删除说明 无 ### 三 变更说明 1.接口变更说明 • 虚拟内存开关PYTORCH_NPU_ALLOC_CONF=expandable_segments:True/False 在本次release中仍然保持为False • 新增支持pg_options配置hccl通信参数hccl_buffer_size • 新增支持npu_gelu, npu_group_quant, torch_npu.profiler.dynamic_profile, torch.npu.SyncLaunchStream • npu_dynamic_quant:新增可选入参group_index,dst_type; npu_weight_quant_batchmatmu: 新增可选参数inner_precise; npu_weight_quant_batchmatmu: 新增可选参数inner_precise; torch_npu.contrib.module.LinearWeightQuant: 新增可选参数inner_precise • 新增环境变量ACL_DEVICE_SYNC_TIMEOUT,支持device同步超时手动配置 • 新增环境变量INF_NAN_MODE_FORCE_DISABLE,开启后强制关闭INF_NAN模式 ### 四 已知问题 • torch.nn.functional.scaled_dot_product_attention入参attn_mask不支持3维 ### 五 Bugfix • 修复sendrecv初始化时卡死问题,支持P2P通信域独立建链 • 修复反向计算跨流计算的内存提前复用问题 ### 六 特殊声明 • 虚拟内存与单进程多卡需要在Ascend HDK 24.1.RC3以上的版本才能直接使用,其他版本不能共同使用 • AtlasA2训练产品,关闭INF_NAN模式会产生精度问题,所以强制拦截,若要强制关闭IF_NAN模式,则需开启环境变量INF_NAN_MODE_FORCE_DISABLE,但模型仍然可能会产生精度问题
88dab78
2025-01-04 18:05
下载
v6.0.0-pytorch2.3.1
### 一 新增说明 1. 新增特性 • Ascend Extension for PyTorch 新增细粒度绑核,进一步优化算子下发性能 • Ascend Extension for PyTorch 支持设备同步超时时间配置,提升训练灵活度和dfx能力 • Ascend Extension for PyTorch 新增支持通信域单独设置HCCL_BUFFERSIZE,提升集合通信效率 • Ascend Extension for PyTorch 新增支持同步流下发接口,为训练任务卡住时提供逃生通道,保证ckpt能正常保存 ### 二 删除说明 无 ### 三 变更说明 1.接口变更说明 • 虚拟内存开关PYTORCH_NPU_ALLOC_CONF=expandable_segments:True/False 在本次release中仍然保持为False • 新增支持pg_options配置hccl通信参数hccl_buffer_size • 新增支持npu_gelu, npu_group_quant, torch_npu.profiler.dynamic_profile, torch.npu.SyncLaunchStream • npu_dynamic_quant:新增可选入参group_index,dst_type; npu_weight_quant_batchmatmu: 新增可选参数inner_precise; npu_weight_quant_batchmatmu: 新增可选参数inner_precise; torch_npu.contrib.module.LinearWeightQuant: 新增可选参数inner_precise • 新增环境变量ACL_DEVICE_SYNC_TIMEOUT,支持device同步超时手动配置 • 新增环境变量INF_NAN_MODE_FORCE_DISABLE,开启后强制关闭INF_NAN模式 ### 四 已知问题 • torch.nn.functional.scaled_dot_product_attention入参attn_mask不支持3维 ### 五 Bugfix • 修复sendrecv初始化时卡死问题,支持P2P通信域独立建链 • 修复反向计算跨流计算的内存提前复用问题 ### 六 特殊声明 • 虚拟内存与单进程多卡需要在Ascend HDK 24.1.RC3以上的版本才能直接使用,其他版本不能共同使用 • AtlasA2训练产品,关闭INF_NAN模式会产生精度问题,所以强制拦截,若要强制关闭IF_NAN模式,则需开启环境变量INF_NAN_MODE_FORCE_DISABLE,但模型仍然可能会产生精度问题
62e67c3
2025-01-04 18:04
下载
v6.0.0-pytorch2.1.0
### 一 新增说明 1. 新增特性 • Ascend Extension for PyTorch 新增细粒度绑核,进一步优化算子下发性能 • Ascend Extension for PyTorch 支持设备同步超时时间配置,提升训练灵活度和dfx能力 • Ascend Extension for PyTorch 新增支持通信域单独设置HCCL_BUFFERSIZE,提升集合通信效率 • Ascend Extension for PyTorch 新增支持同步流下发接口,为训练任务卡住时提供逃生通道,保证ckpt能正常保存 ### 二 删除说明 无 ### 三 变更说明 1.接口变更说明 • 虚拟内存开关PYTORCH_NPU_ALLOC_CONF=expandable_segments:True/False 在本次release中仍然保持为False • 新增支持pg_options配置hccl通信参数hccl_buffer_size • 新增支持npu_gelu, npu_group_quant, torch_npu.profiler.dynamic_profile, torch.npu.SyncLaunchStream • npu_dynamic_quant:新增可选入参group_index,dst_type; npu_weight_quant_batchmatmu: 新增可选参数inner_precise; npu_weight_quant_batchmatmu: 新增可选参数inner_precise; torch_npu.contrib.module.LinearWeightQuant: 新增可选参数inner_precise • 新增环境变量ACL_DEVICE_SYNC_TIMEOUT,支持device同步超时手动配置 • 新增环境变量INF_NAN_MODE_FORCE_DISABLE,开启后强制关闭INF_NAN模式 ### 四 已知问题 • torch.nn.functional.scaled_dot_product_attention入参attn_mask不支持3维 ### 五 Bugfix • 修复sendrecv初始化时卡死问题,支持P2P通信域独立建链 • 修复反向计算跨流计算的内存提前复用问题 ### 六 特殊声明 • 虚拟内存与单进程多卡需要在Ascend HDK 24.1.RC3以上的版本才能直接使用,其他版本不能共同使用 • AtlasA2训练产品,关闭INF_NAN模式会产生精度问题,所以强制拦截,若要强制关闭IF_NAN模式,则需开启环境变量INF_NAN_MODE_FORCE_DISABLE,但模型仍然可能会产生精度问题 ### 七 版本配套关系 MindSpeed-Core branch: [v1.0.0_core_r0.7.0](https://gitee.com/ascend/MindSpeed/releases/tag/v1.0.0_core_r0.7.0), [v1.0.0_core_r0.6.0](https://gitee.com/ascend/MindSpeed/releases/tag/v1.0.0_core_r0.6.0) MindSpeed-MM branch: [v1.0.0](https://gitee.com/ascend/MindSpeed-LLM/releases/tag/v1.0.0) MindSpedd-LLM branch: [v1.0.0](https://gitee.com/ascend/MindSpeed-LLM/releases/tag/v1.0.0) Mxdriving branch:[branch_v6.0.0](https://gitee.com/ascend/mxDriving/releases/tag/branch_v6.0.0)
cb73edf
2025-01-04 17:54
下载
v6.0.0.alpha003-pytorch2.4.0
配套CANN 8.0.0.alpha003使用
de5c4c5
2024-12-10 20:41
下载
v6.0.0.alpha003-pytorch2.3.1
配套CANN 8.0.0.alpha003使用
9f3d2c5
2024-12-10 20:41
下载
v6.0.0.alpha003-pytorch2.1.0
配套CANN 8.0.0.alpha003使用
8893fd4
2024-12-10 19:46
下载
v6.0.0.alpha002-pytorch2.4.0
配套CANN 8.0.0.alpha002使用
e76c269
2024-11-12 00:01
下载
v6.0.0.alpha002-pytorch2.3.1
配套CANN 8.0.0.alpha002使用
a206769
2024-11-12 00:01
下载
v6.0.0.alpha002-pytorch2.1.0
配套CANN 8.0.0.alpha002使用
6480301
2024-11-11 23:46
下载
v6.0.0.alpha001-pytorch2.5.1
2.5.1rc1
a3b75fc
2024-11-08 06:12
下载
v6.0.rc3-pytorch2.4.0
### 新增特性 • Ascend Extension for PyTorch 新增一级流水优化,进一步优化下发性能 • Ascend Extension for PyTorch 新增支持foreach优化器,相比foreach性能有提升或不变 • Ascend Extension for PyTorch 支持基于ranktable file进行集合通信域建链,可缩短在大集群下通信域建链的耗时 • Ascend Extension for PyTorch PyTorch 2.1及以上版本支持TCPStore建链优化,可缩短TCPStore建链的耗时 ### 接口变更说明 • 虚拟内存开关PYTORCH_NPU_ALLOC_CONF=expandable_segments:True/False 在本次release中仍然保持为False • 新增支持torch.conj、torch.polar接口,torch.isin新增支持双tensor输入 • npu_mm_all_reduce_base新增可选入参comm_quant_scale_1,comm_quant_scale_2 • 删除接口npu_ifmr、npu_masked_fill_range、npu_normalize_batch、npu_rotated_box_decode、npu_rotated_box_encode、npu_scatter、npu_stride_add ### Bugfix • 修复虚拟内存开启和单进程多卡功能无法共用问题,但需使用Ascend HDK 24.1.RC3及以上版本 ### 特殊声明 虚拟内存与单进程多卡需要在Ascend HDK 24.0.RC3以上的版本才能直接使用,其他版本不能共同使用 ### 版本配套关系 MindSpeed branch:[v1.0.RC3_core_r0.6.0](https://gitee.com/ascend/MindSpeed/tree/1.0.RC3_core_r0.6.0/)、[v1.0.RC3_core_r0.7.0](https://gitee.com/ascend/MindSpeed/tree/1.0.RC3_core_r0.7.0) MindSpeed-MM branch:[v1.0.RC3.0](https://gitee.com/ascend/MindSpeed-MM/tree/v1.0.RC3.0) ModelLink branch:[v1.0.RC3.0](https://gitee.com/ascend/ModelLink/tree/v1.0.RC3.0) Mxdriving branch:[branch_v6.0.0-RC3](https://gitee.com/ascend/mxDriving/tree/branch_v6.0.0-RC3)
5762ec6
2024-10-28 17:26
下载
v6.0.rc3-pytorch2.3.1
### 新增特性 • Ascend Extension for PyTorch 新增一级流水优化,进一步优化下发性能 • Ascend Extension for PyTorch 新增支持foreach优化器,相比foreach性能有提升或不变 • Ascend Extension for PyTorch 支持基于ranktable file进行集合通信域建链,可缩短在大集群下通信域建链的耗时 • Ascend Extension for PyTorch PyTorch 2.1及以上版本支持TCPStore建链优化,可缩短TCPStore建链的耗时 ### 接口变更说明 • 虚拟内存开关PYTORCH_NPU_ALLOC_CONF=expandable_segments:True/False 在本次release中仍然保持为False • 新增支持torch.conj、torch.polar接口,torch.isin新增支持双tensor输入 • npu_mm_all_reduce_base新增可选入参comm_quant_scale_1,comm_quant_scale_2 • 删除接口npu_ifmr、npu_masked_fill_range、npu_normalize_batch、npu_rotated_box_decode、npu_rotated_box_encode、npu_scatter、npu_stride_add ### Bugfix • 修复虚拟内存开启和单进程多卡功能无法共用问题,但需使用Ascend HDK 24.1.RC3及以上版本 ### 特殊声明 虚拟内存与单进程多卡需要在Ascend HDK 24.0.RC3以上的版本才能直接使用,其他版本不能共同使用 ### 版本配套关系 MindSpeed branch:[v1.0.RC3_core_r0.6.0](https://gitee.com/ascend/MindSpeed/tree/1.0.RC3_core_r0.6.0/)、[v1.0.RC3_core_r0.7.0](https://gitee.com/ascend/MindSpeed/tree/1.0.RC3_core_r0.7.0) MindSpeed-MM branch:[v1.0.RC3.0](https://gitee.com/ascend/MindSpeed-MM/tree/v1.0.RC3.0) ModelLink branch:[v1.0.RC3.0](https://gitee.com/ascend/ModelLink/tree/v1.0.RC3.0) Mxdriving branch:[branch_v6.0.0-RC3](https://gitee.com/ascend/mxDriving/tree/branch_v6.0.0-RC3)
6ec1fd9
2024-10-28 17:26
下载
下载
请输入验证码,防止盗链导致资源被占用
取消
下载
Python
1
https://gitee.com/Oil_MushRoom/pytorch.git
git@gitee.com:Oil_MushRoom/pytorch.git
Oil_MushRoom
pytorch
pytorch
点此查找更多帮助
搜索帮助
Git 命令在线学习
如何在 Gitee 导入 GitHub 仓库
Git 仓库基础操作
企业版和社区版功能对比
SSH 公钥设置
如何处理代码冲突
仓库体积过大,如何减小?
如何找回被删除的仓库数据
Gitee 产品配额说明
GitHub仓库快速导入Gitee及同步更新
什么是 Release(发行版)
将 PHP 项目自动发布到 packagist.org
仓库举报
回到顶部
登录提示
该操作需登录 Gitee 帐号,请先登录后再操作。
立即登录
没有帐号,去注册