OPT(Omni-Perception Pre-Trainer)是全场景感知预训练模型的简称,中文名字叫紫东太初,是中科院自动化和华为联合研发的多模态预训练模型,本仓是紫东太初十亿参数级别模型的MindSpore版本代码,包含预训练模型及多个下游任务模型。
最近更新: 2年多前OPT(Omni-Perception Pre-Trainer)是全场景感知预训练模型的简称,中文名字叫紫东太初,是中科院自动化和华为联合研发的多模态预训练模型,本仓是紫东太初十亿参数级别模型的MindSpore版本代码,包含预训练模型及多个下游任务模型。
最近更新: 2年多前MindSpore Transformer套件的目标是构建一个大模型训练、推理、部署的全流程套件: 提供业内主流的Transformer类预训练模型, 涵盖丰富的并行特性。 期望帮助用户轻松的实现大模型训练。
最近更新: 2年多前发布 个人对在 华为/武汉人工智能计算中心 工作中对客户进行支撑的公开文档和资料
最近更新: 3年前Pytorch模型众智文档管理仓
最近更新: 接近4年前