wangpingan

@wangpingan2

wangpingan 暂无简介

所有 个人的 我参与的
Forks 暂停/关闭的

    wangpingan/mindformers forked from MindSpore/mindformers

    MindSpore Transformers套件的目标是构建一个大模型训练、推理、部署的全流程套件: 提供业内主流的Transformer类预训练模型, 涵盖丰富的并行特性。 期望帮助用户轻松的实现大模型训练。 文档:https://mindformers.readthedocs.io/zh-cn/latest/

    wangpingan/vllm-mindspore forked from MindSpore/vllm-mindspore

    MindSpore的vLLM插件,支持基于vLLM框架部署MindSpore模型的推理服务。

    wangpingan/golden-stick forked from MindSpore/golden-stick

    MindSpore Golden Stick is a open source deep learning model compression algorithom framework.

    wangpingan/mindspore forked from MindSpore/mindspore

    MindSpore is a new open source deep learning training/inference framework that could be used for mobile, edge and cloud scenarios.

    wangpingan/docs forked from MindSpore/docs

    MindSpore document

    wangpingan/mindformers_0120 forked from lilei/mindformers

    MindSpore Transformers套件的目标是构建一个大模型训练、推理、部署的全流程套件: 提供业内主流的Transformer类预训练模型, 涵盖丰富的并行特性。 期望帮助用户轻松的实现大模型训练。 文档:https://mindformers.readthedocs.io/zh-cn/latest/

    wangpingan/mindformers_telechat_dev forked from renyujin/mindformers_telechat

    MindSpore Transformers套件的目标是构建一个大模型训练、推理、部署的全流程套件: 提供业内主流的Transformer类预训练模型, 涵盖丰富的并行特性。 期望帮助用户轻松的实现大模型训练。 文档:https://mindformers.readthedocs.io/zh-cn/latest/

    renyujin/mindformers_telechat forked from MindSpore/mindformers

    MindSpore Transformers套件的目标是构建一个大模型训练、推理、部署的全流程套件: 提供业内主流的Transformer类预训练模型, 涵盖丰富的并行特性。 期望帮助用户轻松的实现大模型训练。 文档:https://mindformers.readthedocs.io/zh-cn/latest/

    wangpingan/serving forked from MindSpore/serving
    关闭

    A lightweight and high-performance service module that helps MindSpore developers efficiently deploy online inference services in the production environment.

搜索帮助