huangxinliang

@xinlianglalala

种子选手==

Python
C++

组织

48 1732
huangxinliang的个人主页
/
关注的仓库(7)

    Watch MindSpore / mindformers

    MindSpore Transformers套件的目标是构建一个大模型训练、推理、部署的全流程套件: 提供业内主流的Transformer类预训练模型, 涵盖丰富的并行特性。 期望帮助用户轻松的实现大模型训练。 文档:https://mindformers.readthedocs.io/zh-cn/latest/

    最近更新: 4小时前

    Watch suhaibo / mindformers forked from MindSpore / mindformers

    MindSpore Transformers套件的目标是构建一个大模型训练、推理、部署的全流程套件: 提供业内主流的Transformer类预训练模型, 涵盖丰富的并行特性。 期望帮助用户轻松的实现大模型训练。

    最近更新: 29天前

    Watch huangxinliang / mindformers forked from MindSpore / mindformers

    MindSpore Transformers套件的目标是构建一个大模型训练、推理、部署的全流程套件: 提供业内主流的Transformer类预训练模型, 涵盖丰富的并行特性。 期望帮助用户轻松的实现大模型训练。 文档:https://gitee.com/link?target=https%3A%2F%2Fmindformers.readthedocs.io%2Fzh_CN%2Flatest

    最近更新: 5个月前

    Watch huangxinliang / mindpet forked from MindSpore Lab / mindpet

    MindPet(Pet:Parameter-Efficient Tuning)是属于Mindspore领域的微调算法套件

    最近更新: 12个月前

    Watch foundation_models / 大模型业务材料

    用于存放整体大模型业务所有的共享材料

    最近更新: 1年前

    Watch huangxinliang / mindformers_pet forked from suhaibo / mindformers

    MindSpore Transformers套件的目标是构建一个大模型训练、推理、部署的全流程套件: 提供业内主流的Transformer类预训练模型, 涵盖丰富的并行特性。 期望帮助用户轻松的实现大模型训练。

    最近更新: 1年前

    Watch huangxinliang / pytorch forked from Ascend / pytorch

    Ascend PyTorch adapter

    最近更新: 1年多前

搜索帮助

344bd9b3 5694891 D2dac590 5694891