Hunyuan-DiT : A Powerful Multi-Resolution Diffusion Transformer with Fine-Grained Chinese Understanding.
Tencent Hunyuan3D-1.0: A Unified Framework for Text-to-3D and Image-to-3D Generation
华为昇腾面向大规模分布式训练的多模态大模型套件,支撑多模态生成、多模态理解。
随着模型规模的扩大,如何在保持高性能的同时优化资源消耗成为一个关键挑战。为了应对这一挑战,我们研究了混合专家(MoE)模型,当前亮相的Hunyuan-Large(Hunyuan-MoE-A50B)模型,这是目前业界待开源的基于Transformer的最大MoE模型,拥有3890亿总参数和520亿激活参数。
本仓库为天数智芯Iluvatar Corex IxRT高性能推理引擎的开源代码部分,提供IxRT相关插件、部署工具和演示IxRT平台用法和能力的应用示例。
讯飞星火开源-13B(iFlytekSpark-13B)拥有130亿参数,新一代认知大模型,一经发布,众多科研院所和高校便期待科大讯飞能够开源。 为了让大家使用的更加方便,科大讯飞增加了更多的数据,并针对工具链进行了优化。此次正式开源拥有130亿参数的iFlytekSpark-13B模型(讯飞星火开源-13B),也是首个基于全国产化算力平台“飞星一号”的大模型,正式开源!
九天-139MoE-Chat是中国移动自主研发的语言大模型,实现数据构建、预训练、微调、部署全链路核心技术自主创新;行业定向增强,数据上融合通信、能源等8大行业专业知识,提供定制化行业大模型;安全可靠,建立数据质量评估体系,加强数据处理和清洗,优化DPO算法,加强人类价值观对齐,实现指令安全响应。该模型在主流公开测试集测评结果上,已达GPT-4的90%水平,适配国产算力生态,助力企业实现智能化产业
IDDM(工业,景观,动画…),diffusion model,支持DDPM, DDIM, PLMS, web和多gpu分布式训练。Pytorch实现、生成模型、扩散模型、分布式训练