同步官方Open3D-ML https://github.com/isl-org/Open3D-ML
同步更新官方最新版 Yolov6 https://github.com/meituan/YOLOv6
https://github.com/alibaba/FunASR.git
https://github.com/facebookresearch/detectron2
https://github.com/NVlabs/tiny-cuda-nn
https://github.com/tensorflow/tensorflow
mmdetection3d 同步官方最新 https://github.com/open-mmlab/mmdetection3d
同步更新anylabeling , 在Segment Anything和YOLO的人工智能支持下,轻松进行人工智能辅助数据标记!
https://github.com/microsoft/qlib
同步 https://github.com/Belval/TextRecognitionDataGenerator
https://github.com/InternLM/InternLM-XComposer
https://github.com/vllm-project/vllm
https://github.com/NVIDIA/TensorRT-LLM
同步 https://github.com/hoffstadt/DearPyGui
Port of Facebook's LLaMA model in C/C++
https://github.com/NVIDIAGameWorks/kaolin
本项目基于Meta发布的可商用大模型Llama-2开发,是中文LLaMA&Alpaca大模型的第二期项目,开源了中文LLaMA-2基座模型和Alpaca-2指令精调大模型。这些模型在原版Llama-2的基础上扩充并优化了中文词表,使用了大规模中文数据进行增量预训练,进一步提升了中文基础语义和指令理解能力,相比一代相关模型获得了显著性能提升。相关模型支持FlashAttention-2训练。
Baichuan 2 是百川智能推出的新一代开源大语言模型,采用 2.6 万亿 Tokens 的高质量语料训练。
InternLM 是一个开源的轻量级训练框架,旨在支持大模型训练而无需大量的依赖。通过单一的代码库,它支持在拥有数千个 GPU 的大型集群上进行预训练,并在单个 GPU 上进行微调,同时实现了卓越的性能优化。在1024个 GPU 上训练时,InternLM 可以实现近90%的加速效率。