1 Star 0 Fork 15

liu_nix / ai00_rwkv_server

forked from 顾真牛 / ai00_rwkv_server 
加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
克隆/下载
贡献代码
同步代码
取消
提示: 由于 Git 不支持空文件夾,创建文件夹后会生成空的 .keep 文件
Loading...
README
MIT

💯AI00 RWKV Server

All Contributors

English | 中文 | 日本語


AI00 RWKV Server是一个基于RWKV模型的推理API服务器。

支持VULKAN推理加速,可以在所有支持VULKAN的GPU上运行。不用N卡!!!A卡甚至集成显卡都可加速!!!

无需臃肿的pytorchCUDA等运行环境,小巧身材,开箱即用!

兼容OpenAI的ChatGPT API接口。

100% 开源可商用,采用MIT协议。

如果您正在寻找一个快速、高效、易于使用的LLM API服务器,那么AI00 RWKV Server是您的最佳选择。它可以用于各种任务,包括聊天机器人、文本生成、翻译和问答。

立即加入AI00 RWKV Server社区,体验AI的魅力!

交流QQ群:30920262

💥特色

  • 基于RWKV模型,具有高性能和准确性
  • 支持VULKAN推理加速,不用该死的CUDA也能享受GPU加速!支持A卡、集成显卡等一切支持VULKAN的GPU
  • 无需臃肿的pytorchCUDA等运行环境,小巧身材,开箱即用!
  • 兼容OpenAI的ChatGPT API接口

⭕用途

  • 聊天机器人
  • 文本生成
  • 翻译
  • 问答
  • 其他所有你能想到的LLM能干的事

👻其他

安装、编译和使用

📦直接下载安装

  1. 直接从 Release 下载最新版本

  2. 下载模型后把模型放在assets/models/路径,例如assets/models/RWKV-4-World-0.4B-v1-20230529-ctx4096.st

  3. 在命令行运行

    $ ./ai00_rwkv_server --model assets/models/RWKV-4-World-0.4B-v1-20230529-ctx4096.st
  4. 打开浏览器,访问WebUI http://127.0.0.1:65530

📜从源码编译

  1. 安装Rust

  2. 克隆本仓库

    $ git clone https://github.com/cgisky1980/ai00_rwkv_server.git
    $ cd ai00_rwkv_server
  3. 下载模型后把模型放在 assets/models/路径下,例如assets/models/RWKV-4-World-0.4B-v1-20230529-ctx4096.st

  4. 编译

    $ cargo build --release
  5. 编译完成后运行

    $ cargo run --release -- --model assets/models/RWKV-4-World-0.4B-v1-20230529-ctx4096.st 
  6. 打开浏览器,访问WebUI http://127.0.0.1:65530

📝支持的启动参数

  • --model: 模型路径
  • --tokenizer: 词表路径
  • --port: 运行端口
  • --quant: 指定量化层数

📙目前可用的API

API 服务开启于 65530 端口, 数据输入已经输出格式遵循Openai API 规范。

  • /v1/models
  • /models
  • /v1/chat/completions
  • /chat/completions
  • /v1/completions
  • /completions
  • /v1/embeddings
  • /embeddings

📙WebUI 截图

image

image

📝TODO List

  • 支持text_completionschat_completions
  • 支持sse推送
  • 添加embeddings
  • 集成基本的调用前端
  • Batch serve并行推理
  • int8量化支持
  • SpQR量化支持
  • LoRA模型支持
  • LoRA模型热加载、切换

👥Join Us

我们一直在寻找有兴趣帮助我们改进项目的人。如果你对以下任何一项感兴趣,请加入我们!

  • 💀编写代码
  • 💬提供反馈
  • 🔆提出想法或需求
  • 🔍测试新功能
  • ✏翻译文档
  • 📣推广项目
  • 🏅其他任何会对我们有所帮助的事

无论你的技能水平如何,我们都欢迎你加入我们。你可以通过以下方式加入我们:

  • 加入我们的 Discord 频道
  • 加入我们的 QQ 群
  • 在 GitHub 上提交问题或拉取请求
  • 在我们的网站上留下反馈

我们迫不及待地想与你合作,让这个项目变得更好!希望项目对你有帮助!

Thanks

cryscan 感谢cryscan的辛勤付出,为项目做出了杰出的贡献。

感谢下面项目的编写者们做出的杰出工作

顾真牛
顾真牛

📖 💻 🖋 🎨 🧑‍🏫
研究社交
研究社交

💻 💡 🤔 🚧 👀 📦
josc146
josc146

🐛 💻 🤔 🔧
l15y
l15y

🔧 🔌 💻

感谢下面又好看又有眼光又优秀的杰出人士对项目的支持和无私奉献

  • 来自 QQ 群

    image

  • 来自 Github

  • 来自 Discord

我们很感激您的帮助,我们很高兴能与您合作。

Stargazers over time

Stargazers over time

MIT License Copyright (c) 2023 cgisky1980 Permission is hereby granted, free of charge, to any person obtaining a copy of this software and associated documentation files (the "Software"), to deal in the Software without restriction, including without limitation the rights to use, copy, modify, merge, publish, distribute, sublicense, and/or sell copies of the Software, and to permit persons to whom the Software is furnished to do so, subject to the following conditions: The above copyright notice and this permission notice shall be included in all copies or substantial portions of the Software. THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.

简介

AI00 RWKV Server是一个基于RWKV模型的推理API服务器。 支持VULKAN推理加速,可以在所有支持VULKAN的GPU上运行。不用N卡!!!A卡甚至集成显卡都可加速!!! 无需臃肿的pytorch、CUDA等运行环境,小巧身材,开箱即用! 兼容OpenAI的ChatGPT API接口。 100% 开源可商用,采用MIT协议。 展开 收起
Rust
MIT
取消

发行版

暂无发行版

贡献者

全部

近期动态

加载更多
不能加载更多了
Rust
1
https://gitee.com/liunix61/ai00_rwkv_server.git
git@gitee.com:liunix61/ai00_rwkv_server.git
liunix61
ai00_rwkv_server
ai00_rwkv_server
main

搜索帮助