1 Star 0 Fork 36

ybot/FastDeploy

forked from PaddlePaddle/FastDeploy 
加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
文件
克隆/下载
README_CN.md 2.53 KB
一键复制 编辑 原始数据 按行查看 历史
Jason 提交于 2年前 . Update README_CN.md

简体中文 | English

FastDeploy 服务化部署

简介

FastDeploy基于Triton Inference Server搭建了端到端的服务化部署。底层后端使用FastDeploy高性能Runtime模块,并串联FastDeploy前后处理模块实现端到端的服务化部署。具有快速部署、使用简单、性能卓越的特性。

FastDeploy同时还提供了基于Python搭建的服务化部署能力,只需要通过Python即可启动服务,可参考PaddleSeg部署示例了解其用法。

准备环境

环境要求

  • Linux
  • 如果使用GPU镜像, 要求NVIDIA Driver >= 470(如果是旧的Tesla架构GPU,如T4使用的NVIDIA Driver可以是418.40+、440.33+、450.51+、460.27+)

获取镜像

CPU镜像

CPU镜像仅支持Paddle/ONNX模型在CPU上进行服务化部署,支持的推理后端包括OpenVINO、Paddle Inference和ONNX Runtime

docker pull registry.baidubce.com/paddlepaddle/fastdeploy:1.0.4-cpu-only-21.10

GPU镜像

GPU镜像支持Paddle/ONNX模型在GPU/CPU上进行服务化部署,支持的推理后端包括OpenVINO、TensorRT、Paddle Inference和ONNX Runtime

docker pull registry.baidubce.com/paddlepaddle/fastdeploy:1.0.4-gpu-cuda11.4-trt8.5-21.10

用户也可根据自身需求,参考如下文档自行编译镜像

其它文档

服务化部署示例

任务场景 模型
Classification PaddleClas
Detection PaddleDetection
Detection ultralytics/YOLOv5
NLP PaddleNLP/ERNIE-3.0
NLP PaddleNLP/UIE
Speech PaddleSpeech/PP-TTS
OCR PaddleOCR/PP-OCRv3
Loading...
马建仓 AI 助手
尝试更多
代码解读
代码找茬
代码优化
Python
1
https://gitee.com/ybot/FastDeploy.git
git@gitee.com:ybot/FastDeploy.git
ybot
FastDeploy
FastDeploy
develop

搜索帮助