# litellmphp **Repository Path**: lightcomputer/litellmphp ## Basic Information - **Project Name**: litellmphp - **Description**: No description available - **Primary Language**: Unknown - **License**: MPL-2.0 - **Default Branch**: main - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2025-02-24 - **Last Updated**: 2025-02-24 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # README ## 简介 PHP 实现的 [LiteLLM](https://github.com/BerriAI/litellm) 和 [LiteLLM-proxy](https://github.com/BerriAI/litellm-proxy)。 ## 概览 [英文](README.md)/[中文](README-cn.md) 此 README 说明了如何在 PHP 应用中集成并使用 “litellm_proxy.php” 中的 LiteLLM 类。通过调用 “litellm_proxy.php”,你可以在一个统一网关下使用多种大型语言模型(LLM),如 OpenAI、Azure、AWS 等,并同时支持流式(SSE)和非流式请求。 ### 功能 • 为多个 LLM 提供统一路由并支持多轮对话 • 支持 SSE (Server-Sent Events) 流式输出,实现实时按令牌分块生成 • 根据 “model” 参数自动识别目标平台(OpenAI、Azure、AWS 等) • 支持额外的自定义参数(如:functions、function_call、max_tokens 等) • 提供演示模式 (?route=demo) 用于快速内部测试 • 提供代理模式 (?route=proxy),可接收外部应用通过 POST JSON 的请求 ### 环境要求 • 启用了 allow_url_fopen 的 PHP 环境 • 生产环境中强烈建议使用 HTTPS ### 推荐做法 • 在生产环境中添加身份验证、权限控制、速率限制与日志审计等功能 • 仅将 API Key 存储在环境变量以降低泄露风险 --- ## 使用示例 下面是一个调用 “/?route=proxy” 端点的最小 cURL 示例: ```bash curl -X POST \ -H 'Content-Type: application/json' \ -d '{ "model": "openai/gpt-3.5-turbo", "messages": [ {"role": "user", "content": "Hello! Please introduce yourself briefly."} ] }' \ https://your-domain.com/litellm_proxy.php?route=proxy ``` 返回结果将是包含 LLM 回复内容的 JSON。若想要流式输出,只需在请求体里设置 "stream": true,同时在前端或客户端中解析 SSE 数据。 --- ## 4. 许可证 本项目根据你所选择的许可证(MIT、Apache 2.0 或其他许可证)发布。请确保在你的仓库中包含完整的 LICENSE 文件。 --- 感谢你使用 LiteLLM-PHP !如有任何问题,请在此项目提交 Issue,或联系项目维护者。