# LangChain4j小项目案例 **Repository Path**: Ai-Times/LangChain4j_example ## Basic Information - **Project Name**: LangChain4j小项目案例 - **Description**: 快速入门LangChain4j - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2025-09-29 - **Last Updated**: 2025-09-29 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # LangChain4j 示例项目 这是一个基于 LangChain4j 的示例项目,展示了如何构建一个结合 AI 模型的前后端应用。项目分为前端和后端两个部分,便于快速上手和扩展。 ## 项目结构 - **前端**:使用 Vue 3 和 Vite 构建的现代前端应用。 - **后端**:基于 Spring Boot 构建,集成了 LangChain4j 和 Qwen 模型,提供 AI 聊天功能。 ## 功能特点 - 支持与 Qwen 模型进行对话。 - 集成输入防护机制,防止敏感内容。 - 支持通过 MCP 工具扩展功能。 - 提供基于 SSE 的流式聊天响应。 - 支持 RAG(检索增强生成)和工具调用。 ## 技术栈 - **前端**:Vue 3、Vite、CSS - **后端**:Spring Boot、LangChain4j、Qwen、Lombok、Maven - **AI 模型**:Qwen(通义千问) ## 快速开始 ### 启动后端 1. 确保已安装 JDK 17 或更高版本。 2. 确保已安装 Maven。 3. 运行以下命令启动后端服务: ```bash mvn spring-boot:run ``` 后端服务默认运行在 `http://localhost:8080`。 ### 启动前端 1. 确保已安装 Node.js 和 npm。 2. 进入 `frontend` 目录并安装依赖: ```bash cd frontend npm install ``` 3. 启动开发服务器: ```bash npm run dev ``` 前端服务默认运行在 `http://localhost:3000`。 ## 使用说明 访问前端页面后,可以通过输入框与 AI 模型进行交互。后端提供 `/ai/chat` 接口,支持通过 SSE 流式返回 AI 的响应。 ## 配置 - **Qwen 模型配置**:在 `application.yml` 中配置 Qwen 的 API Key 和模型名称。 - **MCP 工具**:在 `McpConfig` 中配置 MCP 工具提供者。 - **输入防护**:通过 `SafeInputGuardrail` 类实现敏感词过滤。 ## 测试 运行后端测试: ```bash mvn test ``` 测试覆盖了 AI 聊天、记忆对话、RAG、工具调用、MCP 支持等功能。 运行效果 ![输入图片说明](frontend/src/assets/%E8%81%8A%E5%A4%A9%E5%B0%8F%E5%8A%A9%E6%89%8B.png) ## 贡献指南 欢迎贡献代码和改进文档。请遵循以下步骤: 1. Fork 本项目。 2. 创建新分支。 3. 提交更改。 4. 发起 Pull Request。 ## 许可证 本项目采用 MIT 许可证。详情请查看 `LICENSE` 文件。 ## 联系方式 如有问题或建议,请提交 Issue 或联系项目维护者。