# springboot-ai **Repository Path**: DYdayu/springboot-ai ## Basic Information - **Project Name**: springboot-ai - **Description**: springai学习代码 - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2025-09-25 - **Last Updated**: 2025-09-25 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # Spring Boot AI 聊天应用 #### 介绍 这是一个基于 Spring AI 的聊天应用程序,使用 Ollama 作为 AI 模型提供者,支持对话历史记录和流式响应。 该应用主要功能包括: - 与 AI 模型进行对话交互 - 保持对话历史记录 - 支持流式响应 - 提供 RESTful API 接口 #### 软件架构 项目采用 Spring Boot 3.3 + Spring AI 1.0 的技术架构: - 核心框架:Spring Boot 3.3 - AI框架:Spring AI 1.0 Milestone 6 - AI模型:Ollama (支持多种开源模型) - 构建工具:Maven - Java版本:17 #### 安装教程 1. 确保已安装 Java 17+ 和 Maven 2. 安装并启动 Ollama (https://ollama.com/) 3. 拉取所需的模型,例如:`ollama pull deepseek-r1:1.5b` 4. 克隆项目到本地 5. 修改 `application.yml` 中的 Ollama 配置(如需要) 6. 运行项目:`mvn spring-boot:run` #### 使用说明 项目启动后,默认端口为 8099,提供以下 API 接口: 1. **发起对话** ``` GET /ai/chat?prompt={问题}&chatId={会话ID} ``` - prompt: 用户问题 - chatId: 会话标识符,用于区分不同对话 2. **流式对话** ``` GET /ai/chat/stream?content={内容} ``` - content: 用户输入内容 3. **获取会话列表** ``` GET /ai/history/chat ``` 4. **获取会话历史** ``` GET /ai/history/chat/{chatId} ``` - chatId: 会话标识符 #### 配置说明 在 `application.yml` 中可以配置以下参数: ```yaml spring: ai: ollama: base-url: http://localhost:11434 # Ollama 服务地址 chat: model: deepseek-r1:1.5b # 使用的模型名称 server: port: 8099 # 应用端口 ``` #### 参与贡献 1. Fork 本仓库 2. 新建 Feat_xxx 分支 3. 提交代码 4. 新建 Pull Request #### 项目特点 1. 集成 Spring AI 框架,简化 AI 应用开发 2. 支持对话上下文记忆 3. 提供完整的聊天历史记录管理 4. 支持跨域访问(CORS) 5. 使用 Lombok 简化 Java 代码