# AI-伴侣 **Repository Path**: panglongfei/ai---partner ## Basic Information - **Project Name**: AI-伴侣 - **Description**: 一个专注于开发智能伴侣系统的开源项目,使用本地ollama的llm服务,旨在通过AI技术提供情感支持、生活助手等多功能服务,适用于各种生活场景。 - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2026-01-17 - **Last Updated**: 2026-01-18 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # AI伴侣 一个基于 Streamlit 和 OpenAI 的 AI 聊天伴侣应用,支持多会话管理、自定义伴侣性格和本地 Ollama 服务。 ## 功能特性 - 🤖 **智能对话**:基于大语言模型的 AI 伴侣,支持自然语言交互 - 💬 **多会话管理**:支持创建、切换和删除多个对话会话 - 🎭 **自定义性格**:可自由设置 AI 伴侣的昵称和性格特征 - 🔧 **灵活配置**:支持本地 Ollama 服务,可选择多种模型 - 💾 **自动保存**:会话数据自动保存,支持历史记录查看 ## 环境要求 - Python 3.9+ - Ollama 服务(可选,用于本地模型) ## 安装步骤 1. 克隆项目 ```bash git clone cd streamlit入门 ``` 2. 创建虚拟环境 ```bash python3 -m venv .venv source .venv/bin/activate # Linux/Mac # 或 .venv\Scripts\activate # Windows ``` 3. 安装依赖 ```bash pip install -r requirements.txt ``` 4. 配置环境变量 创建 `.env` 文件并配置以下变量: ``` API_KEY=your_api_key API_URL=http://localhost:11434/v1 MODEL_NAME=qwen2:latest ``` ## 运行应用 ```bash streamlit run ai-agent.py ``` ## 使用说明 ### 首次使用 1. 启动应用后,在侧边栏配置 AI 伴侣的昵称和性格 2. 设置 Ollama 服务地址(默认为 `http://localhost:11434/v1`) 3. 选择要使用的模型 4. 开始对话 ### 会话管理 - **新建会话**:点击侧边栏的"新建会话"按钮 - **切换会话**:点击历史会话列表中的会话名称 - **删除会话**:点击会话旁边的 ❌ 按钮,确认后删除 ### 自定义伴侣 在侧边栏可以设置: - **昵称**:AI 伴侣的称呼 - **性格**:详细描述伴侣的性格特征,如"活泼开朗的东北姑娘" ## 技术栈 - **前端框架**:Streamlit 1.50.0 - **AI 接口**:OpenAI API 2.15.0 - **环境管理**:python-dotenv 1.2.1 - **HTTP 请求**:requests 2.32.5 ## 项目结构 ``` streamlit入门/ ├── ai-agent.py # 主应用文件 ├── requirements.txt # 依赖列表 ├── .env # 环境变量配置 ├── .gitignore # Git 忽略文件 └── session/ # 会话数据存储目录 ``` ## Docker 部署 ### 前置要求 - Docker 已安装并运行 - 确保 `.env` 文件已配置 ### 构建镜像 **Linux/Mac:** ```bash ./build.sh ``` **Windows:** ```bash build.bat ``` ### 运行容器 **Linux/Mac:** ```bash ./run.sh ``` **Windows:** ```bash run.bat ``` 容器启动后,访问 `http://localhost:8501` 即可使用应用。 ### 停止容器 **Linux/Mac:** ```bash ./stop.sh ``` **Windows:** ```bash stop.bat ``` ### Docker 说明 - 镜像使用清华大学镜像源加速构建 - 容器端口映射:8501(Streamlit 默认端口) - 会话数据通过 volume 挂载到本地 `session/` 目录 - 环境变量通过 `.env` 文件注入 ## 注意事项 - 确保 Ollama 服务已启动并正确配置 - 会话数据存储在 `session/` 目录下,请勿手动修改 - 首次使用会自动创建新会话 - Docker 运行时需确保 `.env` 文件存在于项目根目录