# social-simulation **Repository Path**: icactus/social-simulation ## Basic Information - **Project Name**: social-simulation - **Description**: No description available - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2026-03-13 - **Last Updated**: 2026-03-16 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # 舆情态势推演系统 基于多主体仿真(Multi-Agent Simulation)的舆情态势推演与预测系统。通过 LLM 驱动的智能体生成和系统动力学引擎,模拟社交媒体环境下不同主体的行为与互动,预测舆情事件的发展走势。 ## 技术栈 - **后端**:Python 3.11 + FastAPI + OpenAI SDK - **前端**:Next.js 14 + React 18 + Tailwind CSS - **LLM**:阿里百炼(DashScope)/ OpenAI 兼容接口 ## 项目结构 ``` ├── backend/ │ ├── main.py # FastAPI 入口 │ ├── models.py # Pydantic 数据模型 │ ├── store.py # 内存会话存储 │ ├── requirements.txt # Python 依赖 │ ├── routers/ │ │ ├── auth.py # 登录认证 │ │ ├── world.py # 虚拟世界构建 │ │ ├── agents.py # 实体生成(SSE 流式) │ │ └── simulate.py # 推演控制与分析报告 │ └── services/ │ ├── llm_service.py # LLM 调用封装 │ └── simulation_engine.py # 仿真引擎(系统动力学) ├── frontend/ │ ├── app/ │ │ ├── page.tsx # 首页(登录) │ │ ├── new/page.tsx # 新建推演 │ │ ├── world/page.tsx # 虚拟世界展示 │ │ ├── entities/page.tsx # 实体图谱 │ │ └── simulate/page.tsx # 推演主界面 │ └── lib/ │ ├── api.ts # API 客户端 │ └── store.ts # localStorage 状态管理 └── .env.example # 环境变量模板 ``` ## 配置与启动 ### 1. 克隆项目 ```bash git clone cd ``` ### 2. 配置环境变量 ```bash cp .env.example backend/.env ``` 编辑 `backend/.env`,填入你的 LLM API Key: ```env LLM_API_KEY=sk-your-api-key-here LLM_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1 LLM_MODEL_NAME=qwen-plus ``` 支持的 LLM 服务: | 服务商 | BASE_URL | 推荐模型 | |--------|----------|----------| | 阿里百炼 | `https://dashscope.aliyuncs.com/compatible-mode/v1` | `qwen-plus` / `qwen-max-latest` | | OpenAI | `https://api.openai.com/v1` | `gpt-4o-mini` | | 其他兼容 OpenAI 接口的服务 | 对应 base_url | - | ### 3. 启动后端 ```bash cd backend pip install -r requirements.txt python3.11 -m uvicorn main:app --reload --port 5001 ``` 后端运行在 http://localhost:5001 ### 4. 启动前端 ```bash cd frontend npm install npm run dev ``` 前端运行在 http://localhost:3000 ### 5. 访问系统 打开浏览器访问 http://localhost:3000 演示账号:`13800138000` / `123456` ## 使用流程 1. **登录** → 输入演示账号进入系统 2. **新建推演** → 填写事件背景、假设/政策、选择推演周期(6H ~ 7天) 3. **虚拟世界** → 系统通过 LLM 自动构建推演世界参数 4. **实体图谱** → LLM 流式生成发帖者和观察群体,实时渲染到图谱 5. **推演仿真** → 逐步推演,观察帖子流、关键节点、态势指标变化 6. **干预操作** → 在推演过程中插入干预动作(官方回应、发布事实等) 7. **分析报告** → 推演完成后生成预测分析报告,包含趋势预测、风险预警和应对建议 ## 注意事项 - 后端使用内存存储会话数据,重启后数据丢失(前端有 localStorage 缓存) - 每步推演需要调用 LLM 生成帖子内容,请确保 API Key 额度充足 - Python 版本要求 3.11+