代码拉取完成,页面将自动刷新
npm run dev
模型启动在9527端口, 在前端的代码中固定了会通过http请求后端5000端口python manage.py
默认监听5000端口celery -A app.task.spider_tasks worker -l INFO
celery 可以执行的任务都写在了app.task.spider_tasks中└── server
├── README.md
├── app
│ ├── __init__.py
│ ├── base # 定义服务的基类
│ ├── controllers # 控制器层,封装一些操作数据库功能,尽可能提供通用的方法,尽量避免接触到业务逻辑
│ ├── models # model层,主要是映射到数据库层
│ ├── task # 存放celery执行的异步任务
│ ├── urls.py # 路由表,将请求映射到views层的具体方法上
│ ├── utils # 工具库
│ └── views # views层,第一层处理服务接受到的请求,以及处理部分业务相关的逻辑
├── config.py # 与项目相关的配置
├── manage.py # 项目启动文件,
├── requirements.txt # 项目以来文件
序号 | 功能项 | 功能简介 | 完成进度 |
---|---|---|---|
1 | 创建贴吧爬虫任务 | 根据帖子id,爬去页码,爬去这个帖子下发布的内容,回复内容,以及相关的用户信息 | done |
2 | 查看爬虫任务结果 | 通过可视化列表页面,查看这个任务下爬取的结果信息 | done |
3 | 查询功能 | 查询数据库中的帖子以及帖子的回复内容, 返回搜索到的详细信息, 通过mysql查询可能较慢,后期可以考虑上es,或者是在逻辑上进行优化 | todo |
4 | 登录检查 | 登录检查,非登录用户权限受限 | done |
5 | 操作日志 | 记录了服务所有的api操作 | done |
6 | 服务注册 | 实现了服务注册, 主动心跳的功能,模仿了注册中心的实现 | done |
7 | 链路跟踪 | 接入zipkin,但是服务器的性能并不高,可能要升级性能,目前计划先在本地实现 | doing |
8 | 打点监控 | 接入grafana,但是 服务器的性能并不高,可能要升级性能,目前计划先在本地实现 | doing |
9 | 基于redis的配置中心 | 自己通过界面实现配置的查看与读取 | doing |
10 | 用户注册 | 开放注册功能以及权限控制 | doing |
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。