1 Star 2 Fork 0

顽刀 / w9-demo

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
克隆/下载
贡献代码
同步代码
取消
提示: 由于 Git 不支持空文件夾,创建文件夹后会生成空的 .keep 文件
Loading...
README
MIT

weiboWordCount

介绍

案例名:基于nltk的微博热点趋势大数据分析

在本次案例中,我们首先需要通过爬虫程序抓取微博的文本内容,然后使用结巴分词对每个博主的微博进行分词处理,然后汇总每个博主的分词获得总词袋,再计算总词袋中词汇的每日文档频率(视每个博主每天所有微博为一个文档)。这样我们可以获得每一天微博热点词汇的排行。

数据分析的展开,我们又分成三个步骤:

第一步,我们需要累加30日内所有热点词的每日文档频率,获得热点词的30日总文档频率。

第二步,我们需要选取出top20的热点词,然后把这些top20热点词的每天的文档频率做为一行,添加日期属性后,合并成一个DataFrame。

第三步,我们需要利用matplotlib画出这个Dataframe中top20热点词的文档频率的变化趋势曲线图。

通过这个曲线图,我们可以清晰地看到,近30日内公众在的微博中关注的热点从出现,到发酵,到热议,到降温,到遗忘的整个过程。

项目背景

这个是为带学生进行9周实训自己编写的一个演示程序,主要为了展示如何在Vue前端和Flask后端之间建立数据访问机制。 1、Vue前端开发时可以用nodejs进行管理,发布时需要build,然后把静态页面部署到nginx或者其他www服务器中。 2、Flask后端则直接用run-back.py启动

软件架构

前端用Vue构建界面,后端用Flask微服务结构,数据存储不限制,可以是mongoDB或者mysql或者Redis

使用说明

  1. 前端启动: 可以用run-front.py脚本启动,也可以用npm run dev启动
  2. 后端启动:可以用run-back.py脚本启动
MIT License Copyright (c) 2020 顽刀 Permission is hereby granted, free of charge, to any person obtaining a copy of this software and associated documentation files (the "Software"), to deal in the Software without restriction, including without limitation the rights to use, copy, modify, merge, publish, distribute, sublicense, and/or sell copies of the Software, and to permit persons to whom the Software is furnished to do so, subject to the following conditions: The above copyright notice and this permission notice shall be included in all copies or substantial portions of the Software. THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.

简介

案例名: 基于nltk的微博热点趋势大数据分析 在本次案例中,我们首先需要载入通过爬虫程序抓取的微博文本内容,然后使用结巴分词对每个博主的微博进行分词处理,然后汇总每个博主的分词获得总词袋,再计算总词袋中词汇的每日文档频率(视每个博主每天所有微博为一个文档)。这样我们可以获得每一天微博热点词汇的排行。 数据分析的展开,我们又分成三个步骤: 第一步,我们需要累加30日内所有热点词的每日文档频率,获得热点词的30日总文档频率。 第二步,我们需要选取出top20的热点词,然后把这些top20热点词的每天的文档频率做为一行,添加日期属性后,合并成一个DataFrame。 第三步,我们需要利用matplotlib画出这个Dataframe中top20... 展开 收起
Python
MIT
取消

发行版

暂无发行版

贡献者

全部

近期动态

加载更多
不能加载更多了
Python
1
https://gitee.com/wakeblade/w9-demo.git
git@gitee.com:wakeblade/w9-demo.git
wakeblade
w9-demo
w9-demo
master

搜索帮助