代码拉取完成,页面将自动刷新
案例名:基于nltk的微博热点趋势大数据分析
在本次案例中,我们首先需要通过爬虫程序抓取微博的文本内容,然后使用结巴分词对每个博主的微博进行分词处理,然后汇总每个博主的分词获得总词袋,再计算总词袋中词汇的每日文档频率(视每个博主每天所有微博为一个文档)。这样我们可以获得每一天微博热点词汇的排行。
数据分析的展开,我们又分成三个步骤:
第一步,我们需要累加30日内所有热点词的每日文档频率,获得热点词的30日总文档频率。
第二步,我们需要选取出top20的热点词,然后把这些top20热点词的每天的文档频率做为一行,添加日期属性后,合并成一个DataFrame。
第三步,我们需要利用matplotlib画出这个Dataframe中top20热点词的文档频率的变化趋势曲线图。
通过这个曲线图,我们可以清晰地看到,近30日内公众在的微博中关注的热点从出现,到发酵,到热议,到降温,到遗忘的整个过程。
这个是为带学生进行9周实训自己编写的一个演示程序,主要为了展示如何在Vue前端和Flask后端之间建立数据访问机制。 1、Vue前端开发时可以用nodejs进行管理,发布时需要build,然后把静态页面部署到nginx或者其他www服务器中。 2、Flask后端则直接用run-back.py启动
前端用Vue构建界面,后端用Flask微服务结构,数据存储不限制,可以是mongoDB或者mysql或者Redis
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。