案例名: 基于nltk的微博热点趋势大数据分析 在本次案例中,我们首先需要载入通过爬虫程序抓取的微博文本内容,然后使用结巴分词对每个博主的微博进行分词处理,然后汇总每个博主的分词获得总词袋,再计算总词袋中词汇的每日文档频率(视每个博主每天所有微博为一个文档)。这样我们可以获得每一天微博热点词汇的排行。 数据分析的展开,我们又分成三个步骤: 第一步,我们需要累加30日内所有热点词的每日文档频率,获得热点词的30日总文档频率。 第二步,我们需要选取出top20的热点词,然后把这些top20热点词的每天的文档频率做为一行,添加日期属性后,合并成一个DataFrame。 第三步,我们需要利用matplotlib画出这个Dataframe中top20热点词的文档频率的变化趋势曲线图。 通过这个曲线图,我们可以清晰地看到,近30日内公众在的微博中关注的热点从出现,到发酵,到热议,到降温,到遗忘的整个过程。