# Multi_Model_Classification **Repository Path**: L_husky/Multi_Model_Classification ## Basic Information - **Project Name**: Multi_Model_Classification - **Description**: No description available - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 1 - **Created**: 2022-11-11 - **Last Updated**: 2022-11-11 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # Multi_Model_Classification 多模型中文新闻文本分类 本文构建了RNN、CNN、AVG、BERT模型做中文新闻cnews文本分类任务,各模型的结果汇总如下: 模型|acc|f1-score|acc_and_f1 :----:|:----:|:----:|:----: AVG|0.9391|0.9385|0.9388 CNN|0.979|0.9789|0.9790 RNN|0.9676|0.9672|0.9674 BERT|0.9656|0.9654|0.9655 模型loss曲线如下: ![avatar](loss.png) 综合比较分析: * 对词向量取平均的AVG模型准确率也能达到0.9391,说明神经网络的拟合能力确实超强,同时AVG模型简单直接性能也不错,可以作为一个baseline选择 * 训练数据集可能比较简单 * CNN模型在数据集上表现最佳,且训练时间最短,说明在简单任务或复杂模型架构中可以加入CNN网络,没必要万事BERT起步 * BERT模型未能达到最佳性能,可能得推测为数据集相对简单。且BERT简单fine-tuning一个epoch指标已经很高,说明BERT在某些简单任务上不做fine-tuning都可以。参考论文To Tune or Not to Tune(https://arxiv.org/abs/1903.05987)