# CCFBDCI2020
**Repository Path**: coder_guoxd/CCFBDCI2020
## Basic Information
- **Project Name**: CCFBDCI2020
- **Description**: No description available
- **Primary Language**: Unknown
- **License**: Apache-2.0
- **Default Branch**: main
- **Homepage**: None
- **GVP Project**: No
## Statistics
- **Stars**: 0
- **Forks**: 0
- **Created**: 2025-11-30
- **Last Updated**: 2025-11-30
## Categories & Tags
**Categories**: Uncategorized
**Tags**: None
## README
## CCFBDCI2020-Multi-Classification-from-Labeled-and-Unlabeled-Context
CCF大数据与计算智能大赛(CCF BDCI)中的一个文本分类的比赛——[面向数据安全治理的数据内容智能发现与分级分类](https://www.datafountain.cn/competitions/471)。本仓库拟提供一种通用的应对中文无监督文本分类的解题思路分享。
文本分类任务相对而言是较为容易的NLP任务。但是,这个比赛的重点是测试集需要对20000个文本归为10个类别,可只提供了7个类别共计7000个训练样本,还有3个类别(分别是```游戏,娱乐和体育```)的文章需要在主办方提供的33000的无监督语料中自行利用算法提取。
利用[LOTClass](https://github.com/yumeng5/LOTClass)抽取无监督文本后线上成绩单模可以逼近```88.6%```。以下是3个无监督文本的提取结果(部分展示)。其中,抽取出来的```游戏```类文本共计2431、```娱乐```类文本共计3582、```体育```类文本共计1999。
```游戏```
```娱乐```
```体育```
### 1.预训练
首先,在哈工大开源的中文```RoBerta-base```的基础上,对下游任务语料继续进行领域内预训练,得到模型```RoBerta-base-self```。实验表明,线上宏F1可以提升0.7个点。
### 2.无监督训练
然后,基于根据下游任务,通过定制化Tokenizer方法进行了词级别的预训练工作,得到适合本赛题使用的```WoBERT-base```模型。然后,利用```WoBERT-base```找到和标签名称语义相关性较高的词汇,查找类别指示性单词并基于这些单词训练单词分类模型,再进行自训练提升模型,进而从33000的无监督语料中提取出了任务需要的3个领域文本。
### 3.微调
最后,基于```RoBerta-base-self```进行微调,做好分类分级的对应工作,即可输出```pred.csv```和```result.csv```文件。
# 将在近期详细整理开源。谢谢。