# Bart Cross Encoder
**Repository Path**: runtucha/bart-cross-encoder
## Basic Information
- **Project Name**: Bart Cross Encoder
- **Description**: 使用两个Bart的encoder端做交叉注意力
- **Primary Language**: Python
- **License**: Not specified
- **Default Branch**: master
- **Homepage**: None
- **GVP Project**: No
## Statistics
- **Stars**: 0
- **Forks**: 1
- **Created**: 2024-02-26
- **Last Updated**: 2024-02-26
## Categories & Tags
**Categories**: Uncategorized
**Tags**: None
## README
# Bart Cross Encoder
#### 介绍
(1)使用https://huggingface.co/fnlp/bart-base-chinese 的中文Bart模型作为预训练模型,需放到根目录下的pretrained_models中
(2)使用cnews的10个类别的部分训练数据
(3)其中一个BART学习'体育', '财经', '房产', '家居', '教育'前5个分类,另一个BART学习'科技', '时尚', '时政', '游戏', '娱乐'后5个分类(train_bart.py中展示)。
(4)使用两个BART的encoder端做交叉注意力,使用一个BART强化另一个BART,使得另一个BART模型学会另外5个分类的知识(train_attn_bart.py中展示)。
(5)main.py主要用来进行测试。
(6)参考了https://github.com/lucidrains/CALM-pytorch 的代码构建了编码端的交叉注意力。
训练50个epoch,学习率设定为3e-5,batch_size设定为16,在验证集上的交叉注意力模型的accuracy,f1,precision,recall如下图所示
