# Bart Cross Encoder **Repository Path**: runtucha/bart-cross-encoder ## Basic Information - **Project Name**: Bart Cross Encoder - **Description**: 使用两个Bart的encoder端做交叉注意力 - **Primary Language**: Python - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 1 - **Created**: 2024-02-26 - **Last Updated**: 2024-02-26 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # Bart Cross Encoder #### 介绍 (1)使用https://huggingface.co/fnlp/bart-base-chinese 的中文Bart模型作为预训练模型,需放到根目录下的pretrained_models中
(2)使用cnews的10个类别的部分训练数据
(3)其中一个BART学习'体育', '财经', '房产', '家居', '教育'前5个分类,另一个BART学习'科技', '时尚', '时政', '游戏', '娱乐'后5个分类(train_bart.py中展示)。
(4)使用两个BART的encoder端做交叉注意力,使用一个BART强化另一个BART,使得另一个BART模型学会另外5个分类的知识(train_attn_bart.py中展示)。
(5)main.py主要用来进行测试。
(6)参考了https://github.com/lucidrains/CALM-pytorch 的代码构建了编码端的交叉注意力。
训练50个epoch,学习率设定为3e-5,batch_size设定为16,在验证集上的交叉注意力模型的accuracy,f1,precision,recall如下图所示
![交叉注意力模型的accuracy,f1,precision,recall](imageimage.png)