这里是我个人的 code 分享,所有的 code 最终均能达到 Boss baseline,希望能给你带来帮助。代码会一直更新到课程结束。
当前代码版本对应的是 2023 年春,其中 HW01 之前是 22 年版本,但我略作修改(修改文件路径)后便可直接用于现有版本,近年 Homework 的主题都一样,你完全可以从往年的优秀代码中学习知识。
现在所有的文件夹中都增加了 sample code 方便参考。
更新了各 Homework 的 kaggle 邀请链接 (来自课程主页),现在可以直接点击跳转参加,不会再遇到 limited-participation competition 的问题。
- HW01 中增加了 Adam, Momentum, Normalization, L2 regularization, Feature selection, K-fold cross validation 等相关代码,并使用了 Optuna 库进行了参数的自动搜寻。
- HW02 中修改了原代码的小bug,增加了 tensorboard 和 scheduler 的使用,默认执行的是 strong baseline,你可以检查代码中的 TODO 选项去达成 Boss baseline(使用了BiLSTM)。
- HW03 中代码根据 baseline 分为了三个部分(Medium, Strong,..),方便大家查看,之后的代码都会遵循这一点。代码仅针对 sample code 的基础架构进行了训练,所以没有达到 boss baseline。目前代码的分数为0.85200,先上传给大家一点参考思路,闲暇后会重新进行boss baseline的跟进。
- HW04 的 Medium 通过 grid search 搜寻了几十个参数组合后修改了 transformer 模块中的参数,Strong 在 Medium 的基础上修改使用了 Conformer 论文中的 ConformerBlock 架构,Boss 添加了 hints 中描述的 Self-Attention Poooling 和 Additive Margin Softmax 模块,但实际上仅需要将 Strong 中 Classifier 部分的 pred_layer 同 Conformer 本身一样修改为单层的全连接层便可以非常轻易的达到 Boss baseline。
- HW05 目前增加了中文版本供大家使用,并修正了原 sample code 中的一些描述,因为 HW05/06 都是在 Judgeboi 上提交的,而非校内无法提交,所以这里后缀的分数是验证集上的分数。
- Simple: 仅运行 sample code。
- Medium: 增加了学习率的调度和延长了训练的时间。
- Strong: 将模型架构转变为了 Transformer,并根据 Attention is all you need修改了模型的超参数。
- Boss: 应用了 back-translation。