# nlp_study **Repository Path**: tecufly/nlp_study ## Basic Information - **Project Name**: nlp_study - **Description**: No description available - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 1 - **Created**: 2021-03-26 - **Last Updated**: 2021-03-26 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # 【关于 NLP】 那些你不知道的事 > 作者:杨夕 > > 项目地址:https://github.com/km1994/nlp_paper_study > > 个人介绍:大佬们好,我叫杨夕,该项目主要是本人在研读顶会论文和复现经典论文过程中,所见、所思、所想、所闻,可能存在一些理解错误,希望大佬们多多指正。 ## 目录 - [【关于 NLP】 那些你不知道的事](#关于-nlp-那些你不知道的事) - [目录](#目录) - [介绍](#介绍) - [论文工具篇](#论文工具篇) - [会议收集篇](#会议收集篇) - [NLP 学习篇](#nlp-学习篇) - [经典会议论文研读篇](#经典会议论文研读篇) - [理论学习篇](#理论学习篇) - [经典论文研读篇](#经典论文研读篇) - [transformer 学习篇](#transformer-学习篇) - [预训练模型篇](#预训练模型篇) - [细粒度情感分析论文研读](#细粒度情感分析论文研读) - [主动学习论文研读](#主动学习论文研读) - [对抗训练论文研读](#对抗训练论文研读) - [实体关系联合抽取论文研读:](#实体关系联合抽取论文研读) - [GCN 在 NLP 上的应用 论文研读:](#gcn-在-nlp-上的应用-论文研读) - [命名实体识别论文研读:](#命名实体识别论文研读) - [关系抽取论文研读:](#关系抽取论文研读) - [文本预处理](#文本预处理) - [问答系统论文学习](#问答系统论文学习) - [文本摘要论文学习](#文本摘要论文学习) - [文本匹配论文学习](#文本匹配论文学习) - [机器翻译论文学习](#机器翻译论文学习) - [文本生成论文学习](#文本生成论文学习) - [实体消歧](#实体消歧) - [对话系统论文学习](#对话系统论文学习) - [rasa 学习](#rasa-学习) - [实战篇](#实战篇) - [重点推荐篇](#重点推荐篇) - [推荐篇](#推荐篇) - [视频学习篇](#视频学习篇) - [Elastrsearch 学习篇](#elastrsearch-学习篇) - [推荐系统 学习篇](#推荐系统-学习篇) - [竞赛篇](#竞赛篇) - [GCN_study学习篇](#gcn_study学习篇) - [ML 小白入门篇](#ml-小白入门篇) - [Java 实战篇](#java-实战篇) - [百度百科 ES 全文检索平台构建 实战篇](#百度百科-es-全文检索平台构建-实战篇) - [面试篇](#面试篇) - [Leetcode 篇](#leetcode-篇) - [DeepLearning-500-questions](#deeplearning-500-questions) - [大数据 实战篇](#大数据-实战篇) - [Spark 实战篇](#spark-实战篇) - [资源篇](#资源篇) - [CV 入门 实战篇](#cv-入门-实战篇) ## 介绍 ### [论文工具篇](论文学习idea/) - 问题 - 作为一名 scholar,你是否和我一样,在刚入门 NLP 时,对于陌生领域有种无从下手,心存畏惧? - 作为一名 scholar,你是否还在发愁如何找好的论文? - 作为一名 scholar,你是否还在为 自己 的 英文阅读 能力跟不上 很烦恼? - 作为一名 scholar,你是否还在为 看到 一篇好paper,但是复现不出 code 而心累? - 作为一名 scholar,你是否还在为 有Good idea,Outstanding Experimental results,Beautiful Chinese manuscript,结果 Bad English manuscript, Poor Journal 而奔溃? - 作为一名 scholar,你是否在为搞科研没人交流而自闭? - 当你看到这一篇文档,你将不在为这些问题而烦恼,因为我们为你准备了一整套免费的从 论文查找->论文翻译->论文理解->相关代码搜索->写英文稿->科研学术交流 的路径。 - [论文不会找怎么办?](https://github.com/km1994/nlp_paper_study/tree/master/论文学习idea#论文不会找怎么办) - [顶会资讯](https://github.com/km1994/nlp_paper_study/tree/master/论文学习idea#顶会资讯) - [论文搜索和分析工具](https://github.com/km1994/nlp_paper_study/tree/master/论文学习idea#论文搜索和分析工具) - [外文读不懂怎么办?](https://github.com/km1994/nlp_paper_study/tree/master/论文学习idea#外文读不懂怎么办) - [论文翻译神器 ———— 通天塔](https://github.com/km1994/nlp_paper_study/tree/master/论文学习idea#论文翻译神器--通天塔) - [论文翻译小助手 ———— 彩云小译](https://github.com/km1994/nlp_paper_study/tree/master/论文学习idea#论文翻译小助手--彩云小译) - [外文没 code 怎么办?](https://github.com/km1994/nlp_paper_study/tree/master/论文学习idea#外文没-code-怎么办) - [papers with code](https://github.com/km1994/nlp_paper_study/tree/master/论文学习idea#papers-with-code) - [OpenGitHub 新项目快报](https://github.com/km1994/nlp_paper_study/tree/master/论文学习idea#opengithub-新项目快报) - [外文写起来麻烦怎么办](https://github.com/km1994/nlp_paper_study/tree/master/论文学习idea#外文写起来麻烦怎么办) - [Overleaf](https://github.com/km1994/nlp_paper_study/tree/master/论文学习idea#overleaf) - [Authorea](https://github.com/km1994/nlp_paper_study/tree/master/论文学习idea#authorea) - [Code ocean](https://github.com/km1994/nlp_paper_study/tree/master/论文学习idea#code-ocean) - [搞科研没人交流怎么办?](https://github.com/km1994/nlp_paper_study/tree/master/论文学习idea#搞科研没人交流怎么办) - [Shortscience](https://github.com/km1994/nlp_paper_study/tree/master/论文学习idea#shortscience) - [OpenReview](https://github.com/km1994/nlp_paper_study/tree/master/论文学习idea#openreview) - [Scirate](https://github.com/km1994/nlp_paper_study/tree/master/论文学习idea#scirate) ### 会议收集篇 - [ACL2020](ACL/ACL2020.md) - [SIGIR2020](SIGIR_stduy/readme.md/#sigir-2020) ### NLP 学习篇 ##### 经典会议论文研读篇 - [ACL2020](ACL/ACL2020.md) - [【关于 CHECKLIST】 那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/ACL2020_bertpaper_CHECKLIST/) - 阅读理由:ACL2020 best paper ,利用 软件工程 的 思想 思考 深度学习 - 动机:针对 train-val-test 分割方法 评估 模型性能容易出现 不全面、偏向性、可解性差问题; - 方法:提出了一种模型无关和任务无关的测试方法checklist,它使用三种不同的测试类型来测试模型的独立性。 - 效果:checklist揭示了大型软件公司开发的商业系统中的关键缺陷,表明它是对当前实践的补充好吧。测试使用 checklist 创建的模型可以应用于任何模型,这样就可以很容易地将其纳入当前的基准测试或评估中管道。 #### 理论学习篇 ##### 经典论文研读篇 - 那些你所不知道的事 - [【关于Transformer】 那些的你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/transformer_study/Transformer/) - [【关于Bert】 那些的你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/bert_study/T1_bert/) ##### transformer 学习篇 - [transformer_study](https://github.com/km1994/nlp_paper_study/tree/master/transformer_study/) transformer 论文学习 - [【关于Transformer】 那些的你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/transformer_study/Transformer/) - [Transformer-XL](https://github.com/km1994/nlp_paper_study/tree/master/transformer_study/T3_Transformer_XL/) - [Single Headed Attention RNN: Stop Thinking With Your Head 单头注意力 RNN: 停止用你的头脑思考](https://github.com/km1994/nlp_paper_study/tree/master/transformer_study/SHA_RNN_study/) - [ Universal Transformers](https://github.com/km1994/nlp_paper_study/tree/master/transformer_study/T4_Universal_Transformers/) - [Style_Transformer](https://github.com/km1994/nlp_paper_study/tree/master/Style_Transformer/LCNQA/) - [ACL2020_Linformer](https://github.com/km1994/nlp_paper_study/tree/master/transformer_study/ACL2020_Linformer) - [【关于 Performer 】 那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/transformer_study/Performer) **【推荐阅读】** - 阅读理由:Transformer 作者 Krzysztof Choromanski 针对 Transformer 问题的重新思考与改进 - 动机:Transformer 有着巨大的内存和算力需求,因为它构造了一个注意力矩阵,需求与输入呈平方关系; - 思路:使用一个高效的(线性)广义注意力框架(generalized attention framework),允许基于不同相似性度量(核)的一类广泛的注意力机制。 - 优点:该方法在保持线性空间和时间复杂度的同时准确率也很有保证,也可以应用到独立的 softmax 运算。此外,该方法还可以和可逆层等其他技术进行互操作。 ##### 预训练模型篇 - [Bert_study](https://github.com/km1994/nlp_paper_study/tree/master/bert_study/):Bert论文研读 - [【关于Bert】 那些的你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/bert_study/T1_bert/) - 阅读理由:NLP 的 创世之作 - 动机:word2vec 的多义词问题 && GPT 单向 Transformer && Elmo 双向LSTM - 介绍:Transformer的双向编码器 - 思路: - 预训练:Task 1:Masked LM && Task 2:Next Sentence Prediction - 微调:直接利用 特定任务数据 微调 - 优点:NLP 所有任务上都刷了一遍 SOTA - 缺点: - [MASK]预训练和微调之间的不匹配 - Max Len 为 512 - [【关于 XLNet 】 那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/bert_study/T2_XLNet/) - 阅读理由:Bert 问题上的改进 - 动机: - Bert 预训练和微调之间的不匹配 - Bert 的 Max Len 为 512 - 介绍:广义自回归预训练方法 - 思路: - 预训练: - Permutation Language Modeling【解决Bert 预训练和微调之间的不匹配】 - Two-Stream Self-Attention for Target-Aware Representations【解决PLM出现的目标预测歧义】 - XLNet将最先进的自回归模型Transformer-XL的思想整合到预训练中【解决 Bert 的 Max Len 为 512】 - 微调:直接利用 特定任务数据 微调 - 优点: - 缺点: - [【关于 RoBERTa】 那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/bert_study/T4_RoBERTa/) - 阅读理由:Bert 问题上的改进 - 动机: - 确定方法的哪些方面贡献最大可能是具有挑战性的 - 训练在计算上是昂贵的的,限制了可能完成的调整量 - 介绍:A Robustly Optimized BERT Pretraining Approach - 思路: - 预训练: - 去掉下一句预测(NSP)任务 - 动态掩码 - 文本编码 - 微调:直接利用 特定任务数据 微调 - 优点: - 缺点: - [【关于 ELECTRA 】 那些的你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/bert_study/ELECTRA/) - 阅读理由:Bert 问题上的改进 【不推荐阅读,存在注水!】 - 动机: - 只有15%的输入上是会有loss - 介绍:判别器 & 生成器 【但是最后发现非 判别器 & 生成器】 - 思路: - 预训练: - 利用一个基于MLM的Generator来替换example中的某些个token,然后丢给Discriminator来判别 - 微调:直接利用 特定任务数据 微调 - 优点: - 缺点: - [【关于 Perturbed Masking: Parameter-free Probing for Analyzing and Interpreting BERT】 那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/bert_study/ACL2020_UnsupervisedBert/) - [【关于 GRAPH-BERT】 那些你不知道的事](https://github.com/km1994/nlp_paper_study/bert_study/T2020_GRAPH_BERT)) - [【关于自训练 + 预训练 = 更好的自然语言理解模型 】 那些的你不知道的事](https://github.com/km1994/nlp_paper_study/bert_study/SelfTrainingImprovesPreTraining)) - [【关于 Bert 模型压缩】 那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/bert_study/Bert_zip) - [【关于 Bert 模型压缩】 那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/bert_study/Bert_zip) - 阅读理由:Bert 在工程上问题上的改进 - 动机: - 内存占用; - 功耗过高; - 带来很高的延迟; - 限制了 Bert 系列模型在移动和物联网等嵌入式设备上的部署; - 介绍:BERT 瘦身来提升速度 - 模型压缩思路: - 低秩因式分解:在输入层和输出层使用嵌入大小远小于原生Bert的嵌入大小,再使用简单的映射矩阵使得输入层的输出或者最后一层隐藏层的输出可以通过映射矩阵输入到第一层的隐藏层或者输出层; - 跨层参数共享:隐藏层中的每一层都使用相同的参数,用多种方式共享参数,例如只共享每层的前馈网络参数或者只共享每层的注意力子层参数。默认情况是共享每层的所有参数; - 剪枝:剪掉多余的连接、多余的注意力头、甚至LayerDrop[1]直接砍掉一半Transformer层 - 量化:把FP32改成FP16或者INT8; - 蒸馏:用一个学生模型来学习大模型的知识,不仅要学logits,还要学attention score; - 优点:BERT 瘦身来提升速度 - 缺点: - 精度的下降 - 低秩因式分解 and 跨层参数共享 计算量并没有下降; - 剪枝会直接降低模型的拟合能力; - 量化虽然有提升但也有瓶颈; - 蒸馏的不确定性最大,很难预知你的BERT教出来怎样的学生; - [【关于 AlBert 】 那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/bert_study/T5_ALBERT/) - 模型压缩方法:低秩因式分解 + 跨层参数共享 - 模型压缩方法介绍: - 低秩因式分解: - 动机:Bert的参数量大部分集中于模型的隐藏层架构上,在嵌入层中只有30,000词块,其所占据的参数量只占据整个模型参数量的小部分; - 方法:将输入层和输出层的权重矩阵分解为两个更小的参数矩阵; - 思路:在输入层和输出层使用嵌入大小远小于原生Bert的嵌入大小,再使用简单的映射矩阵使得输入层的输出或者最后一层隐藏层的输出可以通过映射矩阵输入到第一层的隐藏层或者输出层; - 优点:在不显著增加词嵌入大小的情况下能够更容易增加隐藏层大小; - 参数共享【跨层参数共享】: - 动机:隐藏层 参数 大小 一致; - 方法:隐藏层中的每一层都使用相同的参数,用多种方式共享参数,例如只共享每层的前馈网络参数或者只共享每层的注意力子层参数。默认情况是共享每层的所有参数; - 优点:防止参数随着网络深度的增加而增大; - 其他改进策略: - **句子顺序预测损失(SOP)**代替**Bert中的下一句预测损失(NSP)**: - 动机:通过实验证明,Bert中的下一句预测损失(NSP) 作用不大; - 介绍:用预测两个句子是否连续出现在原文中替换为两个连续的句子是正序或是逆序,用于进一步提高下游任务的表现 - 优点:参数量上有所降低; - 缺点:其加速指标仅展示了训练过程,由于ALBERT的隐藏层架构**采用跨层参数共享策略并未减少训练过程的计算量**,加速效果更多来源于低维的嵌入层; - [【关于 FastBERT】 那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/bert_study/FastBERT/) - 模型压缩方法:知识蒸馏 - 模型压缩方法介绍: - 样本自适应机制(Sample-wise adaptive mechanism) - 思路: - 在每层Transformer后都去预测样本标签,如果某样本预测结果的置信度很高,就不用继续计算了,就是自适应调整每个样本的计算量,容易的样本通过一两层就可以预测出来,较难的样本则需要走完全程。 - 操作: - 给每层后面接一个分类器,毕竟分类器比Transformer需要的成本小多了 - 自蒸馏(Self-distillation) - 思路: - 在预训练和精调阶段都只更新主干参数; - 精调完后freeze主干参数,用分支分类器(图中的student)蒸馏主干分类器(图中的teacher)的概率分布 - 优点: - 非蒸馏的结果没有蒸馏要好 - 不再依赖于标注数据。蒸馏的效果可以通过源源不断的无标签数据来提升 - [【关于 distilbert】 那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/bert_study/distilbert/) - [【关于 TinyBert】 那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/bert_study/TinyBERT/) - 模型压缩方法:知识蒸馏 - tinybert的创新点:学习了teacher Bert中更多的层数的特征表示; - 模型压缩方法介绍: - 基于transformer的知识蒸馏模型压缩 - 学习了teacher Bert中更多的层数的特征表示; - 特征表示: - 词向量层的输出; - Transformer layer的输出以及注意力矩阵; - 预测层输出(仅在微调阶段使用); - bert知识蒸馏的过程 - 左图:整体概括了知识蒸馏的过程 - 左边:Teacher BERT; - 右边:Student TinyBERT - 目标:将Teacher BERT学习到的知识迁移到TinyBERT中 - 右图:描述了知识迁移的细节; - 在训练过程中选用Teacher BERT中每一层transformer layer的attention矩阵和输出作为监督信息 ##### [细粒度情感分析论文研读](https://github.com/km1994/nlp_paper_study/tree/master/ABSC_study/) - [LCF](https://github.com/km1994/nlp_paper_study/tree/master/ABSC_study/LCF/): A Local Context Focus Mechanism for Aspect-Based Sentiment Classification ##### [主动学习论文研读](https://github.com/km1994/nlp_paper_study/tree/master/active_learn_study/) - [Proactive Learning for Named Entity Recognition(命名实体识别的主动学习)](https://github.com/km1994/nlp_paper_study/tree/master/active_learn_study/ProactiveLearningforNamedEntityRecognition/) ##### [对抗训练论文研读](https://github.com/km1994/nlp_paper_study/tree/master/adversarial_training_study/) - [FreeLB: Enhanced Adversarial Training for Language Understanding 加强语言理解的对抗性训练](https://github.com/km1994/nlp_paper_study/tree/master/adversarial_training_study/FREELB/) ##### [实体关系联合抽取论文研读](https://github.com/km1994/nlp_paper_study/tree/master/ERE_study/): - [【关于 实体关系联合抽取】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/ERE_study/实体关系联合抽取总结.md) - [Incremental Joint Extraction of Entity Mentions and Relations](https://github.com/km1994/nlp_paper_study/tree/master/ERE_study/T2014_joint_extraction/) - [Joint Extraction of Entities and Relations Based on a Novel Decomposition Strategy](https://github.com/km1994/nlp_paper_study/tree/master/ERE_study/JointER/) - [GraphRel: Modeling Text as Relational Graphs for Joint Entity and Relation Extraction](https://github.com/km1994/nlp_paper_study/tree/master/ERE_study/ACL2019_GraphRel/) - [A Novel Hierarchical Binary Tagging Framework for Relational Triple Extraction](https://github.com/km1994/nlp_paper_study/tree/master/ERE_study/T20ACL_HBT_su/) - [【关于 A Frustratingly Easy Approach for Joint Entity and Relation Extraction】 那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/ERE_study/AFrustratinglyEasyApproachForJEandRE/) - 论文:A Frustratingly Easy Approach for Joint Entity and Relation Extraction - 阅读理由:反直觉!陈丹琦用pipeline方式刷新关系抽取SOTA 【待读,因为没有找到代码】 ##### [GCN 在 NLP 上的应用 论文研读](https://github.com/km1994/nlp_paper_study/tree/master/GCN2NLP/): - [GCN 在 NLP 上的应用 论文研读](https://github.com/km1994/nlp_paper_study/tree/master/GCN2NLP/readme.md) ##### [命名实体识别论文研读](https://github.com/km1994/nlp_paper_study/tree/master/NER_study/): - [LatticeLSTM](https://github.com/km1994/nlp_paper_study/tree/master/NER_study/ACL2018_LatticeLSTM/) - [named entity recognition using positive-unlabeled learning](https://github.com/km1994/nlp_paper_study/tree/master/NER_study/JointER/) - [GraphRel: Modeling Text as Relational Graphs for Joint Entity and Relation Extraction](https://github.com/km1994/nlp_paper_study/tree/master/NER_study/ACL2019_NERusingPositive-unlabeledLearning/) - [TENER: Adapting Transformer Encoder for Name Entity Recognition](https://github.com/km1994/nlp_paper_study/tree/master/NER_study/ACL2019_TENER/) - [CrossWeigh从不完善的注释中训练命名实体标注器](https://github.com/km1994/nlp_paper_study/tree/master/NER_study/EMNLP2019/CrossWeigh从不完善的注释中训练命名实体标注器/) - [利用词汇知识通过协同图网络进行中文命名实体识别](https://github.com/km1994/nlp_paper_study/tree/master/NER_study/EMNLP2019/利用词汇知识通过协同图网络进行中文命名实体识别/) - [一点注释对引导低资源命名实体识别器有很多好处](https://github.com/km1994/nlp_paper_study/tree/master/NER_study/EMNLP2019/一点注释对引导低资源命名实体识别器有很多好处/) - [CGN: Leverage Lexical Knowledge for Chinese Named Entity Recognition via Collaborative Graph Network(EMNLP2019)](https://github.com/km1994/nlp_paper_study/tree/master/NER_study/EMNLP2019_CGN/) - [Fine-Grained Entity Typing in Hyperbolic Space(在双曲空间中打字的细粒度实体)](https://github.com/km1994/nlp_paper_study/tree/master/NER_study/Fine-GrainedEntityTypinginHyperbolicSpace/) - [LR-CNN:CNN-Based Chinese NER with Lexicon Rethinking(IJCAI2019)](https://github.com/km1994/nlp_paper_study/tree/master/NER_study/IJCAI2019_LR_CNN/) ##### [关系抽取论文研读](https://github.com/km1994/nlp_paper_study/tree/master/NRE_paper_study/): - [End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures【2016】](https://github.com/km1994/nlp_paper_study/tree/master/NER_study/T2016_LSTM_Tree/) - [ERNIE](https://github.com/km1994/nlp_paper_study/tree/master/NRE_paper_study/ERNIE/) - [GraphRel](https://github.com/km1994/nlp_paper_study/tree/master/NRE_paper_study/GraphRel/) - [R_BERT](https://github.com/km1994/nlp_paper_study/tree/master/NRE_paper_study/R_BERT) - [Task 1:全监督学习](https://github.com/km1994/nlp_paper_study/tree/master/NRE_paper_study/T1_FullySupervisedLearning/) - [Relation Classification via Convolutional Deep Neural Network](https://github.com/km1994/nlp_paper_study/tree/master/NRE_paper_study/T1_FullySupervisedLearning/T1_Relation_Classification_via_CDNN/) - [Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification](https://github.com/km1994/nlp_paper_study/tree/master/NRE_paper_study/T1_FullySupervisedLearning/T2_Attention-Based_BiLSTM_for_RC/) - [Relation Classification via Attention Model](https://github.com/km1994/nlp_paper_study/tree/master/NRE_paper_study/T1_FullySupervisedLearning/T3_RC_via_attention_model_new/) - [Task 2:远程监督学习](https://github.com/km1994/nlp_paper_study/tree/master/NRE_paper_study/T2_DistantSupervisedLearning/) - [Relation Classification via Convolutional Deep Neural Network](https://github.com/km1994/nlp_paper_study/tree/master/NRE_paper_study/T2_DistantSupervisedLearning/T1_Piecewise_Convolutional_Neural_Networks/) - [NRE_with_Selective_Attention_over_Instances](https://github.com/km1994/nlp_paper_study/tree/master/NRE_paper_study/T2_DistantSupervisedLearning/T2_NRE_with_Selective_Attention_over_Instances/) ##### [文本预处理](https://github.com/km1994/nlp_paper_study/tree/master/pre_study/) - [过采样](https://github.com/km1994/nlp_paper_study/tree/master/pre_study/samplingStudy) ##### [问答系统论文学习](https://github.com/km1994/nlp_paper_study/tree/master/QA_study/) - [Lattice CNNs for Matching Based Chinese Question Answering](https://github.com/km1994/nlp_paper_study/tree/master/QA_study/LCNQA/) - [LSTM-based Deep Learning Models for Non-factoid Answer Selection](https://github.com/km1994/nlp_paper_study/tree/master/QA_study/T1_LSTM-based_for_Non-factoid_Answer_Selection/) - [Denoising Distantly Supervised Open-Domain Question Answering](https://github.com/km1994/nlp_paper_study/tree/master/QA_study/T4_DenoisingDistantlySupervisedODQA/) - [FAQ retrieval using query-question similarity and BERT-based query-answer relevance](https://github.com/km1994/nlp_paper_study/tree/master/QA_study/ACM2019_faq_bert-based_query-answer_relevance/) - [DC-BERT : DECOUPLING QUESTION AND DOCUMENT FOR EFFICIENT CONTEXTUAL ENCODING](https://github.com/km1994/nlp_paper_study/tree/master/QA_study/SIGIR2020_DCBert/) ##### [文本摘要论文学习](https://github.com/km1994/nlp_paper_study/tree/master/summarization_study/) - [Fine-tune BERT for Extractive Summarization](https://github.com/km1994/nlp_paper_study/tree/master/summarization_study/EMNLP2019_bertsum/) - [Pointer-Generator Networks 指针网络读书笔记](https://github.com/km1994/nlp_paper_study/tree/master/summarization_study/ACL2017_Pointer_Generator_Networks/) ##### [文本匹配论文学习](https://github.com/km1994/nlp_paper_study/tree/master/text_match_study/) - [【关于 语义相似度匹配任务中的 BERT】 那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/text_match_study/bert_similairity/) - 阅读理由:BERT 在 语义相似度匹配任务 中的应用,可以由很多种方式,然而,你真的了解这些方式的区别和优缺点么? - 动机:BERT 在 语义相似度匹配任务 中的应用,可以常用 Sentence Pair Classification Task:使用 [CLS]、cosine similairity、sentence/word embedding、siamese network 方法,那么哪种是最佳的方式呢?你是否考虑过呢? - [【关于 MPCNN】 那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/text_match_study/Multi-PerspectiveSentenceSimilarityModelingwithCNN/) - 论文:Multi-Perspective Sentence Similarity Modeling with Convolution Neural Networks - [【关于 RE2】 那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/text_match_study/Multi-RE2_study/) - 论文:Simple and Effective Text Matching with Richer Alignment Features - 动机: 可以使用多个序列间比对层构建更强大的模型。 代替基于单个对准过程的比较结果进行预测,具有多个对准层的堆叠模型将保持其中间状态并逐渐完善其预测。**但是,由于底层特征的传播效率低下和梯度消失,这些更深的体系结构更难训练。** - 介绍:一种快速强大的神经体系结构,具有用于通用文本匹配的多个对齐过程。 我们对以前文献中介绍的文本匹配方法中许多慢速组件的必要性提出了质疑,包括复杂的多向对齐机制,对齐结果的大量提炼,外部句法特征或当模型深入时用于连接堆叠块的密集连接。 这些设计选择会极大地减慢模型的速度,并且可以用重量更轻且效果相同的模型代替。 同时,我们重点介绍了有效文本匹配模型的三个关键组成部分。 这些组件(名称为RE2代表)是以前的对齐特征(残差矢量),原始点向特征(嵌入矢量)和上下文特征(编码矢量)。 其余组件可能尽可能简单,以保持模型快速,同时仍能产生出色的性能。 - [【关于 DSSM】 那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/text_match_study/cikm2013_DSSM/) - 论文:Deep Structured Semantic Model - 论文会议:CIKM2013 - 问题:语义相似度问题 - 字面匹配体现 - 召回:在召回时,传统的文本相似性如 BM25,无法有效发现语义类 Query-Doc 结果对,如"从北京到上海的机票"与"携程网"的相似性、"快递软件"与"菜鸟裹裹"的相似性 - 排序:在排序时,一些细微的语言变化往往带来巨大的语义变化,如"小宝宝生病怎么办"和"狗宝宝生病怎么办"、"深度学习"和"学习深度"; - 使用 LSA 类模型进行语义匹配,但是效果不好 - 思路: - 利用 表示层 将 Query 和 Title 表达为低维语义向量; - 通过 cosine 距离来计算两个语义向量的距离,最终训练出语义相似度模型。 - 优点 - 减少切词的依赖:解决了LSA、LDA、Autoencoder等方法存在的一个最大的问题,因为在英文单词中,词的数量可能是没有限制,但是字母 n-gram 的数量通常是有限的 - 基于词的特征表示比较难处理新词,字母的 n-gram可以有效表示,鲁棒性较强; - 传统的输入层是用 Embedding 的方式(如 Word2Vec 的词向量)或者主题模型的方式(如 LDA 的主题向量)来直接做词的映射,再把各个词的向量累加或者拼接起来,由于 Word2Vec 和 LDA 都是无监督的训练,这样会给整个模型引入误差,DSSM 采用统一的有监督训练,不需要在中间过程做无监督模型的映射,因此精准度会比较高; - 省去了人工的特征工程; - 缺点 - word hashing可能造成冲突 - DSSM采用了词袋模型,损失了上下文信息 - 在排序中,搜索引擎的排序由多种因素决定,由于用户点击时doc的排名越靠前,点击的概率就越大,如果仅仅用点击来判断是否为正负样本,噪声比较大,难以收敛 - [【关于 ABCNN 】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/text_match_study/TACL2016_ABCNN/) - 论文:ABCNN: Attention-Based Convolutional Neural Network for Modeling Sentence Pairs - 会议:TACL 2016 - 论文方法:采用了CNN的结构来提取特征,并用attention机制进行进一步的特征处理,作者一共提出了三种attention的建模方法 - [【关于 ESIM 】那些你不知道的事 ](https://github.com/km1994/nlp_paper_study/tree/master/text_match_study/TACL2017_ESIM/) - 论文:Enhanced LSTM for Natural Language Inference - 会议:TACL2017 - 自然语言推理(NLI: natural language inference)问题: - 即判断能否从一个前提p中推导出假设h - 简单来说,就是判断给定两个句子的三种关系:蕴含、矛盾或无关 - 论文方法: - 模型结构图分为左右两边: - 左侧就是 ESIM, - 右侧是基于句法树的 tree-LSTM,两者合在一起交 HIM (Hybrid Inference Model)。 - 整个模型从下往上看,分为三部分: - input encoding; - local inference modeling; - inference composition; - Prediction - [【关于 BiMPM 】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/text_match_study/IJCAI2017_BiMPM/) - 论文:Bilateral multi-perspective matching for natural language sentences - 会议:IJCAI2017 - 方法: - Word Representation Layer:其中词表示层使用预训练的Glove或Word2Vec词向量表示, 论文中还将每个单词中的字符喂给一个LSTM得到字符级别的字嵌入表示, 文中使用两者构造了一个dd维的词向量表示, 于是两个句子可以分别表示为 P:[p1,⋯,pm],Q:[q1,⋯,qn]. - Context Representation Layer: 上下文表示层, 使用相同的双向LSTM来对两个句子进行编码. 分别得到两个句子每个时间步的输出. - Matching layer: 对两个句子PP和QQ从两个方向进行匹配, 其中⊗⊗表示某个句子的某个时间步的输出对另一个句子所有时间步的输出进行匹配的结果. 最终匹配的结果还是代表两个句子的匹配向量序列. - Aggregation Layer: 使用另一个双向LSTM模型, 将两个匹配向量序列两个方向的最后一个时间步的表示(共4个)进行拼接, 得到两个句子的聚合表示. - Prediction Layer: 对拼接后的表示, 使用全连接层, 再进行softmax得到最终每个标签的概率. - [【关于 DIIN 】那些你不知道的事 ](https://github.com/km1994/nlp_paper_study/tree/master/text_match_study/T2017_DIIN/) - 论文:Densely Interactive Inference Network - 会议:TACL2017 - 模型主要包括五层:嵌入层(Embedding Layer)、编码层(Encoding Layer)、交互层(Interaction Layer )、特征提取层(Feature Extraction Layer)和输出层(Output Layer) - [【关于 DC-BERT】 那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/QA_study/SIGIR2020_DCBert/) - 论文名称:DC-BERT : DECOUPLING QUESTION AND DOCUMENT FOR EFFICIENT CONTEXTUAL ENCODING - 阅读理由:Bert 在 QA 上面的应用 - 动机:Bert 无法处理传入问题的高吞吐量,每个问题都有大量检索到的文档; - 论文方法:具有双重BERT模型的解耦上下文编码框架: - 一个在线BERT,仅对问题进行一次编码; - 一个正式的BERT,对所有文档进行预编码并缓存其编码; ##### [机器翻译论文学习](https://github.com/km1994/nlp_paper_study/tree/master/MachineTranslation/) - [Neural Machine Translation of Rare Words with Subword Units 论文学习](https://github.com/km1994/nlp_paper_study/tree/master/MachineTranslation/NeuralMachineTranslationOfRareWordsWithSubwordUnits/) ##### [文本生成论文学习](https://github.com/km1994/nlp_paper_study/tree/master/TextGeneration/) - [【关于 SLCVAE 安装 】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/TextGeneration/SLCVAE/) ##### [实体消歧](https://github.com/km1994/nlp_paper_study/tree/master/EntityDisambiguation/) - [【关于 DeepType】 那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/EntityDisambiguation/DeepType/) - 阅读理由:这篇论文属于 实体消歧 领域 比较经典的论文,而且调研了很多相关竞赛,很多 Top 大佬 都会用到它,所以想学习一下!【目前还没看完!!!】 ##### [对话系统论文学习](https://github.com/km1994/nlp_paper_study/tree/master/DialogueSystem_study/) 1. [【关于 Domain/Intent Classification 】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/DialogueSystem_study/IntentClassification/) 2. [【关于 槽位填充 (Slot Filling)】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/DialogueSystem_study/SlotFilling/) 3. [【关于 上下文LU】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/DialogueSystem_study/contextLU/) 4. [【关于 自然语言生成NLG 】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/DialogueSystem_study/NLG/) 5. [【关于 DSTC 】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/DialogueSystem_study/DSTC/) 6. [【关于 E2E 】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/DialogueSystem_study/E2E/) 1. [【关于 TC_Bot(End-to-End Task-Completion Neural Dialogue Systems) 】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/DialogueSystem_study/E2E/TC_Bot/) ##### [rasa 学习](https://github.com/km1994/nlp_paper_study/tree/master/DialogueSystem_study/rasa/) 1. [【关于 rasa 安装 】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/DialogueSystem_study/rasa/rasa安装手册.md) 2. [【关于 rasa 基本架构 】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/DialogueSystem_study/rasa/rasa基本框架_视频讲解.md) 3. [【关于 rasa中文对话系统】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/DialogueSystem_study/rasa/rasa中文对话系统.md) 4. [【关于 rasa中文对话系统构建】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/DialogueSystem_study/rasa/rasa中文对话系统构建.md) 5. [【关于 rasa->NLU 】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/DialogueSystem_study/rasa/rasa系列/rasa_nlu.md) 6. [【关于 rasa -> Core -> FormAction 】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/DialogueSystem_study/rasa/rasa_core_FormAction/rasa_nlu.md) 7. [【关于 rasa -> Core -> Stories 】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/DialogueSystem_study/rasa/rasa系列/rasa_core_Stories.md) 8. [【关于 rasa -> Core -> Action 】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/DialogueSystem_study/rasa/rasa_core_FormAction/rasa_core_Action.md) #### 实战篇 ##### 重点推荐篇 - [Transfromer 源码实战](https://github.com/km1994/nlp_paper_study/tree/master/transformer_study/Transformer) - [【关于 Transformer 代码实战(文本摘要任务篇)】 那些你不知道的事](https://github.com/km1994/nlp_paper_study/blob/master/transformer_study/Transformer/code.md) 【[知乎篇](https://zhuanlan.zhihu.com/p/312044432) 】 ##### 推荐篇 - [爬虫 实战篇](https://github.com/km1994/Conversation_Wp/tree/master/t11_scrapyWp) - [Scrapy 爬虫 实战篇](https://github.com/km1994/Conversation_Wp/tree/master/t11_scrapyWp):主要介绍使用 scrapy 构建网络爬虫,并爬去百度搜索引擎数据 - [特征提取 实战篇](https://github.com/km1994/text_feature_extraction) - [关键词提取、关键短语提取、文本摘要提取 实战篇](https://github.com/km1994/text_feature_extraction) - [TF-idf 特征提取 实战篇](https://github.com/km1994/text_feature_extraction) - [pynlp 关键词提取 实战篇](https://github.com/km1994/Conversation_Wp/tree/master/t10_pynlpirWp) - [词向量预训练 实战篇](https://github.com/km1994/TextClassifier/tree/master/word2vec_train) - [word2vec 词向量预训练 实战篇](https://github.com/km1994/TextClassifier/tree/master/word2vec_train) - [fasttext 词向量预训练 实战篇](https://github.com/km1994/TextClassifier/tree/master/word2vec_train) - [中文情感分析 实战篇](https://github.com/km1994/sentiment_analysis) - [word2vec](https://github.com/km1994/sentiment_analysis/tree/master/word2vec) - [textCNN](https://github.com/km1994/sentiment_analysis/tree/master/textCNN) - [charCNN](https://github.com/km1994/sentiment_analysis/tree/master/charCNN) - [RCNN](https://github.com/km1994/sentiment_analysis/tree/master/RCNN) - [Bi-LSTM](https://github.com/km1994/sentiment_analysis/tree/master/Bi-LSTM) - [Bi-LSTM+Attention](https://github.com/km1994/sentiment_analysis/tree/master/Bi-LSTM%2BAttention) - [adversarialLSTM](https://github.com/km1994/sentiment_analysis/tree/master/adversarialLSTM) - [Transformer](https://github.com/km1994/sentiment_analysis/tree/master/Transformer) - [ELMo](https://github.com/km1994/sentiment_analysis/tree/master/ELMo) - [BERT](https://github.com/km1994/sentiment_analysis/tree/master/BERT) - [中文文本分类 实战篇](https://github.com/km1994/TextClassifier) - [Tensorflow 篇](https://github.com/km1994/TextClassifier) - [FastText](https://github.com/km1994/TextClassifier/tree/master/fastTextStudy.ipynb) - [TextCNN](https://github.com/km1994/TextClassifier/tree/master/dl_model) - [TextRNN](https://github.com/km1994/TextClassifier/tree/master/dl_model) - [TextRCNN](https://github.com/km1994/TextClassifier/tree/master/dl_model) - [BiLSTMAttention](https://github.com/km1994/TextClassifier/tree/master/dl_model) - [AdversarialLSTM](https://github.com/km1994/TextClassifier/tree/master/dl_model) - [Transformer](https://github.com/km1994/TextClassifier/tree/master/dl_model) - [pytorch 篇](https://github.com/km1994/Chinese-Text-Classification-Pytorch) - [FastText](https://github.com/km1994/Chinese-Text-Classification-Pytorch) - [TextCNN](https://github.com/km1994/Chinese-Text-Classification-Pytorch) - [TextRNN](https://github.com/km1994/Chinese-Text-Classification-Pytorch) - [TextRCNN](https://github.com/km1994/Chinese-Text-Classification-Pytorch) - [BiLSTMAttention](https://github.com/km1994/Chinese-Text-Classification-Pytorch) - [DPCNN](https://github.com/km1994/Chinese-Text-Classification-Pytorch) - [AdversarialLSTM](https://github.com/km1994/Chinese-Text-Classification-Pytorch) - [Transformer](https://github.com/km1994/Chinese-Text-Classification-Pytorch) - [命名实体识别 “史诗级” 入门教程](https://github.com/km1994/NERer) - [HMM 做命名实体识别](https://github.com/km1994/named_entity_recognition/models/hmm.py) - [CRF 做命名实体识别](https://github.com/km1994/named_entity_recognition/models/crf.py) - [BiLSTM-CRF 做命名实体识别](https://github.com/km1994/NERer/tree/master/LSTM_IDCNN) - [IDCNN-CRF 做命名实体识别](https://github.com/km1994/NERer/tree/master/LSTM_IDCNN) - [BERT-CRF 做命名实体识别](https://github.com/km1994/NERer/tree/master/bert_crf) - [ALBERT-CRF 做命名实体识别](https://github.com/km1994/NERer/tree/master/albert_crf) - [知识图谱 实战篇]() - [KBQA-BERT](https://github.com/km1994/KBQA-BERT) - [问答系统 实战篇](https://github.com/km1994/Conversation_Wp/tree/master/baidu_qa_zh_process) - [基于 百度问答 的问答系统](https://github.com/km1994/Conversation_Wp/tree/master/baidu_qa_zh_process/Baidu_WebQA_model.ipynb) - [文本匹配 实战篇](https://github.com/km1994/TextMatching) - [TextMatching](https://github.com/km1994/TextMatching) - [TextMatch](https://github.com/km1994/TextMatch) - [Text_Matching(文本匹配算法)](https://github.com/km1994/Text_Matching) - [预训练模型 实战篇]() - [bert](https://github.com/km1994/bert) - [Chinese-PreTrained-XLNet](https://github.com/km1994/Chinese-PreTrained-XLNet) - [模型蒸馏 实战篇]() - [基于BERT的蒸馏实验](https://github.com/km1994/bert_distill) #### 视频学习篇 - [CS224n 视频学习篇](https://github.com/km1994/Datawhale_NLP_CS224n) - [Lecture 1: Introduction and Word Vectors](https://github.com/km1994/Datawhale_NLP_CS224n/tree/master/Lecture/Lecture1) - [Lecture 2: Word Vectors and Word Senses](https://github.com/km1994/Datawhale_NLP_CS224n/tree/master/Lecture/Lecture2) - [Lecture 3: Word Window Classification, Neural Networks, and Matrix Calculus](https://github.com/km1994/Datawhale_NLP_CS224n/tree/master/Lecture/Lecture3) - [Lecture 4: Backpropagation](https://github.com/km1994/Datawhale_NLP_CS224n/tree/master/Lecture/Lecture4) - [Lecture 5: Dependency Parsing](https://github.com/km1994/Datawhale_NLP_CS224n/tree/master/Lecture/Lecture5) - [Lecture 6: Language Models and RNNs](https://github.com/km1994/Datawhale_NLP_CS224n/tree/master/Lecture/Lecture6) - [Lecture 7: Vanishing Gradients, Fancy RNNs](https://github.com/km1994/Datawhale_NLP_CS224n/tree/master/Lecture/Lecture7) - [Lecture 8: Translation, Seq2Seq, Attention](https://github.com/km1994/Datawhale_NLP_CS224n/tree/master/Lecture/Lecture8) - [Lecture 9: Practical Tips for Projects](https://github.com/km1994/Datawhale_NLP_CS224n/tree/master/Lecture/Lecture9) - [Lecture 10: Question Answering](https://github.com/km1994/Datawhale_NLP_CS224n/tree/master/Lecture/Lecture10) - [Lecture 11: Convolutional Networks for NLP](https://github.com/km1994/Datawhale_NLP_CS224n/tree/master/Lecture/Lecture11) - [Lecture 12: Subword Models](https://github.com/km1994/Datawhale_NLP_CS224n/tree/master/Lecture/Lecture12) - [Lecture 13: Contextual Word Embeddings](https://github.com/km1994/Datawhale_NLP_CS224n/tree/master/Lecture/Lecture13) - [Lecture 14: Transformers and Self-Attention](https://github.com/km1994/Datawhale_NLP_CS224n/tree/master/Lecture/Lecture14) - [Lecture 15: Natural Language Generation](https://github.com/km1994/Datawhale_NLP_CS224n/tree/master/Lecture/Lecture15) - [Lecture 16: Coreference Resolution](https://github.com/km1994/Datawhale_NLP_CS224n/tree/master/Lecture/Lecture16) - [Lecture 17: Multitask Learning](https://github.com/km1994/Datawhale_NLP_CS224n/tree/master/Lecture/Lecture17) - [Lecture 18: Constituency Parsing, TreeRNNs](https://github.com/km1994/Datawhale_NLP_CS224n/tree/master/Lecture/Lecture18) - [Lecture 19: Bias in AI](https://github.com/km1994/Datawhale_NLP_CS224n/tree/master/Lecture/Lecture19) - [Lecture 20: Future of NLP + Deep Learning](https://github.com/km1994/Datawhale_NLP_CS224n/tree/master/Lecture/Lecture20) ### Elastrsearch 学习篇 - [Elastrsearch 学习](es_study/) - [ElasticSearch架构解析与最佳实践.md](es_study/ElasticSearch架构解析与最佳实践.md) ### 推荐系统 学习篇 - [推荐系统 基础](https://github.com/km1994/nlp_paper_study/tree/master/RecommendedSystem_study/base_study) - [【关于 推荐系统】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/RecommendedSystem_study/base_study/base1_基础概念篇.md) - [【关于 召回】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/RecommendedSystem_study/base_study/base2_召回篇.md) - [【关于 embedding召回】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/RecommendedSystem_study/base_study/base3_embedding召回.md) - [【关于 协同过滤】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/RecommendedSystem_study/base_study/) - [【关于 矩阵分解】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/RecommendedSystem_study/base_study/base5_矩阵分解.md) - [【关于 FM】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/RecommendedSystem_study/base_study/base6_FM.md) - [推荐系统 论文学习](https://github.com/km1994/nlp_paper_study/tree/master/RecommendedSystem_study) - [DeepFM 论文学习](https://github.com/km1994/nlp_paper_study/tree/master/RecommendedSystem_study/DeepFM_study) - [DeepWalk 论文学习](https://github.com/km1994/nlp_paper_study/tree/master/RecommendedSystem_study/DeepWalk) - [ESMM 论文学习](https://github.com/km1994/nlp_paper_study/tree/master/RecommendedSystem_study/ESMM_study) - [【关于 FiBiNET】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/RecommendedSystem_study/FiBiNet_study) - [【关于 DeepCF】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/RecommendedSystem_study/DeepCF_study) ### 竞赛篇 - [竞赛篇](game_study) ### [GCN_study学习篇](https://github.com/km1994/GCN_study) - GCN 介绍篇 - [Graph 介绍](https://github.com/km1994/GCN_study/blob/master/graph_introduction/graph_introduction.md) - [Weisfeiler-Leman 算法介绍](https://github.com/km1994/GCN_study/blob/master/WL/WL_conclusion.md) - GCN 三剑客 - [Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering](https://github.com/km1994/GCN_study/blob/master/CNNonGraph_Defferrard_2016/CNNonGraph_Defferrard_2016_总结.md) - [SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS](https://github.com/km1994/GCN_study/blob/master/GCN/SEMI-SUPERVISED%20CLASSIFICATION%20WITH%20GRAPH%20CONVOLUTIONAL%20NETWORKS.pdf) - [Attention Models in Graphs: A Survey](https://github.com/km1994/GCN_study/blob/master/Attention_models/Attention_models.md) - 经典篇 - [Can GNN go “online”?an analysis of pretraining and inference](https://github.com/km1994/GCN_study/tree/master/CanGNNGoOnline) - [Graph Convolutional Networks for Text Classification](https://github.com/km1994/GCN_study/tree/master/GCNforTextClassification) - [HOW POWERFUL ARE GRAPH NEURAL NETWORKS](https://github.com/km1994/GCN_study/blob/master/HowPowerGCN/HOW%20POWERFUL%20ARE%20GRAPH%20NEURAL%20NETWORKS.pdf) - [Graph Convolutional Matrix Completion](https://github.com/km1994/GCN_study/blob/master/GCMC/Graph%20Convolutional%20Matrix%20Completion.pdf) - [Representation Learning For Attributed Multiplex Heterogeneous Network](https://github.com/km1994/GCN_study/blob/master/RepresentationLearningForAttributedMultiplexHeterogeneousNetwork/RepresentationLearningForAttributedMultiplexHeterogeneousNetwork.md) - 预训练篇 - [GNN 教程:GCN 的无监督预训练](https://github.com/km1994/GCN_study/tree/master/pretrainingGCN_1) - [Pre-training Graph Neural Networks](https://github.com/km1994/GCN_study/blob/master/pretrainingGCN_2/pretrainingGCN.md) - 实战篇 - [DGL](https://github.com/km1994/dgl) - [DGL 入门](https://github.com/km1994/GCN_study/blob/master/DGL_study/DGL_introduction.md) - [DGL 入门 —— GCN 实现](https://github.com/km1994/GCN_study/blob/master/DGL_study/DGL_GCN_introduction.md) ### [ML 小白入门篇](https://github.com/km1994/ML_beginer) - [【关于 Logistic Regression 】那些你不知道的事](https://github.com/km1994/nlp_paper_study/tree/master/ML_study/LogisticRegression_study/) - [概率图模型串烧 (HMM->MEMM->CRF)](https://github.com/km1994/ML_beginer/tree/master/CRF_study) - [KNN 算法 学习篇](https://github.com/km1994/MLStudy#%E4%B8%80knnstudy) - [理论篇](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100000006&idx=7&sn=f040e0a95376880349378ce7afd634af&chksm=1bbfe43c2cc86d2a5942e0938c871375cffcd72c9795a3e8b39fdb0c8285348631e7bf8a27b4) - [实战篇](https://github.com/km1994/MLStudy/blob/master/KNNStudy/KNNClass.py) - [朴素贝叶斯算法 学习篇](https://github.com/km1994/MLStudy#%E4%BA%8Cnbstudy) - [NB 算法理论学习](https://github.com/km1994/MLStudy/blob/master) - [NB 算法实现](https://github.com/km1994/MLStudy/blob/master/NBStudy/NBStudy.py) - [Apriori 算法 学习篇](https://github.com/km1994/MLStudy#%E4%B8%89aprioristudy) - [Apriori 算法理论学习](https://github.com/km1994/MLStudy/blob/master) - [Apriori 算法实现](https://github.com/km1994/MLStudy/blob/master/AprioriStudy/AprioriMyTest.py) - [Softmax 算法学习篇](https://github.com/km1994/MLStudy#%E5%8D%81softmax-numpy-%E5%AE%9E%E7%8E%B0) - [Softmax 理论学习](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100001925&idx=5&sn=20c5ead4f4b5f8f88c30043fb3703557&chksm=1bbfedbf2cc864a96b5fc4575e09294478f6f4cff65d654b8d775fed78766f80faf333d8ca08&scene=20&xtrack=1#rd) - [Softmax 算法实现](https://github.com/km1994/MLStudy/blob/master/softmaxStudy/softmaxStudy.py) - [Gradient Descent 算法学习篇](https://github.com/km1994/MLStudy#%E5%9B%9Bgradientdescentstudy) - [GradientDescent 算法理论学习](https://github.com/km1994/MLStudy/blob/master) - [GradientDescent 算法实现](https://github.com/km1994/MLStudy/blob/master/GradientDescentStudy/GradientDescentTest.py) - [随机森林算法 学习篇](https://github.com/km1994/MLStudy#%E4%BA%94randomforest) - [RandomForest 算法理论学习](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100001388&idx=1&sn=21bae727bf3510fad98b3ec4a89d124e&chksm=1bbfe3562cc86a40769ea726f96e3a45185697f9582a2e3fbbbeec3af90dd722ebe09b635ddc&scene=20&xtrack=1#rd) - [RandomForest 算法实现](https://github.com/km1994/MLStudy/blob/master/RandomForest/xiechengRF/RandomForestClass.py) - [基于PCA 的 RandomForest 算法实现](https://github.com/km1994/MLStudy/blob/master/RandomForest/xiechengRF/xiechengPCARF.py) - [EM 算法学习篇](https://github.com/km1994/ML_beginer/tree/master/EM_study) - [SVM 算法学习篇](https://github.com/km1994/MLStudy#%E5%85%ADsvn) - [SVN 算法理论学习](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100001388&idx=1&sn=21bae727bf3510fad98b3ec4a89d124e&chksm=1bbfe3562cc86a40769ea726f96e3a45185697f9582a2e3fbbbeec3af90dd722ebe09b635ddc&scene=20&xtrack=1#rd) - [SVM 算法学习篇](https://github.com/km1994/ML_beginer/tree/master/SVM_study) - [SVN 算法实现](https://github.com/km1994/MLStudy/blob/master/SVN/PCAandSVN.py) - [BPNN 算法 学习篇](https://github.com/km1994/MLStudy#%E4%B8%83bpnn) - [BPNN 算法理论学习](https://github.com/km1994/MLStudy/blob/master) - [BPNN 算法实现](https://github.com/km1994/MLStudy/blob/master/ANN/BP/test.py) - [PCA 算法 学习篇](https://github.com/km1994/MLStudy#%E5%85%ABpca) - [PCA 算法理论学习](https://github.com/km1994/MLStudy/blob/master) - [PCA 算法实现](https://github.com/km1994/MLStudy/blob/master/DimensionalityReduction/PCA/PCAClass.py) - [CNN 算法 学习篇](https://github.com/km1994/MLStudy#%E4%B9%9Dcnn-numpy-%E5%AE%9E%E7%8E%B0) - [卷积运算的定义、动机](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100000973&idx=2&sn=4eced9e7204274a4e3798cb73a140c72&chksm=1bbfe1f72cc868e1f63262fad39b4f735a6d424c064f6bee755e438b94487bf75b5d41cc02c0&scene=20&xtrack=1&key=fe048f5ad4fa1bcff1ed72e320faab18cb01c02c1a16279c60775734b428e42206e9f5a8f3c402ae96c01259df639ca04206da43e2ab1b42bfaf44bb4068c793df27faa893ea0301a375086e4adfd3b7&ascene=1&uin=MjQ3NDIwNTMxNw%3D%3D&devicetype=Windows+10&version=62060426&lang=zh_CN&pass_ticket=906xy%2Fk9TQJp5jnyekYc89wLa17ODmZRkas9HXdX%2BtYcy0q32NIxLHOhFx519Yxa) - [反卷积Deconvolution](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100000973&idx=3&sn=8a787cc0e165fa071ca7a602f16fae17&chksm=1bbfe1f72cc868e1249a3ebe90021e2a6e12c3d8021fcc1877a5390eed36f5a8a6698eb65216&scene=20&xtrack=1#rd) - [池化运算的定义](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100000973&idx=4&sn=cebf71790dd7e0e497fa36fa199c368d&chksm=1bbfe1f72cc868e1017d26a996f1eb7602fad1efced62713def3012b8df1b85b6ba46c0ebae8&scene=20&xtrack=1#rd) - [CNN 算法 numpy 实现](https://github.com/km1994/MLStudy/blob/master/CNN-Numpy_suss/view.py) ### [Java 实战篇](https://github.com/km1994/3y) ### [百度百科 ES 全文检索平台构建 实战篇](https://github.com/km1994/baidu_es) - 项目目标 - 实现一个 基于 百度百科 的 ES 全文检索平台 - 项目流程 - step 1: 编写 网络爬虫 爬取 百度百科 数据; - step 2: 爬取数据之后,需要进行预处理操作,清洗掉 文本中噪声数据; - step 3: 将输入 导入 ES ; - step 4: 利用 python 编写 后台,并 对 ES 进行查询,返回接口数据; - step 5: ES 数据前端展示; - step 6: 百度百科 知识图谱构建 - step 7:百度百科 知识图谱检索与展示 - 数据介绍: - 本项目通过编写爬虫爬取 百度百科 数据,总共爬取 名称、链接、简介、中文名、外文名、国籍、出生地、出生日期、职业、类型、中文名称、代表作品、民族、主要成就、别名、毕业院校、导演、制片地区、主演、编剧、上映时间 等400多个 指标,共爬取数据 98000 条。 - 数据预处理模块 爬取的数据根据名称可以分为 人物、地点、书籍、作品、综艺节目等。 | 类别 | 指标量 | 数量 | 筛选方式 | | :--------: | :----: | :----: | :----: | | 人物 | 109 | 27319 | 国籍、职业、出生日期、出生地有一个不为空 | | 地点 | 124 | 9361 | 地理位置、所属地区有一个不为空 | | 书籍 | 45 | 3336 | 作者 不为空 | | 作品 | 45 | 8850 | 主演为空,中文名称不为空 | | 综艺节目 | 108 | 5600 | 主演、导演都不为空 | ### [面试篇]() #### [Leetcode 篇](https://github.com/km1994/leetcode/blob/master/README.md) - [简单题](https://github.com/km1994/leetcode/blob/master/topic1_easy/) - [数组](https://github.com/km1994/leetcode/blob/master/topic2_arr/) - [链表](https://github.com/km1994/leetcode/blob/master/topic3_List/) - [动态规划](https://github.com/km1994/leetcode/blob/master/topic4_dynamic_planning_study/) - [字符串](https://github.com/km1994/leetcode/blob/master/topic5_string/) - [栈](https://github.com/km1994/leetcode/blob/master/topic6_stack/) - [排序](https://github.com/km1994/leetcode/blob/master/topic7_sorted/) - [二分查找](https://github.com/km1994/leetcode/blob/master/topic8_binary_search/) - [哈希表](https://github.com/km1994/leetcode/blob/master/topic9_hash_table/) - [队列](https://github.com/km1994/leetcode/blob/master/topic10_queue/) - [堆](https://github.com/km1994/leetcode/blob/master/topic11_heap/) - [回溯法](https://github.com/km1994/leetcode/blob/master/topic12_backtrack/) - [树](https://github.com/km1994/leetcode/blob/master/topic13_tree/) - [归并排序](https://github.com/km1994/leetcode/blob/master/topic15_merge/) - [快慢指针](https://github.com/km1994/leetcode/blob/master/topic16_speed_pointer/) - [贪心算法](https://github.com/km1994/leetcode/blob/master/topic17_greedy/) - [递归](https://github.com/km1994/leetcode/blob/master/topic18_recursive/) - [分治](https://github.com/km1994/leetcode/blob/master/topic19_divide_and_conquer/) - [分支限界法](https://github.com/km1994/leetcode/blob/master/topic20_branch_and_bound_method/) - [位运算](https://github.com/km1994/leetcode/blob/master/topic21_Bit_operation/) - [滑动窗口](https://github.com/km1994/leetcode/blob/master/topic22_move_window/) - [数学题](https://github.com/km1994/leetcode/blob/master/topic23_math/) - [面试题](https://github.com/km1994/leetcode/blob/master/interview/) #### [DeepLearning-500-questions](https://github.com/km1994/DeepLearning-500-questions) ### [大数据 实战篇]() #### [Spark 实战篇](https://github.com/km1994/sparkStudy) - 1、wordCount - 内容:运行原理,RDD设计,DAG,安装与使用 - 第1章 Spark的设计与运行原理(大概了解) - 1.1 Spark简介 - 1.2 Spark运行架构 - 1.3 RDD的设计与运行原理 - 1.4 Spark的部署模式 - 第2章 Spark的安装与使用(主要内容) - 2.1 Spark的安装和使用 (如果想在window上安装,参考https://blog.csdn.net/SummerHmh/article/details/89518567,之后可以用pyspark或者jupyter上进行学习)(地址有问题,可以使用这个https://www-eu.apache.org/dist/spark/spark-2.4.3/) - 2.2 第一个Spark应用程序:WordCount - 2、RDDStudy - 内容:RDD编程,熟悉算子,读写文件 - 第3章 Spark编程基础 - 3.1 Spark入门:RDD编程 - 3.2 Spark入门:键值对RDD - 3.3 Spark入门:共享变量(提升-分布式必备) - 3.4 数据读写 - 3.4.1 Spark入门:文件数据读写 - 3、sparkSQLStudy - 内容:DataFrame,SparkSQL - 第4章 - 4.1 Spark SQL简介 - 4.2 DataFrame与RDD的区别 - 4.3 DataFrame的创建 - 4.4 从RDD转换得到DataFrame - 4、Parquet_JDBC_IO_Study - 5、MLlibStudy - 内容:MLlib流设计,特征工程 - 第6章 Spark MLlib - 6.1 Spark MLlib简介 - 6.2 机器学习工作流 - 6.2.1 机器学习工作流(ML Pipelines) - 6.2.2 构建一个机器学习工作流 - 6.3 特征抽取、转化和选择 - 6.3.1 特征抽取:TF-IDF - 6.3.4 特征变换:标签和索引的转化 - 6.3.5 特征选取:卡方选择器 ### [资源篇](https://github.com/km1994/funNLP) - [funNLP](https://github.com/km1994/funNLP) ### [CV 入门 实战篇](https://github.com/km1994/cv_entrance)