FastBERT:又快又稳的推理提速方法 《FastBERT: a Self-distilling BERT with Adaptive Inference Time》ACL2020
bert4keras 苏剑林版本的bert 更清晰、更轻量级的keras版bert 个人博客:https://kexue.fm/ 在线文档:http://bert4keras.spaces.ac.cn/
来自于哈工大讯飞联合实验室(HFL)的中文整词屏蔽的BERT语言模型,论文出处《Pre-Training with Whole Word Masking for Chinese BERT》2019年
Three open source versions of LDA with collapsed Gibbs Sampling, modified by nanjunxiao
Cloned from github, Scalable, Portable and Distributed Gradient Boosting (GBDT, GBRT or GBM) Library, for Python, R, Java, Scala, C++ and more. Runs on single machine, Hadoop, Spark, Flink and DataFlow https://xgboost.ai/
A project cloned from github, try to understanding Google BERT model.
linux-2.4.0 内核学习笔记 《LINUX内核源代码情景分析》写法独特,论述精辟,不回避代码分析中的难点,可以作为操作系统高级课程的教材,也可以作为计算机软件专业和相关专业大学本科高年级学生和研究生深入学习操作系统以至软件核心技术的重要参考书。同时,还可作为各行业从事软件开发的工程师、研究人员以及其他对Linux最新技术感兴趣者的自学教材。
The Big-&-Extending-Repository-of-Transformers: Pretrained PyTorch models for Google's BERT, OpenAI GPT & GPT-2, Google/CMU Transformer-XL.
代替github上的grpc-milvus到国内下载,提升编译速度。 https://github.com/youny626/grpc-milvus/archive/master.zip