Zhx2020

@codewithzhx

Zhx2020 暂无简介

所有star的仓库都会放在这里。可以根据需求创建不同的星选集来管理它们。

    11 natural-language-processing/Chinese-BERT-wwm

    来自于哈工大讯飞联合实验室(HFL)的中文整词屏蔽的BERT语言模型,论文出处《Pre-Training with Whole Word Masking for Chinese BERT》2019年

    最近更新: 5年多前

搜索帮助