代码拉取完成,页面将自动刷新
跟着原论文 "Attention Is All You Need" 的主要框架走,一步一步用 pytorch 搭建一个简单的 Transformer 示例。
本项目主要借鉴了 nlp-tutorial/5-1.Transformer ,并在其基础上进行模块文件拆分及重要代码注释,使其结构更加清晰。
utils/sen2vec()
函数,自动将输入序列用填充字符填充至max_len
大小utils/vec2sen()
函数,自动去除末尾多余占位符,遇到第一个结束符后直接停止greedy_decoder()
,自动解码直到遇到全结束符或全占位符或长度超限moe
中使用手写 MoE 模块代替原来的MLPpython main.py
model
:
config.json
: 包含模型构建中需要用到的参数vocab.json
: 示例词表utils.py
: 杂项函数pe.py
: 位置编码模块mha.py
: 多头注意力机制模块ffn.py
: 前馈神经网络模块enc.py
: 编码模块dec.py
: 解码模块trm.py
: Transformer 模型main.py
: 主函数文件
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。