210 Star 890 Fork 658

GVPMindSpore/mindscience

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
文件
克隆/下载
mindsponge.cell.MSAColumnAttention.rst 1.50 KB
一键复制 编辑 原始数据 按行查看 历史
luojianing 提交于 2023-04-14 17:28 . add ` for values in docs

mindsponge.cell.MSAColumnAttention

.. py:class:: mindsponge.cell.MSAColumnAttention(num_head, key_dim, gating, msa_act_dim, batch_size=None, slice_num=0)

    MSA列注意力层。
    MSA逐列注意模块,让处于相同序列位置的信息进行交互。
    参考文献:`Jumper et al. (2021) Suppl. Alg. 8 MSAColumnAttention <https://static-content.springer.com/esm/art%3A10.1038%2Fs41586-021-03819-2/MediaObjects/41586_2021_3819_MOESM1_ESM.pdf>`_。

    参数:
        - **num_head** (int) - 头的数量。
        - **key_dim** (int) - 输入的维度。
        - **gating** (bool) - 判断attention是否经过gating的指示器。
        - **msa_act_dim** (int) - msa_act的维度。msa_act为AlphaFold模型中MSA检索后所使用的中间变量。
        - **batch_size** (int) - MSAColumnAttention中参数的batch size, 默认值: ``None``。
        - **slice_num** (int) - 为了减少内存需要进行切分的数量, 默认值: ``0``。

    输入:
        - **msa_act** (Tensor) - msa_act,AlphaFold模型中MSA检索后所使用的中间变量, :math:`[N_{seqs}, N_{res}, C_m]` 。
        - **msa_mask** (Tensor) - MSAColumnAttention矩阵的mask, :math:`[N_{seqs}, N_{res}]` 。
        - **index** (Tensor) - 在循环中的索引,只会在有控制流的时候使用, 标量, 默认值: ``None``。

    输出:
        Tensor。MSAColumnAttention层的输出msa_act,shape为 :math:`[N_{seqs}, N_{res}, C_m]` 。
马建仓 AI 助手
尝试更多
代码解读
代码找茬
代码优化
1
https://gitee.com/mindspore/mindscience.git
git@gitee.com:mindspore/mindscience.git
mindspore
mindscience
mindscience
r0.5

搜索帮助