CNN上加Attention
小锋学长生活大爆炸

CNN上加Attention

hualala
2021-12-19 / 0 评论 / 96 阅读
温馨提示:
本文最后更新于2022年09月04日,已超过811天没有更新,若内容或图片失效,请留言反馈。

CNN上加Attention可以加在这几方面:
a. 在卷积操作前做attention,比如Attention-Based BCNN-1,这个任务是文本蕴含任务需要处理两段文本,同时对两段输入的序列向量进行attention,计算出特征向量,再拼接到原始向量中,作为卷积层的输入。
b. 在卷积操作后做attention,比如Attention-Based BCNN-2,对两段文本的卷积层的输出做attention,作为pooling层的输入。
c. 在pooling层做attention,代替max pooling。比如Attention pooling,首先我们用LSTM学到一个比较好的句向量,作为query,然后用CNN先学习到一个特征矩阵作为key,再用query对key产生权重,进行attention,得到最后的句向量。

0

评论 (0)

取消