什么是XLNet中的双流自注意力
点击上方“AI公园”,关注公众号,选择加“星标“或“置顶” 作者:Xu LIANG 编译:ronghuaiyang 导读 理解XLNet中的双流自注意力机制。 在我之前的文章什么是XLNet,它为什么比BERT效果好?中,我主要讨论了XLNet (AR语言模型)和BERT (AE语言模型)之间的区别以及重排列语言建模。 我相信对XLNet有一个直观的理解远比实现细节重要,所以我只解释了重排列语言建模,而没有提到另一个重要的部分,双流自注意力架构。但正如陈家明在评论中提到的,双流自注意力是XLNet论文的另一个亮点,所以我写这篇文章是为了尽可能清楚地解释双流自注意力。 内容结构如下。 重排列
下载地址
用户评论