1. 首页
  2. 数据库
  3. 其它
  4. 《动手学深度学习》机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

《动手学深度学习》机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

上传者: 2021-01-15 15:33:13上传 PDF文件 265.2KB 热度 21次
机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer机器翻译及其相关技术编码器和解码器编码器解码器束搜索贪婪搜索束搜索注意力机制与Seq2Seq模型计算背景变量Transformer 机器翻译及其相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 编码器和解码器 在翻译时,输入句子和输出句子往往不一样长,所以为了处理输入和输出都是不定长序列时,可以使用编码器–解码器或者seq2seq模型。它们本质上都用到了两个神经网络
下载地址
用户评论