1. 首页
  2. 数据库
  3. 其它
  4. 笔记:动手学深度学习pytorch(机器翻译Transformer注意力机制和Sequence to sequence模型)

笔记:动手学深度学习pytorch(机器翻译Transformer注意力机制和Sequence to sequence模型)

上传者: 2021-01-10 12:04:31上传 PDF文件 1.05MB 热度 25次
– 机器翻译 – 机器翻译与数据集 – 机器翻译 顾名思义,机器翻译就是将一段文本从一种语言翻译到另外一种语言,简称MT,而利用神经网络解决这个问题就被称为神经机器翻译(NMT)。 特征主要是输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 – 数据预处理 将数据集清洗、转化为神经网络的输入minbatch with open('/home/kesci/input/fraeng6506/fra.txt', 'r') as f: raw_text = f.read() print(raw_text[0:1000]) 由于字符在计算机中是以编码的形式存在,我们
下载地址
用户评论