1. 首页
  2. 数据库
  3. 其它
  4. 抽象文本摘要Seq2Seq使用GRU 源码

抽象文本摘要Seq2Seq使用GRU 源码

上传者: 2021-03-02 23:53:46上传 ZIP文件 29.7KB 热度 12次
使用GRU的抽象文本摘要(Seq2Seq) 抽象文本摘要 首先,我们可以将问题形成为单词级别的序列到序列问题(序列预测问题),其中输入序列是长英语语句,而输出是长度较短,含义相同,不同字摘要。 通常,序列到序列学习中的输入序列和输出序列具有不同的长度(例如文本摘要和机器翻译),并且需要整个输入序列才能开始预测目标。 在Keras中,过程如下: A RNN layer (Here, we will use GRU) acts as "Encoder": it processes the input sequence and returns its own internal state. Another RNN layer (GRU) acts as "Decoder": it is trained to predict the next words of the target seq
下载地址
用户评论