在过去的几年中,在大量的双语语料库中,神经机器翻译取得了巨大的成功。 但是,它不适用于资源匮乏的语言对。 为了解决这个问题,我们提出了一种转移学习方法,可以提高低资源机器翻译的BLEU分数。 首先,我们利用具有注意力机制的编解码器框架来训练一个具有大语言对的神经机器翻译模型,然后利用训练模型的一些参数来初始化另一个具有较少双语并行语料库的神经机器翻译模型。 我们的实验表明,该方法通过权重调整和再训练可以在低资源机器翻译中获得出色的性能。 在IWSLT2015越南语-英语翻译任务中,我们的模型可以