您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. UnsupervisedMT:基于短语和神经的无监督机器翻译-源码

  2. 无监督机器翻译 该存储库包含以下示例中提供的无监督PBSMT和NMT模型的原始实现: (EMNLP 2018)。 注意:对于NMT方法,我们建议您看一下和相关的GitHub存储库 ,其中包含更好的模型和更有效的无监督机器翻译实现。 NMT实现支持: 三种机器翻译架构(seq2seq,biLSTM +注意,Transformer) 能够跨模型/语言共享任意数量的参数 去噪自动编码器培训 并行数据训练 反向并行数据训练 动态多线程生成反向并行数据 以及原始论文中未使用的其他功能(留作以后的工作
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:272384
    • 提供者:weixin_42132354