您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 涂兆鹏-关于提高nmt忠实度的报告文档

  2. 主要是涂兆鹏关于如何提高NMT忠实度所做的报告。里面提出了3中方式,分别是对覆盖率进制进行建模,引入上下文信息,对中英文翻译中的汉语进行句子重构,补全代词等等,同时里面做了完整的描述,并且给予了详细的测试结果,值得一看
  3. 所属分类:机器学习

    • 发布日期:2018-06-26
    • 文件大小:9437184
    • 提供者:hpulfc
  1. 数据集——基于TF NMT利用带有Attention的 ED模型训练、测试(中英文平行语料库)实现将英文翻译为中文的LSTM

  2. 数据集——基于TF NMT利用带有Attention的 ED模型训练、测试(中英文平行语料库)实现将英文翻译为中文的LSTM
  3. 所属分类:数据库

    • 发布日期:2019-02-24
    • 文件大小:742
    • 提供者:qq_41185868
  1. 数据集—基于TF NMT利用带有Attention的 ED模型训练、测试(中英文平行语料库)实现将英文翻译为中文的LSTM翻译(中英文平行语料库)训练数据集

  2. 数据集—基于TF NMT利用带有Attention的 ED模型训练、测试(中英文平行语料库)实现将英文翻译为中文的LSTM翻译(中英文平行语料库)训练数据集—train
  3. 所属分类:数据库

    • 发布日期:2019-02-25
    • 文件大小:451
    • 提供者:qq_41185868
  1. NMT系统搭建手册.pdf

  2. 一步步教你如何搭建机器翻译系统,包括: 1. 机器翻译现状 4 1.1 什么是机器翻译? 4 1.2 相关论文 7 1.3 相关会议 8 1.4 相关工具 8 2. NMT系统搭建指导 9 2.1 获取数据 9 2.2 数据预处理 10 2.3 模型训练 12 2.4 模型的解码及bleu计算 13 3. 系统的优化 15 3.1 模型的ensemble 15 3.2 定制化领域微调 15 3.3 迁移学习 15 4. 翻译引擎的部署 16 4.1 翻译系统概述 16 4.2 基于Tensor
  3. 所属分类:深度学习

    • 发布日期:2019-05-09
    • 文件大小:2097152
    • 提供者:chinatelecom08
  1. jvm-nmt-tracing-master.zip

  2. Tracing the internal memory usage of Java Virtual Machine (JVM) by Native Memory Tracking (NMT)
  3. 所属分类:Python

    • 发布日期:2020-04-10
    • 文件大小:4096
    • 提供者:Fichi
  1. nmt-keras, 带 Keras ( theano/tensorflow )的神经机器翻译.zip

  2. nmt-keras, 带 Keras ( theano/tensorflow )的神经机器翻译 nmt-keras 基于 Keras ( Theano和 Tensorflow )的神经机器。库文档:nmt-keras.readthedocs.io基于的注意递归神经网络 NMT 变压器NMT模型
  3. 所属分类:其它

    • 发布日期:2019-10-09
    • 文件大小:2097152
    • 提供者:weixin_38744207
  1. 消费电子中的NMT+LDS技术融合,可将天线打印在手机上

  2. 工艺简介   1.什么是NMT?   金属与塑料以纳米技术结合的工艺称为纳米注塑成型技术(NMT)。先对金属表面进行纳米化处理,再将塑料注射在在金属表面,可将镁、不锈钢、钛等金属与硬质树脂结合,实现一体化成型,其工艺流程如下图所示:a      2.什么是LDS?   LDS是利用数控激光直接把电路图案三维打印在塑料件表面的技术。加工时间短,精度高且电路图案不受实物器件的几何形状限制,其工艺流程如下图所示:   
  3. 所属分类:其它

    • 发布日期:2020-10-16
    • 文件大小:184320
    • 提供者:weixin_38557670
  1. 第一代移动通信技术NMT问世三十年

  2. 第一代移动通信技术,NMT,移动电话的普及是从30年前开始的。NMT即NordicMobileTelephony(北欧移动电话),是第一代移动通信技术。现在看来,NMT移动电话虽然体型笨重可笑,可当年谁又能想到,它的推出,从此引发了全球移动通信的革命。
  3. 所属分类:其它

    • 发布日期:2020-10-20
    • 文件大小:48128
    • 提供者:weixin_38750861
  1. NMT-with-Attn-GRU:专注GRU的神经机器翻译-源码

  2. 带有Attn-GRU的NMT 专注GRU的神经机器翻译
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:2048
    • 提供者:weixin_42131316
  1. nmt-源码

  2. nmt
  3. 所属分类:其它

    • 发布日期:2021-03-15
    • 文件大小:6291456
    • 提供者:weixin_42127748
  1. 减少维吾尔族NMT系统OOV数量的方法

  2. 减少维吾尔族NMT系统OOV数量的方法
  3. 所属分类:其它

    • 发布日期:2021-03-14
    • 文件大小:1048576
    • 提供者:weixin_38697123
  1. NiuTrans.NMT:快速的神经机器翻译系统。 它是用C ++开发的,并借助NiuTensor来实现快速张量API。-源码

  2. NuTrans NMT 特征 NiuTrans.NMT是基于轻量级且高效的基于Transformer的神经机器翻译系统。中文介绍见 其主要特点是: 很少依赖。 它是用纯C ++实现的,所有依赖项都是可选的。 快速解码。 它支持各种解码加速策略,例如批处理修剪和动态批处理大小。 先进的NMT模型,例如 。 灵活的运行模式。 该系统可以在各种系统和设备(Linux与Windows,CPU与GPU,FP32与FP16等)上运行。 与框架无关。 它支持使用其他工具训练的各种模型,例如fair
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:13631488
    • 提供者:weixin_42105570
  1. sockeye-recipes2:Sockeye神经机器翻译(NMT)工具包v2的培训脚本和配方-源码

  2. sockeye-recipes2 Sockeye神经机器翻译(NMT)工具包的培训脚本和配方 最初的Sockeye代码库位于 。 此存储库基于 ,版本:2.3.10 在这里,我们重点介绍Sockeye v2。 此存储库与的旧版本类似但不完全向后兼容。 此存储库包含使运行和复制NMT实验变得容易的脚本。 所有模型超参数都记录在文件“ hyperparams.txt”中,该文件将传递到管道中的不同步骤: scr ipts / preprocess-bpe.sh:通过子词分段对bitext进行
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:27648
    • 提供者:weixin_42134537
  1. 机器翻译 bpe——bytes-pair-encoding以及开源项目subword-nmt快速入门-附件资源

  2. 机器翻译 bpe——bytes-pair-encoding以及开源项目subword-nmt快速入门-附件资源
  3. 所属分类:互联网

  1. 机器翻译 bpe——bytes-pair-encoding以及开源项目subword-nmt快速入门-附件资源

  2. 机器翻译 bpe——bytes-pair-encoding以及开源项目subword-nmt快速入门-附件资源
  3. 所属分类:互联网

  1. 从英语到德语的翻译:使用长短期记忆(LSTM)网络的英语到德语的神经机器翻译(NMT)模型。 机器翻译是自然语言处理中的一项重要任务,不仅可用于将一种语言翻译成另一种语言,而且还可用于消除歧义(例如,确定“银行”一词是指金融银行,还是指河岸

  2. 从英语到德语的翻译:使用长短期记忆(LSTM)网络的英语到德语的神经机器翻译(NMT)模型。 机器翻译是自然语言处理中的一项重要任务,不仅可用于将一种语言翻译成另一种语言,而且还可用于消除歧义(例如,确定“银行”一词是指金融银行,还是指河岸土地)
  3. 所属分类:其它

    • 发布日期:2021-02-23
    • 文件大小:16384
    • 提供者:weixin_42117340
  1. NMT是否优于SMT-源码

  2. NMT是否优于SMT
  3. 所属分类:其它

    • 发布日期:2021-02-21
    • 文件大小:78848
    • 提供者:weixin_42168341
  1. NMT-源码

  2. 神经机器翻译 在这里,我们建立了一个神经机器翻译(NMT)模型,将人类可读的日期(“ 2009年6月25日”)转换为机器可读的日期(“ 2009-06-25”)。 它是通过使用注意力模型完成的,该模型是最复杂的序列间模型之一。 此处使用的模型可用于将一种语言翻译成另一种语言,例如从英语翻译成印地语。 但是,语言翻译需要大量的数据集,通常需要花费数天时间在GPU上进行训练。
  3. 所属分类:其它

    • 发布日期:2021-02-17
    • 文件大小:9216
    • 提供者:weixin_42115513
  1. dbsa:变压器NMT的基于依赖的自注意-源码

  2. 变压器NMT的基于依赖的自注意力(Deguchi et al。,2019) 安装 对于诗歌用户: git clone https://github.com/de9uch1/dbsa.git cd dbsa/ poetry install 对于点子用户: git clone https://github.com/de9uch1/dbsa.git cd dbsa/ pip install -e ./ 在ASPEC-JE上训练Transformer + DBSA模型 1.提取和预处理ASPEC-
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:37888
    • 提供者:weixin_42097508
  1. nmt-keras:使用Keras进行神经机器翻译-源码

  2. NMT-凯拉斯 Keras的神经机器翻译。 图书馆文件: 注意递归神经网络NMT模型 变压器NMT模型 功能(除了完整的Keras宇宙外):。 :red_exclamation_mark: 多GPU训练(仅适用于Tensorflow)。 。 。 在线学习和交互式神经机器翻译(INMT)。 请参阅。 注释输入序列上的注意力模型。 支持 注意机制。 还支持双重随机注意(来自公式14) 偷看的解码器:先前生成的字是当前时间步的输入。 波束搜索解码。 集成解码( )。 具有长
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:2097152
    • 提供者:weixin_42136791
« 12 3 4 5 6 7 8 »