您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. SOTA-MT:该项目试图维持机器翻译中的SOTA性能-源码

  2. SOTA-MT 该项目试图在机器翻译的各个子任务上保持SOTA性能。我们还对NMT的最新进展和潜在的研究趋势进行了详细的回顾。欢迎任何意见和建议。 1.简介 机器翻译已进入神经方法时代,吸引了越来越多的研究人员。目前,每年都会发表数百篇MT论文,对于研究人员来说,要了解每个研究方向上的SOTA模型都有些困难。因此,我们尝试记录该项目中的SOTA绩效。 神经机器翻译有几个研究方向,包括体系结构设计,多模式翻译,语音和同时翻译,文档翻译,多语言翻译,半监督翻译,无监督翻译,领域自适应,非自回归翻译
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:7168
    • 提供者:weixin_42128270
  1. NMT-with-Attn-GRU:专注GRU的神经机器翻译-源码

  2. 带有Attn-GRU的NMT 专注GRU的神经机器翻译
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:2048
    • 提供者:weixin_42131316
  1. nmt-源码

  2. nmt
  3. 所属分类:其它

    • 发布日期:2021-03-15
    • 文件大小:6291456
    • 提供者:weixin_42127748
  1. NiuTrans.NMT:快速的神经机器翻译系统。 它是用C ++开发的,并借助NiuTensor来实现快速张量API。-源码

  2. NuTrans NMT 特征 NiuTrans.NMT是基于轻量级且高效的基于Transformer的神经机器翻译系统。中文介绍见 其主要特点是: 很少依赖。 它是用纯C ++实现的,所有依赖项都是可选的。 快速解码。 它支持各种解码加速策略,例如批处理修剪和动态批处理大小。 先进的NMT模型,例如 。 灵活的运行模式。 该系统可以在各种系统和设备(Linux与Windows,CPU与GPU,FP32与FP16等)上运行。 与框架无关。 它支持使用其他工具训练的各种模型,例如fair
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:13631488
    • 提供者:weixin_42105570
  1. SimpleNMT:简单易读的神经机器翻译系统-源码

  2. 简单的NMT 简单易读的神经机器翻译系统 1个背景 通过计算机自动翻译自然语言的过程称为机器翻译(MT) 。 神经机器翻译(NMT)直接使用Encoder-Decoder框架进行分布式表示语言的端到端映射,具有统一的模型结构和较高的翻译质量,已成为当今的主流。 机器翻译的发展主要归功于开源系统的推广和评估竞赛。 有许多出色的神经机器翻译系统( , , 等),但是这些开源系统具有实现复杂,代码过多,初学者难以阅读的缺点。 2要做 我致力于构建一个易于阅读,使用且对初学者友好的神经机器翻译
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:15360
    • 提供者:weixin_42101720
  1. sockeye-recipes2:Sockeye神经机器翻译(NMT)工具包v2的培训脚本和配方-源码

  2. sockeye-recipes2 Sockeye神经机器翻译(NMT)工具包的培训脚本和配方 最初的Sockeye代码库位于 。 此存储库基于 ,版本:2.3.10 在这里,我们重点介绍Sockeye v2。 此存储库与的旧版本类似但不完全向后兼容。 此存储库包含使运行和复制NMT实验变得容易的脚本。 所有模型超参数都记录在文件“ hyperparams.txt”中,该文件将传递到管道中的不同步骤: scr ipts / preprocess-bpe.sh:通过子词分段对bitext进行
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:27648
    • 提供者:weixin_42134537
  1. seq2seq.pytorch:使用PyTorch进行序列到序列学习-源码

  2. PyTorch中的Seq2Seq 这是用于在训练序列到序列模型的完整套件。 它由几个模型和代码组成,可以训练和推断使用它们。 使用此代码,您可以训练: 神经机器翻译(NMT)模型 语言模型 图像到字幕的生成 跳过思维的句子表示 和更多... 安装 git clone --recursive https://github.com/eladhoffer/seq2seq.pytorch cd seq2seq.pytorch; python setup.py develop 楷模 当前可用的模型:
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:1048576
    • 提供者:weixin_42128988
  1. 神经机器翻译:这个项目是由我在Coding Ninjas实习时完成的。 这是一个端到端的机器学习项目-源码

  2. 神经机器翻译器 这个项目是我在Coding Ninjas实习时完成的。 它将英语翻译成法语。 我的bleu评分达到67%。 介绍 神经机器翻译(NMT)是使用关节神经网络模型将一种语言翻译成另一种语言的任务。 NMT模型通常由将源句子编码为固定长度向量的编码器组成,解码器从该向量中生成翻译。 这个问题可以看作是一个预测问题,在给定源语言单词序列作为输入的情况下,任务是预测目标语言单词的输出序列。 数据集来自 ,您可以根据选择的源语言和目标语言在不同的文件中制表符分隔双语句子对。 对于此项
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:31744
    • 提供者:weixin_42160278
  1. OPUS-MT-train:训练开放式神经机器翻译模型-源码

  2. 训练Opus-MT型号 该软件包包括用于使用MarianNMT和OPUS数据训练NMT模型的脚本。 中提供了更多详细信息,但文档需要改进。 此外,目标需要特定的环境,并且目前仅在芬兰的CSC HPC集群上运行良好。 预训练模型 子目录包含有关可以从该项目下载的预训练模型的信息。 它们散发了许可证。 快速开始 配置: git clone https://github.com/Helsinki-NLP/OPUS-MT-train.git git submodule update --init --
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:464519168
    • 提供者:weixin_42166261
  1. UnsupervisedMT:基于短语和神经的无监督机器翻译-源码

  2. 无监督机器翻译 该存储库包含以下示例中提供的无监督PBSMT和NMT模型的原始实现: (EMNLP 2018)。 注意:对于NMT方法,我们建议您看一下和相关的GitHub存储库 ,其中包含更好的模型和更有效的无监督机器翻译实现。 NMT实现支持: 三种机器翻译架构(seq2seq,biLSTM +注意,Transformer) 能够跨模型/语言共享任意数量的参数 去噪自动编码器培训 并行数据训练 反向并行数据训练 动态多线程生成反向并行数据 以及原始论文中未使用的其他功能(留作以后的工作
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:272384
    • 提供者:weixin_42132354
  1. awesome_speech_papers:awesome_speech_papers-源码

  2. 关于此存储库 该资料库适合那些想学习语音任务的人员,例如语音识别,Speecn综合,口语理解等。 我没有尝试调查尽可能多的论文,而是按照我的标准对最关键的论文(尤其是最近发表的论文)进行了调查。 对于韩国人) 관련는는任务(음성,음성등)싶은들을들을들을들을들을다。 c이퍼를이포함하기보다합니(citation이충분히,신뢰할기관에서다수행했등등)이페이퍼들을다。 (주관적일) 指数 1,端到端语音识别 基于CTC的ASR模型 具有基于注意力的ASR模型的Seq2Seq CTC和注意力混合A
  3. 所属分类:其它

    • 发布日期:2021-02-22
    • 文件大小:5242880
    • 提供者:weixin_42098830
  1. NMT是否优于SMT-源码

  2. NMT是否优于SMT
  3. 所属分类:其它

    • 发布日期:2021-02-21
    • 文件大小:78848
    • 提供者:weixin_42168341
  1. cs224n_a5-源码

  2. 作业5(NMT作业) 创建虚拟环境 conda env create --file local_env.yml 激活和停用环境 conda activate local_nmt conda deactivate 安装必要的软件包(在您的VM上) pip install -r gpu_requirements.txt
  3. 所属分类:其它

    • 发布日期:2021-02-18
    • 文件大小:14680064
    • 提供者:weixin_42126274
  1. NMT-源码

  2. 神经机器翻译 在这里,我们建立了一个神经机器翻译(NMT)模型,将人类可读的日期(“ 2009年6月25日”)转换为机器可读的日期(“ 2009-06-25”)。 它是通过使用注意力模型完成的,该模型是最复杂的序列间模型之一。 此处使用的模型可用于将一种语言翻译成另一种语言,例如从英语翻译成印地语。 但是,语言翻译需要大量的数据集,通常需要花费数天时间在GPU上进行训练。
  3. 所属分类:其它

    • 发布日期:2021-02-17
    • 文件大小:9216
    • 提供者:weixin_42115513
  1. dbsa:变压器NMT的基于依赖的自注意-源码

  2. 变压器NMT的基于依赖的自注意力(Deguchi et al。,2019) 安装 对于诗歌用户: git clone https://github.com/de9uch1/dbsa.git cd dbsa/ poetry install 对于点子用户: git clone https://github.com/de9uch1/dbsa.git cd dbsa/ pip install -e ./ 在ASPEC-JE上训练Transformer + DBSA模型 1.提取和预处理ASPEC-
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:37888
    • 提供者:weixin_42097508
  1. YouthIcon:让我们将印度放在NLP地图上-源码

  2. 青年图标 我们的目标是将印度纳入NLP地图。 我们必须为资源贫乏的印度语言建立NMT(神经机器翻译)模型。 我们还将为印第安人建立一个生动的NLP项目集合,供印第安人使用。 我们以为模型。 顾名思义,YouthIcon将是NLP针对印度语言进行的一项研究工作,该语言资源低,开源,连续,广泛,分布式和在线。 YouthIcon将包含用于为印度语言建立开放基准NLP结果的数据,代码,结果和研究。 YouthIcon-MT将包含机器运输模型。 作为机器翻译(MT),自然语言处理(NLP)的应用领域
  3. 所属分类:其它

    • 发布日期:2021-02-11
    • 文件大小:57671680
    • 提供者:weixin_42121412
  1. 变压器-源码

  2. 使用Pytorch的机器翻译的简约变压器实现 客户群 预处理: bpe_cli :了解BPE模型 vocab_cli :建立词汇 网络: create_cli :创建网络 learn_cli :运行学习 translate_cli :运行推理 使用-h选项运行客户端,以获取可用选项的详细说明。 用法示例: 在下文中,我们将$TRAIN , $VALID和$TEST变量包含各自的train / valid / test文件的后缀,其中$SS和$TT变量指示源语言和目标语言方面的文件扩展名。
  3. 所属分类:其它

    • 发布日期:2021-02-10
    • 文件大小:31744
    • 提供者:weixin_42134144
  1. cryptovisualize:随着时间的推移可视化加密排名和市值-源码

  2. 名称 描述 安装 npm i --save node-module-template 用法 同时支持ESM和CommonJS // esm import nmt from 'node-module-template` // commonjs const nmt = require ( 'node-module-template' ) 执照 麻省理工学院
  3. 所属分类:其它

    • 发布日期:2021-02-08
    • 文件大小:7168
    • 提供者:weixin_42165490
  1. 释义:句子级别的句子释义生成-源码

  2. 释义者 该项目提供者使用户能够通过干净简单的API对句子进行释义生成。 可以在此处看到一个演示: 解释器是根据计划开发的。 模型 基本模型是双向的LSTM编码器和LSTM解码器,使用Tensorflow进行注意力训练。 可下载的链接在这里: 先决条件 python 3.5 Tensorflow 1.4.1 虚假 推理执行 从上面的链接下载模型检查点并运行: python inference.py --checkpoint= 数据集 用于训练此模型的数据集是许多不同公共数据集的集合。 仅举几
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:141312
    • 提供者:weixin_42181693
  1. tention_keras:注意的Keras层实现-源码

  2. Keras注意层 版本 TensorFlow:1.15.0(已测试) TensorFlow:2.0(由于所有后端功能在TF 2.0中都可用,因此应该易于移植。但是尚未经过测试。) 介绍 这是Attention的实现(目前仅支持 ) 项目结构 data (Download data and place it here) |--- small_vocab_en.txt |--- small_vocab_fr.txt layers |--- attention.py (Attention im
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:120832
    • 提供者:weixin_42109639
« 12 3 »