您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. allennlp能实现的功能

  2. 对allennlp能实现的功能做了一个总结,还有实例demo的截图。
  3. 所属分类:深度学习

    • 发布日期:2018-07-18
    • 文件大小:823296
    • 提供者:longma666666
  1. Python-HTML基于PyTorch和AllenNLP的几种NLP任务的最新神经网络模型

  2. Python-HTML基于PyTorch和AllenNLP的几种NLP任务的最新神经网络模型
  3. 所属分类:其它

    • 发布日期:2019-08-10
    • 文件大小:1048576
    • 提供者:weixin_39840387
  1. Python-用AllenNLPPyTorch训练文本情感分类器

  2. 用AllenNLP/PyTorch训练文本情感分类器
  3. 所属分类:其它

    • 发布日期:2019-08-09
    • 文件大小:201728
    • 提供者:weixin_39841882
  1. allennlp-bidaf-源码

  2. allennlp-bidaf
  3. 所属分类:其它

    • 发布日期:2021-03-26
    • 文件大小:13312
    • 提供者:weixin_42133452
  1. another_cool_project-源码

  2. 使用配置文件的AllenNLP模板项目 使用配置文件和allennlp train启动新的allennlp项目的模板。对于简单的项目,您所需要做的就是将模型代码放入my_project/model.py的类中,将数据加载代码放入my_project/dataset_reader.py的DatasetReader代码中,这样就可以训练模型了(建议还对测试代码进行适当的更改,并将其用于开发,但这是可选的)。 有关如何使用此示例项目中内容的快速,请参见《 。我们正在从该指南中获取模型和数据集读取器类
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:9216
    • 提供者:weixin_42112658
  1. optuna-allennlp-reproduction:一个用于调查Optuna x AllenNLP中的生殖问题的回购-源码

  2. 再现结果的实验 此回购用于调查再现结果的问题。 此存储库中使用的示例均基于Optuna官方AllenNLP示例。 脚本: : 配置: : 在您的环境上进行实验 python3 -m venv venv . ./venv/bin/activate pip install -r ./requirements.txt ./run | tee log.new.txt 结果 我把。在CPU实验,Optuna的最好的结果和再培训的结果allennlp train是相同的。另一方面,在GPU中,结果是
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:7168
    • 提供者:weixin_42126399
  1. Japanese-Named-Entity-Resolution-With-BERT-源码

  2. BERTを用いた名寄せ解消 上记データセットを用いた名寄せ解消 モデル を一部参考に以下のモデルを组んだ。 结果 开发人员〜%63,根据测试。 〜64%なので要改良。 追记:コードのミスにより上记はlr = 1e-3での结果だと判明。lr = 1e-5〜1e-6で要実験。 例えばで使用している特徴量を组み込むことが考えられる。 実験方法 $ conda create -n allennlp python=3.7 $ conda activate allennlp $ pip install -r
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:442368
    • 提供者:weixin_42144199
  1. allennlp-docs:AllenNLP文档的GitHub Pages存储库-源码

  2. allennlp-docs:AllenNLP文档的GitHub Pages存储库
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:104857600
    • 提供者:weixin_42153615
  1. sembre-源码

  2. 使用配置文件的AllenNLP模板项目 使用配置文件和allennlp train启动新的allennlp项目的模板。 对于简单的项目,您要做的就是将模型代码放入my_project/model.py的类中,将数据加载代码放入my_project/dataset_reader.py的DatasetReader代码中,这样就可以训练模型了(建议还对测试代码进行适当的更改,并将其用于开发,但这是可选的)。 有关如何使用本示例项目中内容的快速,请参见《 。 我们从该指南中获取模型和数据集读取器类。
  3. 所属分类:其它

    • 发布日期:2021-02-22
    • 文件大小:238592
    • 提供者:weixin_42125770
  1. UPST:基于用户极性的半监督句子分类框架-源码

  2. UPST 基于用户极性的半训练句子分类框架 要求 python == 3.6 numpy == 1.17.2 pytorch == 1.4.0 allennlp == 0.8.2 在train_data中进行培训并在dev_data中进行测试 python self_training_question_classification.py -iter 10 -batch 128 -SC_u 1 -polarity 1 -unlabel 1
  3. 所属分类:其它

    • 发布日期:2021-02-12
    • 文件大小:12288
    • 提供者:weixin_42138780
  1. DISTRE:[ACL 19]对预训练的变压器语言模型进行微调以严格监督关系提取-源码

  2. 微调预训练的变压器语言模型以远程监督关系提取 该存储库包含本文的代码: 克里斯托弗·奥特,马克·赫布纳,莱昂哈德·汉尼格 我们的代码依赖于huggingface的了的和 -这样的感谢他们。 该代码已通过以下测试: 的Python 3.6.6 PyTorch 1.0.1 AllenNLP 0.7.1 安装 首先,将存储库克隆到您的计算机上,并使用以下命令安装要求: pip install -r requirements.txt 其次,下载(包含所有与模型相关的文件): wget --
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:30720
    • 提供者:weixin_42164931
  1. SLQA:用于阅读理解和问题回答的多粒度分层注意力融合网络的非官方Pytorch实现-源码

  2. 质量保证 用于阅读理解和问答的多粒度分层注意力融合网络 如果有人想测试SQuAD的性能,请告诉我最终得分。 您只需要更改coca_reader.py即可读取SQuAD的数据集。 论文: : Allennlp: : 讲解 首先,您应该安装allennlp并确保您已经下载了elmo和glove 。 您可以在config/seperate_slqa.json找到版本信息。 您也可以通过网址使用elmo ,请转到allennlp教程寻求帮​​助。 mkdir elmo mkdir glove
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:51200
    • 提供者:weixin_42131013
  1. CrossLingualContextualEmb:上下文单词嵌入的跨语言对齐-源码

  2. 跨语言ELMo 上下文词嵌入的跨语言对齐 此存储库将包含NAACL19论文的代码和模型- 不久将发布更多代码。 更新: 计算英语锚点(以帮助计算更多语言的对齐方式) ELMO所有层的对齐矩阵。 现在提供了用于计算BERT模型锚的脚本。 多语言ELMo现在已合并到(版本> = 0.8.5)。 可以使用此处的代码来计算其他模型的锚。 我们正在努力将多语言ELMo合并到AllenNLP框架。 希望我们能尽快完成。 现在可以在此使用多语言解析器代码(此requirements.txt
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:16384
    • 提供者:weixin_42109125
  1. nlp模型:NLP研究实验,建立在AllenNLP框架内的PyTorch上-源码

  2. nlp模型 NLP研究实验,建立在框架内的。 该项目的目的是提供一个高质量个人研究图书馆的例子。 它提供了模块化,持续集成,高测试覆盖率,强调可读性的代码库以及许多脚本,这些脚本使得在这里重现任何实验就像运行一些make命令一样容易。 我还通过实现扩展AllenNLP的实用模块和模型来努力使nlp-models有用。 有时,经过全面测试后,我会把我在这里所做的工作回馈给AllenNLP。 总览 从高层次上讲,该项目的结构类似于AllenNLP的结构。 也就是说, 中的子模块的组织方式与中的。
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:1048576
    • 提供者:weixin_42120283
  1. PyTorch-Batch-Attention-Seq2seq:批处理双RNN编码器和注意力解码器的PyTorch实现-源码

  2. PyTorch中的快速批处理Bi-RNN(GRU)编码器和注意解码器实现 这段代码是用PyTorch 0.2编写的。 在PyTorch发行其1.0版本时,已经有很多基于PyTorch构建的出色的seq2seq学习包,例如OpenNMT,AllenNLP等。您可以从其源代码中学习。 用法:请注意有关注意力-RNN机器翻译的官方pytorch教程,除了此实现处理批处理输入,并且实现稍微不同的注意力机制。 为了找出实现方式在公式级别上的差异,下面的插图会有所帮助。 PyTorch版本机制图,请参见此
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:4096
    • 提供者:weixin_42102220
  1. deep_qa:基于Keras tf的深层NLP库,专注于问题解答(但对其他NLP也很有用)-源码

  2. 已淘汰 DeepQA构建在Keras之上。 我们认为是NLP研究的更好平台。 我们将DeepQA重新编写到一个名为的pytorch库中。 DeepQA将不再开发。 但是,我们对AllenNLP感到非常兴奋-如果您正在进行自然语言处理的深度学习,则应该! 深度质量检查 DeepQA是一个用于通过深度学习执行高级NLP任务的库,尤其侧重于各种问题解答。 DeepQA构建在和之上,并且可以被认为是这些系统的接口,使NLP更容易。 特别是,与普通Keras / TensorFlow相比,该库具有以下优
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:458752
    • 提供者:weixin_42146230
  1. ELMoForManyLangs:多种语言的预训练ELMo表示形式-源码

  2. 多种语言的预训练ELMo表示 我们发布了接受多种语言培训的ELMo表示形式,这有助于我们赢得LAS根据赢得的。 技术细节 我们使用与相同的超参数设置 for biLM和角色CNN。 我们根据从每种任务的共享任务(wikidump +通用抓取)发布的原始文本中随机抽取的2000万字数据集训练其参数。 我们主要基于的代码,但进行了以下更改: 我们支持unicode字符; 我们使用样本softmax技术使大词汇量的训练变得可行( )。 但是,我们使用围绕目标单词的单词窗口作为否定样本,并且在我
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:44032
    • 提供者:weixin_42097189
  1. allennlp:基于PyTorch的开源NLP研究库-源码

  2. 一个基于PyTorch的Apache 2.0 NLP研究库,用于针对各种语言任务开发最新的深度学习模型。 快速链接 (||) (||) 使用库入门 如果您对使用AllenNLP进行模型开发感兴趣,我们建议您查阅 。 当您准备开始您的项目时,我们已经创建了几个模板存储库,您可以将它们用作起点: 如果要使用allennlp train和配置文件指定实验,请使用。 我们推荐这种方法。 如果您希望使用python代码来配置实验并运行训练循环,请使用。 目前,在此设置中有些事情(加载已保存的模型并使用
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:2097152
    • 提供者:weixin_42181888
  1. jupyter笔记本:Jupyter笔记本和其他-源码

  2. 布局 标题 上一次更改 维基 Jupyter笔记本 2020/11/15 12:41:21 深度学习 Scikit,学习上的IRIS数据集的感知器,神经网络,Keras。 TensorFlow Implementaion在MNIST数据集。 Softmax,交叉熵损失 使用PyTorch进行梯度计算。 层调试。 验证合并,连接方法。 在文本嵌入上验证Conv1D。 验证Image数据集上的Conv2D。 验证LSTM计算。 器具Seq2Seq学习的执行加法。 器具Seq2Se
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:19922944
    • 提供者:weixin_42097208
  1. playing-around-with-cogs:尝试使用Kim和Linzen(2020)的COGS数据集,使用allennlp建立模型-源码

  2. playing-around-with-cogs:尝试使用Kim和Linzen(2020)的COGS数据集,使用allennlp建立模型
  3. 所属分类:其它

    • 发布日期:2021-03-30
    • 文件大小:12288
    • 提供者:weixin_42137032
« 12 »