您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. CMU-Cam_Toolkit_v2

  2. 机器翻译的工具。这是一个语言模型工具,用于生成语言模型,以便解码器调用。
  3. 所属分类:C

    • 发布日期:2011-11-19
    • 文件大小:124928
    • 提供者:byjlwaa
  1. CMU-Cam Language Model Toolkit v2

  2. 机器翻译的工具。这是一个语言模型工具,用于生成语言模型,以便解码器调用。
  3. 所属分类:C

    • 发布日期:2011-12-07
    • 文件大小:124928
    • 提供者:driver0926
  1. 基于数据库的代码自动生成工具,生成JavaBean、生成数据库文档、生成前后端代码等(v6.9.0版)

  2. 官网:http://www.tablego.cn TableGo_20200520 v6.9.0 正式版发布,此次版本更新如下: 1、新增对JDK9及以上版本Java环境的支持 2、生成JavaBean更名为生成数据模型并且提供了C#、C++、Golang、Rust、Python、Objective-C、Swift等编程语言数据模型的简单模板 3、新增生成SpringBoot项目工程的功能,在生成自定义文件界面直接生成一个可以跑起来的项目 4、新增对数据库视图的支持 5、新增
  3. 所属分类:Java

    • 发布日期:2020-05-29
    • 文件大小:105906176
    • 提供者:vipbooks
  1. 神经语言生成:形式化,方法与评价

  2. 基于神经网络的生成式模型的最新进展重新燃起了计算机系统能够与人类无缝对话并能够理解自然语言的希望。神经结构被用于生成文本摘录,在满足不同用户需求的多种上下文和任务中取得了不同程度的成功。
  3. 所属分类:机器学习

    • 发布日期:2020-08-10
    • 文件大小:1045504
    • 提供者:syp_net
  1. Single-Channel-Queue-Python-Master:模拟20个客户的µ = 5.6客户分钟(到达率)和λ= 5客户分钟(服务率)的银行问题。您应该恰好使用19到20个随机变量来生成随机变量(两个)。为了方便起见,在模拟过程

  2. 单通道队列Python主 背景:随机数在离散事件模拟中对于生成事件时间非常重要。随机数链必须具有两个主要属性:1)均匀性2)独立性。随机仿真模型需要一个或多个随机变量作为输入。可以从一个随机变量(例如X)生成随机数。当可能结果的总数有限时,P(X = x)大于零,范围在零到一之间。在这种情况下,随机变量X被认为是离散的。当可能结果的总数为无限时,P(X = x)恰好为零。在这种情况下,可以说随机变量X是连续的。因此,在我们的研究中,我们现在发现了两个术语-离散随机数和连续随机数。有许多生成随机数
  3. 所属分类:其它

    • 发布日期:2021-03-22
    • 文件大小:2048
    • 提供者:weixin_42130786
  1. full_stack_transformer:Pytorch库用于端到端的变压器模型训练,推理和服务-源码

  2. 全栈变压器 Pytorch库用于端到端的变压器模型训练,推理和服务。一系列出色的图书馆。 图书馆设计 该库的组织方式使得子包包含所有建模,数据结构和数据流类。 在子程序包中,包含所有特定于任务的代码。 可用任务: -经典的基于文档的语言模型培训。它还提供了用于交互式文本生成的应用程序服务。 文件语言模型 目前,该库中只有1个任务可用。因此,我将在README中为此示例使用一个示例。当将执行其他任务时,我将移动文档中的所有示例。 特征 自动LM数据集准备 端到端变压器LM培训 训练 用元数据(控制
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:1048576
    • 提供者:weixin_42144366
  1. gpt2-small-spansih:通用模型库和通用模型库gpt2小实用程序Wikipedia西班牙语-源码

  2. gpt2-small-spansih 通用模型库和通用模型库gpt2小实用程序Wikipedia西班牙语 在获取模型 西班牙语英语教学法。 (英语) GPT2-small-spanish:用于西班牙文本生成的语言模型(以及更多NLP任务...) GPT2-small-spanish是基于GPT-2小型模型的西班牙语最新语言模型。 它已使用迁移学习和微调技术在西班牙语维基百科上进行了培训。 使用四个具有11GB DDR5的GPU NVIDIA GTX 1080-Ti和大约3GB(已处理)的培训
  3. 所属分类:其它

    • 发布日期:2021-03-14
    • 文件大小:7168
    • 提供者:weixin_42119989
  1. simpletransformers:用于分类,NER,QA,语言建模,语言生成,T5,多模式和会话式AI的变压器-源码

  2. 简单的变形金刚 该库基于HuggingFace的库。 使用简单的Transformers,您可以快速训练和评估Transformer模型。 初始化模型,训练模型和评估模型仅需要三行代码。 技术支持 序列分类 代币分类(NER) 问题回答 语言模型微调 语言模型训练 语言生成 T5型号 Seq2Seq任务 多模态分类 对话式AI。 文本表示生成。 目录 设置 与conda 从安装Anaconda或Miniconda Package Manager 创建一个新的虚拟环境并安装软件包。 con
  3. 所属分类:其它

    • 发布日期:2021-03-13
    • 文件大小:17825792
    • 提供者:weixin_42165018
  1. story-generation-eval:论文代码:“经过大量预训练的语言模型可以使讲故事的人变得更好吗?”-源码

  2. 这是CoNLL 2019论文的代码, 。 此回购包含用于下载生成的文本数据,计算其上的自动度量并在纸上绘制图的代码。 下载资料 下载并解压缩 ( )以创建一个名为data的目录: cd story-generation-eval wget https://nlp.stanford.edu/data/gpt_analysis/data.zip unzip data.zip 关于模型生成的故事(未注释) 在data/stories_unannotated ,每个json文件都包含一个字典,其
  3. 所属分类:其它

    • 发布日期:2021-03-09
    • 文件大小:556032
    • 提供者:weixin_42151373
  1. SherlockNet:R基于RNN的语言模型,用于生成福尔摩斯故事-源码

  2. 夏洛克网 用于基于RNN生成Sherlock Holmes故事的语言模型,该RNN在使用字节对编码(BPE)算法编码的令牌上训练。 数据收集自: :
  3. 所属分类:其它

    • 发布日期:2021-03-09
    • 文件大小:9437184
    • 提供者:weixin_42146888
  1. 用于神经文本生成的差异化分布恢复

  2. 基于递归神经网络(RNNLM)的神经语言模型极大地提高了文本生成的性能,但是以图灵测试通过率表示的生成文本的质量仍然远远不能令人满意。 一些研究人员建议使用对抗训练或强化学习来提高质量,但是,这种方法通常会在训练和参数调整过程中带来巨大挑战。 通过我们的分析,我们发现RNNLM的问题来自最大似然估计(MLE)作为目标函数的使用,这需要生成的分布来精确地恢复真实分布。 这种要求有利于高世代多样性,这限制了世代质量。 当整体质量较低时,这是不合适的,因为高世代多样性通常表示很多错误,而不是多样化的好
  3. 所属分类:其它

    • 发布日期:2021-03-07
    • 文件大小:708608
    • 提供者:weixin_38607088
  1. cloj:Clojure中的(()()`元语言-源码

  2. cloj Clojure中的()()元语言 github的: : 生成元编程 主持人语言:Clojure 多种目标语言: Python | Django的 Erlang /长生不老药| 凤凰 锈 嵌入式C / C ++ 部署平台: VPS /通用Linux 嵌入式Linux(Buildroot) Cortex-M嵌入式设备(STM32) 最终编程模型: 通过系统自我应用程序进行引导 Web和IoT应用程序的分布式对象运行时 语言模型混合了Smalltalk,Python,El
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:17408
    • 提供者:weixin_42134094
  1. gmsh-macros:使用Gmsh生成典型几何模型及其网格的宏-源码

  2. gmsh-macros 使用Gmsh生成典型几何模型及其网格的宏 Gmsh是三维有限元网格生成器。 Gmsh中的模型使用其边界表示(BRepary Representation,BRep)进行定义:一个体积由一组曲面限定边界,一个表面由一系列曲线限定边界,而一条曲线则由两个端点限定边界。 尽管Gmsh支持OpenCASCADE内核进行几何建模,但是从BRep模型生成网格更可靠和可靠。 为了减轻BRep模型创建过程中的不便,该项目包含了一组用Gmsh脚本语言编写的宏,用于生成典型的几何模型及其
  3. 所属分类:其它

    • 发布日期:2021-03-01
    • 文件大小:1048576
    • 提供者:weixin_42143806
  1. 句子:基于神经网络的文本生成的无监督文本标记器-源码

  2. 句子片段 SentencePiece是一种无监督的文本标记器和去标记器,主要用于基于神经网络的文本生成系统,其中在神经模型训练之前预先确定了词汇量。 SentencePiece实现子字单元(例如,字节对编码(BPE) [ ])和unigram语言模型[ ]),并从原始句子扩展了直接培训。 SentencePiece允许我们创建一个不依赖于特定于语言的预处理/后处理的纯粹的端到端系统。 这不是Google的官方产品。 技术亮点 纯粹由数据驱动:SentencePiece从句子中训练标记化和反
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:11534336
    • 提供者:weixin_42099176
  1. scala-infer:Scala嵌入式通用概率编程语言-源码

  2. Scala推断 通过添加一些关键字, scala-infer将scala转变为一种概率编程语言。 为了实现可伸缩性,推断基于后验分布的(梯度近似)。 分发中的每个抽奖均附有指南分发。 scala-infer概率模型被编写为常规的scala代码。 值是从分布中提取的,用于生成数据。 这种模型被称为生成模型,因为它提供了一个明确的过程。 引入了三个新的关键字: infer定义模型 从分布中抽取随机变量的sample observe将数据绑定到模型中的分布 对值进行采样时,需要两个分布。 后
  3. 所属分类:其它

    • 发布日期:2021-02-23
    • 文件大小:98304
    • 提供者:weixin_42157567
  1. ai-story-teller:一个简单的Python程序,它从未标点符号的小说中读取文本,并根据给定材料中单词出现的频率生成新的故事-源码

  2. 艾讲故事的人 这是什么 Ai讲故事的人是一个简单的独立Python程序,可从命令行运行。 在选择了一些要消化的纯文本小说之后,该程序将建立一个三元组语言模型,该模型用于根据给定前一组单词的出现频率与给定文本中出现的频率成正比来生成新的故事。文字的。 该项目是华盛顿大学教授的人工智能概论课程最终项目的一部分。 最新版本 由于使用了Python的新f字符串语法,因此该程序的当前版本是为python 3.7编写的。 安装 要使用此程序,请先在Windows计算机上打开您喜欢的终端程序或命令提示符,然
  3. 所属分类:其它

    • 发布日期:2021-02-20
    • 文件大小:722944
    • 提供者:weixin_42135753
  1. Catalyst.jl:用于科学机器学习(SciML)的化学React网络和系统生物学接口。 开源软件中的高性能,GPU并行化和O(1)求解器-源码

  2. 催化剂 Catalyst.jl是用于化学React网络的高性能仿真和建模的领域特定语言(DSL)。 Catalyst利用 ReactionSystem s,利用ModelingToolkit通过自动矢量化和并行性实现大规模仿真。 ReactionSystem可以用于生成基于ModelingToolkit的模型,从而可以轻松地模拟和评估质量作用ODE模型,化学兰格文SDE模型,随机化学动力学跃迁过程模型等。 生成的模型可以与更广泛的生态系统中的求解程序一起使用,包括更高级别的SciML程序包(例
  3. 所属分类:其它

    • 发布日期:2021-02-16
    • 文件大小:2097152
    • 提供者:weixin_42099987
  1. covid-19-chatbot:论文代码“对COVID-19自动提问的语言模型进行定性评估”-源码

  2. COVID-19聊天机器人 请注意,聊天机器人生成的健康信息仅用于一般研究目的。 它不是诊断工具,也不是针对特定状况的医学建议或治疗的替代品。 目录 纸 我们的工作已被接受。 可以找到该文件 。 数据集 该数据集是取自的初始商业用途子集,包含9000篇学术文章。 出于培训目的,我们提取了这些文章的摘要和正文,并将它们合并在一起。 要(重新)提取数据,请运行以下命令。 python3 extract.py 模型 我们已经使用COVID-19语料库对GPT-2 774M模型进行了重新训练。
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:293601280
    • 提供者:weixin_42127937
  1. spacy-dev-resources:for用于开发spaCy的脚本,工具和资源-源码

  2. 空间开发人员资源 :warning_selector: 该存储库已过时并已归档。 与其提供单独的脚本,我们一直致力于,改进和更新以减少实用程序。 该存储库是社区资源的集合,包含用于开发 ,添加新语言和培训新模型的脚本,工具和帮助程序。 目录 目录 描述 用于转换树库的脚本。 工作进行中。 与一起使用的实用程序命令。 简单的扩展以可视化 Notebook中的依赖项解析。 可训练的服务器,用于通过连接到前端的命名实体 用于添加spaCy扩展名的模板文件,例如新语言。 用于生成空间模型
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:9437184
    • 提供者:weixin_42172572
  1. unilm:UniLM-NLP及更高版本的统一语言模型预培训-源码

  2. UniLM 预训练的自然语言理解(NLU)和生成(NLG)任务模型 UniLM系列: ( v1NeurIPS'19 | v2ICML'20 ):语言理解和生成的统一预培训 ( new ):用于语言理解和生成的多语言/跨语言预训练模型 ( v1NeurIPS'20 ):用于语言理解和生成的小型预训练模型 ( v1KDD'20 | v2 ):用于文档理解(例如,扫描的文档,PDF等)的多模式(文本+布局/格式+图像)预训练 :序列到序列微调工具包 ( NEW ):带预训练的跨语言编码
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:435200
    • 提供者:weixin_42133329
« 12 3 4 5 6 7 8 9 10 ... 25 »