您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. cognos Tranformer使用手册

  2. cognos Cube建模工具使用手册(中文版)
  3. 所属分类:管理软件

    • 发布日期:2011-07-11
    • 文件大小:1048576
    • 提供者:li74532
  1. Cognos10_Business_Intelligence_安装和配置

  2. 安装IBM® Cognos® BI 服务器组件时,您可以指定放置网关、应用程序层组件和Content Manager 的位置。您可以使用以下任意选项安装这些组件: ● 在一台计算机上安装所有组件。 此选项通常用于演示或用于概念论证环境。 ● 在单独的计算机上安装网关。 在此选项中,网关和Web 服务器在一台计算机上,剩余的IBM Cognos 组件在其他计算机 上。如果您现在有可用于处理IBM Cognos 组件请求的Web 服务器,您可以选择此选项。 ● 在单独的计算机上安装应用程序层组件和
  3. 所属分类:其它

    • 发布日期:2011-07-18
    • 文件大小:3145728
    • 提供者:lxhjh
  1. transformer项目建模

  2. transformer项目建模;
  3. 所属分类:其它

    • 发布日期:2012-04-17
    • 文件大小:2097152
    • 提供者:cjavaer
  1. Python-该系统实现了基于深度框架的语音识别中的声学模型和语言模型建模

  2. 该系统实现了基于深度框架的语音识别中的声学模型和语言模型建模,其中声学模型包括CNN-CTC、GRU-CTC、CNN-RNN-CTC,语言模型包含transformer、CBHG,数据集包含stc、primewords、Aishell、thchs30四个数据集。
  3. 所属分类:其它

    • 发布日期:2019-08-10
    • 文件大小:113246208
    • 提供者:weixin_39841882
  1. 半桥LLC谐振电路知识详解-半桥LLC谐振转换器的设计考虑及安森美半导体解决方案.pdf

  2. 半桥LLC谐振电路知识详解-半桥LLC谐振转换器的设计考虑及安森美半导体解决方案.pdf转换器的工作频率取决于功※需求。功率需求较低时,工作频率相当高,超 出谐振点。相反,功率需求较高时,控制环路会降低廾关频牽,使其中一个谐振频 率提供负载所需大小的电流。总的来看,转换器工作在种不同的工作状 态,分别是:在和之间;直接谐振在 高于;在和 之间过载;低于。 与分立储能电路解决方案相比,集成储能电路解决方案的行为特性不同,如漏电感 米自于变压器耦合,且仅在变压器初级和次级之间存在能量转换时参与谐 振
  3. 所属分类:其它

    • 发布日期:2019-09-03
    • 文件大小:526336
    • 提供者:weixin_38743481
  1. REALM: Retrieval-Augmented Language Model Pre-Training

  2. REALM: Retrieval-Augmented Language Model Pre-Training 从ELMO、BERT和GPT到如今多种多样的预训练模型的横空出世,pre-training + fine-tune逐渐成为了NLP中建模的新范式,众多研究人员也不断的针对于Transformer和预训练做出改进,其中包括对Transformer本身结构的改进、预训练策略的调整、预训练结合多任务学习……甚至已有文章将其和视觉等其他的领域任务进行融合,同样取得了不错的效果。 本文提出了一
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:224256
    • 提供者:weixin_38546608
  1. 即将取代RNN结构的Transformer

  2. 本文来自于segmentfault,文章介绍了Transformer的整体结构、attention计算过程等相关内容。上图是经典的双向RNN模型,我们知道该模型是通过递归的方式运行,虽然适合对序列数据建模,但是缺点也很明显“它无法并行执行”也就无法利用GPU强大的并行能力(这里插句题外话,正因为GPU强大的并行能力,所以batch_size等于1和等于200运算时间基本差不多),再加上各种门控机制,运行速度很慢。一般而言,编码器输出编码向量C作为解码器输入,但是由于编码向量C中所有的编码器输入值
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:935936
    • 提供者:weixin_38502292
  1. 一文理解Transformer的工作原理

  2. 自然语言处理中的Transformer模型真正改变了我们处理文本数据的方式。Transformer是最近自然语言处理发展的幕后推手,包括Google的BERT。了解Transformer的工作原理、它如何与语言建模、序列到序列建模相关,以及它如何支持Google的BERT模型。现在,我喜欢做一名数据科学家,从事自然语言处理(NaturalLanguageProcessing,NLP)方面的工作。这些突破和发展正以前所未有的速度发生。从超高效的ULMFiT框架到Google的BERT,自然语言处理
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:1048576
    • 提供者:weixin_38662122
  1. 即将取代RNN结构的Transformer

  2. 本文来自于segmentfault,文章介绍了Transformer的整体结构、attention计算过程等相关内容。上图是经典的双向RNN模型,我们知道该模型是通过递归的方式运行,虽然适合对序列数据建模,但是缺点也很明显“它无法并行执行”也就无法利用GPU强大的并行能力(这里插句题外话,正因为GPU强大的并行能力,所以batch_size等于1和等于200运算时间基本差不多),再加上各种门控机制,运行速度很慢。一般而言,编码器输出编码向量C作为解码器输入,但是由于编码向量C中所有的编码器输入值
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:935936
    • 提供者:weixin_38506798
  1. 一文理解Transformer的工作原理

  2. 自然语言处理中的Transformer模型真正改变了我们处理文本数据的方式。Transformer是最近自然语言处理发展的幕后推手,包括Google的BERT。了解Transformer的工作原理、它如何与语言建模、序列到序列建模相关,以及它如何支持Google的BERT模型。现在,我喜欢做一名数据科学家,从事自然语言处理(NaturalLanguageProcessing,NLP)方面的工作。这些突破和发展正以前所未有的速度发生。从超高效的ULMFiT框架到Google的BERT,自然语言处理
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:1048576
    • 提供者:weixin_38596879