您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Sams Extending and Embedding PHP

  2. Sams Extending and Embedding PHP
  3. 所属分类:PHP

    • 发布日期:2010-11-01
    • 文件大小:886784
    • 提供者:uestc_yy
  1. Extending.and.Embedding.PHP

  2. 深入PHP内核及扩展开发英文chm Extending.and.Embedding.PHP
  3. 所属分类:PHP

    • 发布日期:2011-09-20
    • 文件大小:884736
    • 提供者:rainkid
  1. php extending and embedding

  2. php extending and embedding
  3. 所属分类:PHP

    • 发布日期:2014-09-04
    • 文件大小:1048576
    • 提供者:jianjiang
  1. Extending and Embedding PHP.chm

  2. In just a few years PHP has rapidly evolved from a small niche language to a powerful web development tool. Now in use on over 14 million Web sites, PHP is more stable and extensible than ever. However, there is no documentation on how to extend PHP
  3. 所属分类:PHP

    • 发布日期:2014-10-22
    • 文件大小:899072
    • 提供者:wangxx2026
  1. php extending and embedding中文翻译版

  2. php extending and embedding的中文翻译版,很不错!
  3. 所属分类:PHP

    • 发布日期:2015-09-24
    • 文件大小:1048576
    • 提供者:whq19890827
  1. graph embedding相关论文整理

  2. 个人整理的最近几年比较好的graph embedding算法相关的论文。
  3. 所属分类:计算广告

    • 发布日期:2018-07-08
    • 文件大小:7340032
    • 提供者:qq_20781551
  1. Python-Parallax用于交互式Embedding可视化的工具

  2. Parallax - 用于交互式Embedding可视化的工具
  3. 所属分类:其它

    • 发布日期:2019-08-10
    • 文件大小:7340032
    • 提供者:weixin_39841365
  1. Embedding-based News Recommendation for Millions of Users

  2. Embedding-based News Recommendation for Millions of Users 经典embedding论文 kdd
  3. 所属分类:深度学习

    • 发布日期:2020-07-17
    • 文件大小:2097152
    • 提供者:qq_38072153
  1. Keras—embedding嵌入层的用法详解

  2. 主要介绍了Keras—embedding嵌入层的用法详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:108544
    • 提供者:weixin_38715721
  1. 解决Keras中Embedding层masking与Concatenate层不可调和的问题

  2. 主要介绍了解决Keras中Embedding层masking与Concatenate层不可调和的问题,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:73728
    • 提供者:weixin_38663544
  1. pytorch中的embedding词向量的使用方法

  2. 今天小编就为大家分享一篇pytorch中的embedding词向量的使用方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:37888
    • 提供者:weixin_38554193
  1. Keras—embedding嵌入层的用法详解

  2. 最近在工作中进行了NLP的内容,使用的还是Keras中embedding的词嵌入来做的。 Keras中embedding层做一下介绍。 中文文档地址:https://keras.io/zh/layers/embeddings/ 参数如下: 其中参数重点有input_dim,output_dim,非必选参数input_length. 初始化方法参数设置后面会单独总结一下。 demo使用预训练(使用百度百科(word2vec)的语料库)参考 embedding使用的demo参考: def cre
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:75776
    • 提供者:weixin_38642636
  1. 解决Keras中Embedding层masking与Concatenate层不可调和的问题

  2. 问题描述 我在用Keras的Embedding层做nlp相关的实现时,发现了一个神奇的问题,先上代码: a = Input(shape=[15]) # None*15 b = Input(shape=[30]) # None*30 emb_a = Embedding(10, 5, mask_zero=True)(a) # None*15*5 emb_b = Embedding(20, 5, mask_zero=False)(b) # None*30*5 cat = Concatenate(ax
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:74752
    • 提供者:weixin_38752282
  1. torch.nn.embedding()大致使用方法

  2. 碰到了这个东西,有点不太清楚,在这里记下笔记 将nn.embedding理解为学习一个词向量的表示,每一个词都会对应一个指定维度的单独的向量表示(embed_dim在GRU等模型的输入中,可以认为是input_size)。假设当前词汇表中一共有V个不同的词,则可以定义如下形式: 假设当前词汇表中有4个不同的单词,则V=4 import torch import torch.nn as nn embed=nn.Embedding(4,embed_dim) x=torch.LongTensor([[
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:41984
    • 提供者:weixin_38637983
  1. 万物皆可embedding

  2. 不是做NLP方向对这方面之前也并不了解,但本科学习过文本挖掘课程,在数据挖掘的时候偶尔会涉及到对本文特征的处理,只好趁着机会再学习总结下。 embedding 简单来说,embedding就是用一个低维的向量表示一个物体,可以是一个词,或是一个item(商品,或是一个电影等等)。这个embedding向量的性质是能使距离相近的向量对应的物体有相近的含义,比如 Embedding(复仇者联盟)和Embedding(钢铁侠)之间的距离就会很接近,但 Embedding(复仇者联盟)和Embeddin
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:254976
    • 提供者:weixin_38543460
  1. Embedding-Knowledge-Graphs-源码

  2. Embedding-Knowledge-Graphs
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:36700160
    • 提供者:weixin_42134143
  1. media-embedding-源码

  2. media-embedding
  3. 所属分类:其它

    • 发布日期:2021-03-10
    • 文件大小:10485760
    • 提供者:weixin_42112685
  1. Spherical-Text-Embedding:[NeurIPS 2019]球形文本嵌入-源码

  2. 球形文字嵌入 在NeurIPS 2019中发布的用于Spherical Text Embedding的源代码。代码结构(尤其是文件读取和保存功能)改编自。 要求 GCC编译器(用于编译源c文件):请参阅有关的。 预训练的嵌入 我们在上提供了经过预训练的JoSE嵌入。 与诸如Word2Vec和GloVe之类的欧几里德嵌入不同,球形嵌入不一定受益于高维空间,因此,首先从低维嵌入开始可能是一个好主意。 运行代码 我们提供了一个shell脚本run.sh来编译源文件和训练嵌入。 注意:在准备训练文本语
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:10485760
    • 提供者:weixin_42105570
  1. wikipedia 训练繁体中文 embedding(word2vec)模型-附件资源

  2. wikipedia 训练繁体中文 embedding(word2vec)模型-附件资源
  3. 所属分类:互联网

  1. wikipedia 训练繁体中文 embedding(word2vec)模型-附件资源

  2. wikipedia 训练繁体中文 embedding(word2vec)模型-附件资源
  3. 所属分类:互联网

« 12 3 4 5 6 7 8 9 10 ... 35 »