您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. word2vec源码解析.pdf

  2. word2vec 是浅层神经网络训练出来的稠密向量表示的一种方法。应用于自然语言处理过程中。word2vec. c 2014/6/99:31 f(a > MAX STRING -1)a / Truncate too long words 114 115word[a]=0;//字符串结束符 116 117 118// Returns hash value of a word 119//计算单词的hash码 120 int GetWordHash(char *word) unsigned lo
  3. 所属分类:深度学习

    • 发布日期:2019-07-04
    • 文件大小:119808
    • 提供者:scnuzjf
  1. 医疗领域命名实体识别源码

  2. 包含传统的基于统计模型(CRF)和基于深度学习(Embedding-Bi-LSTM-CRF)下的医疗数据命名实体识别
  3. 所属分类:深度学习

    • 发布日期:2021-01-01
    • 文件大小:244318208
    • 提供者:bruce__ray
  1. kb-shrink:缩减知识密集型任务的知识库,一次一对键值对-源码

  2. 知识库收缩 笔记: 观察以KB为单位的密钥分布 减少嵌入向量的大小 截断SVD / PCA,自动编码器,随机投影,裁剪/折叠嵌入 观察性能下降与大小的关系 训练前与训练后减少效果 通过聚类减少知识库的大小。 观察性能与群集数 训练前与训练后减少效果 必须对MIPS进行修改,以使其趋向于平均值-商店群集大小。 用法 pip3 install -r requirementss.txt mkdir -p data # download ELI5 dataset wget -O data/eli5-
  3. 所属分类:其它

    • 发布日期:2021-03-26
    • 文件大小:26624
    • 提供者:weixin_42134038
  1. roformer:旋转变压器-源码

  2. 旋转变压器 Rotary Transformer,简称RoFormer,是我们自研的语言模型之一,主要是为Transformer结构设计了新的旋转式位置编码(Rotary Position Embedding,RoPE)。RoPE具有良好的理论性质,并且是目前唯一一种可以应用到线性注意的绝对位置编码,目前来看实验结果也颇为不错。 详细介绍: : 依赖 bert4keras 0.10.4 参考配置:在24G显存的3090上,跑maxlen = 1024,batch_size能跑到8以上。 下载
  3. 所属分类:其它

    • 发布日期:2021-03-25
    • 文件大小:5120
    • 提供者:weixin_42165980
  1. routing-transformer:路由变压器的全功能实现-源码

  2. 路由变压器 全功能实现。本文提出使用k最近邻居将相似的查询/关键字路由到同一群集中以引起注意。 131k代币 安装 $ pip install routing_transformer 用法 简单的语言模型 import torch from routing_transformer import RoutingTransformerLM model = RoutingTransformerLM ( num_tokens = 20000 , dim = 512 , hea
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:72351744
    • 提供者:weixin_42109639
  1. Embedding-Knowledge-Graphs-源码

  2. Embedding-Knowledge-Graphs
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:36700160
    • 提供者:weixin_42134143
  1. embedding-源码

  2. 嵌入存储库 要记住的定义 属性-对象(人,物等)的特征。 变量-逻辑属性集。可能是依赖的或独立的。 因变量-在某些定律或规则(例如,通过数学函数)下,它们的值取决于其他变量的值的假设或假设下,对其值进行研究。 自变量-不视为取决于所讨论实验范围内的任何其他变量。一些常见的自变量是时间,空间,密度,质量,流体流速以及某些观察到的感兴趣值的先前值(例如,人口规模),以预测未来值(因变量)。 参数-更改系统模型中变量之间的关系。例如,在根据工资和工时(收入等于工资乘以工时)来计算收入时,通常假设工时数
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:8388608
    • 提供者:weixin_42118160
  1. AnalogyDataset:用于类比知识探测的数据集-源码

  2. 类比数据集 用于类比知识探测的数据集: SAT风格的类比测试: 单词对列表: 剧本 :从检索wiki-common-word-pairs,这是在Wikipedia转储中对选定单词对进行训练的单词对嵌入模型。 :使用类比测试数据集和wiki-common-word-pairs的单词对,使用FastText计算在Wikipedia上的。 usage: get_relative_embedding.py [-h] [-o OUTPUT] [-w WINDOW_SIZE] [--minimum-
  3. 所属分类:其它

    • 发布日期:2021-03-12
    • 文件大小:8192
    • 提供者:weixin_42168230
  1. media-embedding-源码

  2. media-embedding
  3. 所属分类:其它

    • 发布日期:2021-03-10
    • 文件大小:10485760
    • 提供者:weixin_42112685
  1. Spherical-Text-Embedding:[NeurIPS 2019]球形文本嵌入-源码

  2. 球形文字嵌入 在NeurIPS 2019中发布的用于Spherical Text Embedding的源代码。代码结构(尤其是文件读取和保存功能)改编自。 要求 GCC编译器(用于编译源c文件):请参阅有关的。 预训练的嵌入 我们在上提供了经过预训练的JoSE嵌入。 与诸如Word2Vec和GloVe之类的欧几里德嵌入不同,球形嵌入不一定受益于高维空间,因此,首先从低维嵌入开始可能是一个好主意。 运行代码 我们提供了一个shell脚本run.sh来编译源文件和训练嵌入。 注意:在准备训练文本语
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:10485760
    • 提供者:weixin_42105570
  1. EmbedMask:EmbedMask-源码

  2. EmbedMask:一阶段实例分割的嵌入耦合 这是用于纸张的存储库: EmbedMask: Embedding Coupling for One-stage Instance Segmentation; Hui Ying, Zhaojin Huang, Shu Liu, Tianjia Shao and Kun Zhou; arXiv preprint arXiv:1912.01954 全文可在以下获得: : 。 但是,除了本文以外,现在还对代码进行了一些优化。 安装 此EmbedMask
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:6291456
    • 提供者:weixin_42121412
  1. permutation-entropy:使用置换熵分析ECG信号-源码

  2. 离散熵 排序熵(Permutation Entropy,PE)算法是Bandt,Pompe(2001)提出的一种排序时间序列复杂性的方法,它首先通过相空间细分以及子序列排序提取序列模式的概率分布,再根据概率分布计算出这段时间序列的熵值。 相空间重构 假设有一段长度为的非线性系统的离散时间序列 ,我们希望从这段时间序列中提取信息,某些信号的复杂程度,这时候就需要对时间序列进行相空间重构。 Packard等。 (1980)对于时间序列的相空间重构,提出了两种插入方法,分别是导数解码法和坐标顺序转换法
  3. 所属分类:其它

    • 发布日期:2021-03-07
    • 文件大小:1048576
    • 提供者:weixin_42099936
  1. Sarcasm-Dataset-源码

  2. 讽刺数据集 在新闻头条中检测讽刺。 有关整个代码,请参考文件。 数据集链接。 使用的框架: 使用TensorFlow v2.2.0训练的模型 使用的模型架构: model.summary() Model: "sequential" _________________________________________________________________ Layer (type) Output Shape Param #
  3. 所属分类:其它

    • 发布日期:2021-03-05
    • 文件大小:8388608
    • 提供者:weixin_42133918
  1. QuestionClassifier:5500标记的问题数据集上的问题分类器-源码

  2. 问题分类器 问题分类器 管道 tokenization->word embedding->sentence vector->training the classifier 提交味精 [your task]: what you did in this commit 例如:“ wordEmbedding:word2vec模型初始化” ...
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:122880
    • 提供者:weixin_42140846
  1. DeepGaze-Text-Embedding-Map:加的夫大学开发的DeepGaze + Text-Embeddin-Map项目-Christoph Teufel Lab-源码

  2. DeepGaze文本嵌入地图 该存储库包括DeepGaze的实现,添加了Text-Embedding-Maps (TEM)[Barman等,2020,Yang等,2017],用于可靠地预测人类的注视/注视。 我们使用和之间的数据交集,使用SALICON的注视和COCO的全景注解/细分来执行我们的评估。 首先从以下链接下载数据: 解压缩文件并在正确的位置分配文件夹,您将使用它来运行代码 unzip COCO_subfolder_output.zip 对于runnig,代码首先生成TEM:
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:1048576
    • 提供者:weixin_42128963
  1. RRembo:R中的随机EMbedding贝叶斯优化-源码

  2. 伦博 R中的随机EMbedding贝叶斯优化 RRembo需要eaf 1.9版,可从。 该文档是使用roxygen2生成的。
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:51200
    • 提供者:weixin_42152298
  1. PlainSimpleGarak-源码

  2. 普通的简单Garak-报价生成器 Plain Simple Garak是BiGRU文本生成模型,其目标是生成类似于引号的文本。 该模型包含两个单独的GRU层和一个共享的Embedding层。 对于每个输入,模型会随机选择应使用的图层-这意味着对于相同的输入,生成的文本将始终是不同的。 要求 Python 3.6.9+ 火炬1.7.0+ CUDA 10.1以上 nltk 3.0+ 熊猫1.0+ 要安装要求: pip3 install -r requirements.txt 模型训练 将P
  3. 所属分类:其它

    • 发布日期:2021-02-23
    • 文件大小:5242880
    • 提供者:weixin_42108054
  1. BiGI:WSDM 2021接受的论文的源代码:通过互信息最大化进行二部图嵌入-源码

  2. 比吉 源代码适用于以下论文:“通过互信息最大化进行二部图嵌入”在WSDM 2021中被曹江霞*,林夕勋*,郭果,刘露辰,刘婷文,王斌(*表示相等贡献)接受。 inproceedings{bigi2021, title={Bipartite Graph Embedding via Mutual Information Maximization}, author={Cao*, Jiangxia and Lin*, Xixun and Guo, Shu and Liu, Luchen and
  3. 所属分类:其它

    • 发布日期:2021-02-17
    • 文件大小:1048576
    • 提供者:weixin_42150341
  1. 关系提取监督学习-源码

  2. 数据 [] 用法 下载并解压缩数据,并将其放入文件夹data 。 下载并解压缩StanfordCoreNLP并将其放入文件夹data 。 运行preprocess.py python3 preprocess.py 下载并解压单词嵌入,并将其放入文件夹embedding 。 运行convert.py python3 convert.py 运行run.py训练和测试模型。 python2 run.py 使用官方得分手检查最终的预测结果。 perl semeval2010_task
  3. 所属分类:其它

    • 发布日期:2021-02-16
    • 文件大小:25165824
    • 提供者:weixin_42099942
  1. TensorFlow_Model_Builtup_Examples-源码

  2. 使用TensorFlow在Keras中构建神经网络模型的3种方法(顺序,功能和模型子分类) 在该项目中,我介绍了在TensorFlow.keras中构建模型的三种方式:顺序,功能和模型子类化。 在这里,我将以双向LSTM模型为例,通过数据集解决BBC新闻文档分类问题。 数据集 BBC新闻分类: GloVe(用于单词表示的全局向量) 模型 import tensorflow as tf 顺序API model1 = tf.keras.Sequential([ tf.
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:1048576
    • 提供者:weixin_42120283
« 12 3 4 »