您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. word2vec自编译函数(By Jian Li,2014-09-21)

  2. R语言实现深度学习word2vec,word2vec包含两个模型CBOW以及Skp-gram模型,R语言实现的过程中需要配置一些内容,详情见包中附件readme。
  3. 所属分类:其它

    • 发布日期:2016-05-07
    • 文件大小:350208
    • 提供者:sinat_26917383
  1. Deep Learning word2vec

  2. 作者对word2vec的相关代码和算法做了相关调研,本文就是作者关于word2vec调研的总结,也是作为自己以后备用 目录 一、什么是 word2vec? ..........................................................................................................2 二、快速入门.........................................................
  3. 所属分类:讲义

    • 发布日期:2016-11-28
    • 文件大小:1048576
    • 提供者:qq_27272175
  1. word2vec basic python代码详解(配合Wordvec的数学原理使用更佳)

  2. 该文档详细描述了Python版的word2vec基础代码的代码流程,便于理解Word2vec中的CBOW模型以及SKIP-gram模型。
  3. 所属分类:深度学习

    • 发布日期:2017-12-02
    • 文件大小:19456
    • 提供者:qq_34271042
  1. cs224d assignment1

  2. 斯坦福大学cs224d课程作业1,包括课程笔记note1、作业assignment1及相关实现代码。
  3. 所属分类:深度学习

    • 发布日期:2018-02-09
    • 文件大小:163577856
    • 提供者:foreseerwang
  1. word2vec 中的数学原理详解

  2. PDF出处:https://blog.csdn.net/itplus/article/details/37969519,本着查阅方便,无法设置免积分下载,有需要的请自行下载
  3. 所属分类:深度学习

    • 发布日期:2018-11-01
    • 文件大小:6291456
    • 提供者:hearthougan
  1. CBOW模型驯练word2vec

  2. 本例将使用CBOW模型来驯练word2vec。最终将所学的词向量关系可视化出来
  3. 所属分类:深度学习

    • 发布日期:2018-09-12
    • 文件大小:9216
    • 提供者:weixin_40943549
  1. word2vec原理(二)

  2. 在word2vec原理(一) CBOW与Skip-Gram模型基础中,我们讲到了使用神经网络的方法来得到词向量语言模型的原 理和一些问题,现在我们开始关注word2vec的语言模型如何改进传统的神经网络的方法。由于word2vec有两种改进方法,一 种是基于Hierarchical Softmax的,另一种是基于Negative Sampling的。本文关注于基
  3. 所属分类:机器学习

    • 发布日期:2018-12-28
    • 文件大小:646144
    • 提供者:gavin_xxx
  1. word2vec訓練集text8.zip

  2. word2vec訓練集text8.zip 使用word2vec的两种方法来构建word embedding,同时将embedding降维显示在图像上 一种是skip-gram ``` w2v_skip_gram.py ``` 一种是CBOW ``` w2v_cbow.py ``` 两种方法都使用负采样的方法计算loss # 输入 经过分词的汉语文章 # 输出 每个分词 + 128 维的词向量 词向量降维,可视化图片 # 其他 数据处理的时候用到采样方法来进行高频噪声去除 原理见https://
  3. 所属分类:深度学习

    • 发布日期:2019-05-06
    • 文件大小:6291456
    • 提供者:weixin_38241876
  1. 单词转换成向量形式工具Word2Vec.Net.zip

  2. Word2Vec.Net 是单词转换成向量形式工具Word2Vec .NET版本。使用示例代码:            var builder = Word2VecBuilder.Create();             if ((i = ArgPos("-train",  args)) > -1)                 builder.WithTrainFile(args[i   1]);             if ((i = ArgPos("-output", arg
  3. 所属分类:其它

    • 发布日期:2019-07-19
    • 文件大小:3145728
    • 提供者:weixin_39840588
  1. 《用tensorflow做的cbow词向量》中的数据集

  2. 该文本对应的是《用tensorflow做的cbow词向量》中的数据集。可以下载。
  3. 所属分类:深度学习

    • 发布日期:2019-07-20
    • 文件大小:72
    • 提供者:wang263334857
  1. word2vec源码解析.pdf

  2. word2vec 是浅层神经网络训练出来的稠密向量表示的一种方法。应用于自然语言处理过程中。word2vec. c 2014/6/99:31 f(a > MAX STRING -1)a / Truncate too long words 114 115word[a]=0;//字符串结束符 116 117 118// Returns hash value of a word 119//计算单词的hash码 120 int GetWordHash(char *word) unsigned lo
  3. 所属分类:深度学习

    • 发布日期:2019-07-04
    • 文件大小:119808
    • 提供者:scnuzjf
  1. SkipGram.py

  2. 对于词嵌入skip-gram方法的python实现。于预测的词嵌入 基于预测的词嵌入是我们今天讲解的重点。 CBow&Skip-gram GloVe
  3. 所属分类:机器学习

    • 发布日期:2020-06-14
    • 文件大小:16384
    • 提供者:jxsdq
  1. 个人Hierarchical softmax之CBOW推倒+知乎讲解.zip

  2. 个人Hierarchical softmax之CBOW推倒+知乎讲解,看了知乎上大佬的讲解后,自己手动重新推倒了CBOW的loss的设计以及个人理解模型导图和反向传播过程
  3. 所属分类:深度学习

    • 发布日期:2020-07-27
    • 文件大小:2097152
    • 提供者:qwezhaohaihong
  1. pytorch入门NLP教程(二)——CBOW

  2. 在上一个教程中我们说到了NNLM,但是NNLM虽然考虑的一个词前面的词对它的影响,但是没有办法顾忌到后面的词,而且计算量较大,所以可以使用Word2vec中的一个模型CBOW。 目标:通过周围的词预测中心词w(t)w(t)w(t) 目标函数:J=∑ω∈corpusP(w∣content(w))J = \sum_{\omega\in corpus}P(w|content(w))J=∑ω∈corpus​P(w∣content(w)) 输入:上下文单词的onehot,假设单词向量空间dim为V,上
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:822272
    • 提供者:weixin_38711333
  1. ML-Text-Mining:与机器学习在线竞赛有关的项目-源码

  2. 文字分析 该存储库包含文本分析机器学习内容。 用例 下一个单词的预测 情绪分析-分析社交媒体影响者 分类 主题建模-识别文本的主题类别 语言翻译 可视化 预处理 案例标准化 标记化-字符,单词,n-gram,句子 删除停用词 茎和茎 词嵌入5.1)跳过语法5.2)CBOW 5.3)GloVE 5.4)FastText 位置编码 传统方法 言语包 TF IDF 基于机器学习-朴素贝叶斯,逻辑回归 深度学习模型 RNN 格鲁 LSTM 双向LSTM 注意力 变压器5.1)Bert 5.2)
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:2097152
    • 提供者:weixin_42116650
  1. twitter_hate_speech-源码

  2. twitter_hate_speech 已实施的端到端自然语言处理项目将目标仇恨言论与仅包含令人讨厌的单词的言论区分开来。 从数据清理,特征提取(单词包,nGrams,TF-IDF BOW,word2vec嵌入),特征选择和建模。 使用word2vec CBOW和Skip-gram进行无监督学习。 还创建了用于转移学习的多层感知器和用于半监督学习的标签传播算法。
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:33554432
    • 提供者:weixin_42109598
  1. dsg:定向跳过代码-源码

  2. DSG 数据集 您还可以下载我们的公共数据集: : 如何使用 要构建代码,只需运行: make 构建单词嵌入的命令与原始版本中的命令完全相同,只是我们删除了参数-cbow并将其替换为参数-type: . / dsg - train input_file - output embedding_file - type 0 - size 50 - window 5 - negative 10 - hs 0 - sample 1e-4 - threads 1 - binary 1 - it
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:17408
    • 提供者:weixin_42148975
  1. nlp-with-pytorch:joosthubPyTorchNLPBook的逻辑叉-源码

  2. 使用PyTorch进行自然语言处理 使用深度学习构建智能语言应用程序Delip Rao和Brian McMahan 欢迎。 这是《 》一书的配套资料库。 目录 开始吧! PyTorch基础 第2章:NLP快速浏览 文字范例 深入进行有监督的培训 使用Perceptron分类餐厅评论的情绪 感知器的局限性 引入多层感知器(MLP) 卷积神经网络(CNN)简介 具有MLP的姓氏分类 带有CNN的姓氏分类 使用预训练的嵌入 学习连续词袋嵌入(CBOW) 使用预训练的嵌入进行转移学习 姓氏的序列
  3. 所属分类:其它

    • 发布日期:2021-02-08
    • 文件大小:45088768
    • 提供者:weixin_42177768
  1. 讨价还价:很多印度推文-源码

  2. LOIT-很多印度推文 安装 pip install loit 用法 import loit # download data # hindi and telugu are available as of now loit.download('hindi', 'data') # download fasttext cbow vectors and read them loit.load_vectors('hindi', 'cbow') # download fasttext skipgram v
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:16384
    • 提供者:weixin_42129005
  1. koan:具有正确CBOW更新的word2vec否定采样实现-源码

  2. koan:具有正确CBOW更新的word2vec否定采样实现
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:340992
    • 提供者:weixin_42099814
« 12 »