您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. word2vec词向量训练及中文文本相似度计算 【源码+语料】

  2. 该资源主要参考我的博客:word2vec词向量训练及中文文本相似度计算 http://blog.csdn.net/eastmount/article/details/50637476 其中包括C语言的Word2vec源代码(从官网下载),自定义爬取的三大百科(百度百科、互动百科、维基百科)中文语料,涉及到国家、景区、动物和人物。 同时包括60M的腾讯新闻语料,是一个txt,每行相当于一个新闻。 国家包括了Python的Jieba分词代码,详见博客。 免费资源希望对你有所帮助~
  3. 所属分类:C

    • 发布日期:2016-02-18
    • 文件大小:148897792
    • 提供者:eastmount
  1. word2vec词向量训练及中文文本相似度计算

  2. 用来得到TXT文本中词语的相关性的深度学习模型,需要分词,text8为样例,运行脚本可以直接开始训练。最后得到.bin模型
  3. 所属分类:深度学习

    • 发布日期:2018-05-27
    • 文件大小:32505856
    • 提供者:zym339
  1. word2vec词向量训练及中文文本相似度计算

  2. word2vec词向量训练及中文文本相似度计算。 word2vec是google在2013年推出的一个NLP工具,它的特点是将所有的词向量化,这样词与词之间就可以定量的去度量他们之间的关系,挖掘词之间的联系。虽然源码是开源的,但是谷歌的代码库国内无法访问,因此本文的讲解word2vec原理以Github上的word2vec代码为准。本文关注于word2vec的基础知识。
  3. 所属分类:深度学习

    • 发布日期:2018-02-23
    • 文件大小:2097152
    • 提供者:qiangbi0785
  1. word2vec词向量训练及中文文本相似度计算

  2. PS:第一部分主要是给大家引入基础内容作铺垫,这类文章很多,希望大家自己去学习更多更好的基础内容,这篇博客主要是介绍Word2Vec对中文文本的用法。统计语言模型的一般形式是给定已知的一组词,求解下一个词的条件概率。形式如下:统计语言模型的一般形式直观、准确,n元模型中假设在不改变词语在上下文中的顺序前提下,距离相近的词语关系越近,距离较远的关联度越远,当距离足够远时,词语之间则没有关联度。但该模型没有完全利用语料的信息:1)没有考虑距离更远的词语与当前词的关系,即超出范围n的词被忽略了,而这两
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:738304
    • 提供者:weixin_38643401
  1. word2vec词向量训练及中文文本相似度计算

  2. PS:第一部分主要是给大家引入基础内容作铺垫,这类文章很多,希望大家自己去学习更多更好的基础内容,这篇博客主要是介绍Word2Vec对中文文本的用法。统计语言模型的一般形式是给定已知的一组词,
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:732160
    • 提供者:weixin_38708461