您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 中科院汉语分词工具

  2. 中科院汉语分词工具ICTCLAS,中文分词,文本分词,基于C++开发
  3. 所属分类:C/C++

    • 发布日期:2011-12-20
    • 文件大小:3145728
    • 提供者:xu_haiwen
  1. lucene-core-2.9.2

  2. 用于文本分词,特征词TFIDF计算时的需要的开发包
  3. 所属分类:Java

    • 发布日期:2012-05-11
    • 文件大小:1048576
    • 提供者:huashengmier
  1. 基于K-means的文本聚类

  2. 基于K-means的文本聚类,实现了文本分词,去除停用词,聚类等,直接运行
  3. 所属分类:Java

    • 发布日期:2012-07-03
    • 文件大小:9216
    • 提供者:abclinlin2011
  1. je-analysis-1.5.1.jar+lucene-core-3.5.0.jar+IKAnalyzer2012.zip

  2. 文本分词时需要导入这些包,我是在做垃圾短信的检测时用到的,希望可以帮助有些人
  3. 所属分类:Java

    • 发布日期:2013-04-08
    • 文件大小:4194304
    • 提供者:jinse199019
  1. 基于向量空间模型的中文文本分类技术研究

  2. 0引言伴随着文本挖掘技术的发展,文本分词技术作为文本挖掘技术的一个重要研究分支,也得到了迅速的发展.文本分词技术为大多数文本挖掘技术(如文本分类技术,文本聚类技术等)提供文本预处理工作,分词效果的好坏会直接影响到后续的处理过程,因此文本分词技术是文本挖掘过程中的
  3. 所属分类:Java

    • 发布日期:2013-07-02
    • 文件大小:494592
    • 提供者:u011272837
  1. python代码

  2. python进行文本分词过滤处理,代码简单,支持中文文本
  3. 所属分类:Python

    • 发布日期:2015-03-14
    • 文件大小:2048
    • 提供者:muziqingqing
  1. 英文文本分词java

  2. 基于java 的英文文本分词技术,对于初学的同学应该有用.doc
  3. 所属分类:Java

    • 发布日期:2016-01-12
    • 文件大小:44032
    • 提供者:ljw123429
  1. stanford-parser

  2. 这是一个斯坦福的文本分词系统,可以生成语法树。这是一个斯坦福的文本分词系统,可以生成语法树
  3. 所属分类:Java

    • 发布日期:2016-03-07
    • 文件大小:55574528
    • 提供者:scott0704
  1. 去分词java版

  2. 文本分来,文中进行了分词,去停用词,用TFIDF来实现
  3. 所属分类:Java

    • 发布日期:2016-04-12
    • 文件大小:10240
    • 提供者:u013194880
  1. 朴素贝叶斯分类算法

  2. 朴素贝叶斯算法的实现,从文本分词,预料的训练,到最后实现
  3. 所属分类:Java

  1. 英文文本分词jar包与代码

  2. 文本分词
  3. 所属分类:Java

    • 发布日期:2017-04-13
    • 文件大小:2097152
    • 提供者:alt_lb
  1. 大数据处理

  2. 互联网信息自动抓取,最常见且有效的方式是使用网络爬虫。文本分词是将字符串文本划分为有意义的单位的过程,如词语、句子或主题。。。。
  3. 所属分类:算法与数据结构

    • 发布日期:2018-07-18
    • 文件大小:6291456
    • 提供者:weixin_39629642
  1. 马航失踪评论文本分词

  2. 据 美国 媒体 13 日 报道 , 自 8 日 以来 , MH370 搜索 人员 就 再 未 探测 到 新 的 脉冲 信号 , 黑匣子 的 电池 可能 已经 耗尽 电量 。 一旦 确信 再也 发现 不了 电子 脉冲 信号 , 水下 机器人 就 有 可能 被 投入 进行 工作 。 http : / / t . cn / 8spSuZS
  3. 所属分类:其它

    • 发布日期:2018-07-30
    • 文件大小:14336
    • 提供者:qq_39190865
  1. BSBI倒排索引算法

  2. python3.6实现中文语料文本的BSBI算法(倒排索引)索引程序实现。包括中文文本分词,停用词表。
  3. 所属分类:专业指导

    • 发布日期:2018-10-29
    • 文件大小:86016
    • 提供者:kingle123
  1. 文本分析软件ROST CM6+使用说明

  2. 文本分析软件ROST CM6,支持文本分词,词频分析,社会网络和语义网络分析,情感分析与标签云等。
  3. 所属分类:机器学习

    • 发布日期:2018-11-29
    • 文件大小:9437184
    • 提供者:esthermabel
  1. python文本分词,去停用词,包含基础停用词词典

  2. 用于中文文本分词,去停用词,包含基本的停用词词典,可根据需要进行扩充。
  3. 所属分类:Python

    • 发布日期:2019-03-06
    • 文件大小:7168
    • 提供者:u013293771
  1. 主题模型Python工具包Gensim.zip

  2. Gensim是一个相当专业的主题模型Python工具包。在文本处理中,比如商品评论挖掘,有时需要了解每个评论分别和商品的描述之间的相似度,以此衡量评论的客观性。评论和商品描述的相似度越高,说明评论的用语比较官方,不带太多感情色彩,比较注重描述商品的属性和特性,角度更客观。gensim就是  Python 里面计算文本相似度的程序包。示例代码:针对商品评论和商品描述之间的相似度,怎么使用gensim来计算?原理1、文本相似度计算的需求始于搜索引擎。搜索引擎需要计算“用户查询”和爬下来的众多”网页
  3. 所属分类:其它

    • 发布日期:2019-07-18
    • 文件大小:42991616
    • 提供者:weixin_39841848
  1. 中文分词算法.docx

  2. 1、颗粒度越大越好:用于进行语义分析的文本分词,要求分词结果的颗粒度越大,即单词的字数越多,所能表示的含义越确切,如:“公安局长”可以分为“公安 局长”、“公安局 长”、“公安局长”都算对,但是要用于语义分析,则“公安局长”的分词结果最好(当然前提是所使用的词典中有这个词)
  3. 所属分类:Java

    • 发布日期:2020-04-17
    • 文件大小:18432
    • 提供者:qq_41936098
  1. 中文文本分词PPT(详细讲解HMM)

  2. PPT中包含基于词典分词算法以及HMM(隐马尔可夫模型)算法,结巴分词(具体实现算法)等内容,PPT中包含基于词典分词算法以及HMM(隐马尔可夫模型)算法,结巴分词(具体实现算法)等内容
  3. 所属分类:深度学习

    • 发布日期:2020-12-12
    • 文件大小:3145728
    • 提供者:weixin_40732165
  1. 基于条件随机场的中文短文本分词方法

  2. 中文分词是信息检索工作的一项先决任务。随着大数据时代的到来,信息检索工作对于中文分词准确率和召回率的要求也不断提高。该文提出了一种针对中文短文本的分词方法。该方法首先利用机器学习中的条件随机场模型对待处理的中文短文本进行初步分词,然后再利用传统词典分词方法对初步分词结果进行修正,从而完成分词工作。针对中文短文本的特点,该方法在条件随机场的标记选择和特征模板编写上做了相应优化。测试结果表明,该方法改善了传统的基于词典的分词法因为未登录词和交叠歧义而产生的准确率和召回率下降的问题,并在Sighan
  3. 所属分类:其它

    • 发布日期:2021-03-17
    • 文件大小:354304
    • 提供者:weixin_38689736
« 12 »