您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. IKAnalyzer中文分词器V3.1.1

  2. 林良益 开发的中文分词器,可与Lucene结合,功能很强大!内含有使用手册,Jar包。
  3. 所属分类:Java

    • 发布日期:2010-04-19
    • 文件大小:1048576
    • 提供者:fanlu319
  1. Paoding中文分词包-附带实例,参考手册,Lucene实例

  2. 效果体验 使用者第一步最有可能的是想要体验了解庖丁的分词效果。考虑到这样的需求,庖丁提供了一个shell文件,使用者不必写任何代码就可以获得这样的信息。进入Paoding-Analysis分发包,在命令行模式下执行analyzer.bat(windows)或analyzer.sh(linux)即可。下以windows为例: u 显示帮助 E:\Paoding-Analysis>analyzer.bat ? u 分词对话 当没有在命令行参数种输入分词内容或待分词的文章时,analyzer.
  3. 所属分类:Linux

    • 发布日期:2010-06-08
    • 文件大小:5242880
    • 提供者:hpf911
  1. Lucene 中文分词模块

  2. Lucene 中文分词模块,包里面包括IKAnalyzer3.2.3 jar包和IKAnalyzer中文分词器V3.2.3使用手册
  3. 所属分类:Java

    • 发布日期:2010-08-13
    • 文件大小:1048576
    • 提供者:lxl_it
  1. IKAnalyzer中文分词器文档和Jar包

  2. IKAnalyzer是优秀的Lucene中文分词器,效率高,可拓展性强。 本包内有学习手册和开发包,简单明了的介绍了IKAnalyzer的部署和使用。让您快速简历您的中文搜索引擎。
  3. 所属分类:Java

    • 发布日期:2010-08-31
    • 文件大小:2097152
    • 提供者:hh_liusujie
  1. 中文分词功能包junit.jar

  2. junit.jar,junit.jar,中文分词功能包
  3. 所属分类:Web开发

    • 发布日期:2011-06-17
    • 文件大小:120832
    • 提供者:swangooth
  1. 支持Lucene3.3、3.4的庖丁解牛分词法的源码和jar包

  2. 资源为庖丁解牛分词法的最新源码以及生成的jar包,支持最新的Lucene3.4以及Lucene3.0以上版本。Jar包为本地生成,大家也可以到SVN上检出自己生成,另外庖丁解牛分词法的使用Demo我会接下来上传一份,欢迎分享。
  3. 所属分类:Java

    • 发布日期:2011-10-10
    • 文件大小:2097152
    • 提供者:a_2cai
  1. lucene3.5 IKAnalyzer3.2.5 实例中文分词通过

  2. lucene3.5 IKAnalyzer3.2.5 实例中文分词通过,目前在网上找的lucene 和IKAnalyzer 的最新版本测试通过。内含:示例代码,以及最新jar包。 lucene lucene3.5 IKAnalyzer IKAnalyzer3.2.5 jar 中文 分词
  3. 所属分类:Java

    • 发布日期:2012-02-14
    • 文件大小:3145728
    • 提供者:qq540061627
  1. compass2.1.4包+所用lucene包+中文分词器

  2. compass2.1.4包+所用lucene包+中文分词器所用包
  3. 所属分类:Java

    • 发布日期:2012-02-28
    • 文件大小:3145728
    • 提供者:dove527
  1. IKAnalyzer中文分词器

  2. IKAnalyzer中文分词器,里面包含jar包和使用手册
  3. 所属分类:Java

    • 发布日期:2012-03-21
    • 文件大小:1048576
    • 提供者:jmln2008
  1. 庖丁中文分词

  2. 庖丁中文分词JAR包及使用说明. 用于对中文文章进行分词。基于lucene的中文分词工具。
  3. 所属分类:Java

    • 发布日期:2013-11-18
    • 文件大小:3145728
    • 提供者:jiaopihai
  1. lucene中文分词jar包

  2. 关于lucene中文分词的一个辅助jar包
  3. 所属分类:Java

    • 发布日期:2007-04-17
    • 文件大小:19456
    • 提供者:shicheng12688
  1. IK Analyzer2013中分分词jar包

  2. IK Analyzer是一款基于java语言编写的中文分词jar包,直接导入项目工程作为Library使用
  3. 所属分类:Android

    • 发布日期:2015-10-21
    • 文件大小:1048576
    • 提供者:sxw1900
  1. 开源中文分词

  2. 庖丁分词,java开源免费的中文分词jar包,送给需要的人
  3. 所属分类:Java

    • 发布日期:2016-02-25
    • 文件大小:5242880
    • 提供者:qq_21301939
  1. IK中文分词包

  2. sorl5对应的IK 中文分词包,至于适用于那个具体版本,至少我在5.2.1版本下测试通过,其他版本还未测试
  3. 所属分类:Java

    • 发布日期:2017-04-14
    • 文件大小:1048576
    • 提供者:zhaocuit
  1. 结巴分词jar包

  2. jieba “结巴”中文分词:做最好的 Python 中文分词组件 "Jieba" (Chinese for "to stutter") Chinese text segmentation: built to be the best Python Chinese word segmentation module. Scroll down for English documentation. 特点 支持三种分词模式: 精确模式,试图将句子最精确地切开,适合文本分析; 全模 式,把句子中所有的可以
  3. 所属分类:Java

    • 发布日期:2017-05-15
    • 文件大小:2097152
    • 提供者:subson
  1. lucene6.6+拼音分词+ik中文分词包

  2. lucene6.6中适配的拼音分词jar包以及ik中文分词jar包,以及自定义的分词词组包和停词包,可以实现lucene建立索引时进行拼音和中文的分词。
  3. 所属分类:Java

    • 发布日期:2017-09-27
    • 文件大小:16777216
    • 提供者:jayson1001
  1. java实现中文分词simhash算法

  2. simhash算法对字符串计算权重时,对中文要做特殊操作,及先分词,请自行下载sanford中文分词jar包及中文分词库
  3. 所属分类:Java

    • 发布日期:2017-10-12
    • 文件大小:3072
    • 提供者:qq_25237355
  1. IKAnalyzer中文分词5.x jar包

  2. 适用于solr5.X版本的中文分词jar包,我安装的是solr5.5.4,集成进去是可以用的
  3. 所属分类:Java

    • 发布日期:2017-10-23
    • 文件大小:1048576
    • 提供者:qq_23026673
  1. lucene的jar包

  2. 全文搜索lucene的中文分词jar包,里面可分为正向分词和最大匹配分词
  3. 所属分类:Java

    • 发布日期:2009-04-19
    • 文件大小:872448
    • 提供者:u010256979
  1. solr中文分词jar包ik-analyzer 含class配置 ik-analyzer-7.5.0

  2. solr中文分词jar包ik-analyzer 含class配置 ik-analyzer-7.5.0
  3. 所属分类:群集服务

    • 发布日期:2019-04-11
    • 文件大小:1048576
    • 提供者:qq_36001174
« 12 3 4 5 6 7 8 9 10 »