您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Lucene中文分词器包

  2. 来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器。1. 正向全切分算法,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP)2. 对数量词、地名、路名的优化处理3. 对未知词汇采用自识别结合二元切分算法,确保搜索召回率(使用方法请参考IKAnalyzer V1.1版)
  3. 所属分类:其它

    • 发布日期:2007-08-14
    • 文件大小:873472
    • 提供者:linliangyi2006
  1. Lucene中文分词器包

  2. 此分词器包用于搜索引擎中文分词,与Lucene搜索引擎框架搭配使用。
  3. 所属分类:Java

    • 发布日期:2009-05-13
    • 文件大小:873472
    • 提供者:Simonright
  1. Lucene分词查询

  2. 非常珍贵的Lucene入门实例,让你在最短时间内掌握Lucene快速创建索引,中文分词查询的技巧。 内赠送lucene驱动包,物超所值哦!!
  3. 所属分类:Java

    • 发布日期:2009-07-15
    • 文件大小:606208
    • 提供者:zepqxjava
  1. IKAnalyzer 3.0 中文分词器

  2. 1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
  3. 所属分类:其它

    • 发布日期:2009-07-21
    • 文件大小:1048576
    • 提供者:linliangyi2006
  1. 庖丁分词程序2.0.4,很好的分词程序

  2. 庖丁分词程序,很好的分词程序."庖丁解牛" 使用指南 1、准备 1)将二进制包paoding-analyis.jar放到自己的classpath下 2)将字典文件安装(也就是拷贝)到某个目录下,比如/data/paoding/dic下 3)把配置文件paoding-analysis.properties放到自己的classpath下 4)打开paoding-analysis.properties,把paoding.dic.home属性设置为字 典的安装目录,比如paoding.d ic.hom
  3. 所属分类:Java

    • 发布日期:2009-07-22
    • 文件大小:5242880
    • 提供者:jiutianzhifeng
  1. lucene_cn Lucene中文分词包

  2. lucene_cn,Lucene中文分词包,让Lucene更完美支持中文分词
  3. 所属分类:Java

    • 发布日期:2009-08-16
    • 文件大小:139264
    • 提供者:junlinbo
  1. google,lucene分词包

  2. google ,lucene分词应该是最好的分词工具
  3. 所属分类:Java

    • 发布日期:2010-03-29
    • 文件大小:13312
    • 提供者:kobe00712
  1. IKAnalyzer中文分词器V3.1.1

  2. 林良益 开发的中文分词器,可与Lucene结合,功能很强大!内含有使用手册,Jar包。
  3. 所属分类:Java

    • 发布日期:2010-04-19
    • 文件大小:1048576
    • 提供者:fanlu319
  1. Paoding中文分词包-附带实例,参考手册,Lucene实例

  2. 效果体验 使用者第一步最有可能的是想要体验了解庖丁的分词效果。考虑到这样的需求,庖丁提供了一个shell文件,使用者不必写任何代码就可以获得这样的信息。进入Paoding-Analysis分发包,在命令行模式下执行analyzer.bat(windows)或analyzer.sh(linux)即可。下以windows为例: u 显示帮助 E:\Paoding-Analysis>analyzer.bat ? u 分词对话 当没有在命令行参数种输入分词内容或待分词的文章时,analyzer.
  3. 所属分类:Linux

    • 发布日期:2010-06-08
    • 文件大小:5242880
    • 提供者:hpf911
  1. IK Analyzer 中文分词工具

  2. Version 3.2.0 包里面有使用手册。 使用时需要Lucene的一些包,请到本人上传Lucene包中下载http://download.csdn.net/source/2550590
  3. 所属分类:Java

    • 发布日期:2010-07-17
    • 文件大小:1048576
    • 提供者:cxb870427
  1. ICTCLAS中文分词工具--eclipse中的应用

  2. ICTCLAS分词系统Java调用接口在Eclipse中的安装(作者:刘利军 昆明理工大学 智能系统研究室)实验环境:JDK1.5、Eclipse3.1、XP操作系统分词系统Java接口解压包:d:\fenci(http://www.nlp.org.cn中查找下载)导入步骤:在Eclipse中新建Java项目,名称为:WordSpli,目录结构如下所示: 右击WordSplit项目,选择“导入”,将弹出导入窗口,选择列表中的“文件系统”,弹出“文件系统”导入窗口,选择相关文件(如下图所示):(
  3. 所属分类:Java

    • 发布日期:2008-03-11
    • 文件大小:2097152
    • 提供者:leehao_bupt
  1. 适用于lucene..5的庖丁解牛分词器

  2. 可以适用于lucene3.5的庖丁解牛分词器jar包
  3. 所属分类:Java

    • 发布日期:2012-01-11
    • 文件大小:3145728
    • 提供者:feizhang666
  1. lucene分词包

  2. lucene自带的中文分词器,将jar放入编译路径即可使用
  3. 所属分类:Java

    • 发布日期:2012-06-02
    • 文件大小:1048576
    • 提供者:zou791133533
  1. PanGu(盘古)分词最新版本

  2. 这是目前最新版本的Pangu分词包。 里面包含: PanGu.dll 盘古分词的核心组件 DictManage.exe 字典管理工具 Demo.exe 分词演示程序 PanGu.HighLight.dll 高亮组件
  3. 所属分类:C#

    • 发布日期:2012-08-01
    • 文件大小:207872
    • 提供者:ysq5202121
  1. lucene分词

  2. lucene中文分词包
  3. 所属分类:Java

    • 发布日期:2008-08-22
    • 文件大小:873472
    • 提供者:wind_circle
  1. ik分词包 用于lucene4.2和solr4.2的最新包

  2. 自从lucene和solr推出4.0版本后 ik分词的调用接口已经不适用了,虽说ik最新ff版适用于solr4.0 但是solr4.2出来之后发现又不适用了,本人花了一点功夫熟悉solr4.2的分词调用接口补写了一个IkTokenizerFactory类 经测试已经集成solr4.2 成功
  3. 所属分类:Java

    • 发布日期:2013-05-04
    • 文件大小:1048576
    • 提供者:shuaizhihu
  1. solr6.3/lucene 6.3 ik-analyzer 中文分词

  2. solr6.3/lucene 6.3 ik-analyzer 中文分词包及demo、文档
  3. 所属分类:Java

    • 发布日期:2016-12-05
    • 文件大小:16777216
    • 提供者:love_tz
  1. lucene6.6+拼音分词+ik中文分词包

  2. lucene6.6中适配的拼音分词jar包以及ik中文分词jar包,以及自定义的分词词组包和停词包,可以实现lucene建立索引时进行拼音和中文的分词。
  3. 所属分类:Java

    • 发布日期:2017-09-27
    • 文件大小:16777216
    • 提供者:jayson1001
  1. 中文分词包——ictclas4j_0.9.1.jar

  2. 基于Lucene的中文分词包,ictclas4j的最新发布,已经打包成jar包。
  3. 所属分类:Java

    • 发布日期:2009-03-03
    • 文件大小:111616
    • 提供者:u011022568
  1. 麻将:开源中文分词工具包,中文分词Web API,Lucene中文分词,中英文混合分词-源码

  2. 麻将中文分词 简介 麻将一直是广受欢迎的传统娱乐活动,字牌的组合千变万化。汉字的组合也是变化多端,麻将这个项目希望能从汉字组合中发现汉语的秘密,为自然语言处理提供好的中文分词工具。 麻将是基于Scala的语言实现的中文分词软件包。这个项目的核心是最大概率分词,整个项目专为搜索引擎,文本信息抽取和自然语言处理设计,参考我来实现。性能优异,速度快。整个分词包易于使用,测试覆盖率高。 在线展示 :链接 ,您可以自己测试它的功能。有任何问题,可以发邮件至: 。 分词歧义解决方案 分词的方法有很多,现
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:14680064
    • 提供者:weixin_42097533
« 12 3 4 5 6 7 8 9 10 ... 13 »