您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Lucene中文分词 庖丁解牛 2_0_0版

  2. Paoding中文分词参考手册 本文档对应paoding-analysis 2.0.4–alpha2,目前还在草稿状态。 由于没有docbook编辑文档的经验和环境,暂时以word编辑文档。 目录 一般使用 使用评估 参考资料 下载 开始使用 分词策略 高级专题 配置参考 PaodingMaker的设计 庖丁架构 词典的抽象与设计 词典定制 词典动态加载 自定制分词策略 集成指南 Spring XML 配置 一般使用 使用评估 暂略 参考资料 ...展开收缩
  3. 所属分类:Java

    • 发布日期:2009-05-10
    • 文件大小:5242880
    • 提供者:iMLuther
  1. ik分词-解决集成solr是出现的越界异常

  2. ik分词-解决集成solr是出现的越界异常。可自定义自己的词库。
  3. 所属分类:专业指导

    • 发布日期:2009-10-20
    • 文件大小:1048576
    • 提供者:michaelzqm
  1. Paoding中文分词包-附带实例,参考手册,Lucene实例

  2. 效果体验 使用者第一步最有可能的是想要体验了解庖丁的分词效果。考虑到这样的需求,庖丁提供了一个shell文件,使用者不必写任何代码就可以获得这样的信息。进入Paoding-Analysis分发包,在命令行模式下执行analyzer.bat(windows)或analyzer.sh(linux)即可。下以windows为例: u 显示帮助 E:\Paoding-Analysis>analyzer.bat ? u 分词对话 当没有在命令行参数种输入分词内容或待分词的文章时,analyzer.
  3. 所属分类:Linux

    • 发布日期:2010-06-08
    • 文件大小:5242880
    • 提供者:hpf911
  1. 庖丁解牛,一种中文分词器

  2. 一款比较好的中文分词器,可以很方便地集成到lucene中,集成到lucene3.0中的时候需要做一些修改,具体修改方法可以百度之
  3. 所属分类:专业指导

    • 发布日期:2010-08-25
    • 文件大小:6291456
    • 提供者:jiawangxi1
  1. mmseg4j1.8.4分词工具

  2. mmseg4j1.8.4分词工具,可以方便的集成在lucene后者solr中。
  3. 所属分类:其它

    • 发布日期:2011-12-14
    • 文件大小:705536
    • 提供者:liuadolf
  1. ik分词包 用于lucene4.2和solr4.2的最新包

  2. 自从lucene和solr推出4.0版本后 ik分词的调用接口已经不适用了,虽说ik最新ff版适用于solr4.0 但是solr4.2出来之后发现又不适用了,本人花了一点功夫熟悉solr4.2的分词调用接口补写了一个IkTokenizerFactory类 经测试已经集成solr4.2 成功
  3. 所属分类:Java

    • 发布日期:2013-05-04
    • 文件大小:1048576
    • 提供者:shuaizhihu
  1. 庖丁解牛 中文分词 java 最新版

  2. 目前为止最好用的中文分词JAVA 程序,方便集成,支持lucenue 庖丁解牛 中文分词 java 最新版
  3. 所属分类:Java

    • 发布日期:2015-02-26
    • 文件大小:5242880
    • 提供者:qq_26194003
  1. IK Analyzer 2012FF分词包

  2. IK Analyzer 2012FF分词包,可以与lucence和solr集成,分词效果不错
  3. 所属分类:Java

    • 发布日期:2015-05-11
    • 文件大小:1048576
    • 提供者:linbo6
  1. elasticsearch整合分词、创建索引、搜索例子

  2. lasticsearch整合分词、创建索引、搜索例子,elasticsearch版本为1.0,索引数据从数据表中动态读取生成,有关键字高亮效果,查询分页 1 在dababase目录中导致相关的数据库文件,修改DBCOperation java文件数据库连接地址,修改elasticsearch.properties文件中相关链接 2 运行CreatIndexMysql文件,里面有main方法查询数据库生成相关的索引文件 3 部署工程在tomcat中访问即可看到效果,项目中有很多的工具类,比如类似
  3. 所属分类:Java

    • 发布日期:2015-10-23
    • 文件大小:63963136
    • 提供者:j1582830
  1. 中文分词支持solr 5.3.0的IKAnalyzer中文分词器

  2. 中文分词支持solr 5.3.0的IKAnalyzer中文分词器 IKAnalyzer中文分词器本身已经不支持最新的solr 5,集成到solr中分词会报错,这里将解决了solr 5支持问题的最新IK包共享出来,希望能帮到各位! 附上IK在schema.xml中的配置: ...展开收缩
  3. 所属分类:Web开发

    • 发布日期:2016-04-15
    • 文件大小:1048576
    • 提供者:finalxwl
  1. solr6.0+mysql+IK分词集成

  2. solr6.0+mysql+IK分词集成
  3. 所属分类:Java

    • 发布日期:2016-06-01
    • 文件大小:50331648
    • 提供者:linzhiqiang0316
  1. solr6.0+mysql+IK分词集成

  2. solr6.0 mysqlIK 分词集成
  3. 所属分类:Java

    • 发布日期:2017-04-13
    • 文件大小:50331648
    • 提供者:fl0088
  1. word-1.3.1.jar中文分词

  2. word 分词是一个Java实现的分布式的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。能通过自定义配置文件来改变组件行为,能自定义用户词库、自动检测词库变化、支持大规模分布式环境,能灵活指定多种分词算法,能使用refine功能灵活控制分词结果,还能使用词性标注、同义标注、反义标注、拼音标注等功能。同时还无缝和Lucene、Solr、ElasticSearch、Luke集成。
  3. 所属分类:Hadoop

    • 发布日期:2017-09-26
    • 文件大小:25165824
    • 提供者:shuaigexiaobo
  1. IKAnalyzer中文分词5.x jar包

  2. 适用于solr5.X版本的中文分词jar包,我安装的是solr5.5.4,集成进去是可以用的
  3. 所属分类:Java

    • 发布日期:2017-10-23
    • 文件大小:1048576
    • 提供者:qq_23026673
  1. jcseg,Jcseg 是基于 mmseg 算法的一个轻量级中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了一个基于 Jetty 的 web 服务器,方便各大语言直接 http 调用,同时提供了最

  2. Jcseg是基于 mmseg 算法的一个轻量级中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了一个基于 Jetty 的 web 服务器,方便各大语言直接 http 调用,同时提供了最新版本的 lucene, solr, elasticsearch 的分词接口!Jcseg自带了一个 jcseg.properties 文件用于快速配置而得到适合不同场合的分词应用,例如:最大匹配词长,是否开启中文人名识别,是否追加拼音,是否追加同义词等!
  3. 所属分类:其它

    • 发布日期:2019-10-13
    • 文件大小:2097152
    • 提供者:weixin_38744153
  1. solr+IK分词集成tomcat实现电商项目的全文检索

  2. 压缩包内含有solr+ik如何配置的详细介绍以及solr+ik的包,省去了自己去找地址下载的麻烦,经测试使用完全可以在电商电商项目中实现全文检索
  3. 所属分类:Java

    • 发布日期:2017-06-30
    • 文件大小:1048576
    • 提供者:qq_38545713
  1. python使用jieba实现中文分词去停用词方法示例

  2. jieba分词,完全开源,有集成的python库,简单易用。下面这篇文章主要给大家介绍了关于python使用jieba实现中文分词去停用词的相关资料,文中通过示例代码介绍的非常详细,需要的朋友可以参考借鉴,下面来一起看看吧。
  3. 所属分类:其它

    • 发布日期:2020-09-20
    • 文件大小:47104
    • 提供者:weixin_38530202
  1. Jcseg中文分词器 v2.6.2

  2. 为您提供Jcseg中文分词器下载,Jcseg是基于mmseg算法的一个轻量级中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了一个基于Jetty的web服务器,方便各大语言直接http调用,同时提供了最新版本的lucene,solr,elasticsearch的分词接口!Jcseg自带了一个jcseg.properties文件用于快速配置而得到适合不同场合的分词应用,例如:最大匹配词长,是
  3. 所属分类:其它

    • 发布日期:2020-09-28
    • 文件大小:4194304
    • 提供者:weixin_38608379
  1. 基于Lucene的中文分词器的设计与实现

  2. 针对Lucene自带中文分词器分词效果差的缺点,在分析现有分词词典机制的基础上,设计了基于全哈希整词二分算法的分词器,并集成到Lucene中,算法通过对整词进行哈希,减少词条匹配次数,提高分词效率。该分词器词典文件维护方便,可以根据不同应用的要求进行定制,从而提高了检索效率。
  3. 所属分类:其它

    • 发布日期:2020-10-20
    • 文件大小:155648
    • 提供者:weixin_38586942
  1. 集成分词器—–solr自带分词器和IK分词器对比

  2. 环境信息 系统:CentOS Linux release 7.6.1810 solr:solr-7.7.2 java:openjdk 1.8.0_222 IKAnalyzer:ik-analyzer-solr7-7.x 集成IK分词器 solr安装参见博文—-Apache solr入门 下载分词器jar包,github地址 将ik-analyzer-solr7-7.x.jar包上传到 $SOLR_INSTALL_HOME/server/solr-webapp/webapp/WEB-INF/lib
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:206848
    • 提供者:weixin_38602982
« 12 3 4 5 6 7 8 9 10 »