您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Lucene分词查询

  2. 非常珍贵的Lucene入门实例,让你在最短时间内掌握Lucene快速创建索引,中文分词查询的技巧。 内赠送lucene驱动包,物超所值哦!!
  3. 所属分类:Java

    • 发布日期:2009-07-15
    • 文件大小:606208
    • 提供者:zepqxjava
  1. IKAnalyzer 3.0 中文分词器

  2. 1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
  3. 所属分类:其它

    • 发布日期:2009-07-21
    • 文件大小:1048576
    • 提供者:linliangyi2006
  1. csw5.0中文分词组件

  2. 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
  3. 所属分类:C#

    • 发布日期:2009-09-01
    • 文件大小:3145728
    • 提供者:madl_lxj_163
  1. ACWPS(爱博汉语分词系统)分词组件 asp分词组件

  2. 爱博汉语分词系统Web服务器支持标准的HTTP协议,可以跨平台调用,支持分布式运算; 爱博汉语分词系统COM组件提供COM和DLL接口(Windows环境) 以及共享库.so(Linux)形式,可支持所有支持COM接口调用的编程语言及脚本语言。 如:PHP、JSP、ASP、ASP.net、C/C++ 、VC6.0 、VC.net、BC、C#、VB6.0 、VB.net、Delphi、Java等。 爱博汉语分词系统支持自定义词语的功能,用户可根据自己需要定义添加汉语词组。 可根据需要自行定义影响
  3. 所属分类:C#

    • 发布日期:2010-02-28
    • 文件大小:2097152
    • 提供者:selectersky
  1. 非常好用的中文分词,直接能用

  2. 目前的搜索引擎,大多是基于一种称为倒排索引的结构[1]。以什么做为索引的Key值,直接影响到整个搜索引擎的准确度、召回率[2]、速度。我们先看看不使用中文分词的情况。 如果不使用中文分词,可以采用单个汉字索引方式。例如,雅虎,先索引'雅'字,然后再索引'虎'字。同样,对于一篇文章,先把所有的汉字都单独索引一次,并记录他们的位置。搜索过程中,也是先找'雅'字的所有文档,再找'虎'字的所有文档,然后做交叉'与'运算,即包含这两个字,而且位置连续的文档才会做为符合要求的结果。这种方式是最基本的索引方
  3. 所属分类:其它

    • 发布日期:2010-03-06
    • 文件大小:4194304
    • 提供者:pkuluck
  1. 基于分词的地址匹配技术(PDF清晰)

  2. 基于分词的地址匹配技术:根据调查显示,城市信息80%都与地理位置有关,而这些信息中大部分却没有空间坐标,自然无法整合,无法进行控件分析。为了快速的推进数字化城市的建设和发展,有必要找到一种快速,高效的方法,将大量的与地理位置相关的信息,进行坐标编码,以便于GIS系统分析,查询。本文提出了一种基于分词的地理匹配技术,他将大量的非空间信息高效的转化为空间信息,极大提高非空间信息数据的编码,录入效率。
  3. 所属分类:专业指导

    • 发布日期:2010-03-11
    • 文件大小:1048576
    • 提供者:nextel
  1. 中文自动分词&全文检索@统计工具(GBK版

  2. 本系统具备中文自动分词、全文检索、统计等基本功能,具体介绍如下: 1、中文自动分词 1)能对给定的中文文本进行自动分词、词性一级、词性二级标注; 2)支持大批量文本的自动分词及词性标注处理,可处理各级子文件夹下的文件; 3)能根据待分词及标注文本的类别,加挂用户自定义词典,进一步提高分词和标注的精确度; 4)用户可对系统词典进行扩展,可添加、删除、查看系统词典,可将系统词典输出为TXT文本编辑后再转换为系统用的电子词典; 5)支持人名、地名、机构名等未登录词识别,支持基于GBK字符集的简、繁体
  3. 所属分类:专业指导

    • 发布日期:2010-04-22
    • 文件大小:3145728
    • 提供者:lonewar
  1. 灵柩软件 可用于汉语分词处理

  2. LJParser文本搜索与挖掘开发平台的十大功能: 1. 全文精准检索 支持文本、数字、日期、字符串等各种数据类型,多字段的高效搜索,支持AND/OR/NOT以及NEAR邻近等查询语法,支持维语、藏语、蒙语、阿拉伯、韩语等多种少数民族语言的检索。可以无缝地与现有文本处理系统与数据库系统融合。 2. 新词发现: 从文件集合中挖掘出内涵的新词语列表,可以用于用户专业词典的编撰;还可以进一步编辑标注,导入分词词典中,从而提高分词系统的准确度,并适应新的语言变化。 3. 分词标注: 对原始语料进行分词
  3. 所属分类:Web开发

    • 发布日期:2010-11-05
    • 文件大小:688128
    • 提供者:zhangguoqiang52
  1. ppldic.csv分词词库PHP应用——提取内容关键字

  2. 用RMM分词算法可以实现,调用“ppldic.csv”中英文词库。在分词过程中要过滤掉 标点符号,否则,这些标点符号都将分成一个词,而这些词并不是用户查询搜索的关键内容。
  3. 所属分类:PHP

    • 发布日期:2010-12-20
    • 文件大小:25600
    • 提供者:a738611
  1. Lucene分词与查询详解

  2. Lucene分词与查询详解。这是一个完整的实例,希望对大家的开发学习有帮助!!!
  3. 所属分类:Java

    • 发布日期:2011-11-25
    • 文件大小:55296
    • 提供者:sbvfhp
  1. ppldic.csv 分词

  2. 用RMM分词算法可以实现,调用“ppldic.csv”中英文词库。在分词过程中要过滤掉 标点符号,否则,这些标点符号都将分成一个词,而这些词并不是用户查询搜索的关键内容。
  3. 所属分类:PHP

    • 发布日期:2012-05-08
    • 文件大小:25600
    • 提供者:rj06204
  1. lucene实例(中文分词)

  2. lucene实例是一个比较详细的例子,包括lucene的入门到高级实例,代码里有比较详细的实例,所有的实例都是通过junit来测试的。实例包括各种搜索:如通配符查询、模糊查询、查询结果的分页、中文分词器、自定义分词器等
  3. 所属分类:Java

    • 发布日期:2013-01-04
    • 文件大小:1048576
    • 提供者:guoyiqi
  1. SQL分词查询存储过程

  2. SQL分词查询存储过程,很简单的代码,感兴趣的朋友可以下载看看!
  3. 所属分类:SQLServer

    • 发布日期:2013-03-02
    • 文件大小:1024
    • 提供者:noksharp
  1. SharpICTCLAS分词系统 1.0

  2. SharpICTCLAS分词系统 1.0 类似百度搜索分词,可用于模糊查询
  3. 所属分类:C#

    • 发布日期:2013-05-28
    • 文件大小:3145728
    • 提供者:guobinxian
  1. lukeall-3.5.0 加入IK分词器

  2. luke-all是查询lucense生成索引文件的工具,加入IK分词器,更好的支持中文查询
  3. 所属分类:Java

    • 发布日期:2013-05-31
    • 文件大小:8388608
    • 提供者:miludedeng
  1. lukeall-3.5.0 加 IK分词器

  2. luke-all是查询lucense生成索引文件的工具,加入IK分词器,更好的支持中文查询
  3. 所属分类:Java

    • 发布日期:2013-06-09
    • 文件大小:8388608
    • 提供者:myvenus
  1. lucene+中文IK分词器 例子

  2. lucene3.5 + ik中文分词器例子,可从网页抓取输出流,并通过关键字查询相关文件
  3. 所属分类:Java

    • 发布日期:2014-06-26
    • 文件大小:3145728
    • 提供者:mxd_001
  1. Lucene.net增删改查示例,使用多索引和盘古分词等方法,并实现分页查询

  2. 这是一个Lucene.net的多索引示例,以数据库的动态数据为数据源,每个表对应一个索引,使用了盘古分词方法,适用于中文的分词,并且实现了增删改查的所有功能。 同时,在查询索引时,适用了分页方法,可直接引用到项目中使用。 无需修改即可运行,代码有明确的注释,一看就懂。
  3. 所属分类:C#

    • 发布日期:2014-10-21
    • 文件大小:3145728
    • 提供者:atm_rmb
  1. 中文分词工具word-1.0,Java实现的中文分词组件多种基于词典的分词算法

  2. word分词是一个Java实现的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。 能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。 同时提供了Lucene、Solr、ElasticSearch插件。 分词使用方法: 1、快速体验 运行项目根目录下的脚本demo-word.bat可以快速体验分词效果 用法: command [text] [input] [output] 命令command的可选值为:demo、text、file
  3. 所属分类:Java

    • 发布日期:2014-11-05
    • 文件大小:10485760
    • 提供者:love_hachi
  1. solr在SSM框架中使用(支持中文分词查询)

  2. 这个项目是solr在SSM框架中的使用,实现了在solr中增删改查操作,支持中文分词搜索,高亮显示查询内容,点击查询,描述条件处输入内容进行查询,可以测试中文分词功能。
  3. 所属分类:Java

    • 发布日期:2017-10-23
    • 文件大小:30408704
    • 提供者:qq_23026673
« 12 3 4 5 6 7 8 9 10 ... 17 »