您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Lucene中文分词器包

  2. 来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器。1. 正向全切分算法,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP)2. 对数量词、地名、路名的优化处理3. 对未知词汇采用自识别结合二元切分算法,确保搜索召回率(使用方法请参考IKAnalyzer V1.1版)
  3. 所属分类:其它

    • 发布日期:2007-08-14
    • 文件大小:873472
    • 提供者:linliangyi2006
  1. IKAnalyzer 3.0 中文分词器

  2. 1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
  3. 所属分类:其它

    • 发布日期:2009-07-21
    • 文件大小:1048576
    • 提供者:linliangyi2006
  1. csw5.0中文分词组件

  2. 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
  3. 所属分类:C#

    • 发布日期:2009-09-01
    • 文件大小:3145728
    • 提供者:madl_lxj_163
  1. 非常好用的中文分词,直接能用

  2. 目前的搜索引擎,大多是基于一种称为倒排索引的结构[1]。以什么做为索引的Key值,直接影响到整个搜索引擎的准确度、召回率[2]、速度。我们先看看不使用中文分词的情况。 如果不使用中文分词,可以采用单个汉字索引方式。例如,雅虎,先索引'雅'字,然后再索引'虎'字。同样,对于一篇文章,先把所有的汉字都单独索引一次,并记录他们的位置。搜索过程中,也是先找'雅'字的所有文档,再找'虎'字的所有文档,然后做交叉'与'运算,即包含这两个字,而且位置连续的文档才会做为符合要求的结果。这种方式是最基本的索引方
  3. 所属分类:其它

    • 发布日期:2010-03-06
    • 文件大小:4194304
    • 提供者:pkuluck
  1. 中文分词小程序(可实现类似百度分词搜索)

  2. 对输入的汉字进行拆分,可实现类似百度分词搜索
  3. 所属分类:C#

    • 发布日期:2010-05-28
    • 文件大小:1037312
    • 提供者:skyxioo
  1. 中文分词处理技术源代码

  2. 专业提供中文分词扩展和中文词库。使中文分词,全文搜索不再是难点,一个函数即完成分词。然后即可把分词后的结果存储,再使用sphinx,Lucene等进行索引搜索了。
  3. 所属分类:其它

    • 发布日期:2010-07-28
    • 文件大小:507904
    • 提供者:y34ml
  1. php 中文分词程序 分词算法

  2. 中文分词 php 分词 搜索引擎 搜索算法
  3. 所属分类:其它

  1. 盘古中文分词.net源代码

  2. 盘古中文分词.net源代码,研究分词的朋友可以看看。
  3. 所属分类:C#

    • 发布日期:2011-02-23
    • 文件大小:681984
    • 提供者:xhlyp3
  1. IKAnalyzer中文分词器

  2. 基于IKAnalyzer分词算法的准商业化Lucene中文分词器。1. 正向全切分算法2. 对数量词、地名、路名的优化处理3. 对未知词汇采用自识别结合二元切分算法,确保搜索召回率(使用方法请参考IKAnalyzer V1.1版)
  3. 所属分类:其它

    • 发布日期:2008-04-12
    • 文件大小:873472
    • 提供者:silyt
  1. 中文分词ChineseAnalyzer.rar

  2. 中文分词 有两个dll,分词词库,可运行代码, 使用方法举例: private void button1_Click(object sender, EventArgs e) { StringBuilder sb = new StringBuilder(); sb.Remove(0, sb.Length); string t1 = ""; int i = 0; Analyzer analyzer = new Lucene.China.ChineseAnalyzer(); StringReader
  3. 所属分类:C#

    • 发布日期:2011-07-31
    • 文件大小:970752
    • 提供者:weiqj8686
  1. lucene实例(中文分词)

  2. lucene实例是一个比较详细的例子,包括lucene的入门到高级实例,代码里有比较详细的实例,所有的实例都是通过junit来测试的。实例包括各种搜索:如通配符查询、模糊查询、查询结果的分页、中文分词器、自定义分词器等
  3. 所属分类:Java

    • 发布日期:2013-01-04
    • 文件大小:1048576
    • 提供者:guoyiqi
  1. 中文分词pscws,重新修改了核心代码

  2. 中文分词pscws,很出名的,我在原来的基础重新修改了核心代码,原来的分词有局限性,比如助词没去掉,分出来很多没用的单个字。商店名称没办法分出,变成都是单字的,比如:我佳牛排,分出的是:我 佳 牛排,而不是:我佳 牛排,这样导致全文索引搜索不准确。本代码已经做了修正。(有带Demo)
  3. 所属分类:MySQL

    • 发布日期:2013-02-26
    • 文件大小:3145728
    • 提供者:zengzhenkun
  1. 中文分词搜索

  2. 完整的中文分词搜索 可以自己编译词典 扩展词典等 类百度搜索
  3. 所属分类:网络基础

    • 发布日期:2013-08-08
    • 文件大小:2097152
    • 提供者:u011351049
  1. 搭建Sphinx+MySQL5.1x+SphinxSE+mmseg中文分词搜索引擎架构

  2. 搭建Sphinx+MySQL5.1x+SphinxSE+mmseg中文分词搜索引擎架构
  3. 所属分类:Web开发

    • 发布日期:2014-03-07
    • 文件大小:175104
    • 提供者:liuvictory99
  1. IK Analyzer 中文分词

  2. 用于Lucene全文搜索中的中文分词,IK Analyzer源码包
  3. 所属分类:Java

    • 发布日期:2014-11-06
    • 文件大小:1048576
    • 提供者:qin34
  1. 中文分词搜索,商城搜索分词

  2. 做商城搜索,测试无误后上传,中文分词搜索,商城搜索分词,商城搜索
  3. 所属分类:PHP

  1. 中文分词搜索

  2. C++编程中文分词搜索,课程设计报告
  3. 所属分类:C/C++

    • 发布日期:2016-12-10
    • 文件大小:314368
    • 提供者:hamohamo
  1. solr在SSM框架中使用(支持中文分词查询)

  2. 这个项目是solr在SSM框架中的使用,实现了在solr中增删改查操作,支持中文分词搜索,高亮显示查询内容,点击查询,描述条件处输入内容进行查询,可以测试中文分词功能。
  3. 所属分类:Java

    • 发布日期:2017-10-23
    • 文件大小:30408704
    • 提供者:qq_23026673
  1. php实现scws中文分词搜索的方法

  2. 主要介绍了php实现scws中文分词搜索的方法,详细介绍了scws中文分词搜索的具体步骤与相关使用技巧,并提供了scws的本站下载地址,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-10-23
    • 文件大小:48128
    • 提供者:weixin_38660579
  1. php实现scws中文分词搜索的方法

  2. 本文实例讲述了php实现scws中文分词搜索的方法。分享给大家供大家参考,具体如下: 1、4个文件(本站下载地址。)解压后,放到一个地方 eg:E:/wamp/scws 2、php.ini 中配置 extension = php_scws.dll scws.default.charset = utf8 //配置默认的编码方式 scws.default.fpath = "E:/wamp/scws" //加压后文件的路径 3、使用 $so = scws_new(); $so->set_c
  3. 所属分类:其它

    • 发布日期:2020-12-19
    • 文件大小:52224
    • 提供者:weixin_38552536
« 12 3 4 5 6 7 8 9 10 ... 17 »