您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Lucene中文分词器包

  2. 来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器。1. 正向全切分算法,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP)2. 对数量词、地名、路名的优化处理3. 对未知词汇采用自识别结合二元切分算法,确保搜索召回率(使用方法请参考IKAnalyzer V1.1版)
  3. 所属分类:其它

    • 发布日期:2007-08-14
    • 文件大小:873472
    • 提供者:linliangyi2006
  1. JE中文分词je-analysis-1.5.1.jar

  2. 1.5.1 —— 2006-01-22 修正细粒度分词错误的问题 1.5.0 —— 2007-01-18 全面支持Lucene 2.0 增强了词典维护的API 增加了商品编码的匹配 增加了Mail地址的匹配 实现了词尾消歧算法第二层的过滤 整理优化了词库 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 2006-07-03 修正细粒度分词错误的问题 1.3.1 —— 2006-0 6-23 修
  3. 所属分类:其它

    • 发布日期:2009-04-28
    • 文件大小:891904
    • 提供者:tiancen2001
  1. 百度(baidu)分词算法分析.doc

  2. 之前在广州点石茶话会上也有重点讨论过百度分词算法,那时很多SEOer都认为百度在测试分词技术中,有些关键词带公司字眼的关键词,在搜索结果内容时基本上跟关键词不乎核。下面是中科院软件所张俊林一篇百度分词算法的三步曲,希望能帮SEOer解答一些关于百算分词算法的问题,内容可能长点,各位慢慢消化!
  3. 所属分类:其它

  1. IKAnalyzer 3.0 中文分词器

  2. 1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
  3. 所属分类:其它

    • 发布日期:2009-07-21
    • 文件大小:1048576
    • 提供者:linliangyi2006
  1. 搜索 关键词 分词研究技术

  2. 国外网站上找到的关于搜索的分词研究,对于开发搜索的同事很有帮助
  3. 所属分类:专业指导

    • 发布日期:2009-07-30
    • 文件大小:109568
    • 提供者:mousejiaa
  1. 百度分词处理技术方法

  2. 根据百度搜索结果,猜测百度中文分词的处理方法。 有些参考价值,值得推荐
  3. 所属分类:专业指导

    • 发布日期:2009-08-04
    • 文件大小:33792
    • 提供者:chenls
  1. 中文分词组件。1.5版的分词器

  2. je分词器。1.5版的,对以前的有很大的改进,当我1.4的时候,发现连“好人”这个词都分析不出来,所以特上传1.5版
  3. 所属分类:专业指导

    • 发布日期:2009-08-25
    • 文件大小:891904
    • 提供者:lsyaxue
  1. csw5.0中文分词组件

  2. 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
  3. 所属分类:C#

    • 发布日期:2009-09-01
    • 文件大小:3145728
    • 提供者:madl_lxj_163
  1. C# 搜索引擎 分词

  2. 分词算法,不敢独享,拿来分享;分词算法,不敢独享,拿来分享
  3. 所属分类:其它

    • 发布日期:2009-11-10
    • 文件大小:44032
    • 提供者:fengyeguigui
  1. lucene分词测试代码

  2. 用java写的图形分词测试的小东西,用的分词器是:来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器,其使用“正向全切分算法”,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP),对数量词、地名、路名的优化处理,对未知词汇采用自识别结合二元切分算法,确保搜索召回率。但是没有源代码下载,只能联系作者索要。
  3. 所属分类:其它

    • 发布日期:2007-11-21
    • 文件大小:2097152
    • 提供者:robinfoxnan
  1. Lucene.net

  2. Lucene.net 搜索 分词 教程
  3. 所属分类:C#

    • 发布日期:2010-02-02
    • 文件大小:35840
    • 提供者:binbin128
  1. 盘古分词最新版本(2.3.1.0)

  2. 资源为最新的盘古分词器,目前本人用过的比较好用的免费分词器。动态输入词库,动态添加停用词,使用后能达到百度的效果,包括分词高亮控件
  3. 所属分类:专业指导

    • 发布日期:2010-12-07
    • 文件大小:1048576
    • 提供者:dongdongleng
  1. 盘古中文分词.net源代码

  2. 盘古中文分词.net源代码,研究分词的朋友可以看看。
  3. 所属分类:C#

    • 发布日期:2011-02-23
    • 文件大小:681984
    • 提供者:xhlyp3
  1. 庖丁解牛分词之自定义词库、庖丁解牛配置

  2. 庖丁解牛分词之自定义词库、庖丁解牛配置,java搜索分词
  3. 所属分类:Java

    • 发布日期:2011-12-23
    • 文件大小:15360
    • 提供者:qq931226110
  1. SharpICTCLAS分词系统 1.0

  2. SharpICTCLAS分词系统 1.0 类似百度搜索分词,可用于模糊查询
  3. 所属分类:C#

    • 发布日期:2013-05-28
    • 文件大小:3145728
    • 提供者:guobinxian
  1. 中文分词搜索,商城搜索分词

  2. 做商城搜索,测试无误后上传,中文分词搜索,商城搜索分词,商城搜索
  3. 所属分类:PHP

  1. elasticsearch整合分词、创建索引、搜索例子

  2. lasticsearch整合分词、创建索引、搜索例子,elasticsearch版本为1.0,索引数据从数据表中动态读取生成,有关键字高亮效果,查询分页 1 在dababase目录中导致相关的数据库文件,修改DBCOperation java文件数据库连接地址,修改elasticsearch.properties文件中相关链接 2 运行CreatIndexMysql文件,里面有main方法查询数据库生成相关的索引文件 3 部署工程在tomcat中访问即可看到效果,项目中有很多的工具类,比如类似
  3. 所属分类:Java

    • 发布日期:2015-10-23
    • 文件大小:63963136
    • 提供者:j1582830
  1. 搜索分词:perl实现代码

  2. 搜索分词:perl实现代码,perl代码
  3. 所属分类:Perl

    • 发布日期:2017-05-02
    • 文件大小:8192
    • 提供者:yiqiume
  1. solr分词器

  2. 搜索引擎用来搜索分词搜索,---
  3. 所属分类:其它

    • 发布日期:2018-06-23
    • 文件大小:2097152
    • 提供者:weixin_42182488
  1. 百度分词算法详解第1/2页

  2. 搜索分词算法分析,不建议大家恶意作弊
  3. 所属分类:其它

    • 发布日期:2020-09-30
    • 文件大小:109568
    • 提供者:weixin_38605144
« 12 3 4 5 6 7 8 9 10 ... 35 »