您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Lucene中文分词器包

  2. 来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器。1. 正向全切分算法,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP)2. 对数量词、地名、路名的优化处理3. 对未知词汇采用自识别结合二元切分算法,确保搜索召回率(使用方法请参考IKAnalyzer V1.1版)
  3. 所属分类:其它

    • 发布日期:2007-08-14
    • 文件大小:873472
    • 提供者:linliangyi2006
  1. JE中文分词je-analysis-1.5.1.jar

  2. 1.5.1 —— 2006-01-22 修正细粒度分词错误的问题 1.5.0 —— 2007-01-18 全面支持Lucene 2.0 增强了词典维护的API 增加了商品编码的匹配 增加了Mail地址的匹配 实现了词尾消歧算法第二层的过滤 整理优化了词库 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 2006-07-03 修正细粒度分词错误的问题 1.3.1 —— 2006-0 6-23 修
  3. 所属分类:其它

    • 发布日期:2009-04-28
    • 文件大小:891904
    • 提供者:tiancen2001
  1. Yard中文分词系统V0.1.1版

  2. Yard中文分词系统采用改进了的正向最大匹配算法,利用双字哈希进行词典组织解决了中文分词中最长词带来的分词效率低下问题。 本次发布的版本为0.1.1版能对中文词组进行完美的切分同时利用词组的词频和词性解决了歧义划分的问题,但是对人名、地名、组织名、英文、数字等还不能进行很好的切分,在下一个版本中将解决这些问题。中文词典应用了搜狗实验室提供的互联网词库。纯java编写源码和词典在附件中可以下载。本软件为开源软件你可以进行任何修改以适应你的需求,如果你加入了新功能请发送一份副本给我,我们一同完善改
  3. 所属分类:其它

    • 发布日期:2009-06-16
    • 文件大小:1048576
    • 提供者:Soul_fly
  1. IKAnalyzer 3.0 中文分词器

  2. 1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
  3. 所属分类:其它

    • 发布日期:2009-07-21
    • 文件大小:1048576
    • 提供者:linliangyi2006
  1. 中文分词开源项目 JAVA中文分词

  2. import WordSegment.*; import java.awt.event.ActionEvent; import java.awt.event.ActionListener; import java.awt.*; import java.io.File; import java.util.Vector; import javax.swing.*; /** * */ /** * @author Truman * */ public class WordSegDemoFrame ex
  3. 所属分类:Java

    • 发布日期:2009-08-15
    • 文件大小:391168
    • 提供者:caolijunmingyan
  1. 中文分词-C语言编写正向和反向最大匹配算法

  2. 本程序是北京师范大学学生根据一个中文字库对所给的文章进行分词。有详细说明文档和exe文件,采用C语言编写,具体在文档中完全说明。采用的算法是正向最大匹配算法和反向最大匹配算法。主要实现屏幕分词和文件分词两项功能。因为对毕业设计有所帮助,所以我要分高一点哈~勿怪偶~
  3. 所属分类:C

    • 发布日期:2009-09-21
    • 文件大小:492544
    • 提供者:manuxiao
  1. 支持英文数字中文混合分词-实现很多功能非常强大!

  2. 支持英文数字中文混合分词 常用的数量和人名的匹配 超过22万词的词库整理 实现正向最大匹配算法 智能数字,日期,人名识别。分词算法:词库+最大匹配。具体的里面有非常详尽的说明文档
  3. 所属分类:其它

    • 发布日期:2009-09-21
    • 文件大小:44032
    • 提供者:manuxiao
  1. lucene分词测试代码

  2. 用java写的图形分词测试的小东西,用的分词器是:来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器,其使用“正向全切分算法”,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP),对数量词、地名、路名的优化处理,对未知词汇采用自识别结合二元切分算法,确保搜索召回率。但是没有源代码下载,只能联系作者索要。
  3. 所属分类:其它

    • 发布日期:2007-11-21
    • 文件大小:2097152
    • 提供者:robinfoxnan
  1. 中文分词程序-正向最大匹配算法及逆向最大匹配算法

  2. 运用正向最大匹配算法进行分析,同时也实现了逆向最大匹配,内有分词词典。
  3. 所属分类:其它

    • 发布日期:2010-02-01
    • 文件大小:4194304
    • 提供者:zhujxi
  1. java版中文分词器

  2. java版的中文分词器,可自建词典,正向、逆向最大匹配。
  3. 所属分类:Java

    • 发布日期:2010-03-16
    • 文件大小:391168
    • 提供者:zhongjianwufeng
  1. KTDictSeg 1.2-简易分词系统

  2. 中文人名判断 正向匹配分词和反向匹配分词的选项 停用词过滤 词性标注
  3. 所属分类:C#

    • 发布日期:2007-12-18
    • 文件大小:1048576
    • 提供者:shirleygx
  1. 分词匹配算法:正向最大匹配和反向最大匹配

  2. 分词匹配算法:正向最大匹配和反向最大匹配
  3. 所属分类:其它

    • 发布日期:2010-03-26
    • 文件大小:30720
    • 提供者:foxmessire
  1. 中文分词论文(转载) 中文分词算法 中文分词系统

  2. 中文分词技术属于自然语言处理技术范畴,对 于一句话, 人可以通过自己的知识来明白哪些是 词,哪些不是词,但如何让计算机也能理解
  3. 所属分类:其它

    • 发布日期:2010-04-06
    • 文件大小:229376
    • 提供者:sxj84877171
  1. 中文分词算法介绍、分类详解

  2. 该文档详细介绍了中文分词的原理及相应的技术。文档讲解了最大匹配法(Forward Maximum Matching method, FMM法)、正向最大匹配法(由左到右的方向)、逆向最大匹配法(由右到左的方向)、最少切分(使每一句中切出的词数最小)。
  3. 所属分类:其它

    • 发布日期:2010-04-25
    • 文件大小:110592
    • 提供者:yangyangye
  1. php搜索引擎之分词算法

  2. 本人写的搜索引擎部分抓词,里面含有数据库配置文件,以及本人开发心得。需要的可以下载来看看。采用的是正向最大匹配算法。目前只是分词部分结束。前台是简单的页面。使用了smarty模版分离代码。
  3. 所属分类:其它

    • 发布日期:2010-07-14
    • 文件大小:256000
    • 提供者:robert8803
  1. 改进的正向最大匹配分词算法

  2. 在正向最大匹配的基础上增加一个交集型歧义字段处理模块一次来提高分词效率
  3. 所属分类:其它

    • 发布日期:2010-12-09
    • 文件大小:134144
    • 提供者:gray5201003
  1. IKAnalyzer中文分词器

  2. 基于IKAnalyzer分词算法的准商业化Lucene中文分词器。1. 正向全切分算法2. 对数量词、地名、路名的优化处理3. 对未知词汇采用自识别结合二元切分算法,确保搜索召回率(使用方法请参考IKAnalyzer V1.1版)
  3. 所属分类:其它

    • 发布日期:2008-04-12
    • 文件大小:873472
    • 提供者:silyt
  1. 正向最大分词C++版

  2. 带有一个小型词库的最大正向分词c++版本的源程序。
  3. 所属分类:C++

    • 发布日期:2008-06-22
    • 文件大小:1048576
    • 提供者:gsvox
  1. 分词算法—— 最大正向匹配

  2. 分词算法基于最大正向分词算法改进的分词。基于字典
  3. 所属分类:C#

    • 发布日期:2013-05-18
    • 文件大小:3145728
    • 提供者:u010739126
  1. 正向分词字典

  2. 正向分词字典c++程序设计汉语分词词典代码
  3. 所属分类:IT管理

    • 发布日期:2013-11-04
    • 文件大小:1048576
    • 提供者:u010446936
« 12 3 4 5 6 7 »