您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. JE中文分词je-analysis-1.5.1.jar

  2. 1.5.1 —— 2006-01-22 修正细粒度分词错误的问题 1.5.0 —— 2007-01-18 全面支持Lucene 2.0 增强了词典维护的API 增加了商品编码的匹配 增加了Mail地址的匹配 实现了词尾消歧算法第二层的过滤 整理优化了词库 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 2006-07-03 修正细粒度分词错误的问题 1.3.1 —— 2006-0 6-23 修
  3. 所属分类:其它

    • 发布日期:2009-04-28
    • 文件大小:891904
    • 提供者:tiancen2001
  1. Yard中文分词系统V0.1.1版

  2. Yard中文分词系统采用改进了的正向最大匹配算法,利用双字哈希进行词典组织解决了中文分词中最长词带来的分词效率低下问题。 本次发布的版本为0.1.1版能对中文词组进行完美的切分同时利用词组的词频和词性解决了歧义划分的问题,但是对人名、地名、组织名、英文、数字等还不能进行很好的切分,在下一个版本中将解决这些问题。中文词典应用了搜狗实验室提供的互联网词库。纯java编写源码和词典在附件中可以下载。本软件为开源软件你可以进行任何修改以适应你的需求,如果你加入了新功能请发送一份副本给我,我们一同完善改
  3. 所属分类:其它

    • 发布日期:2009-06-16
    • 文件大小:1048576
    • 提供者:Soul_fly
  1. 中文分词开源项目 JAVA中文分词

  2. import WordSegment.*; import java.awt.event.ActionEvent; import java.awt.event.ActionListener; import java.awt.*; import java.io.File; import java.util.Vector; import javax.swing.*; /** * */ /** * @author Truman * */ public class WordSegDemoFrame ex
  3. 所属分类:Java

    • 发布日期:2009-08-15
    • 文件大小:391168
    • 提供者:caolijunmingyan
  1. 中文分词-C语言编写正向和反向最大匹配算法

  2. 本程序是北京师范大学学生根据一个中文字库对所给的文章进行分词。有详细说明文档和exe文件,采用C语言编写,具体在文档中完全说明。采用的算法是正向最大匹配算法和反向最大匹配算法。主要实现屏幕分词和文件分词两项功能。因为对毕业设计有所帮助,所以我要分高一点哈~勿怪偶~
  3. 所属分类:C

    • 发布日期:2009-09-21
    • 文件大小:492544
    • 提供者:manuxiao
  1. 中文分词程序-正向最大匹配算法及逆向最大匹配算法

  2. 运用正向最大匹配算法进行分析,同时也实现了逆向最大匹配,内有分词词典。
  3. 所属分类:其它

    • 发布日期:2010-02-01
    • 文件大小:4194304
    • 提供者:zhujxi
  1. 中文分词论文(转载) 中文分词算法 中文分词系统

  2. 中文分词技术属于自然语言处理技术范畴,对 于一句话, 人可以通过自己的知识来明白哪些是 词,哪些不是词,但如何让计算机也能理解
  3. 所属分类:其它

    • 发布日期:2010-04-06
    • 文件大小:229376
    • 提供者:sxj84877171
  1. 中文分词算法介绍、分类详解

  2. 该文档详细介绍了中文分词的原理及相应的技术。文档讲解了最大匹配法(Forward Maximum Matching method, FMM法)、正向最大匹配法(由左到右的方向)、逆向最大匹配法(由右到左的方向)、最少切分(使每一句中切出的词数最小)。
  3. 所属分类:其它

    • 发布日期:2010-04-25
    • 文件大小:110592
    • 提供者:yangyangye
  1. je-analyzer-1.5.3lucene中文分词组件

  2. 分词算法:正向最大匹配 + 词尾多重消歧 + 22万精选词典分词效率:每秒30万字(测试环境迅驰1.6,第一次分词需要1-2秒加载词典) 内存消耗:30M 支持分词粒度控制支持Lucene分词接口支持英文、数字、中文混合分词支持中文词典动态维护 支持中英文噪声词过滤 支持人名匹配 支持地名匹配 支持数量词匹配 支持中文数字匹配 支持日期时间匹配 支持电子邮件匹配 支持商品编码匹配
  3. 所属分类:其它

    • 发布日期:2008-04-14
    • 文件大小:892928
    • 提供者:shylanse
  1. 正向最大匹配算法(根据给定的词去匹配)

  2. 基于词典的正向最大匹配中文分词算法,能实现中英文数字混合分词。比如能分出这样的词:bb霜、3室、乐phone、touch4、mp3、T恤 第一次写中文分词程序,欢迎拍砖。
  3. 所属分类:C++

    • 发布日期:2012-05-05
    • 文件大小:384000
    • 提供者:xzwweiyi
  1. Lucene的中文分词方法设计与实现

  2. 本文设计实现了一个中文分词模块,其主要研究目的在于寻找更为有效的中文词汇 处理方法,提高全文检索系统的中文处理能力.整个模块基于当前最流行的搜索引擎架构 Lucene,实现了带有歧义消除功能的正向最大匹配算法.在系统评测方面,比较了该方法与现 有方法的区别,对于如何构建一个高效的中文检索系统,提出了一种实现. 关键词:中文分词;搜索引擎;Lucene;正向最大匹配
  3. 所属分类:Java

    • 发布日期:2012-09-14
    • 文件大小:356352
    • 提供者:david__zhang
  1. 中文分词词典-54w条词语

  2. 中文分词词典 适合最大正向匹配算法使用 共计548389条词语
  3. 所属分类:C

    • 发布日期:2012-11-01
    • 文件大小:1048576
    • 提供者:sduonline
  1. ShootSearch 中文分词组件(c#开源)

  2. ShootSearch 中文分词组件(c#开源) 技术支持:support@shootsoft.net http://www.shootsoft.net 分词算法:词库+最大匹配 词库来自www.jesoft.cn,已经过一定的修改 使用说明: 先加载词库,再进行分词.分词过程重载两次:支持回车的和不支持回车的,注意选择! 可以手动添加词语到sDict.txt,不过每次手动修改后需要调用SortDic()方法,否则无法实现最大匹配! sDict.txt的编码为UTF-8! 示例: 文字内容来自
  3. 所属分类:C#

    • 发布日期:2006-08-18
    • 文件大小:1001472
    • 提供者:shootsoft
  1. 中文分词系统

  2. 基于vc++ 的中文分词软件。 使用正向最大匹配算法和逆向最大匹配算法,加深对自然语言学习理解
  3. 所属分类:C++

    • 发布日期:2012-12-16
    • 文件大小:6291456
    • 提供者:comefar
  1. 正向最大匹配中文分词算法

  2. 中文分词一直都是中文自然语言处理领域的基础研究。目前,网络上流行的很多中文分词软件都可以在付出较少的代价的同时,具备较高的正确率。而且不少中文分词软件支持Lucene扩展。但不管实现如何,目前而言的分词系统绝大多数都是基于中文词典的匹配算法。其中最为常见的是最大匹配算法 (Maximum Matching,以下简称MM算法) 。MM算法有三种:一种正向最大匹配,一种逆向最大匹配和双向匹配。本程序实现了正向最大匹配算法。
  3. 所属分类:C++

    • 发布日期:2013-02-26
    • 文件大小:3145728
    • 提供者:lewsn2008
  1. 51cto中文分词c语言版略修改

  2. c语言实现的正向最大匹配算法的中文分次,适合初学者参考
  3. 所属分类:C

    • 发布日期:2013-05-29
    • 文件大小:404480
    • 提供者:lixixi0631032
  1. 中分分词与分词性能评测代码及详细设计文档

  2. 通过本资源了解中文分词的意义,在实现正向、逆向最大匹配分词算法的过程中,加深对自然语言理解原理的探讨兴趣。本资源内含详细的代码设计分档、测试语料、源代码以及多个自己制作的语料库词典,分别实现了正、逆向最大匹配中文分词,并且设计了算法对分词效果进行了详细的评测,可以对大作业乃至毕业设计提供巨大的帮助.
  3. 所属分类:C++

    • 发布日期:2014-06-09
    • 文件大小:4194304
    • 提供者:u014132695
  1. 正向最大匹配算法实现中文分词

  2. 中文分词一直都是中文自然语言处理领域的基础研究。目前,分词系统绝大多数都是基于中文词典的匹配算法。其中最为常见的是最大匹配算法 (Maximum Matching,以下简称MM算法) 。MM算法有三种:一种正向最大匹配,一种逆向最大匹配和双向匹配。本程序实现了正向最大匹配算法。 本程序还可以从我的github上面下载:https://github.com/Zehua-Zeng/Maximum-Matching-Algorithm
  3. 所属分类:C++

    • 发布日期:2014-09-23
    • 文件大小:9437184
    • 提供者:zehua_zeng
  1. 反向最大匹配算法实现中文分词

  2. 中文分词一直都是中文自然语言处理领域的基础研究。目前,分词系统绝大多数都是基于中文词典的匹配算法。其中最为常见的是最大匹配算法 (Maximum Matching,以下简称MM算法) 。MM算法有三种:一种正向最大匹配,一种逆向最大匹配和双向匹配。本程序实现了反向最大匹配算法。 本程序还可以从我的github上面下载:https://github.com/Zehua-Zeng/Reverse-Maximum-Matching-Algorithm
  3. 所属分类:C++

    • 发布日期:2014-09-23
    • 文件大小:9437184
    • 提供者:zehua_zeng
  1. 正向最大匹配中文分词算法

  2. 中文分词一直都是中文自然语言处理领域的基础研究。目前,网络上流行的很多中文分词软件都可以在付出较少的代价的同时,具备较高的正确率。而且不少中文分词软件支持Lucene扩展。但不管实现如何,目前而言的分词系统绝大多数都是基于中文词典的匹配算法。其中最为常见的是最大匹配算法 (Maximum Matching,以下简称MM算法) 。MM算法有三种:一种正向最大匹配,一种逆向最大匹配和双向匹配。本程序实现了正向最大匹配算法。
  3. 所属分类:C++

    • 发布日期:2020-12-17
    • 文件大小:3145728
    • 提供者:jos_king
  1. 正向最大匹配中文分词算法

  2. 中文分词一直都是中文自然语言处理领域的基础研究。目前,网络上流行的很多中文分词软件都可以在付出较少的代价的同时,具备较高的正确率。而且不少中文分词软件支持Lucene扩展。但不管实现如何,目前而言的分词系统绝大多数都是基于中文词典的匹配算法。其中最为常见的是最大匹配算法 (Maximum Matching,以下简称MM算法) 。MM算法有三种:一种正向最大匹配,一种逆向最大匹配和双向匹配。本程序实现了正向最大匹配算法。
  3. 所属分类:C++

    • 发布日期:2021-02-22
    • 文件大小:3145728
    • 提供者:Miwentian
« 12 3 »