您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Lucene中文分词器包

  2. 来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器。1. 正向全切分算法,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP)2. 对数量词、地名、路名的优化处理3. 对未知词汇采用自识别结合二元切分算法,确保搜索召回率(使用方法请参考IKAnalyzer V1.1版)
  3. 所属分类:其它

    • 发布日期:2007-08-14
    • 文件大小:873472
    • 提供者:linliangyi2006
  1. java 正向匹配算法分析

  2. java分词算法, 正向匹配,可以实现中文分词处理
  3. 所属分类:其它

    • 发布日期:2009-07-23
    • 文件大小:2048
    • 提供者:east_dream
  1. 中文分词开源项目 JAVA中文分词

  2. import WordSegment.*; import java.awt.event.ActionEvent; import java.awt.event.ActionListener; import java.awt.*; import java.io.File; import java.util.Vector; import javax.swing.*; /** * */ /** * @author Truman * */ public class WordSegDemoFrame ex
  3. 所属分类:Java

    • 发布日期:2009-08-15
    • 文件大小:391168
    • 提供者:caolijunmingyan
  1. lucene分词测试代码

  2. 用java写的图形分词测试的小东西,用的分词器是:来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器,其使用“正向全切分算法”,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP),对数量词、地名、路名的优化处理,对未知词汇采用自识别结合二元切分算法,确保搜索召回率。但是没有源代码下载,只能联系作者索要。
  3. 所属分类:其它

    • 发布日期:2007-11-21
    • 文件大小:2097152
    • 提供者:robinfoxnan
  1. porter stemming 分词算法

  2. 分词算法 有ansi c 和java版本 从文本中分离出词语(英文) 从官网可以找到多语言实现: http://tartarus.org/~martin/PorterStemmer/
  3. 所属分类:C

    • 发布日期:2010-03-09
    • 文件大小:8192
    • 提供者:gtx360
  1. java实现的搜索引擎

  2. 基于java的搜索引擎的基本实现。技术点如下 1.分词算法 2.倒排文档 3.检索技术
  3. 所属分类:Java

    • 发布日期:2010-08-12
    • 文件大小:8192
    • 提供者:thss_qinb
  1. 中文分词程序详细源代码

  2. 针对中文分词算法中的正反向最大匹配算法,java实现的源代码
  3. 所属分类:Java

    • 发布日期:2011-03-20
    • 文件大小:1048576
    • 提供者:chengenjincgj
  1. java 实现的中文分词算法(代码)

  2. java 实现的基于FMM BMM算法的,中文分词算法(代码)
  3. 所属分类:Java

    • 发布日期:2011-04-14
    • 文件大小:3145728
    • 提供者:strong8808
  1. 不依赖第三方的java分词算法

  2. 采用正向和反向最大匹配算法,可拆分文件,字符串等,也可扩展自己想要的功能,很方便
  3. 所属分类:Java

    • 发布日期:2011-05-19
    • 文件大小:26624
    • 提供者:meipingjiang
  1. 文本分类--分词算法

  2. 一款经典的文本分类器,用java编程实现。包含10万,20万,30万三种词库。适合文本分类,多分类等相关领域的研究应用。
  3. 所属分类:Java

    • 发布日期:2011-08-05
    • 文件大小:4194304
    • 提供者:oceanfan
  1. 中科院分词java代码

  2. 中科院分词算法为目前针对中文文本分词效果最佳的算法,为聚类算法提供了良好的数据源
  3. 所属分类:其它

    • 发布日期:2012-04-13
    • 文件大小:8388608
    • 提供者:bishenghua3
  1. 中文分词算法接口文档

  2. 中科院中文分词算法的接口介绍,包括C++,java,C#等语言
  3. 所属分类:Java

    • 发布日期:2013-04-15
    • 文件大小:203776
    • 提供者:libohuiyuan
  1. Lucene中文分词组件 JE-Analysis 1.5.1

  2. 发布于:http://www.jesoft.cn/posts/list/5.page 1.5.1 —— 2006-01-22 修正细粒度分词错误的问题 1.5.0 —— 2007-01-18 全面支持Lucene 2.0 增强了词典维护的API 增加了商品编码的匹配 增加了Mail地址的匹配 实现了词尾消歧算法第二层的过滤 整理优化了词库 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 200
  3. 所属分类:其它

    • 发布日期:2007-01-22
    • 文件大小:891904
    • 提供者:diystar
  1. 中文分词工具word-1.0,Java实现的中文分词组件多种基于词典的分词算法

  2. word分词是一个Java实现的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。 能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。 同时提供了Lucene、Solr、ElasticSearch插件。 分词使用方法: 1、快速体验 运行项目根目录下的脚本demo-word.bat可以快速体验分词效果 用法: command [text] [input] [output] 命令command的可选值为:demo、text、file
  3. 所属分类:Java

    • 发布日期:2014-11-05
    • 文件大小:10485760
    • 提供者:love_hachi
  1. 双向匹配分词算法 Java

  2. 该算法是基于分词词典实现,从字符串左侧进行分割匹配,如果词典存在则返回分割出来的词语并将该词从之前的字符串中切除,循环进行切割直到字符串大小为0。
  3. 所属分类:Java

    • 发布日期:2017-07-11
    • 文件大小:1048576
    • 提供者:lylwanan
  1. word-1.3.1.jar中文分词

  2. word 分词是一个Java实现的分布式的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。能通过自定义配置文件来改变组件行为,能自定义用户词库、自动检测词库变化、支持大规模分布式环境,能灵活指定多种分词算法,能使用refine功能灵活控制分词结果,还能使用词性标注、同义标注、反义标注、拼音标注等功能。同时还无缝和Lucene、Solr、ElasticSearch、Luke集成。
  3. 所属分类:Hadoop

    • 发布日期:2017-09-26
    • 文件大小:25165824
    • 提供者:shuaigexiaobo
  1. VC++ C# 多种分词方法

  2. 含有多个分词算法。毕业设计的时候获得的,希望对大家在汉字处理中能用的到。 ICTCLAS算法,中科院,对名字识别能力很强。VC开发。 CSharp分词,向前匹配加向后最大匹配,C#开发,容易扩展。 小叮咚分词,由后向前最大匹配,C#开发。 xerdoc分词,基于ICTCLAS的Java版本分词。 文本分词词典,分词的词典,可以提供分词数据源。-containing more than Segmentation. Graduation was the time of hope for all t
  3. 所属分类:C++

    • 发布日期:2008-12-28
    • 文件大小:19922944
    • 提供者:abc1990fly
  1. Java实现的双向匹配分词算法示例

  2. 主要介绍了Java实现的双向匹配分词算法,结合完整实例形式详细分析了双向匹配分词算法的原理与java实现技巧,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-08-28
    • 文件大小:100352
    • 提供者:weixin_38599545
  1. Java实现的最大匹配分词算法详解

  2. 主要介绍了Java实现的最大匹配分词算法,简单说明了最大匹配分词算法的原理并结合具体实例形式最大匹配分词算法的实现方法与相关注意事项,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-08-29
    • 文件大小:93184
    • 提供者:weixin_38622125
  1. ik4solr4.3:ik分词器for Solr4.3,支持4.4,二进制不用修改也支持4.6,不放心可以改下POM中的依赖-源码

  2. ik4solr4.3(不再维护,未来可能删除:请去 ) solr4.3的ik分词器(改了一些smart分词算法。使用maven编译),隔壁有我写的包 支持从solr自己的环境中获取自定义词典(使用solr的ResourceLoader,只需要把字典文件放到对应索引的conf目录里) 增加一个定时更新类 在IK中不建议用smart分词,因为它并不怎么准,ansj的分词效果明显更好。 这是一次新的改变,如果你还用旧的,请注意更新了,由于曾经疏忽,旧版本并发下有问题 推荐可以结合另外一个动态使用 =
  3. 所属分类:其它

    • 发布日期:2021-03-23
    • 文件大小:1048576
    • 提供者:weixin_42168230
« 12 3 4 5 6 7 »