您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Lucene中文分词源码详解

  2. Lucene,作为一种全文搜索的辅助工具,为我们进行条件搜索,无论是像Google,Baidu之类的搜索引 擎,还是论坛中的搜索功能,还是其它C/S架构的搜索,都带来了极大的便利和比较高的效率。本文主要是利用Lucene对MS Sql Server 2000进行建立索引,然后进行全文索引。至于数据库的内容,可以是网页的内容,还是其它的。本文中数据库的内容是图书馆管理系统中的某个作者表- Authors表。
  3. 所属分类:其它

    • 发布日期:2009-05-19
    • 文件大小:889856
    • 提供者:yanxb191
  1. lucene中文分词源码,做搜索引擎需要用到的好东西哦

  2. lucene中文分词源码,做搜索引擎需要用到的好东西哦
  3. 所属分类:Java

  1. C++编写中文分词最大匹配的分词源码

  2. C++编写的中文最大匹配分词源码,对学习分词的朋友有很大的帮助啊哦!
  3. 所属分类:C++

    • 发布日期:2009-09-21
    • 文件大小:67584
    • 提供者:manuxiao
  1. ChineseTokenizer.zip

  2. 用C#写的中文分词源码,正确率还是很高的
  3. 所属分类:C#

    • 发布日期:2007-11-27
    • 文件大小:1037312
    • 提供者:mxw5495
  1. lucene中文分词源码

  2. lucene中文分词源码,做搜索引擎需要用到的好东西哦,这是压缩文件。
  3. 所属分类:Java

    • 发布日期:2010-05-16
    • 文件大小:1048576
    • 提供者:zln73716
  1. 猎兔Lucene.NET中文分词源码seg_src.rar

  2. 猎兔Lucene.NET中文分词源码seg_src.rar,权威代码,绝对优秀
  3. 所属分类:C#

    • 发布日期:2010-07-25
    • 文件大小:2097152
    • 提供者:yijuanhuanglian
  1. Lucene.net

  2. lucene中文分词源码,做搜索引擎需要用到的好东西哦
  3. 所属分类:C#

    • 发布日期:2010-11-29
    • 文件大小:1048576
    • 提供者:potato5118
  1. 中文分词ICTCLAS(C++)

  2. 中科院分词源码,ICTCLAS C++版本,需要的可以下载学习
  3. 所属分类:C++

    • 发布日期:2011-04-23
    • 文件大小:65536
    • 提供者:kenlary001
  1. 中文分词源码

  2. ChineseSplitter中文分词系统集成了单字(一元切分)、双字(二元切分)、词义切分等分词方法。提供很好的权重计算办法。
  3. 所属分类:C#

    • 发布日期:2011-12-22
    • 文件大小:2097152
    • 提供者:qq415734794
  1. IKAnalyzer分词源码

  2. IK Analyzer是一个开源的,基于java诧言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始, IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.X则发展为面吐Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。
  3. 所属分类:Java

    • 发布日期:2012-04-12
    • 文件大小:1048576
    • 提供者:datouyu1993
  1. 中文分词工具jar包

  2. 源码是中科院的分词源码,将其引入项目中,进行生成jar包,很方便的引入到另一个项目中,推荐使用啊。
  3. 所属分类:Java

    • 发布日期:2012-08-01
    • 文件大小:1048576
    • 提供者:ll562009122
  1. 盘古中文分词源码

  2. 盘古中文分词源码,C#语言编写,源代码,带词库。
  3. 所属分类:C#

    • 发布日期:2013-01-14
    • 文件大小:2097152
    • 提供者:lxlxtx1999
  1. 中科院分词源码下载

  2. 中科院分词源码下载,带注释讲解,最全最开源的中文分词源码。
  3. 所属分类:系统集成

    • 发布日期:2013-05-01
    • 文件大小:2097152
    • 提供者:jcz1277712532
  1. 最新逆向最大匹配分词算法 盘古分词 分词算法 中文分词 源码

  2. 最新逆向最大匹配分词算法 盘古分词 分词算法 中文分词 源码
  3. 所属分类:.Net

    • 发布日期:2014-03-14
    • 文件大小:1048576
    • 提供者:baiduwxz13yun
  1. scws中文分词源码包

  2. scws是 基于词频词典的中文分词系统,源码包中含有win下php的dll拓展.测试可用
  3. 所属分类:互联网

    • 发布日期:2014-03-17
    • 文件大小:435200
    • 提供者:qq564766474
  1. php智能分词源码

  2. 用php简单实现中文语句语义乃至文章的智能分词,可以应用于智能助手,机器人智能回复当中。
  3. 所属分类:PHP

    • 发布日期:2014-04-02
    • 文件大小:676864
    • 提供者:u014510608
  1. C#中文分词源码

  2. 支持中文的分词源码,效果还不错,准确率、速度都合适
  3. 所属分类:C#

    • 发布日期:2015-08-17
    • 文件大小:2097152
    • 提供者:xiaosapjy
  1. C++中文分词源码,分词的方法

  2. 西方语言在语句(或从句)内词汇之间存在分割符(空格),而汉语的词汇在语句中是连续排列的。因此,汉语词汇的切分(分词)在中文信息处理的许多应用领域,如机器翻译、文献检索、文献分类、文献过滤、以及词频统计等,是非常重要的第一步。 自动分词是基于字符串匹配的原理进行的。迄今为止,已经有许多文献对各种分词方法进行探讨,其着重点或为分词的速度方面,或为分词的精度方面以及分词的规范。本文主要探讨分词的速度问题,通过实验对比和理论分析,说明我们所提出的算法是有效的。 目前人们所提出的分词方法,在考虑效率问题
  3. 所属分类:其它

    • 发布日期:2008-11-12
    • 文件大小:334848
    • 提供者:johnzhjfly
  1. EasySeg1.1

  2. 非常简单的中文分词源码。欢迎下载交流!http://blog.csdn.net/cloudandy/
  3. 所属分类:C/C++

    • 发布日期:2007-05-01
    • 文件大小:4194304
    • 提供者:cloudandy
  1. IKSegment分词源码

  2. 可以将一篇文档分词,完成词频统计,制作总词表,制作倒排索引表。
  3. 所属分类:Java

    • 发布日期:2017-06-17
    • 文件大小:1048576
    • 提供者:lianyun017