您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Lucene中文分词源码详解

  2. Lucene,作为一种全文搜索的辅助工具,为我们进行条件搜索,无论是像Google,Baidu之类的搜索引 擎,还是论坛中的搜索功能,还是其它C/S架构的搜索,都带来了极大的便利和比较高的效率。本文主要是利用Lucene对MS Sql Server 2000进行建立索引,然后进行全文索引。至于数据库的内容,可以是网页的内容,还是其它的。本文中数据库的内容是图书馆管理系统中的某个作者表- Authors表。
  3. 所属分类:其它

    • 发布日期:2009-05-19
    • 文件大小:889856
    • 提供者:yanxb191
  1. C++编写中文分词最大匹配的分词源码

  2. C++编写的中文最大匹配分词源码,对学习分词的朋友有很大的帮助啊哦!
  3. 所属分类:C++

    • 发布日期:2009-09-21
    • 文件大小:67584
    • 提供者:manuxiao
  1. ChineseTokenizer.zip

  2. 用C#写的中文分词源码,正确率还是很高的
  3. 所属分类:C#

    • 发布日期:2007-11-27
    • 文件大小:1037312
    • 提供者:mxw5495
  1. 中文分词ICTCLAS(C++)

  2. 中科院分词源码,ICTCLAS C++版本,需要的可以下载学习
  3. 所属分类:C++

    • 发布日期:2011-04-23
    • 文件大小:65536
    • 提供者:kenlary001
  1. 盘古中文分词源码

  2. 盘古中文分词源码,C#语言编写,源代码,带词库。
  3. 所属分类:C#

    • 发布日期:2013-01-14
    • 文件大小:2097152
    • 提供者:lxlxtx1999
  1. C#中文分词源码

  2. 支持中文的分词源码,效果还不错,准确率、速度都合适
  3. 所属分类:C#

    • 发布日期:2015-08-17
    • 文件大小:2097152
    • 提供者:xiaosapjy
  1. C++中文分词源码,分词的方法

  2. 西方语言在语句(或从句)内词汇之间存在分割符(空格),而汉语的词汇在语句中是连续排列的。因此,汉语词汇的切分(分词)在中文信息处理的许多应用领域,如机器翻译、文献检索、文献分类、文献过滤、以及词频统计等,是非常重要的第一步。 自动分词是基于字符串匹配的原理进行的。迄今为止,已经有许多文献对各种分词方法进行探讨,其着重点或为分词的速度方面,或为分词的精度方面以及分词的规范。本文主要探讨分词的速度问题,通过实验对比和理论分析,说明我们所提出的算法是有效的。 目前人们所提出的分词方法,在考虑效率问题
  3. 所属分类:其它

    • 发布日期:2008-11-12
    • 文件大小:334848
    • 提供者:johnzhjfly
  1. EasySeg1.1

  2. 非常简单的中文分词源码。欢迎下载交流!http://blog.csdn.net/cloudandy/
  3. 所属分类:C/C++

    • 发布日期:2007-05-01
    • 文件大小:4194304
    • 提供者:cloudandy