您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 汉语自动分词技术的最新发展及其在信息检索中的应用

  2. 汉语自动分词技术的最新发展及其在信息检索中的应用
  3. 所属分类:专业指导

    • 发布日期:2009-04-28
    • 文件大小:241664
    • 提供者:jsbykmd
  1. 纯文本词典 中文分词 分词文本 文本词典

  2. 文本词典 中文分词 分词文本 纯文本词典 中文分词 分词文本 文本词典 信息检索
  3. 所属分类:Java

    • 发布日期:2009-06-15
    • 文件大小:1048576
    • 提供者:behappy373
  1. ICTCLAS分词系统.NET版,源代码+文档,非常实用,值得珍藏!

  2. 这是ICTCLAS开发的开源项目。 想必大家遇到过需要进行汉语分词的情况,如检索一篇文章中词频最高的几个词,文章相似性对比等,都需要将文章进行分词处理后才能进行,这套系统是全球最受欢迎的汉语分词开源系统,内含所需词典、文档和示例做参考,你可以直接调用也可以研究其源代码(其代码习惯值得借鉴),是不可多得的好东西。 感谢大家的支持,觉得好的话别忘了评分哦!
  3. 所属分类:C#

    • 发布日期:2009-06-24
    • 文件大小:1048576
    • 提供者:chenshidan
  1. 非常好的检索分词算法PPT文档

  2. 非常好的检索分词算法PPT文档,提供检索分词算法,如何处理分词结果。
  3. 所属分类:其它

    • 发布日期:2009-06-30
    • 文件大小:131072
    • 提供者:fengdefu
  1. 庖丁解牛分词器 lucene全文检索使用

  2. lucene 全文检索使用的庖丁解牛分词器,很不错
  3. 所属分类:Java

  1. IKAnalyzer 3.0 中文分词器

  2. 1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
  3. 所属分类:其它

    • 发布日期:2009-07-21
    • 文件大小:1048576
    • 提供者:linliangyi2006
  1. 基于分词索引全文检索介绍

  2. 基于中文分词索引全文检索介绍,简单易懂,文档是PDF格式的
  3. 所属分类:Java

    • 发布日期:2009-07-22
    • 文件大小:1048576
    • 提供者:tangjianft
  1. 庖丁分词程序2.0.4,很好的分词程序

  2. 庖丁分词程序,很好的分词程序."庖丁解牛" 使用指南 1、准备 1)将二进制包paoding-analyis.jar放到自己的classpath下 2)将字典文件安装(也就是拷贝)到某个目录下,比如/data/paoding/dic下 3)把配置文件paoding-analysis.properties放到自己的classpath下 4)打开paoding-analysis.properties,把paoding.dic.home属性设置为字 典的安装目录,比如paoding.d ic.hom
  3. 所属分类:Java

    • 发布日期:2009-07-22
    • 文件大小:5242880
    • 提供者:jiutianzhifeng
  1. csw5.0中文分词组件

  2. 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
  3. 所属分类:C#

    • 发布日期:2009-09-01
    • 文件大小:3145728
    • 提供者:madl_lxj_163
  1. 中文分词软件,支持自动标引

  2. 这是一个好用的中文分词软件。。。。。。。 支持自动标引,自动分词。。。。。。。。 支持全文检索。。。。。 还有统计功能
  3. 所属分类:专业指导

    • 发布日期:2009-09-20
    • 文件大小:7340032
    • 提供者:panyunlai
  1. 中文分词的切分词典(词性标注,数据库为基础的文本分类检索过滤

  2. 用于中文分词的切分词典,还有词性标注,以这个词典数据库为基础建立文本分类,文本检索或文本过滤可以节省很多时间.很全,强烈推荐
  3. 所属分类:专业指导

    • 发布日期:2009-09-21
    • 文件大小:218112
    • 提供者:manuxiao
  1. 汉语分词技术综述.pdf

  2. [摘要]首先介绍汉语自动分词技术及基于词索引的中文全文检索技术,接着分别从文献自动标引、文摘自动生成、文本自动 分类、文本信息过滤,自然语言检索接口和智能检索等方面详细地阐述汉语自动分词技术在中文全文检索中的应用,并对目前 汉语自动分词技术存在的局限性进行分析,提出发展思路,最后对汉语自动分词技术在中文全文检索中的应用前景进行预测。 [关键词]汉语自动分词中文全文检索文献自动标引 自然语言检索
  3. 所属分类:专业指导

    • 发布日期:2009-12-14
    • 文件大小:608256
    • 提供者:shan_xue_xib
  1. 调用海量智能分词研究版的dll获取分词的结果(C#)

  2. 中文分词是中文搜索引擎的基础,主要应用在信息检索、信息挖掘、中外文对译、中文校对、自动聚类、自动分类等很多方面. 这个是我参照VC的例子修改的C#版本。
  3. 所属分类:C#

    • 发布日期:2009-12-22
    • 文件大小:6291456
    • 提供者:new_sky_hony
  1. 用于中文分词的中文词库包

  2. 15W以上中文词库,可用于 信息检索 搜索引擎 分词 15W以上中文词库,可用于 信息检索 搜索引擎 分词 15W以上中文词库,可用于 信息检索 搜索引擎 分词
  3. 所属分类:Java

    • 发布日期:2010-01-04
    • 文件大小:7340032
    • 提供者:java2king
  1. 汉语分词技术综述 文档 论文

  2. 首先介绍汉语自动分词技术及基于词索引的中文全文检索技术,接着分别从文献自动标引、文摘自动生成、文本自动 分类、文本信息过滤、自然语言检索接口和智能检索等方面详细地阐述汉语自动分词技术在中文全文检索中的应用,并对目前 汉语自动分词技术存在的局限性进行分析,提出发展思路,最后对汉语自动分词技术在中文全文检索中的应用前景进行预测。
  3. 所属分类:专业指导

    • 发布日期:2010-01-17
    • 文件大小:57344
    • 提供者:tberg
  1. 中文分词检索 C程序

  2. 基于逆向最大匹配算法的分词及基于HMM模型的词性标注系统,包括了未登录词的识别、数据库的添加等内容。(需要手动修改数据库的路径才可以运行。。。
  3. 所属分类:C

    • 发布日期:2011-03-14
    • 文件大小:4194304
    • 提供者:cemnarrate
  1. 分词检索想法

  2. 分词检索想法
  3. 所属分类:C/C++

    • 发布日期:2013-07-08
    • 文件大小:27648
    • 提供者:xiixiixixi
  1. sphinx 中英文分词检索介绍

  2. sphinx 中英文分词快速检索 大数据快速搜索
  3. 所属分类:PHP

    • 发布日期:2015-06-16
    • 文件大小:585728
    • 提供者:wen_qiang2012
  1. 中文分词检索系统

  2. public static void main (String[] args) throws ParserException { try { TravelWordTable(RadarSpecialSearchEngine.fdz+"/字典.txt"); } catch(Exception e) { e.printStackTrace(); } } public static void TravelWordTable(S tring filename) throws IOException {
  3. 所属分类:Java

    • 发布日期:2017-11-22
    • 文件大小:4194304
    • 提供者:jybs003
  1. spring boot + es结合Jest实现全站搜索,分页,分词搜索,高亮,功能很全,博文里面有详细的介绍.zip

  2. Spring Boot结合Jest实现对ElasticSearch的全文检索,分词检索,分页,高亮关键词,多字段检索 PageController中的搜索方法里面是全套的,分词,分页,高亮等都包含,数据格式个es-head中创建索引的索引在压缩包里面都有 还是不懂的可以看我的博文里面有详细的介绍
  3. 所属分类:Java

    • 发布日期:2020-01-10
    • 文件大小:263168
    • 提供者:lpd_lt
« 12 3 4 5 6 7 8 9 10 ... 21 »