您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 百度(baidu)分词算法分析.doc

  2. 之前在广州点石茶话会上也有重点讨论过百度分词算法,那时很多SEOer都认为百度在测试分词技术中,有些关键词带公司字眼的关键词,在搜索结果内容时基本上跟关键词不乎核。下面是中科院软件所张俊林一篇百度分词算法的三步曲,希望能帮SEOer解答一些关于百算分词算法的问题,内容可能长点,各位慢慢消化!
  3. 所属分类:其它

  1. Lucene分词查询

  2. 非常珍贵的Lucene入门实例,让你在最短时间内掌握Lucene快速创建索引,中文分词查询的技巧。 内赠送lucene驱动包,物超所值哦!!
  3. 所属分类:Java

    • 发布日期:2009-07-15
    • 文件大小:606208
    • 提供者:zepqxjava
  1. IKAnalyzer 3.0 中文分词器

  2. 1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
  3. 所属分类:其它

    • 发布日期:2009-07-21
    • 文件大小:1048576
    • 提供者:linliangyi2006
  1. 中文分词组件。1.5版的分词器

  2. je分词器。1.5版的,对以前的有很大的改进,当我1.4的时候,发现连“好人”这个词都分析不出来,所以特上传1.5版
  3. 所属分类:专业指导

    • 发布日期:2009-08-25
    • 文件大小:891904
    • 提供者:lsyaxue
  1. csw5.0中文分词组件

  2. 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
  3. 所属分类:C#

    • 发布日期:2009-09-01
    • 文件大小:3145728
    • 提供者:madl_lxj_163
  1. 汉语分词技术综述.pdf

  2. [摘要]首先介绍汉语自动分词技术及基于词索引的中文全文检索技术,接着分别从文献自动标引、文摘自动生成、文本自动 分类、文本信息过滤,自然语言检索接口和智能检索等方面详细地阐述汉语自动分词技术在中文全文检索中的应用,并对目前 汉语自动分词技术存在的局限性进行分析,提出发展思路,最后对汉语自动分词技术在中文全文检索中的应用前景进行预测。 [关键词]汉语自动分词中文全文检索文献自动标引 自然语言检索
  3. 所属分类:专业指导

    • 发布日期:2009-12-14
    • 文件大小:608256
    • 提供者:shan_xue_xib
  1. 汉语分词技术综述 文档 论文

  2. 首先介绍汉语自动分词技术及基于词索引的中文全文检索技术,接着分别从文献自动标引、文摘自动生成、文本自动 分类、文本信息过滤、自然语言检索接口和智能检索等方面详细地阐述汉语自动分词技术在中文全文检索中的应用,并对目前 汉语自动分词技术存在的局限性进行分析,提出发展思路,最后对汉语自动分词技术在中文全文检索中的应用前景进行预测。
  3. 所属分类:专业指导

    • 发布日期:2010-01-17
    • 文件大小:57344
    • 提供者:tberg
  1. 中文分词程序-正向最大匹配算法及逆向最大匹配算法

  2. 运用正向最大匹配算法进行分析,同时也实现了逆向最大匹配,内有分词词典。
  3. 所属分类:其它

    • 发布日期:2010-02-01
    • 文件大小:4194304
    • 提供者:zhujxi
  1. 基于分词的地址匹配技术(PDF清晰)

  2. 基于分词的地址匹配技术:根据调查显示,城市信息80%都与地理位置有关,而这些信息中大部分却没有空间坐标,自然无法整合,无法进行控件分析。为了快速的推进数字化城市的建设和发展,有必要找到一种快速,高效的方法,将大量的与地理位置相关的信息,进行坐标编码,以便于GIS系统分析,查询。本文提出了一种基于分词的地理匹配技术,他将大量的非空间信息高效的转化为空间信息,极大提高非空间信息数据的编码,录入效率。
  3. 所属分类:专业指导

    • 发布日期:2010-03-11
    • 文件大小:1048576
    • 提供者:nextel
  1. 中科院分词系统

  2. 基于多层隐马尔科夫模型的汉语词法分析系统(Institute of Computing Technology, Chinese Lexical Analysis System),它包括了中文分词,词性标注和未登录词识别等。
  3. 所属分类:专业指导

    • 发布日期:2007-12-18
    • 文件大小:155648
    • 提供者:bzbcxwp
  1. ICTCLAS 中文分词

  2. 中文词法分析是中文信息处理的基础与关键。中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级6次,目前已经升级到了ICTCLAS3.0。ICTCLAS3.0分词速度单机996KB/s,分词精度98.45%,API不超过
  3. 所属分类:嵌入式

    • 发布日期:2010-05-10
    • 文件大小:5242880
    • 提供者:GenesisBoy
  1. 百度分词算法分析.rar

  2. 百度分词算法分析.rar 讲诉BAIDU搜索引擎的分词算法。不过有点技术深度。。。
  3. 所属分类:其它

    • 发布日期:2010-06-09
    • 文件大小:155648
    • 提供者:wwwitcom
  1. 中科院中文分词ictclaszyfc-v2009.zip

  2. 一、ICTCLAS简介   中文词法分析是中文信息处理的基础与关键。中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级6次,目前已经升级到了ICTCLAS3.0。ICTCLAS3.0分词速度单机996KB/s,分词精
  3. 所属分类:嵌入式

  1. 几种基于词典的中文分词算法评价

  2. 结合当前中文分词技术在中丈信息处理等领域的广泛应用,分析了中丈分词技术的重要性,对三类 基本分词算法进行了介绍并讨论了各自的特.点,提出了中文分词技术面临的难题及汁其未来的展望。
  3. 所属分类:其它

    • 发布日期:2010-09-08
    • 文件大小:269312
    • 提供者:atom198101
  1. 分词程序 (高效准确),可直接使用

  2. 高效较准确的中英文分词程序(源代码),可直接在VS上使用,并有与其他分析算法的比较分析,好!
  3. 所属分类:其它

    • 发布日期:2010-09-15
    • 文件大小:1048576
    • 提供者:qiang121
  1. 标准中文分词

  2. 本软件可以进行中文的分词,同时还能进行人名的分析
  3. 所属分类:专业指导

    • 发布日期:2008-03-07
    • 文件大小:993280
    • 提供者:heacy521
  1. 灵柩软件 可用于汉语分词处理

  2. LJParser文本搜索与挖掘开发平台的十大功能: 1. 全文精准检索 支持文本、数字、日期、字符串等各种数据类型,多字段的高效搜索,支持AND/OR/NOT以及NEAR邻近等查询语法,支持维语、藏语、蒙语、阿拉伯、韩语等多种少数民族语言的检索。可以无缝地与现有文本处理系统与数据库系统融合。 2. 新词发现: 从文件集合中挖掘出内涵的新词语列表,可以用于用户专业词典的编撰;还可以进一步编辑标注,导入分词词典中,从而提高分词系统的准确度,并适应新的语言变化。 3. 分词标注: 对原始语料进行分词
  3. 所属分类:Web开发

    • 发布日期:2010-11-05
    • 文件大小:688128
    • 提供者:zhangguoqiang52
  1. 中科院分词系统(基于入侵检测系统)

  2. 中文词法分析是中文信息处理的基础与关键。中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级6次,目前已经升级到了ICTCLAS3.0。ICTCLAS3.0分词速度单机996KB/s,分词精度98.45%,API不超过
  3. 所属分类:嵌入式

    • 发布日期:2010-11-15
    • 文件大小:9437184
    • 提供者:quhao3100590
  1. IKAnalyzer中文分词器V3[1].2.3使用手册

  2. IKAnalyzer中文分词器V3[1].2.3使用手册.pdf
  3. 所属分类:专业指导

    • 发布日期:2011-01-18
    • 文件大小:500736
    • 提供者:hewgshare
  1. Deta_Parser:快速中文分词分析分词-源码

  2. (早期接触申请软着,以为申请软着就是发表,结果找华夏知识产权写了已经发表,这里永久申明下。) 用户使用如果遇纠纷法院热线电话12368,公安电话号码110,国外请咨询当地法院与公安部部门 :fire: 26,000 / ms的词段,用于NLP,POS,AI和深度学习/每秒中文混合分词2200〜3000万单词的高精准确率快速神经网络分词包的文本挖掘。训练词意分析,词感分析,词境分析,词灵分析和自由扩展词库免费的官方互动展示页地址: ://tinos.qicp.vip/data.html 项目
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:5242880
    • 提供者:weixin_42127835
« 12 3 4 5 6 7 8 9 10 ... 35 »