您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 基于java语言的分词系统,可以标注词性、词频等信息,可用于二次开发.rar

  2. 基于java语言的分词系统,可以标注词性、词频等信息,可用于二次开发
  3. 所属分类:Java

    • 发布日期:2009-05-18
    • 文件大小:6291456
    • 提供者:dqf01_nuc
  1. Yard中文分词系统V0.1.1版

  2. Yard中文分词系统采用改进了的正向最大匹配算法,利用双字哈希进行词典组织解决了中文分词中最长词带来的分词效率低下问题。 本次发布的版本为0.1.1版能对中文词组进行完美的切分同时利用词组的词频和词性解决了歧义划分的问题,但是对人名、地名、组织名、英文、数字等还不能进行很好的切分,在下一个版本中将解决这些问题。中文词典应用了搜狗实验室提供的互联网词库。纯java编写源码和词典在附件中可以下载。本软件为开源软件你可以进行任何修改以适应你的需求,如果你加入了新功能请发送一份副本给我,我们一同完善改
  3. 所属分类:其它

    • 发布日期:2009-06-16
    • 文件大小:1048576
    • 提供者:Soul_fly
  1. ICTCLAS分词系统.NET版,源代码+文档,非常实用,值得珍藏!

  2. 这是ICTCLAS开发的开源项目。 想必大家遇到过需要进行汉语分词的情况,如检索一篇文章中词频最高的几个词,文章相似性对比等,都需要将文章进行分词处理后才能进行,这套系统是全球最受欢迎的汉语分词开源系统,内含所需词典、文档和示例做参考,你可以直接调用也可以研究其源代码(其代码习惯值得借鉴),是不可多得的好东西。 感谢大家的支持,觉得好的话别忘了评分哦!
  3. 所属分类:C#

    • 发布日期:2009-06-24
    • 文件大小:1048576
    • 提供者:chenshidan
  1. csw5.0中文分词组件

  2. 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
  3. 所属分类:C#

    • 发布日期:2009-09-01
    • 文件大小:3145728
    • 提供者:madl_lxj_163
  1. 海天智能分词系统源码

  2. 海天智能分词系统源码,可以根据需要设置分词的粒度,另外提供了词性标注,关键字提取等功能,相信对学习智能分词的朋友有莫大帮助
  3. 所属分类:专业指导

    • 发布日期:2009-09-21
    • 文件大小:65536
    • 提供者:manuxiao
  1. 汉语分词技术综述.pdf

  2. [摘要]首先介绍汉语自动分词技术及基于词索引的中文全文检索技术,接着分别从文献自动标引、文摘自动生成、文本自动 分类、文本信息过滤,自然语言检索接口和智能检索等方面详细地阐述汉语自动分词技术在中文全文检索中的应用,并对目前 汉语自动分词技术存在的局限性进行分析,提出发展思路,最后对汉语自动分词技术在中文全文检索中的应用前景进行预测。 [关键词]汉语自动分词中文全文检索文献自动标引 自然语言检索
  3. 所属分类:专业指导

    • 发布日期:2009-12-14
    • 文件大小:608256
    • 提供者:shan_xue_xib
  1. 调用海量智能分词研究版的dll获取分词的结果(C#)

  2. 中文分词是中文搜索引擎的基础,主要应用在信息检索、信息挖掘、中外文对译、中文校对、自动聚类、自动分类等很多方面. 这个是我参照VC的例子修改的C#版本。
  3. 所属分类:C#

    • 发布日期:2009-12-22
    • 文件大小:6291456
    • 提供者:new_sky_hony
  1. 汉语分词技术综述 文档 论文

  2. 首先介绍汉语自动分词技术及基于词索引的中文全文检索技术,接着分别从文献自动标引、文摘自动生成、文本自动 分类、文本信息过滤、自然语言检索接口和智能检索等方面详细地阐述汉语自动分词技术在中文全文检索中的应用,并对目前 汉语自动分词技术存在的局限性进行分析,提出发展思路,最后对汉语自动分词技术在中文全文检索中的应用前景进行预测。
  3. 所属分类:专业指导

    • 发布日期:2010-01-17
    • 文件大小:57344
    • 提供者:tberg
  1. ACWPS(爱博汉语分词系统)分词组件 asp分词组件

  2. 爱博汉语分词系统Web服务器支持标准的HTTP协议,可以跨平台调用,支持分布式运算; 爱博汉语分词系统COM组件提供COM和DLL接口(Windows环境) 以及共享库.so(Linux)形式,可支持所有支持COM接口调用的编程语言及脚本语言。 如:PHP、JSP、ASP、ASP.net、C/C++ 、VC6.0 、VC.net、BC、C#、VB6.0 、VB.net、Delphi、Java等。 爱博汉语分词系统支持自定义词语的功能,用户可根据自己需要定义添加汉语词组。 可根据需要自行定义影响
  3. 所属分类:C#

    • 发布日期:2010-02-28
    • 文件大小:2097152
    • 提供者:selectersky
  1. 中科院分词系统

  2. 基于多层隐马尔科夫模型的汉语词法分析系统(Institute of Computing Technology, Chinese Lexical Analysis System),它包括了中文分词,词性标注和未登录词识别等。
  3. 所属分类:专业指导

    • 发布日期:2007-12-18
    • 文件大小:155648
    • 提供者:bzbcxwp
  1. 中文自动分词&全文检索@统计工具(GBK版

  2. 本系统具备中文自动分词、全文检索、统计等基本功能,具体介绍如下: 1、中文自动分词 1)能对给定的中文文本进行自动分词、词性一级、词性二级标注; 2)支持大批量文本的自动分词及词性标注处理,可处理各级子文件夹下的文件; 3)能根据待分词及标注文本的类别,加挂用户自定义词典,进一步提高分词和标注的精确度; 4)用户可对系统词典进行扩展,可添加、删除、查看系统词典,可将系统词典输出为TXT文本编辑后再转换为系统用的电子词典; 5)支持人名、地名、机构名等未登录词识别,支持基于GBK字符集的简、繁体
  3. 所属分类:专业指导

    • 发布日期:2010-04-22
    • 文件大小:3145728
    • 提供者:lonewar
  1. 1.5万英语单词Access数据库,包含单词原型、过去式、过去分词、现在分词和复数等四种形式

  2. 1.5万多个英语单词数据库(Access),除了英语单词意思外,还包含例句以及该单词的四种形态,即过去式、过去分词、现在分词和名词复数形式 特别说明:本数据库仅用于学习和个人使用,请勿用于商业。
  3. 所属分类:Access

    • 发布日期:2010-05-14
    • 文件大小:1048576
    • 提供者:gxingmin
  1. 中科院中文分词ictclaszyfc-v2009.zip

  2. 一、ICTCLAS简介   中文词法分析是中文信息处理的基础与关键。中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级6次,目前已经升级到了ICTCLAS3.0。ICTCLAS3.0分词速度单机996KB/s,分词精
  3. 所属分类:嵌入式

  1. 中文分词处理技术源代码

  2. 专业提供中文分词扩展和中文词库。使中文分词,全文搜索不再是难点,一个函数即完成分词。然后即可把分词后的结果存储,再使用sphinx,Lucene等进行索引搜索了。
  3. 所属分类:其它

    • 发布日期:2010-07-28
    • 文件大小:507904
    • 提供者:y34ml
  1. 几种基于词典的中文分词算法评价

  2. 结合当前中文分词技术在中丈信息处理等领域的广泛应用,分析了中丈分词技术的重要性,对三类 基本分词算法进行了介绍并讨论了各自的特.点,提出了中文分词技术面临的难题及汁其未来的展望。
  3. 所属分类:其它

    • 发布日期:2010-09-08
    • 文件大小:269312
    • 提供者:atom198101
  1. lucene的分词的测试工程

  2. lucene的分词的测试工程,包括分词器的比较,扩展停用词,同义词分词等
  3. 所属分类:Java

    • 发布日期:2013-04-21
    • 文件大小:4194304
    • 提供者:wxwzy738
  1. Lucene.net增删改查示例,使用多索引和盘古分词等方法,并实现分页查询

  2. 这是一个Lucene.net的多索引示例,以数据库的动态数据为数据源,每个表对应一个索引,使用了盘古分词方法,适用于中文的分词,并且实现了增删改查的所有功能。 同时,在查询索引时,适用了分页方法,可直接引用到项目中使用。 无需修改即可运行,代码有明确的注释,一看就懂。
  3. 所属分类:C#

    • 发布日期:2014-10-21
    • 文件大小:3145728
    • 提供者:atm_rmb
  1. php用语中文分词

  2. php的中文分词代码,包括此次能分词等,快速有效。可用于中文的关键词抽取等。
  3. 所属分类:PHP

    • 发布日期:2014-12-31
    • 文件大小:2097152
    • 提供者:xdtq185774963
  1. 几个搜索相关的pdf(lucene, 分词等)

  2. NULL 博文链接:https://coderplay.iteye.com/blog/339361要被分词的文章内容:当没有通过弌f或-file指定文章输入文仹吋可选择这个选项指定要被分 词的内容。 analyzer.-a 测试其他分词器,通过- analyzer或-a指定其完整类名。特别地, paoding、cjk、 chinese、st分别对应 PaodingAnalyzer、 CJKAnalyzer、 Chineseanalyzer、 StandardAnalyzer print, -P:
  3. 所属分类:其它

    • 发布日期:2019-03-16
    • 文件大小:72704
    • 提供者:weixin_38669628
  1. NLPIR、pyltp、jieba、hanlp、snownlp分词工具安装使用记录

  2. 最近适用了这五款分词工具,光是下载安装就踩了很多坑,特别是pyltp和hanlp,装到我怀疑人生。 以下是整理的安装过程和注意事项。 希望能给大家提供些帮助。 目录一、Nlpir第一步:下载工具。第二步:下载后,解压,按如下顺序进入目录。第三步:打开工具,可以看到有精准采集、文档转换、批量分词等功能。具体使用方法可参考右下角“使用手册”。二、 Pyltp第一步:下载安装Pyltp。第二步:下载模型。第三步:使用基本组件。三、 Jieba第一步:pip安装,指令为第二步:基于python中jieb
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:799744
    • 提供者:weixin_38617297
« 12 3 4 5 6 7 8 9 10 ... 43 »