您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 汉语词性标注系统的设计与实现

  2. 论文:汉语词性标注系统的设计与实现,caj格式,需要caj阅读器
  3. 所属分类:专业指导

    • 发布日期:2009-12-16
    • 文件大小:2097152
    • 提供者:dachun032
  1. 基于模型的汉语词性标注研究

  2. 基于模型的汉语词性标注研究的论文,欢迎参考,caj格式的,需要caj阅读器哦。
  3. 所属分类:专业指导

    • 发布日期:2009-12-16
    • 文件大小:2097152
    • 提供者:dachun032
  1. 计算所汉语词法分析系统ICTCLAS

  2. 词是最小的能够独立活动的有意义的语言成分,但汉语是以字为基本的书写单位,词语之间没有明显的区分标记,因此,中文词法分析是中文信息处理的基础与关键。为此,中国科学院计算技术研究所在多年研究基础上,耗时一年研制出了基于多层隐马模型的汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),该系统的功能有:中文分词;词性标注;未登录词识别。分词正确率高达97.58%(最近的973专家组评测结
  3. 所属分类:嵌入式

    • 发布日期:2007-11-25
    • 文件大小:2097152
    • 提供者:yanghuan6215
  1. ACWPS(爱博汉语分词系统)分词组件 asp分词组件

  2. 爱博汉语分词系统Web服务器支持标准的HTTP协议,可以跨平台调用,支持分布式运算; 爱博汉语分词系统COM组件提供COM和DLL接口(Windows环境) 以及共享库.so(Linux)形式,可支持所有支持COM接口调用的编程语言及脚本语言。 如:PHP、JSP、ASP、ASP.net、C/C++ 、VC6.0 、VC.net、BC、C#、VB6.0 、VB.net、Delphi、Java等。 爱博汉语分词系统支持自定义词语的功能,用户可根据自己需要定义添加汉语词组。 可根据需要自行定义影响
  3. 所属分类:C#

    • 发布日期:2010-02-28
    • 文件大小:2097152
    • 提供者:selectersky
  1. 汉语词法分析系统windows_C_64.rar

  2. 中文词法分析是中文信息处理的基础与关键。中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统
  3. 所属分类:嵌入式

    • 发布日期:2010-05-03
    • 文件大小:8388608
    • 提供者:sklzwmw
  1. 灵柩软件 可用于汉语分词处理

  2. LJParser文本搜索与挖掘开发平台的十大功能: 1. 全文精准检索 支持文本、数字、日期、字符串等各种数据类型,多字段的高效搜索,支持AND/OR/NOT以及NEAR邻近等查询语法,支持维语、藏语、蒙语、阿拉伯、韩语等多种少数民族语言的检索。可以无缝地与现有文本处理系统与数据库系统融合。 2. 新词发现: 从文件集合中挖掘出内涵的新词语列表,可以用于用户专业词典的编撰;还可以进一步编辑标注,导入分词词典中,从而提高分词系统的准确度,并适应新的语言变化。 3. 分词标注: 对原始语料进行分词
  3. 所属分类:Web开发

    • 发布日期:2010-11-05
    • 文件大小:688128
    • 提供者:zhangguoqiang52
  1. 汉语词法分析系统ICTCLAS2011

  2. 汉语词法分析系统ICTCLAS,主要功能包括中文分词;词性标注;命名实体识别;新词识别;用户词典功能,同时支持GBK编码、UTF8编码、BIG5编码。包括java,c,c#,linux 32位等各种接口
  3. 所属分类:其它

    • 发布日期:2011-12-23
    • 文件大小:5242880
    • 提供者:greatspider
  1. 汉语文本聚类

  2. 程序利用中科院的软件,分词、词性标注以后聚类,利用tf-idf值求出30个特征性,生成特征向量,可放在weka中聚类!
  3. 所属分类:C++

    • 发布日期:2012-03-05
    • 文件大小:5242880
    • 提供者:bengyu
  1. 基于层叠隐马模型的汉语词法分析

  2. 提出了一种基于层叠隐马模型的汉语词法分析方法,旨在将汉语分词、词性标注、切分排歧和未登录词识别集 成到一个完整的理论框架中1在分词方面,采取的是基于类的隐马模型,在这层隐马模型中,未登录词和词典中收录的普 通词一样处理1未登录词识别引入了角色HMM:Viterbi算法标注出全局最优的角色序列,然后在角色序列的基础上,识 别出未登录词,并计算出真实的可信度1在切分排歧方面,提出了一种基于N2最短路径的策略,即:在早期阶段召回N 个最佳结果作为候选集,目的是覆盖尽可能多的歧义字段,最终的结果会在未
  3. 所属分类:其它

    • 发布日期:2012-09-23
    • 文件大小:202752
    • 提供者:qq7489451
  1. 中文分词器nlpir Java32位开发接口

  2. 需配合完整开发包使用,NLPIR汉语分词系统(又名ICTCLAS2013),主要功能包括中文分词;词性标注;命名实体识别;用户词典功能;支持GBK编码、UTF8编码、BIG5编码。新增微博分词、新词发现与关键词提取;张华平博士先后倾力打造十余年,内核升级10次。 全球用户突破20万,先后获得了2010年钱伟长中文信息处理科学技术奖一等奖,2003年国际SIGHAN分词大赛综合第一名,2002年国内973评测综合第一名。
  3. 所属分类:Java

    • 发布日期:2013-04-15
    • 文件大小:788480
    • 提供者:wskings
  1. 词性标注包(acopost-1.8.6)源代码阅读笔记

  2. acopost是Ingo Schroder于02年在德国汉堡大学完成的一个词性标注工具包。主要实现了基于实例、最大熵、2元隐马、基于转换规则等4种词性标注算法,以及评价和算法融合等。采用的语言是perl和c,代码比较短小,非常适于学习。 本笔记记录内容: o 对acopost所实现的每个算法的训练和标注的基本流程、函数调用关系、相关文献等做了记录和阐述; o 对每个算法相关的源文件进行了详细注释; o 以汉语分词为实例,记录了4个标注算法的训练和标注结果。 [acopost] http://a
  3. 所属分类:专业指导

    • 发布日期:2014-01-15
    • 文件大小:17825792
    • 提供者:yqzhao
  1. 基于改进的隐马尔科夫模型的汉语词性标注

  2. 基于传统隐马尔科夫(HMM)模型的基础上, 对词语的词汇发射概率做出了新的假设, 从 而更好地体现了该词语与上下文依赖关系。还利用指数线性插值平滑算法对参数进行了有效平滑, 并且给出了未登录词词汇发射概率估计模型。实验结果证明, 改进后的模型明显优于传统HMM词 性标注模型的效果。
  3. 所属分类:其它

    • 发布日期:2014-02-27
    • 文件大小:125952
    • 提供者:u013800655
  1. 基于改进的隐马尔科夫模型的汉语词性标注

  2. 在传统的隐马尔科夫模型基础上稍作改进 提高效率
  3. 所属分类:讲义

    • 发布日期:2014-10-09
    • 文件大小:125952
    • 提供者:yb1243499782
  1. 有关词性标注的一点意见

  2. 如果翻阅整个词典,肯定会发现不少问题。但是正如吕叔湘先生生前所指出的,“做总比不做好。万事开头难,只要开了头,随着科学的发展和研究的深入,总有一天会完备起来的”。因此在汉语中型词典里给词标注词性,应当充分肯定。
  3. 所属分类:讲义

    • 发布日期:2016-02-18
    • 文件大小:18432
    • 提供者:u014677900
  1. 汉语词法分析系统ICTCLAS2011

  2. 汉语词法分析系统ICTCLAS,主要功能包括中文分词;词性标注;命名实体识别;新词识别;用户词典功能,同时支持GBK编码、UTF8编码、BIG5编码。包括java,c,c#,linux 32位等各种接口
  3. 所属分类:Java

    • 发布日期:2016-08-28
    • 文件大小:5242880
    • 提供者:mcyandy_zxb
  1. 汉语分词系统

  2. 主要功能包括中文分词;词性标注;命名实体识别;用户词典功能;支持GBK编码、UTF8编码、BIG5编码。
  3. 所属分类:Java

    • 发布日期:2018-03-14
    • 文件大小:11534336
    • 提供者:u012088070
  1. 自然语言词性标注程序

  2. 汉语的分词与词性标注程序,基于C++开发,可成功运行,其中的input文件是输入文件,output为输出,有一个自己编写的头文件和一个运行文件,语料库是人民日报语料库
  3. 所属分类:C++

    • 发布日期:2018-02-04
    • 文件大小:950272
    • 提供者:sh2245237188
  1. 基于HanLP的汉语词性标注表【可打印,按照字母顺序归为大类小类,更直观】

  2. 基于HanLP的汉语词性标注表【可打印,按照字母顺序归为大类小类,更直观】,共包含26个大类,148种词性
  3. 所属分类:机器学习

    • 发布日期:2019-04-24
    • 文件大小:22528
    • 提供者:snowcement
  1. Jiayan:甲言,专注于古代汉语(古汉语古文文言文文言)处理的NLP工具包,支持文言词库合成,分词,词性标注,断句和标点。Jiayan是为古典汉语设计的工具包,支持词典构建。 ,标记,POS标记,句子分段和标点符号-源码

  2. 甲言Jiayan 简介 甲言,取“Oracle言”之意,是一种专注于古汉语处理的NLP工具包。目前通用的汉语NLP工具均以现代汉语为核心语料,对古代汉语的处理效果很差(详见)。本项目的初衷,便是辅助古汉语信息处理,帮助有志于挖掘古文化矿藏的古汉语学者,爱好者等更好的地分析和利用文言资料,从“文化遗产”中创造出“文化新产”。当前版本支持,,,和五项功能,更多功能正在开发中。 功能 利用无监督的双,以及左右进行文言词库自动生成。 利用无监督,无词典的和进行古汉语自动分词。 利用词库合成功能产生的文言
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:222208
    • 提供者:weixin_42137022
  1. 带权约简及其在汉语词性标注自动校对中的应用

  2. 提出带权约简的概念,并研究了带权约简算法.首先指出已有约简算法无法融合人类的先验知识;然后提出使用权值向量表示这类知识,用于属性重要性的计算,获得基于区分能力的带权约简算法,并分析带权约简与经典约简的关系;最后将算法应用于汉语词性标注自动校对,并讨论了权值向量的具体设置.实验结果表明,使用所提出的算法及相应权值向量,可获得更有利于预测的约简.
  3. 所属分类:其它

    • 发布日期:2021-01-15
    • 文件大小:305152
    • 提供者:weixin_38717450
« 12 3 4 »