您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. csw5.0中文分词组件

  2. 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
  3. 所属分类:C#

    • 发布日期:2009-09-01
    • 文件大小:3145728
    • 提供者:madl_lxj_163
  1. 汉语词性标注系统的设计与实现

  2. 论文:汉语词性标注系统的设计与实现,caj格式,需要caj阅读器
  3. 所属分类:专业指导

    • 发布日期:2009-12-16
    • 文件大小:2097152
    • 提供者:dachun032
  1. ACWPS(爱博汉语分词系统)分词组件 asp分词组件

  2. 爱博汉语分词系统Web服务器支持标准的HTTP协议,可以跨平台调用,支持分布式运算; 爱博汉语分词系统COM组件提供COM和DLL接口(Windows环境) 以及共享库.so(Linux)形式,可支持所有支持COM接口调用的编程语言及脚本语言。 如:PHP、JSP、ASP、ASP.net、C/C++ 、VC6.0 、VC.net、BC、C#、VB6.0 、VB.net、Delphi、Java等。 爱博汉语分词系统支持自定义词语的功能,用户可根据自己需要定义添加汉语词组。 可根据需要自行定义影响
  3. 所属分类:C#

    • 发布日期:2010-02-28
    • 文件大小:2097152
    • 提供者:selectersky
  1. 中日交流标准日语词汇精解

  2. 文档中才词汇适用于初级日语学习者。文中详细概括了单词的词性,并列举句子讲解。
  3. 所属分类:专业指导

    • 发布日期:2011-02-20
    • 文件大小:4194304
    • 提供者:gsls3838
  1. ctbparser 句法分析

  2. author=qianxian. 一个开源的中文处理工具包,用于分词、词性标注、句法分析,采用的是中文宾州树库标准 采用两维Trie结构加速句法分析; 用户可自己编辑词条; 分词、词性标注、句法分析都基于条件随机场模型; 可输出最好的n个结果; 可输出结果的概率.
  3. 所属分类:专业指导

    • 发布日期:2011-02-21
    • 文件大小:14680064
    • 提供者:kamo54
  1. bing词典 桌面版

  2. 必应词典桌面版是由微软亚洲研究院研发的新一代在线词典软件。结合了互联网在线词典及桌面词典的优势,依托必应搜索引擎技术,及时发现并收录网络新兴词汇,让您的词典永不过时。基于微软强大的技术实力和创新能力,独创性的推出近音词搜索,近义词比较,词性百搭,拼音搜索,搭配建议等贴心功能让您体验不一样的精彩。同时,还有美女口模教您说英语,依照您的记忆曲线辅助您背诵单词的组件,让您感受不一样的神奇。 准确的整句翻译词库 最常用的词典库(包含微软Office词典) 微软数据挖掘术保证从网上及时收录流行语 英语专
  3. 所属分类:专业指导

    • 发布日期:2011-09-28
    • 文件大小:10485760
    • 提供者:sky_qing
  1. ICTCLAS2009版中文分词系统

  2. 中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级7次,目前已经升级到了ICTCLAS2009 用户词典接口扩展 用户可以动态增加、删除用户词典中的词,调节分词的效果。提高了用户词典使用的灵活性。 分词粒度可调 可以
  3. 所属分类:C++

    • 发布日期:2012-01-02
    • 文件大小:9437184
    • 提供者:yahawami
  1. 中科院分词器ICTCLAS

  2. 中科院语义分词 ICTCLAS 中科院官方于2009年2月19日发布了中科院中文分词器ICTCLAS2009版,转引官方介绍说明,新版本的中文分词系统在原有的基础上主要完善的有: 1、用户词典接口扩展 用户可以动态增加、删除用户词典中的词,调节分词的效果。提高了用户词典使用的灵活性。 2、分词粒度可调 可以控制分词结果的粒度。共享版本提供两种分词粒度,标准粒度和粗粒度,满足不同用户的需求。 3、词性标注功能加强 多种标注级的选择,系统可供选择的标注级有:计算所一级标注级,计算所二级标注集,北大
  3. 所属分类:Web开发

    • 发布日期:2012-03-08
    • 文件大小:2097152
    • 提供者:abing79
  1. ICTPOS3.0汉语词性标记集

  2. 计算所汉语词性标记集(共计99个,22个一类,66个二类,11个三类)主要用于中国科学院计算技术研究所研制的汉语词法分析器、句法分析器和汉英机器翻译系统。本标记集主要参考了以下词性标记集: 1. 北大《人民日报》语料库词性标记集; 2. 北大2002新版词性标记集(草稿); 3. 清华大学汉语树库词性标记集; 4. 教育部语用所词性标记集(国家推荐标准草案2002版); 5. 美国宾州大学中文树库(ChinesePennTreeBank)词性标记集;
  3. 所属分类:互联网

    • 发布日期:2014-09-04
    • 文件大小:62464
    • 提供者:beiyouyu
  1. ICTCLAS2009版中文分词系统

  2. 中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级7次,目前已经升级到了ICTCLAS2009 用户词典接口扩展 用户可以动态增加、删除用户词典中的词,调节分词的效果。提高了用户词典使用的灵活性。 分词粒度可调 可以
  3. 所属分类:嵌入式

    • 发布日期:2009-02-23
    • 文件大小:9437184
    • 提供者:zhangshibin8500
  1. 中文分词学习版

  2. 此为学习版,请勿用于商业用途或扩散。 以下描述转至互联网。 ============== 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自
  3. 所属分类:机器学习

    • 发布日期:2018-10-11
    • 文件大小:1048576
    • 提供者:weixin_43387663
  1. jcseg-core-1.9.7.jar

  2. 基于mmseg算法的一个轻量级开源中文分词器: Jcseg-1.9.7: 1. 词库优化:增加新词,去掉一些无用词,部分词条词性优化。 2. 增加文章关键字提取:基于textRank算法。 3. 增加文章关键短语提取:基于textRank算法。 4. 增加文章关键句子/文章摘要提取:基于BM25+textRank算法。 5. 增加jcseg-server模块:嵌入jetty,提供了一个高性能的服务器,给关键字提取,关键短语提取,关键句子提取,文章摘要提取,中文分词都提供了restful api,
  3. 所属分类:Java

    • 发布日期:2018-09-12
    • 文件大小:222208
    • 提供者:silver98
  1. AI学习知识点.xmind

  2. *AI学习知识点* 1. 基础知识 概率论 微积分与逼近论 极限、微分、积分的基本概念 利用逼近的思想理解微积分,利用积分的方式理解概率论 概率论的基础 古典模型 常见的概率分布 大数定理和中心极限定理 协方差和相关系数 最大似然估计和最大后验估计 凸优化 凸优化的基本概念 凸函数 凸集 凸优化问题的标准形式 线性代数及矩阵 线性空间及线性变化 矩阵的基本概念 状态转移矩阵 特征
  3. 所属分类:Python

    • 发布日期:2019-07-15
    • 文件大小:240640
    • 提供者:lingfeian
  1. 英语单词默写有发音,有音标,有词性,

  2. 这次做的可以自行加入单词,还有音标,发音,放到相应的文件夹里,软件就可以自动录入。有单元训练和综合测试,测试完有得分可以订正,有词性和音标显示,还能发音,包里有一些非常标准的wav发音音频!帮助同学们在家里记忆单词,纠正发音。无须安装解压后直接运行!!
  3. 所属分类:Python

    • 发布日期:2020-03-16
    • 文件大小:39845888
    • 提供者:qq_43142366
  1. 汉语分词标准汇总

  2. 文章目录《PFR人民日报标注语料库》词性编码表《现代汉语语料库加工规范——词语切分与词性标注》词性标记计算所 ICTCLAS 3.0汉语词性标记集形容词(1个一类,4个二类)区别词(1个一类,2个二类)连词(1个一类,1个二类)副词(1个一类)叹词(1个一类)方位词(1个一类)前缀(1个一类)后缀(1个一类)数词(1个一类,1个二类)名词 (1个一类,7个二类,5个三类)拟声词(1个一类)介词(1个一类,2个二类)量词(1个一类,2个二类)代词(1个一类,4个二类,6个三类)处所词(1个一类)时
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:288768
    • 提供者:weixin_38530202
  1. ctbparser:ctbparser是一种用C ++语言实现的开源的中文处理工具包(GBK编码),用于分词,词性标注,依存句法分析,采用的是宾州树库(CTB)标准-源码包

  2. ctbparser ctbparser是一种用C ++语言实现的开源的中文处理工具包(GBK编码),用于分词,词性标注,依存句法分析,采用的是宾州树库(CTB)标准。
  3. 所属分类:其它

    • 发布日期:2021-03-24
    • 文件大小:14680064
    • 提供者:weixin_42134144
  1. 依存关系上的中文名词性谓词识别研究

  2. 首次实现了一个基于依存关系的中文名词性谓词识别平台,作为语义角色标注的前提,谓词识别的结果直接影响语义角色标注的性能。使用两种方法进行实验:一种是基于传统的特征向量的方法在Chinese Nombank的转换语料上进行了系统实验,对各种词法特征、结构特征及其组合进行了测试,标准语料上F1值达到89.65,自动语料上达到81.27。另一种是使用树核的方法进行探索性实验,在标准语料和自动语料上分别得到84.62和80.93的F1值。
  3. 所属分类:其它

    • 发布日期:2021-02-23
    • 文件大小:655360
    • 提供者:weixin_38606041
  1. 基于依存关系的中文名词性谓词语义角色标注研究

  2. 语义角色标注是自然语言处理的一个重要研究内容,性能对机器翻译等研究有重大影响。实现了一个基于依存关系的中文名词性谓词语义角色标注平台,并对名词性谓词进行识别,使用最大熵分类模型在Chinese NomBank的转换语料上进行系统实验,对各种词法特征、结构特征及其组合进行了测试,标准语料上F1值达到78.09,基于自动句法树的语料上的F1值达到67.42。
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:657408
    • 提供者:weixin_38591615
  1. Macropodus:自然语言处理工具Macropodus,基于Albert + BiLSTM + CRF深度学习网络架构,中文分词,词性标注,命名实体识别,新词发现,关键词,文本摘要,文本相似度,科学计算器,中文数字阿拉伯NLP的工具(工

  2. Macropodus是一个以Albert + BiLSTM + CRF网络架构为基础,用大量中文语料训练的自然语言处理工具包。将提供中文分词,词性标注,命名实体识别,关键词提取,文本摘要,新词发现,文本相似度,计算器,数字转换,拼音转换,繁简转换等常见的NLP功能。 目录 安装 注意事项默认不安装nlg-yongzhuo, 如果需要该功能自行安装; 默认不指定numpy, pandas, scikit-learn版本, 过高或者过低的版本可能不支持 标准版本的依赖包详见 requirements
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:5242880
    • 提供者:weixin_42112685
  1. HanLP:中文分词词性标注命名实体识别依存句法分析语义依存分析新词发现用自动生成的摘要进行文本分类聚类拼音简繁转换自然语言处理-源码

  2. HanLP:汉语言处理 || || 面向生产环境的多语种自然语言处理工具包,基于PyTorch和TensorFlow 2.x双引擎,目标是普及落地最前沿的NLP技术。HanLP实现功能完善,性能高效,架构清晰,语料时新,可自定义的特点。 穿越世界上最大的多语言种语料库,HanLP2.1支持包括简繁中英日俄法德内部的104种语言上的10种联合任务:分词(粗分,细分2个标准,强制,合并,校正3种),词性标注(PKU,863,CTB,UD四套词性规范),命名实体识别(PKU,MSRA,OntoNot
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:775168
    • 提供者:weixin_42134054
« 12 »