点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 词性统计
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
来自于SOGOU搜索引擎的词性标注和词频统计
N 名词 V 动词 ADJ 形容词 ADV 副词 CLAS 量词 ECHO 拟声词 STRU 结构助词 AUX 助词 COOR 并列连词 CONJ 连词 SUFFIX 前缀 PREFIX 后缀 PREP 介词 PRON 代词 QUES 疑问词 NUM 数词 IDIOM 成语
所属分类:
专业指导
发布日期:2009-06-15
文件大小:1048576
提供者:
li0409
统计自然语言处理基本概念
统计自然语言处理基本概念隐马尔科夫模型和词性标注
所属分类:
专业指导
发布日期:2009-07-04
文件大小:2097152
提供者:
anyupu
中文自动分词&全文检索@统计工具(GBK版
本系统具备中文自动分词、全文检索、统计等基本功能,具体介绍如下: 1、中文自动分词 1)能对给定的中文文本进行自动分词、词性一级、词性二级标注; 2)支持大批量文本的自动分词及词性标注处理,可处理各级子文件夹下的文件; 3)能根据待分词及标注文本的类别,加挂用户自定义词典,进一步提高分词和标注的精确度; 4)用户可对系统词典进行扩展,可添加、删除、查看系统词典,可将系统词典输出为TXT文本编辑后再转换为系统用的电子词典; 5)支持人名、地名、机构名等未登录词识别,支持基于GBK字符集的简、繁体
所属分类:
专业指导
发布日期:2010-04-22
文件大小:3145728
提供者:
lonewar
基于条件随机场(CRFs)的中文词性标注方法
本文提出一种基于CRFs 模型的中文词性标注方法。该方法利用CRFs 模型能够添加任意特征的优点,在使用词的上下文信息的同时,针对兼类词和未登录词添加了新的统计特征。在《人民日报》1 月份语料库上进行的封闭测试和开放测试中,该方法的标注准确率分别为98. 56 %和96. 60 %。
所属分类:
专业指导
发布日期:2010-05-20
文件大小:353280
提供者:
jiangtinghaha
统计词性总量的程序
这个程序可以用来统计词性总数,不过要求实现进行词性标注,然后进行词性总量统计
所属分类:
C
发布日期:2011-12-20
文件大小:1024
提供者:
zuoan335399433
统计自然语言处理基础
第一部分 基础知识 第1章 绪论 1.1 理性主义者和经验主义者的方法 1.2 科学内容 1.3 语言中的歧义问题是自然语言难以处理的原因 1.4 第一手资料 1.5 深入阅读 1.6 习题 第2章 数学基础 2.1 概率论基础 2.2 信息论基础 2.3 深入阅读 2.4 习题 第3章 语言学基础 3.1 词性和词法 3.2 短语结枸 3.3 语义和语用 3.4 其他研究领域 3.5 深入阅读 3.6 习题 .第4章 基于语料库的工作 4.1 基础知识 4.2 文本 4.3 数据标注 4.
所属分类:
专业指导
发布日期:2012-07-26
文件大小:26214400
提供者:
a06062125
统计自然语言处理基础 中文版
第一部分 基础知识 第1章 绪论 1.1 理性主义者和经验主义者的方法 1.2 科学内容 1.3 语言中的歧义问题是自然语言难以处理的原因 1.4 第一手资料 1.5 深入阅读 1.6 习题 第2章 数学基础 2.1 概率论基础 2.2 信息论基础 2.3 深入阅读 2.4 习题 第3章 语言学基础 3.1 词性和词法 3.2 短语结枸 3.3 语义和语用 3.4 其他研究领域 3.5 深入阅读 3.6 习题 .第4章 基于语料库的工作 4.1 基础知识 4.2 文本 4.3 数据标注 4.
所属分类:
其它
发布日期:2014-02-13
文件大小:26214400
提供者:
aaa939291641
统计自然语言处理基础(中文版)
统计自然语言处理基础(中文版)全面介绍了统计自然语言处理的基本概念、理论方法和最新研究进展,内容包括形式语言与自动机及其在自然语言处理中的应用、语言模型、隐马尔可夫模型、语料库技术、汉语自动分词与词性标注、句法分析、词义消歧、篇章分析、统计机器翻译、语音翻译、文本分类、信息检索与问答系统、自动文摘和信息抽取、口语信息处理与人机对话系统等,既有对基础知识和理论模型的介绍,也有对相关问题的研究背景、实现方法和技术现状的详细阐述。
所属分类:
其它
发布日期:2014-04-21
文件大小:26214400
提供者:
a09211008
360万中文词库+词性+词频
360万中文词库+词性+词频词典结构为:词语\t词性\t词频。 词频是用ansj分词对270G新闻语料进行分词统计词频获得。 本人感觉需要特别说明的是词典整理过程中存在部分词汇无法确定是什么词性,对词性进行特别标注:nw和comb 1、词性nw表示本身不知道是什么词性。 2、词性comb表示通过ansj的nlp分词之后又被拆成了两个词。
所属分类:
其它
发布日期:2015-04-22
文件大小:29360128
提供者:
xmp3x
带词性和tf-idf词频统计小巧中文分词词库.rar
带词性和tf-idf词频统计小巧中文分词词库.rar
所属分类:
其它
发布日期:2015-05-04
文件大小:790528
提供者:
q877455654
带词性标注的中文分词词典
人民日报统计出来的用于自然语言处理的中文词典
所属分类:
专业指导
发布日期:2015-07-28
文件大小:641024
提供者:
kylelight
新带词性和tf-idf词频统计小巧中文分词词库
带词性和tf-idf词频统计小巧中文分词词库,带词性和tf-idf词频统计小巧中文分词词库,带词性和tf-idf词频统计小巧中文分词词库
所属分类:
Web开发
发布日期:2017-09-12
文件大小:790528
提供者:
huijucn
字词频统计和切分词工具(词性标注工具,用于分词管理)
字词频统计和切分词工具(词性标注工具,用于分词管理),两个工具,支持单文件和目录处理。
所属分类:
专业指导
发布日期:2009-04-16
文件大小:1048576
提供者:
hellofengying
中文词库带词性标注中文字典
自己统计的一部分词库,附加词性,整理好放在excel可以直接导入数据库
所属分类:
机器学习
发布日期:2018-04-17
文件大小:1048576
提供者:
lying_man
统计自然语言处理
统计自然语言处理是一本很好的书籍,是一本很基础的书籍目录 序二 第2版前宣 第1版前言 第1章绪论 11基本概念 1.1.1语言学与语音学 2自然语言处理 11.3关于“理解”的标准 1,2自然语言处理研究的内容和面临的困难 1,2,1自然语言处理研宄的内容 1,22自然语言处理涉及的几个层次 1.2.3自然语言处理面临的困难 13自然语言处理的基本方法及其发展 13,1自然语言处理的基本方汏 3,2自然语言处理的发展 14自然语言处理的研究现状 本书的内容安挂 第2章顸备知识 2,1概率论基本
所属分类:
Python
发布日期:2019-03-04
文件大小:25165824
提供者:
weixin_34749051
融合规则与统计的微博新词发现方法
结合微博新词的构词规则自由度大和极其复杂的特点,针对传统的C/NC-value方法抽取的结果新词边界的识别准确率不高,以及低频微博新词无法正确识别的问题,提出了一种融合人工启发式规则、C/NC-value改进算法和条件随机场(CRF)模型的微博新词抽取方法。一方面,人工启发式规则是指对微博新词的分类和归纳总结,并从微博新词构词的词性(POS)、字符类别和表意符号等角度设计的微博新词的构词规则;另一方面,改进的C/NC-value方法通过引入词频、邻接熵和互信息等统计量来重构NC-value目标函
所属分类:
其它
发布日期:2021-03-12
文件大小:631808
提供者:
weixin_38686080
史诗:“已存档” ** Epic是用Scala编写的高性能统计解析器,同时具有用于构建复杂的结构化预测模型的框架-源码
已封存 自从我在2012-2014年写这篇文章以来,NLP与所有AI一样,已经发生了很大变化。 我没有时间维护这个库,更不用说对其进行现代化了。 或许有一天... 史诗 (c)2014年大卫·霍尔(David Hall)。 Epic是Scala的结构化预测框架。 它还包括用于训练高精度语法解析器,词性标记器,名称实体识别器等的类。 Epic是根据。 当前版本是0.3。 文献资料 文档将(最终)保存在GitHub Wiki: : 请参阅一些用法示例。 使用史诗 Epic可以通过编程或从
所属分类:
其它
发布日期:2021-03-01
文件大小:6291456
提供者:
weixin_42153691
哈萨克语词性自动标注研究初探
词性标注在很多信息处理环节中都扮演着关键角色。哈萨克语作为新疆地区通用的少数民族语言之一,自然语言处理中的一些基础性的课题同样成为迫切需要解决的问题。分析了哈萨克语的构形语素特征,基于词典的一级标注基础上,采用统计方法,训练得到二元语法的HMM模型参数,运用Viterbi算法完成了基于统计方法的词性标注,最后运用哈语规则库对词性标注进行了修正。对单纯使用统计方法和以统计为主辅以规则修正的方法进行了比对测试,结果表明后者排岐正确率有所提高。
所属分类:
其它
发布日期:2021-02-22
文件大小:2097152
提供者:
weixin_38721119
面向韵律层边界自动划分的维吾尔语词性自动标注技术研究
以语音合成系统文本分析模块中的韵律边界自动划分技术为背景,重点研究了维吾尔语词性自动标注技术:首先根据应用领域的特点确定词性的种类及其判定规则,筛选文本句子并对其进行手动词性标注,然后通过统计获得了词性概率表和词性对照表,最后采用基于HMM模型的二元文法来实现维吾尔语词性自动标注.在实验中,为了验证算法的有效性,筛选了10000条句子作为训练样本,另选用500条句子作为测试样本.实验结果表明,该研究思路的可行性和有效性.
所属分类:
其它
发布日期:2021-02-21
文件大小:1048576
提供者:
weixin_38643141
ArticutAPI:Articut的API中文断词(兼具语意词性标记):「断词」又称「分词」,是中文资讯处理的基础。Articut不用机器学习,不需资料模型,只用现代白话中文语法规则,即能达到SIGHAN 2005 F1-measure
Articut中文断词暨词性标记服务 [依语法结构计算,而非统计方法的中文断词。] 基准测试 设计目标 名称 ArticutAPI MP_ArticutAPI WS_ArticutAPI 产品展示 在线/ Docker 码头工人 码头工人 技术 HTTP请求 多处理 WebSocket 特色 简单易用 预期处理 即时处理 适用场景 任何 文字分析 聊天机器人 处理速度 名称 ArticutAPI MP_ArticutAPI WS_ArticutAPI 时间 0.1252秒 0.1206
所属分类:
其它
发布日期:2021-02-03
文件大小:12582912
提供者:
weixin_42129113
«
1
2
3
4
»