点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 中文语义词库
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
中文同义词词库
中文同义词词库………………用于语义计算与信息检索,可以作为同义词判断程序的辅助工具
所属分类:
Access
发布日期:2011-10-15
文件大小:1048576
提供者:
xiaozhi326
中文同义词词库
中文同义词词库………………用于语义计算与信息检索,可以作为同义词判断程序的辅助工具
所属分类:
其它
发布日期:2012-12-11
文件大小:1048576
提供者:
fengpeng120120
中文人名自动识别的一种有效方法
中文信息计算机自动处理的研究已有几十年的 历史 , 但至今仍有许多技术难题没有得到很好解 决 , 中文姓名自动识别问题就是其中的一个。由于 它与中文文本的自动分词一样 , 属于中文信息处理 的基础研究领域 , 因而它的研究成果直接影响到中 文信息的深层次研究。汉语的自身特点使得中文信 息自动处理大多是先对要处理的文本进行自动分词 (加入显式分割符) , 然后再在分词的基础上进行词 法、语法、语义等方面的深入分析。而在分词阶 段 , 文本中的人名、地名以及其它专有名词和生词 大多被切分成单字词
所属分类:
专业指导
发布日期:2008-10-16
文件大小:84992
提供者:
yxh0612
中文分词库 IKAnalyzer For Lucene 5.2.1(适用Lucene 5.2.1)
此版本是基于IK-Analyzer-2012FF修改而来,专门适用于Lucene 5.2.1。 IK Analyzer 是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始, IKAnalyzer已经推出了4个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。从3.0版本开始,IK发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。在2012版本中,IK实现了简
所属分类:
Java
发布日期:2015-07-08
文件大小:1048576
提供者:
u012684324
CWB中文语义词库
中文语义词库, 也是稍有特色的汉语语义词典。它含有 10 万以上的词条, 每个词条通过关系比较密切的相关词 (例如同义词、反义词、上位词、下位词等) 与其它词条相连结
所属分类:
其它
发布日期:2017-01-11
文件大小:9437184
提供者:
sticklee
Java 词海分析 自然语言分析 人名地名机构名提取自定义词典
中文分词 最短路分词 N-最短路分词 CRF分词 索引分词 极速词典分词 用户自定义词典 词性标注 命名实体识别 中国人名识别 音译人名识别 日本人名识别 地名识别 实体机构名识别 关键词提取 TextRank关键词提取 自动摘要 TextRank自动摘要 短语提取 基于互信息和左右信息熵的短语提取 拼音转换 多音字 声母 韵母 声调 简繁转换 繁体中文分词 简繁分歧词(简体、繁体、臺灣正體、香港繁體) 文本推荐 语义推荐 拼音推荐 字词推荐 依存句法分析 基于神经网络的高性能依存句法分析器
所属分类:
Java
发布日期:2017-10-11
文件大小:22020096
提供者:
vip923803855
词典下载 情感分析 词库汇总 语义词典 人工智能 情感词库
网上购买最全的中文情感词典,包括以下内容: 1. 褒贬词及其近义词; 2. 汉语情感词极值表; 3. 清华大学李军中文褒贬义词典; 4. 情感词典及其分类; 5. 情感词汇本体; 6. 台湾大学NTUSD简体中文情感词典; 7. 知网Hownet情感词典。
所属分类:
机器学习
发布日期:2017-10-11
文件大小:1048576
提供者:
z360901061100
cwb中文分类词库 中文语义词库
CWB简介 这是一个略具规模的中文语义词库, 也是稍有特色的汉语语义词典。它含有 10 万以上的词条, 每个词条通过关系比较密切的相关词 (例如同义词、反义词、上位词、下位词等) 与其它词条相连结。整个词库呈现为比较复杂的网络结构, 并带有多种检索手段和显示方式。
所属分类:
网络基础
发布日期:2009-02-10
文件大小:10485760
提供者:
zmz420
中文情感和语义词库
多个情感辞典。 褒义词 近义词 贬义词 知网Hownet情感词典 台湾大学NTUSD简体中文情感词典
所属分类:
机器学习
发布日期:2018-05-15
文件大小:1048576
提供者:
baizhan2012
最全中文情感词库
目前最全的中文情感词典,包括以下内容: 褒贬词及其近义词 ,汉语情感词极值表, 清华大学李军中文褒贬义词典, 情感词典及其分类, 情感词汇本体, 台湾大学NTUSD简体中文情感词典, 知网Hownet情感词典。
所属分类:
机器学习
发布日期:2018-02-02
文件大小:1048576
提供者:
cstkl
CSC中文语义词库v2.1
中文语义词库中文语义词库中文语义词库中文语义词库中文语义词库中文语义词库
所属分类:
机器学习
发布日期:2018-02-25
文件大小:23068672
提供者:
q97012791
nlp最全中文情感和语义词库
自然语言处理情感分析 舆情监测 需要用到的最全中文情感和语义词库
所属分类:
机器学习
发布日期:2018-02-28
文件大小:1048576
提供者:
fangzheng354
Java版的BosonNLP分词
玻森专注中文语义分析技术,拥有丰富的经验积累。自主研发千万级中文语料库,为精准和深度的中文语义分析提供坚实基础。一站式解决您的中文语义分析需求。多个语义分析API,从情感倾向、实体、分类等方面。官网只有python版本,现上传Java的实例。
所属分类:
Java
发布日期:2018-11-16
文件大小:8388608
提供者:
hello_java2018
财经常用词词库大全,用于中文分词
财经常用词词库大全,用于中文分词,非常全。学习分词、自然语义分析的必备词库。适用于市面绝大部分主流的自然语言处理工具包。
所属分类:
机器学习
发布日期:2020-03-10
文件大小:62464
提供者:
xt14327
最全中文情感和语义词库
目前最全的中文情感词典,包括以下内容: 1. 褒贬词及其近义词; 2. 汉语情感词极值表; 3. 清华大学李军中文褒贬义词典; 4. 情感词典及其分类; 5. 情感词汇本体; 6. 台湾大学NTUSD简体中文情感词典; 7. 知网Hownet情感词典。
所属分类:
专业指导
发布日期:2020-02-14
文件大小:1048576
提供者:
jhfone
最全中文情感和语义词库
目前最全的中文情感词典,包括以下内容: 1. 褒贬词及其近义词; 2. 汉语情感词极值表; 3. 清华大学李军中文褒贬义词典; 4. 情感词典及其分类; 5. 情感词汇本体; 6. 台湾大学NTUSD简体中文情感词典; 7. 知网Hownet情感词典。
所属分类:
专业指导
发布日期:2020-01-13
文件大小:1048576
提供者:
asdfg1asdfg
最全中文情感和语义词库
目前最全的中文情感词典,包括以下内容: 1. 褒贬词及其近义词; 2. 汉语情感词极值表; 3. 清华大学李军中文褒贬义词典; 4. 情感词典及其分类; 5. 情感词汇本体; 6. 台湾大学NTUSD简体中文情感词典; 7. 知网Hownet情感词典。
所属分类:
专业指导
发布日期:2020-06-08
文件大小:1048576
提供者:
lvvan
最全中文情感和语义词库
目前最全的中文情感词典,包括以下内容: 1. 褒贬词及其近义词; 2. 汉语情感词极值表; 3. 清华大学李军中文褒贬义词典; 4. 情感词典及其分类; 5. 情感词汇本体; 6. 台湾大学NTUSD简体中文情感词典; 7. 知网Hownet情感词典。
所属分类:
专业指导
发布日期:2020-10-15
文件大小:1048576
提供者:
lemonzx2008
Python中文分词库jieba,pkusegwg性能准确度比较
中文分词(Chinese Word Segmentation),将中文语句切割成单独的词组。英文使用空格来分开每个单词的,而中文单独一个汉字跟词有时候完全不是同个含义,因此,中文分词相比英文分词难度高很多。 分词主要用于NLP 自然语言处理(Natural Language Processing),使用场景有: 搜索优化,关键词提取(百度指数) 语义分析,智能问答系统(客服系统) 非结构化文本媒体内容,如社交信息(微博热榜) 文本聚类,根据内容生成分类(行业分类) Python的
所属分类:
其它
发布日期:2020-12-20
文件大小:655360
提供者:
weixin_38717031
HanLP:中文分词词性标注命名实体识别依存句法分析语义依存分析新词发现用自动生成的摘要进行文本分类聚类拼音简繁转换自然语言处理-源码
HanLP:汉语言处理 || || 面向生产环境的多语种自然语言处理工具包,基于PyTorch和TensorFlow 2.x双引擎,目标是普及落地最前沿的NLP技术。HanLP实现功能完善,性能高效,架构清晰,语料时新,可自定义的特点。 穿越世界上最大的多语言种语料库,HanLP2.1支持包括简繁中英日俄法德内部的104种语言上的10种联合任务:分词(粗分,细分2个标准,强制,合并,校正3种),词性标注(PKU,863,CTB,UD四套词性规范),命名实体识别(PKU,MSRA,OntoNot
所属分类:
其它
发布日期:2021-02-03
文件大小:775168
提供者:
weixin_42134054
«
1
2
3
»