点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - HMM分词
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
可训练的中文分词和词性标注系统
采用机器学习的方法进行自然语言处理,对中文进行分词和词性标注。分词采用crf模型,词性标注用hmm模型,解码算法为Vertibi算法。本系统使用java语言编写
所属分类:
其它
发布日期:2010-12-26
文件大小:1048576
提供者:
dark666666
中文分词检索 C程序
基于逆向最大匹配算法的分词及基于HMM模型的词性标注系统,包括了未登录词的识别、数据库的添加等内容。(需要手动修改数据库的路径才可以运行。。。
所属分类:
C
发布日期:2011-03-14
文件大小:4194304
提供者:
cemnarrate
freeICTCLAS中科院中文分词(拼音中文输入法设计和源代码).zip
freeICTCLAS中科院中文分词(拼音中文输入法设计和源代码).zip ICTCLAS源码结构 Codes │ ICTCLAS_WIN.cpp Windows界面的程序 │ ICTCLAS_Win.dsp │ ICTCLAS_WIN.dsw │ ICTCLAS_WIN.h │ ICTCLAS_Win.exe 可执行程序 │ ICTCLAS_WinDlg.cpp │ ICTCLAS_WinDlg.h │ resource.h │ StdAfx.cpp │ StdAfx.h │ log.txt
所属分类:
C++
发布日期:2011-05-21
文件大小:2097152
提供者:
duizhong
中科院分词程序(Linux--64)
中科院最新分词程序,hmm模型,支持多线程,大家有兴趣的可以研究一下
所属分类:
C++
发布日期:2011-11-12
文件大小:11534336
提供者:
star_ok
论文---一种改进的基于二元统计的HMM分词算法
一种改进的基于二元统计的HMM分词算法
所属分类:
互联网
发布日期:2012-02-13
文件大小:299008
提供者:
hl527
中文分词与词性标注
成熟的中文分词系统,输入的训练文件比较特别。HMM技术。
所属分类:
C/C++
发布日期:2012-04-06
文件大小:1048576
提供者:
gobbybosson
基于HMM模型中文分词系统
基于HMM模型中文分词系统,使用python代码。内有使用说明!
所属分类:
Python
发布日期:2013-06-17
文件大小:1048576
提供者:
jys610
HMM的维特比算法实现分词
使用HMM的维特比算法实现分词,采用标注好的人民日报进行统计训练得到HMM模型参数,对新文本实现分词。
所属分类:
Java
发布日期:2013-09-25
文件大小:7340032
提供者:
wisdomryw
HMM隐马尔可夫模型用于中文分词
HMM隐马尔可夫模型用于中文分词HMM隐马尔可夫模型用于中文分词
所属分类:
机器学习
发布日期:2018-05-11
文件大小:1048576
提供者:
season77us
HMM中文分词
基于HMM的中文分词代码,虽然基于字标注的中文分词借鉴了词性标注的思想,但是在实践中,多数paper中的方法似乎局限于最大熵模型和条件随机场的应用,所以我常常疑惑字标注中文分词方法为什么不采用别的模型和方法呢?莫非是由于其诞生之初就采用了最大熵模型的缘故。但是,在词性标注中,Citar实现的是TnT中所采用的HMM trigram方法,其所宣称的性能是不亚于最大熵模型等词性标注器的。基于这样的前提,本文就验证一下基于Citar实现的HMM trigram字标注中文分词器的性能虽然基于字标注的中
所属分类:
机器学习
发布日期:2018-06-19
文件大小:4194304
提供者:
qq_39635806
使用HMM模型实现的中文分词程序
该模型使用了HMM(隐马尔可夫)模型建立中文分词程序,使用了词性标注的思想进行中文分词,更加适合自然语言处理方向的新手进行学习!
所属分类:
机器学习
发布日期:2018-06-26
文件大小:4096
提供者:
sinat_32332805
基于隐马尔科夫模型的分词
使用隐马尔科夫模型(Hidden Markov Model,HMM) 进行分词,并与基于词典的正向最大匹配算法和工业界使用的jieba分词进行对比。 采用最大似然估计的方法从带标记样本学习模型参数,并通过维特比算法进行解码。
所属分类:
机器学习
发布日期:2018-01-24
文件大小:6291456
提供者:
iredbean
Python中文分词库Yaha.zip
"哑哈"中文分词,更快或更准确,由你来定义。通过简单定制,让分词模块更适用于你的需求。 "Yaha" You can custom your Chinese Word Segmentation efficiently by using Yaha 基本功能: 精确模式,将句子切成最合理的词。 全模式,所有的可能词都被切成词,不消除歧义。 搜索引擎模式,在精确的基础上再次驿长词进行切分,提高召回率,适合搜索引擎创建索引。 备选路径,可生成最好的多条切词路径,可在此
所属分类:
其它
发布日期:2019-07-16
文件大小:6291456
提供者:
weixin_39841856
python中文分词,使用结巴分词对python进行分词(实例讲解)
在采集美女站时,需要对关键词进行分词,最终采用的是python的结巴分词方法。 中文分词是中文文本处理的一个基础性工作,结巴分词利用进行中文分词。 其基本实现原理有三点: 1.基于Trie树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG) 2.采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合 3.对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viterbi算法 安装(Linux环境) 下载工具包,解压后进入目录下,运行:python set
所属分类:
其它
发布日期:2020-12-24
文件大小:71680
提供者:
weixin_38565631
中文分词的python实现----HMM、FMM-附件资源
中文分词的python实现----HMM、FMM-附件资源
所属分类:
互联网
发布日期:2021-03-05
文件大小:106
提供者:
weixin_42204930
中文分词的python实现----HMM、FMM-附件资源
中文分词的python实现----HMM、FMM-附件资源
所属分类:
互联网
发布日期:2021-03-02
文件大小:23
提供者:
weixin_42187944
xmnlp:小明NLP:提供中文分词,词性标注,拼写检查,文本转拼音,情感分析,文本摘要,偏旁部首-源码
/ xmnlp / 小明NLP —轻量级中文自然语言处理工具 轻量级中文自然语言处理工具包 v 0.2.3 RIP 0.2.3版是xmnlp最后一个兼容Python 2.7的版本 功能概览 中文分词和词性标注 支持繁体 支持自定义词典 中文拼写检查 文本摘要&关键词提取 情感分析 文本转拼音 获取汉字偏旁部首 安装使用 安装方式 方式一 pip install xmnlp 方式二 git clone https://github.com/SeanLee97/xmnlp.git cd /path
所属分类:
其它
发布日期:2021-02-03
文件大小:24117248
提供者:
weixin_42178963
gse:进行高效的文本分割和NLP; 支持英语,中文,日语等。 语言高级分词-源码
se 进行有效的文本分割; 支持英语,中文,日语等。 用双数组特里(Double-Array Trie)实现, 算法是基于词频加动态编程的最短路径,以及DAG和HMM算法的词分割。 支持通用,搜索引擎,完整模式,精确模式和HMM模式的多种分词模式,支持用户词典,POS标记,运行。 支持HMM剪切文本使用Viterbi算法。 文本分割速度9.2MB / s, 26.8MB / s。 HMM文本分割单线程3.2MB / s。 (2core 4threads Macbook Pro)。 捆绑:
所属分类:
其它
发布日期:2021-02-03
文件大小:12582912
提供者:
weixin_42133753
ansj_seg:ansj分词.ict的真正的Java实现。分词效果速度都超过了开源版的ict。中文分词,人名识别,词性标注,用户自定义词典-源码
Ansj中文分词 使用帮助 开发文档: , 摘要 这是一个基于n-Gram + CRF + HMM的中文分词的java实现。 分词速度达到每秒钟大约200万字左右(mac air下测试),准确率能达到96%以上。 目前实现了中文分词,中文姓名识别,用户自定义词典,关键字提取,自动摘要,关键字标记等功能。 可以应用到自然语言处理等方面,适用于对分词效果要求高的各种项目。 专家 org.ansj ansj_seg
所属分类:
其它
发布日期:2021-02-03
文件大小:25165824
提供者:
weixin_42102401
python中文分词库jieba使用方法详解
安装python中文分词库jieba 法1:Anaconda Prompt下输入conda install jieba 法2:Terminal下输入pip3 install jieba 1、分词 1.1、CUT函数简介 cut(sentence, cut_all=False, HMM=True) 返回生成器,遍历生成器即可获得分词的结果 lcut(sentence) 返回分词列表 import jieba sentence = '我爱自然语言处理' # 创建【Tokenizer.cut 生成器
所属分类:
其它
发布日期:2021-01-20
文件大小:107520
提供者:
weixin_38707356
«
1
2
3
»