您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 可训练的中文分词和词性标注系统

  2. 采用机器学习的方法进行自然语言处理,对中文进行分词和词性标注。分词采用crf模型,词性标注用hmm模型,解码算法为Vertibi算法。本系统使用java语言编写
  3. 所属分类:其它

    • 发布日期:2010-12-26
    • 文件大小:1048576
    • 提供者:dark666666
  1. 中文分词检索 C程序

  2. 基于逆向最大匹配算法的分词及基于HMM模型的词性标注系统,包括了未登录词的识别、数据库的添加等内容。(需要手动修改数据库的路径才可以运行。。。
  3. 所属分类:C

    • 发布日期:2011-03-14
    • 文件大小:4194304
    • 提供者:cemnarrate
  1. freeICTCLAS中科院中文分词(拼音中文输入法设计和源代码).zip

  2. freeICTCLAS中科院中文分词(拼音中文输入法设计和源代码).zip ICTCLAS源码结构 Codes │ ICTCLAS_WIN.cpp Windows界面的程序 │ ICTCLAS_Win.dsp │ ICTCLAS_WIN.dsw │ ICTCLAS_WIN.h │ ICTCLAS_Win.exe 可执行程序 │ ICTCLAS_WinDlg.cpp │ ICTCLAS_WinDlg.h │ resource.h │ StdAfx.cpp │ StdAfx.h │ log.txt
  3. 所属分类:C++

    • 发布日期:2011-05-21
    • 文件大小:2097152
    • 提供者:duizhong
  1. 中科院分词程序(Linux--64)

  2. 中科院最新分词程序,hmm模型,支持多线程,大家有兴趣的可以研究一下
  3. 所属分类:C++

    • 发布日期:2011-11-12
    • 文件大小:11534336
    • 提供者:star_ok
  1. 论文---一种改进的基于二元统计的HMM分词算法

  2. 一种改进的基于二元统计的HMM分词算法
  3. 所属分类:互联网

    • 发布日期:2012-02-13
    • 文件大小:299008
    • 提供者:hl527
  1. 中文分词与词性标注

  2. 成熟的中文分词系统,输入的训练文件比较特别。HMM技术。
  3. 所属分类:C/C++

    • 发布日期:2012-04-06
    • 文件大小:1048576
    • 提供者:gobbybosson
  1. 基于HMM模型中文分词系统

  2. 基于HMM模型中文分词系统,使用python代码。内有使用说明!
  3. 所属分类:Python

    • 发布日期:2013-06-17
    • 文件大小:1048576
    • 提供者:jys610
  1. HMM的维特比算法实现分词

  2. 使用HMM的维特比算法实现分词,采用标注好的人民日报进行统计训练得到HMM模型参数,对新文本实现分词。
  3. 所属分类:Java

    • 发布日期:2013-09-25
    • 文件大小:7340032
    • 提供者:wisdomryw
  1. HMM隐马尔可夫模型用于中文分词

  2. HMM隐马尔可夫模型用于中文分词HMM隐马尔可夫模型用于中文分词
  3. 所属分类:机器学习

    • 发布日期:2018-05-11
    • 文件大小:1048576
    • 提供者:season77us
  1. HMM中文分词

  2. 基于HMM的中文分词代码,虽然基于字标注的中文分词借鉴了词性标注的思想,但是在实践中,多数paper中的方法似乎局限于最大熵模型和条件随机场的应用,所以我常常疑惑字标注中文分词方法为什么不采用别的模型和方法呢?莫非是由于其诞生之初就采用了最大熵模型的缘故。但是,在词性标注中,Citar实现的是TnT中所采用的HMM trigram方法,其所宣称的性能是不亚于最大熵模型等词性标注器的。基于这样的前提,本文就验证一下基于Citar实现的HMM trigram字标注中文分词器的性能虽然基于字标注的中
  3. 所属分类:机器学习

    • 发布日期:2018-06-19
    • 文件大小:4194304
    • 提供者:qq_39635806
  1. 使用HMM模型实现的中文分词程序

  2. 该模型使用了HMM(隐马尔可夫)模型建立中文分词程序,使用了词性标注的思想进行中文分词,更加适合自然语言处理方向的新手进行学习!
  3. 所属分类:机器学习

    • 发布日期:2018-06-26
    • 文件大小:4096
    • 提供者:sinat_32332805
  1. 基于隐马尔科夫模型的分词

  2. 使用隐马尔科夫模型(Hidden Markov Model,HMM) 进行分词,并与基于词典的正向最大匹配算法和工业界使用的jieba分词进行对比。 采用最大似然估计的方法从带标记样本学习模型参数,并通过维特比算法进行解码。
  3. 所属分类:机器学习

    • 发布日期:2018-01-24
    • 文件大小:6291456
    • 提供者:iredbean
  1. Python中文分词库Yaha.zip

  2. "哑哈"中文分词,更快或更准确,由你来定义。通过简单定制,让分词模块更适用于你的需求。 "Yaha" You can custom your Chinese Word Segmentation efficiently by using Yaha 基本功能: 精确模式,将句子切成最合理的词。 全模式,所有的可能词都被切成词,不消除歧义。 搜索引擎模式,在精确的基础上再次驿长词进行切分,提高召回率,适合搜索引擎创建索引。 备选路径,可生成最好的多条切词路径,可在此
  3. 所属分类:其它

    • 发布日期:2019-07-16
    • 文件大小:6291456
    • 提供者:weixin_39841856
  1. python中文分词,使用结巴分词对python进行分词(实例讲解)

  2. 在采集美女站时,需要对关键词进行分词,最终采用的是python的结巴分词方法。 中文分词是中文文本处理的一个基础性工作,结巴分词利用进行中文分词。 其基本实现原理有三点: 1.基于Trie树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG) 2.采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合 3.对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viterbi算法 安装(Linux环境) 下载工具包,解压后进入目录下,运行:python set
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:71680
    • 提供者:weixin_38565631
  1. 中文分词的python实现----HMM、FMM-附件资源

  2. 中文分词的python实现----HMM、FMM-附件资源
  3. 所属分类:互联网

  1. 中文分词的python实现----HMM、FMM-附件资源

  2. 中文分词的python实现----HMM、FMM-附件资源
  3. 所属分类:互联网

  1. xmnlp:小明NLP:提供中文分词,词性标注,拼写检查,文本转拼音,情感分析,文本摘要,偏旁部首-源码

  2. / xmnlp / 小明NLP —轻量级中文自然语言处理工具 轻量级中文自然语言处理工具包 v 0.2.3 RIP 0.2.3版是xmnlp最后一个兼容Python 2.7的版本 功能概览 中文分词和词性标注 支持繁体 支持自定义词典 中文拼写检查 文本摘要&关键词提取 情感分析 文本转拼音 获取汉字偏旁部首 安装使用 安装方式 方式一 pip install xmnlp 方式二 git clone https://github.com/SeanLee97/xmnlp.git cd /path
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:24117248
    • 提供者:weixin_42178963
  1. gse:进行高效的文本分割和NLP; 支持英语,中文,日语等。 语言高级分词-源码

  2. se 进行有效的文本分割; 支持英语,中文,日语等。 用双数组特里(Double-Array Trie)实现, 算法是基于词频加动态编程的最短路径,以及DAG和HMM算法的词分割。 支持通用,搜索引擎,完整模式,精确模式和HMM模式的多种分词模式,支持用户词典,POS标记,运行。 支持HMM剪切文本使用Viterbi算法。 文本分割速度9.2MB / s, 26.8MB / s。 HMM文本分割单线程3.2MB / s。 (2core 4threads Macbook Pro)。 捆绑:
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:12582912
    • 提供者:weixin_42133753
  1. ansj_seg:ansj分词.ict的真正的Java实现。分词效果速度都超过了开源版的ict。中文分词,人名识别,词性标注,用户自定义词典-源码

  2. Ansj中文分词 使用帮助 开发文档: , 摘要 这是一个基于n-Gram + CRF + HMM的中文分词的java实现。 分词速度达到每秒钟大约200万字左右(mac air下测试),准确率能达到96%以上。 目前实现了中文分词,中文姓名识别,用户自定义词典,关键字提取,自动摘要,关键字标记等功能。 可以应用到自然语言处理等方面,适用于对分词效果要求高的各种项目。 专家 org.ansj ansj_seg
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:25165824
    • 提供者:weixin_42102401
  1. python中文分词库jieba使用方法详解

  2. 安装python中文分词库jieba 法1:Anaconda Prompt下输入conda install jieba 法2:Terminal下输入pip3 install jieba 1、分词 1.1、CUT函数简介 cut(sentence, cut_all=False, HMM=True) 返回生成器,遍历生成器即可获得分词的结果 lcut(sentence) 返回分词列表 import jieba sentence = '我爱自然语言处理' # 创建【Tokenizer.cut 生成器
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:107520
    • 提供者:weixin_38707356
« 12 3 »