您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 中文自动分词&全文检索@统计工具(GBK版

  2. 本系统具备中文自动分词、全文检索、统计等基本功能,具体介绍如下: 1、中文自动分词 1)能对给定的中文文本进行自动分词、词性一级、词性二级标注; 2)支持大批量文本的自动分词及词性标注处理,可处理各级子文件夹下的文件; 3)能根据待分词及标注文本的类别,加挂用户自定义词典,进一步提高分词和标注的精确度; 4)用户可对系统词典进行扩展,可添加、删除、查看系统词典,可将系统词典输出为TXT文本编辑后再转换为系统用的电子词典; 5)支持人名、地名、机构名等未登录词识别,支持基于GBK字符集的简、繁体
  3. 所属分类:专业指导

    • 发布日期:2010-04-22
    • 文件大小:3145728
    • 提供者:lonewar
  1. 万能五笔 2005 V6.47 10万大词库版

  2. ◆【该版是2005年11月19日最新推出的(取消修改IE主页)的绿色美化版,】 万能五笔2005:6.47版(简体10万大词库版)输入法平台:是一种创新的中文输入软件→包含多种输入方法 ,如五笔、拼音、中译英、英译中等。全部输入法只在一个输入法窗口里,不须要您切换来切换去的。你会五笔,打五笔;你会拼音,打拼音;会英语打英语;不会拼音不会英语,打笔画,你想什么打什么。 这个汉字输入法软件基础是建立在快速的五笔字型输入法上,但如果你输入五笔时,找不到要输入的字,可以用拼音或英译中输入您想要任一个的
  3. 所属分类:网络基础

    • 发布日期:2006-01-13
    • 文件大小:6291456
    • 提供者:wangguan
  1. Paoding中文分词包-附带实例,参考手册,Lucene实例

  2. 效果体验 使用者第一步最有可能的是想要体验了解庖丁的分词效果。考虑到这样的需求,庖丁提供了一个shell文件,使用者不必写任何代码就可以获得这样的信息。进入Paoding-Analysis分发包,在命令行模式下执行analyzer.bat(windows)或analyzer.sh(linux)即可。下以windows为例: u 显示帮助 E:\Paoding-Analysis>analyzer.bat ? u 分词对话 当没有在命令行参数种输入分词内容或待分词的文章时,analyzer.
  3. 所属分类:Linux

    • 发布日期:2010-06-08
    • 文件大小:5242880
    • 提供者:hpf911
  1. 115万gbk中文词库

  2. 1159568个gbk汉语词汇。弄了两天整理出来的,从搜狗词库下载了大多数常用的包括动物植物医学建筑生物化工美术艺术互联网等各个行业的词库。
  3. 所属分类:其它

    • 发布日期:2012-06-14
    • 文件大小:6291456
    • 提供者:canlynet
  1. pscws23-20081221.tar.bz2【中文分词】

  2. php中文分词 ===== PSCWS23 - 说明文档 ===== $Id: readme.txt,v 1.3 2008/12/21 04:37:59 hightman Exp $ [ 关于 PSCWS23 ] PSCWS23 是由 hightman 于 2006 年开发的纯 PHP 代码实现的简易中文分词系统第二和第三版的简称。 PSCWS 是英文 PHP Simple Chinese Words Segmentation 的头字母缩写,它是 SCWS 项目的前身。 现 SCWS 已作为
  3. 所属分类:PHP

    • 发布日期:2013-09-08
    • 文件大小:2097152
    • 提供者:yao__shun__yu
  1. GBK词库整理20823字 for 极点五笔

  2. 自已从各种输入法中提取的GBK字整理的一个词库,已做成极点五笔格式,可以用极点新添加一个词库生成极点mb 然后用极点词库合并工具dtool来把你主要的词库和这个词库进行合并
  3. 所属分类:其它

    • 发布日期:2015-01-08
    • 文件大小:66560
    • 提供者:jayce3155
  1. NLPIR分词、去停用词

  2. 整合 使用ICTCLAS2013(NlPIR) x64 的中文分词,分词的速度和效果都不错。然后就是对文本进行的去停用词以及特殊符号(哈工大停用词库)的去除,这些特殊符号还有标点符号,以及文本中夹杂的数字和字母会对分词的效果产生影响。eclipse GBK 编码
  3. 所属分类:互联网

  1. C++中英文敏感词检测工具类

  2. 根据敏感词库配置,检测一段文字中是否含有关键字(支持中英文),如果有可将其替换为***,支持UTF8 和 GBK两种编码,内含完整源码,2016敏感词库和测试用例.
  3. 所属分类:C#

    • 发布日期:2016-06-24
    • 文件大小:672768
    • 提供者:tangxin19930330
  1. 极点五笔86版海峰9.5词库

  2. 使用五笔的朋友的福音来了,由于目前的五笔输入法大多都是只支持GBK,最多到GB18030-2000的字符集,只有海峰的五笔输入法可以输入CJK-B的字符,为海峰点赞。今天尝试在Win7下安装了海峰五笔输入法,不得不说的是兼容性太差,不稳定,安装之后还无法正常卸载,但其字库确实是最全的。同时目前大多数输入法都不同程度的各种捆绑,让人很讨厌,但不得不用,而极点五笔一直是我的钟爱,它完全免费,而且兼容性好,也很稳定,其最大的好处是可以自己安装字库,不得不为杜志民点赞(*32)呀。该资源就是海峰五笔9
  3. 所属分类:桌面系统

    • 发布日期:2016-10-19
    • 文件大小:3145728
    • 提供者:witton
  1. 86王码五笔带GBK

  2. 86王码五笔这个版本含GBK 自定义词库位于C:\WINDOWS\system32\winwb86.emb
  3. 所属分类:C

    • 发布日期:2009-03-04
    • 文件大小:870400
    • 提供者:tanlei08
  1. 极品五笔6.5将极点五笔5.0的词库导入到6.5版

  2. 极品五笔6.5将极点五笔5.0的词库导入到6.5版搜狗五笔输入法第五版(1.4)发布拼音五笔混输-极点五笔6.5正式版搜狗...键切换到GBK扩展字符集输入时(状态条“极品五笔”变红色),可避免传统五笔对于“碁”、“囍”、“囧”、“気”、...
  3. 所属分类:Java

    • 发布日期:2009-03-28
    • 文件大小:5242880
    • 提供者:yqf19851101
  1. NLPIR分词、去停用词

  2. 整合 使用ICTCLAS2013(NlPIR) x64 的中文分词,分词的速度和效果都不错。然后就是对文本进行的去停用词以及特殊符号(哈工大停用词库)的去除,这些特殊符号还有标点符号,以及文本中夹杂的数字和字母会对分词的效果产生影响。eclipse GBK 编码
  3. 所属分类:互联网

    • 发布日期:2018-12-20
    • 文件大小:5242880
    • 提供者:qq_22098033
  1. NLPIR分词、去停用词

  2. 整合 使用ICTCLAS2013(NlPIR) x64 的中文分词,分词的速度和效果都不错。然后就是对文本进行的去停用词以及特殊符号(哈工大停用词库)的去除,这些特殊符号还有标点符号,以及文本中夹杂的数字和字母会对分词的效果产生影响。eclipse GBK 编码
  3. 所属分类:互联网

    • 发布日期:2019-01-13
    • 文件大小:5242880
    • 提供者:weixin_44425171
  1. phpwind 阿里输入法灌水版 GBK.zip

  2. 阿里输入法是phpwind推出的一款拼音输入法,基于云计算技术和网页技术实现,无需下载和安装客户端,站长可以自由掌控输入法词库,融入最新网络词汇,个性社区语言,只要开启了阿里输入法,可以在phpwind社区系统中的任何输入框直接使用.是目前国内唯一专属社区的在线输入法!
  3. 所属分类:其它

    • 发布日期:2019-07-09
    • 文件大小:39936
    • 提供者:weixin_39840588
  1. phpwind 阿里输入法灌水版 GBK.zip

  2. 阿里输入法是phpwind推出的一款拼音输入法,基于云计算技术和网页技术实现,无需下载和安装客户端,站长可以自由掌控输入法词库,融入最新网络词汇,个性社区语言,只要开启了阿里输入法,可以在phpwind社区系统中的任何输入框直接使用.是目前国内唯一专属社区的在线输入法!
  3. 所属分类:其它

    • 发布日期:2019-07-07
    • 文件大小:34816
    • 提供者:weixin_39840387
  1. python生成词云的实现方法(推荐)

  2. 期末复习比较忙过段时间来专门写scrapy框架使用,今天介绍如何用python生成词云,虽然网上有很多词云生成工具,不过自己用python来写是不是更有成就感。 今天要生成的是励志歌曲的词云,百度文库里面找了20来首,如《倔强》,海阔天空是,什么的大家熟悉的。 所要用到的python库有 jieba(一个中文分词库)、wordcould 、matplotlib、PIL、numpy。 首先我们要做的是读取歌词。我将歌词存在了文件目录下励志歌曲文本中。 现在来读取他 #encoding=gbk
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:118784
    • 提供者:weixin_38707356
  1. ctbparser:ctbparser是一种用C ++语言实现的开源的中文处理工具包(GBK编码),用于分词,词性标注,依存句法分析,采用的是宾州树库(CTB)标准-源码包

  2. ctbparser ctbparser是一种用C ++语言实现的开源的中文处理工具包(GBK编码),用于分词,词性标注,依存句法分析,采用的是宾州树库(CTB)标准。
  3. 所属分类:其它

    • 发布日期:2021-03-24
    • 文件大小:14680064
    • 提供者:weixin_42134144
  1. scws:开源免费的简易中文分词系统,PHP分词的上乘之选!-源码

  2. SCWS的自述文件 $ Id $ SCWS简介 是Simple Chinese Word Segmentation的首字母缩写(即:简易中文分词系统)。这是一套基于词频词典的机械式中文分词引擎,它能将一整段的中文文本基本正确地切分开的词。词是中文的最小语素单位,但在书写时并不像英语会在词之间用间隔分开,所以如何准确并快速分词一直是中文分词的攻关难点。 SCWS采用纯C语言开发,不依赖任何外部库函数,可直接使用动态链接库嵌入应用程序,支持的中文编码包括GBK , UTF-8等。几乎还提供了扩展模
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:7340032
    • 提供者:weixin_42181545
  1. friso:高性能中文令牌生成器,基于ANSI C开发的MMSEG算法,同时支持GBK和UTF-8字符集。完全基于模块化实现,可以轻松嵌入其他程序中,例如:MySQL,PostgreSQL,PHP等-源码

  2. Friso是什么? Friso是使用c语言开发的一种开源的高级中文分词器,使用流行的mmseg算法实现。完全基于建模设计和实现,可以很方便的植入其他程序中,例如:MySQL,PHP,并提供无需修改即可在各种平台下编译使用,加载完20万的词条,内存占用稳定为14.5M。 Friso核心功能: 中文分词:mmseg算法+ Friso独创的优化算法,各种切分模式。 关键字提取:基于textRank算法。 关键语法提取:基于textRank算法。 关键句子提取:基于textRank算法。 Friso中
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:1048576
    • 提供者:weixin_42133899
  1. 开源php中文分词系统SCWS安装和使用实例

  2. 一、SCWS简介 SCWS 是 Simple Chinese Word Segmentation 的首字母缩写(即:简易中文分词系统)。这是一套基于词频词典的机械式中文分词引擎,它能将一整段的中文文本基本正确地切分成词。 词是中文的最小语素单位,但在书写时并不像英语会在词之间用空格分开, 所以如何准确并快速分词一直是中文分词的攻关难点。SCWS 采用纯 C 语言开发,不依赖任何外部库函数,可直接使用动态链接库嵌入应用程序, 支持的中文编码包括 GBK、UTF-8 等。此外还提供了 PHP 扩展模
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:63488
    • 提供者:weixin_38581405
« 12 3 »