点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 动态词库
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
JE中文分词je-analysis-1.5.1.jar
1.5.1 —— 2006-01-22 修正细粒度分词错误的问题 1.5.0 —— 2007-01-18 全面支持Lucene 2.0 增强了词典维护的API 增加了商品编码的匹配 增加了Mail地址的匹配 实现了词尾消歧算法第二层的过滤 整理优化了词库 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 2006-07-03 修正细粒度分词错误的问题 1.3.1 —— 2006-0 6-23 修
所属分类:
其它
发布日期:2009-04-28
文件大小:891904
提供者:
tiancen2001
盘古分词最新版本(2.3.1.0)
资源为最新的盘古分词器,目前本人用过的比较好用的免费分词器。动态输入词库,动态添加停用词,使用后能达到百度的效果,包括分词高亮控件
所属分类:
专业指导
发布日期:2010-12-07
文件大小:1048576
提供者:
dongdongleng
C# 盘古分词
1、 修改字典格式,提高字典加载速度 2、 增加对英文专业名词的支持 如C++,C#等只要加入字典就可以被分出来 3、 增加词频判断功能,在无法取舍时根据词频取舍 4、 增加优先优先词频选项,通过这个选项动态决定分词粒度 需打开 FreqFirst 5、 增加中文人名前后缀统计和根据该统计定位人名的功能 6、 增加中文人名和未登录词出现频率统计功能 7、 增加自动更新字典功能,对超过阈值的人名和未登录词自动插入字典 需打开 AutoInsertUnknownWords 开关 并设置 Unkno
所属分类:
C#
发布日期:2011-10-28
文件大小:3145728
提供者:
jaymezhang
mm中文分词器
目前最新的中文分词器,可以动态的添加新词,内置有关于淘宝的词库,方便lucene开发或基于lucene的solr的开发用户使用。
所属分类:
Web开发
发布日期:2013-10-22
文件大小:296960
提供者:
beijing20120926
Lucene中文分词组件 JE-Analysis 1.5.1
发布于:http://www.jesoft.cn/posts/list/5.page 1.5.1 —— 2006-01-22 修正细粒度分词错误的问题 1.5.0 —— 2007-01-18 全面支持Lucene 2.0 增强了词典维护的API 增加了商品编码的匹配 增加了Mail地址的匹配 实现了词尾消歧算法第二层的过滤 整理优化了词库 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 200
所属分类:
其它
发布日期:2007-01-22
文件大小:891904
提供者:
diystar
基于ik动态词库分词实现--无需重启服务
基于ik动态词库分词实现--无需重启服务
所属分类:
Web开发
发布日期:2015-11-09
文件大小:2097152
提供者:
jv_kevin
elasticsearch-analysis-ik2.x增加连续数字字母英语智能分词、动态词库刷新支持elasticsearch2.x以上
elasticsearch-analysis-ik根据elasticsearch-analysis-ik2.2.0基础上修改,支持elasticsearch2.2.0(已测)。增加连续数字、字母、英语及其组合智能分词(ik_smart、ik_max_word、ik_indistinct、ik_smart_indistinct启用)支持lucence5.x以上版本。 文件说明:本zip包含IKAnalyzer的src及elasticsearch可运行插件plugins两部分。 使用说明:修改sr
所属分类:
Java
发布日期:2016-03-22
文件大小:11534336
提供者:
lipengxiang1688
中科院中文分词系统及各种调用示例
这个分词系统需要注册才可使用,不建议大家下载,因为事先不清楚.抱歉!需要的话,可以下载我上传的其它版本. 计算所汉语词法分析系统ICTCLAS同时还提供一套完整的动态连接库ICTCLAS.dll,COM组件和相应的概率词典,开发者可以完全忽略汉语词法分析,直接在自己的系统中调用ICTCLAS,ICTCLAS可以根据需要输出多个高概率的结果,输出格式也可以定制,开发者在分词和词性标注的基础上继续上层开发。
所属分类:
专业指导
发布日期:2008-12-26
文件大小:3145728
提供者:
lin746027209
中科院中文分词系统java版
计算所汉语词法分析系统ICTCLAS同时还提供一套完整的动态连接库ICTCLAS.dll,COM组件和相应的概率词典,开发者可以完全忽略汉语词法分析,直接在自己的系统中调用ICTCLAS,ICTCLAS可以根据需要输出多个高概率的结果,输出格式也可以定制,开发者在分词和词性标注的基础上继续上层开发。
所属分类:
Java
发布日期:2009-01-06
文件大小:2097152
提供者:
a258510674258510674
中文分词(C语言版)含技术文档和源代码还有词库
本中文分词系统,速度大约1万字/1秒,大小100K(免费+开源+86万词库+操作示意图+测试用例) 目前系统在进行了大规模分词测试后的大致性能指标如下: 1000字以内的文章完全切分,用时间不超过 10毫秒! 5000字以内的文章完全切分,用时间不超过 500毫秒! 10000字以内的文章完全切分,用时间不超过 1秒! 本版本是简易版,分词准确率为 91.8%,系统稳定性为99.99%,中文分词系统符合工业化的标准! 目前支持中英文混合切分词,各种全角,半角标点符号的过滤! 系统自带词库含有
所属分类:
C
发布日期:2009-02-10
文件大小:1048576
提供者:
czw0005
用纯C语言开发了一个中文分词系统,速度大约1万字/1秒,大小100K(免费+开源+86万词库+操作示意图+测试用例)
用纯C语言开发了一个中文分词系统,速度大约1万字/1秒,大小100K(免费+开源+86万词库+操作示意图+测试用例) 用法很简单,比如:你把中文分词系统解压后保存到D:\那你直接在 dos 窗口下输入: d:\cfenci.exe 然后回车就可以了! 启动无需任何参数。 目前系统在进行了大规模分词测试后的大致性能指标如下: 1000字以内的文章完全切分,用时间不超过 10毫秒! 5000字以内的文章完全切分,用时间不超过 500毫秒! 10000字以内的文章完全切分,用时间不超过 1秒! 本版
所属分类:
C
发布日期:2009-02-10
文件大小:1048576
提供者:
sureubet
用纯C语言开发了一个中文分词系统,速度大约1万字/1秒,大小100K(免费+开源+86万词库+操作示意图+测试用例)
分词准确率为 91.8%,系统稳定性为99.99%,中文分词系统符合工业化的标准! 用法很简单,比如:你把中文分词系统解压后保存到D:\那你直接在 dos 窗口下输入: d:\cfenci.exe 然后回车就可以了! 启动无需任何参数。 目前系统在进行了大规模分词测试后的大致性能指标如下: 1000字以内的文章完全切分,用时间不超过 10毫秒! 5000字以内的文章完全切分,用时间不超过 500毫秒! 10000字以内的文章完全切分,用时间不超过 1秒! 本版本是简易版,分词准确率为 91.8
所属分类:
C
发布日期:2009-02-10
文件大小:1048576
提供者:
jc57160129
slor动态刷新分词库
采用servlet的方式对分词库进行动态更新,请求servlet对分词库进行修改
所属分类:
Java
发布日期:2018-07-04
文件大小:2048
提供者:
ylf1056157271
Python中文分词库Yaha.zip
"哑哈"中文分词,更快或更准确,由你来定义。通过简单定制,让分词模块更适用于你的需求。 "Yaha" You can custom your Chinese Word Segmentation efficiently by using Yaha 基本功能: 精确模式,将句子切成最合理的词。 全模式,所有的可能词都被切成词,不消除歧义。 搜索引擎模式,在精确的基础上再次驿长词进行切分,提高召回率,适合搜索引擎创建索引。 备选路径,可生成最好的多条切词路径,可在此
所属分类:
其它
发布日期:2019-07-16
文件大小:6291456
提供者:
weixin_39841856
词博词典 V4.0.rar
词博词典4.0版使用说明(绿色软件,无需安装,下载即可使用): [1] 收录了40多个专业领域的千万量级科技词汇,是英语学习、科学研究和翻译必备的词典。 [2] 拥有简洁的屏幕取词功能,选中文字后,双击鼠标右键即可。 [3] 动态结果为实时显示查询结果,如果电脑配置低查询速度慢,建议不选动态结果。 [4] 支持汉字和英文多关键词混合查询,例如可以输入“自由 laser”进行查询。 [5] 如果想获取更多结果,例如音标、读音和例句等,可以
所属分类:
其它
发布日期:2019-07-16
文件大小:17825792
提供者:
weixin_39840588
基于sougou词库的分词工具-ik-analyzer-8.1.1
2019年更新的基于sougou词库的分词工具-ik-analyzer-8.1.1,该版本只适合于最新版本solr 7&8版本,最新发布的,整理后的词库约187.1万条词汇,添加动态加载词典表功能,在不需要重启solr服务的情况下加载新增的词典。
所属分类:
其它
发布日期:2019-08-08
文件大小:9437184
提供者:
hello_world_qwp
mlcsseg, solr分词器大补贴, 包括IK ANSJ、过滤器,动态加载词库.zip
mlcsseg, solr分词器大补贴, 包括IK ANSJ、过滤器,动态加载词库
所属分类:
其它
发布日期:2019-09-18
文件大小:8388608
提供者:
weixin_38744435
盘古分词及管理工具.zip
文件包括盘古分词Demo以及管理工具,可自由实现对词库的动态管理,积分的话也算比较适合,不懂使用的话也可以进行私聊教程
所属分类:
互联网
发布日期:2020-05-20
文件大小:208896
提供者:
weixin_42000816
Ikanalyzer分词器动态自定义词库的方法.doc
Ikanalyzer分词器动态自定义词库的方法.doc
所属分类:
深度学习
发布日期:2021-03-08
文件大小:35840
提供者:
sun89
Jiayan:甲言,专注于古代汉语(古汉语古文文言文文言)处理的NLP工具包,支持文言词库合成,分词,词性标注,断句和标点。Jiayan是为古典汉语设计的工具包,支持词典构建。 ,标记,POS标记,句子分段和标点符号-源码
甲言Jiayan 简介 甲言,取“Oracle言”之意,是一种专注于古汉语处理的NLP工具包。目前通用的汉语NLP工具均以现代汉语为核心语料,对古代汉语的处理效果很差(详见)。本项目的初衷,便是辅助古汉语信息处理,帮助有志于挖掘古文化矿藏的古汉语学者,爱好者等更好的地分析和利用文言资料,从“文化遗产”中创造出“文化新产”。当前版本支持,,,和五项功能,更多功能正在开发中。 功能 利用无监督的双,以及左右进行文言词库自动生成。 利用无监督,无词典的和进行古汉语自动分词。 利用词库合成功能产生的文言
所属分类:
其它
发布日期:2021-02-03
文件大小:222208
提供者:
weixin_42137022
«
1
2
3
4
5
6
7
8
9
10
»