点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 中文地址分词
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
JE中文分词je-analysis-1.5.1.jar
1.5.1 —— 2006-01-22 修正细粒度分词错误的问题 1.5.0 —— 2007-01-18 全面支持Lucene 2.0 增强了词典维护的API 增加了商品编码的匹配 增加了Mail地址的匹配 实现了词尾消歧算法第二层的过滤 整理优化了词库 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 2006-07-03 修正细粒度分词错误的问题 1.3.1 —— 2006-0 6-23 修
所属分类:
其它
发布日期:2009-04-28
文件大小:891904
提供者:
tiancen2001
IKAnalyzer 3.0 中文分词器
1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
所属分类:
其它
发布日期:2009-07-21
文件大小:1048576
提供者:
linliangyi2006
地址收录程序V1.0
经过研究,用正向最大匹配算法,做了一个地址收录程序,该程序可以手机整理地址关键字,可以添加详细的地址信息,并可以检索最佳的地址信息。
所属分类:
其它
发布日期:2010-05-05
文件大小:717824
提供者:
jato333
Paoding中文分词包-附带实例,参考手册,Lucene实例
效果体验 使用者第一步最有可能的是想要体验了解庖丁的分词效果。考虑到这样的需求,庖丁提供了一个shell文件,使用者不必写任何代码就可以获得这样的信息。进入Paoding-Analysis分发包,在命令行模式下执行analyzer.bat(windows)或analyzer.sh(linux)即可。下以windows为例: u 显示帮助 E:\Paoding-Analysis>analyzer.bat ? u 分词对话 当没有在命令行参数种输入分词内容或待分词的文章时,analyzer.
所属分类:
Linux
发布日期:2010-06-08
文件大小:5242880
提供者:
hpf911
基于分词的地址匹配技术
本文提出了一种“基于分词的地址匹配技术”,它是通过构造一种分级地址库的方法, 并转换成地址分词库,采用基于地址词典的中文分词技术,实现地址匹配。采用这种方法, 易于维护修改地址库,并构建一个可自学习的地址库,不断丰富完善,提高匹配范围与匹配 精度。
所属分类:
专业指导
发布日期:2010-07-02
文件大小:1048576
提供者:
chensiyi1228
中文分词词库整理.rar
30万 中文分词词库,42537条伪原创词库,dict.txt,fingerDic.txt,httpcws_dict.txt,out.txt,百度分词词库.txt,词库地址.txt,词库下载地址.txt,四十万汉语大词库.txt,四十万可用搜狗txt词库.txt,搜狗词库方法.txt,五笔词库.TXT 解压密码为:www.5eyi.com 想省资源分可以到http://www.5eyi.com/download-sphinx-chinese-word-lexicon-collected/下载
所属分类:
其它
发布日期:2011-09-05
文件大小:6291456
提供者:
logken
中文 分词 词库 整理
30万 中文分词词库,42537条伪原创词库,dict.txt,fingerDic.txt,httpcws_dict.txt,out.txt,百度分词词库.txt,词库地址.txt,词库下载地址.txt,四十万汉语大词库.txt,四十万可用搜狗txt词库.txt,搜狗词库方法.txt,五笔词库.TXT 解压密码为:www.5eyi.com
所属分类:
其它
发布日期:2013-07-03
文件大小:6291456
提供者:
mwzit
中文分词系统附带四十多万中文词库
一套强大的分词系统并按照主语谓语动词等进行结构划分,并重写了数据结构个算法,并且进行了部分的人工优化内存中中文分词每秒钟大约100万字,并附带40多万中文词语库 在线测试地址: http://demo.ansj.org/index.jsp
所属分类:
Java
发布日期:2013-11-19
文件大小:7340032
提供者:
michaeltang123
Lucene中文分词组件 JE-Analysis 1.5.1
发布于:http://www.jesoft.cn/posts/list/5.page 1.5.1 —— 2006-01-22 修正细粒度分词错误的问题 1.5.0 —— 2007-01-18 全面支持Lucene 2.0 增强了词典维护的API 增加了商品编码的匹配 增加了Mail地址的匹配 实现了词尾消歧算法第二层的过滤 整理优化了词库 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 200
所属分类:
其它
发布日期:2007-01-22
文件大小:891904
提供者:
diystar
28万词库,中文分词
多个词库的去重整理,28万超全词库,excel表整理完毕,留有词性分辨栏,可自行处理。 中文分词词库,42537条伪原创词库,dict.txt,fingerDic.txt,httpcws_dict.txt,out.txt,百度分词词库.txt,词库地址.txt,词库下载地址.txt,四十万汉语大词库.txt,四十万可用搜狗txt词库.txt,搜狗词库方法.txt,五笔词库.TXT
所属分类:
互联网
发布日期:2015-08-05
文件大小:3145728
提供者:
icycho
中文地址分词及匹配项目
处理中文地址的分词和匹配 采用混合分词算法进行中文地址分词 在中文地址分词基础上采用Double Levenshetin算法进行中文地址相似度进行地址匹配
所属分类:
Java
发布日期:2016-08-30
文件大小:18874368
提供者:
haiyang1226
常用中文分词器及地址链接
列举了当前常用的中文分词器及其地址链接,不用再进行网络查找,直接可以进行使用。
所属分类:
搜索引擎
发布日期:2017-10-18
文件大小:13312
提供者:
ggf0101
基于分词的地址匹配技术
本文提出一种“基于分词的地址匹配技术”,它是通过构造一种分级地址库的方法,并转换成地址分词库,采用基于地址词典的中文分词技术,实现地址匹配。
所属分类:
专业指导
发布日期:2009-01-04
文件大小:1048576
提供者:
gaomzh
中文地址分词
处理中文地址的分词和匹配 采用混合分词算法进行中文地址分词 在中文地址分词基础上采用Double Levenshetin算法进行中文地址相似度进行地址匹配
所属分类:
深度学习
发布日期:2018-12-10
文件大小:20971520
提供者:
wangwei_5201314
中文地址分词及匹配
大数据处理中文地址的分词和匹配 采用混合分词算法进行中文地址分词 在中文地址分词基础上采用精确算法进行中文地址相似度进行地址匹配
所属分类:
其它
发布日期:2018-12-10
文件大小:18874368
提供者:
yylei1019
维基百科中文语料(已分词)
自己用来训练word2vec的,已提取文本,做了分词处理,过滤了大部分的特殊字符。 共包含3273626个段落的文本(一个段落包含了多个语句)。 处理后的语料有1.1G,由于文件较大,提供百度网盘下载地址。
所属分类:
机器学习
发布日期:2020-02-22
文件大小:650
提供者:
ximo881206
维基百科中文语料(已分词)
自己用来训练word2vec的,已提取文本,做了分词处理,过滤了大部分的特殊字符。 共包含3273626个段落的文本(一个段落包含了多个语句)。 处理后的语料有1.1G,由于文件较大,提供百度网盘下载地址。
所属分类:
机器学习
发布日期:2020-01-21
文件大小:650
提供者:
coffee2008yy
中文分词词库
中文分词词库、百度分词词库、词库地址、四十万汉语大词库、四十万可用搜狗txt词库、搜狗词库方法、五笔词库等词库。
所属分类:
其它
发布日期:2013-05-06
文件大小:7340032
提供者:
zhangkun_w
chinese-address-segment:中文地址分词(地址元素识别与抽取),通过序列标注进行NER-源码
项目背景: 地址元素识别可以撤出地址中不同的地址元素,同时也可以作为其他项目任务的基础。 使用: train_eval.py:训练与评估模型(可以选择IDCNN膨胀卷积网络或者BILSTM) address_segment_service:使用Tornado部署模型(可以进行多线程部署),从而通过http协议访问服务 示例: 在浏览器地址栏输入: {'string':'江苏省南京市*区雄州街道雄州南路333号冠城大通南郡25幢1单元502室“,'entities':[{'word':'江苏省
所属分类:
其它
发布日期:2021-03-21
文件大小:28672
提供者:
weixin_42107165
Deta_Parser:快速中文分词分析分词-源码
(早期接触申请软着,以为申请软着就是发表,结果找华夏知识产权写了已经发表,这里永久申明下。) 用户使用如果遇纠纷法院热线电话12368,公安电话号码110,国外请咨询当地法院与公安部部门 :fire: 26,000 / ms的词段,用于NLP,POS,AI和深度学习/每秒中文混合分词2200〜3000万单词的高精准确率快速神经网络分词包的文本挖掘。训练词意分析,词感分析,词境分析,词灵分析和自由扩展词库免费的官方互动展示页地址: ://tinos.qicp.vip/data.html 项目
所属分类:
其它
发布日期:2021-02-03
文件大小:5242880
提供者:
weixin_42127835
«
1
2
3
4
5
6
»