您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. JE中文分词je-analysis-1.5.1.jar

  2. 1.5.1 —— 2006-01-22 修正细粒度分词错误的问题 1.5.0 —— 2007-01-18 全面支持Lucene 2.0 增强了词典维护的API 增加了商品编码的匹配 增加了Mail地址的匹配 实现了词尾消歧算法第二层的过滤 整理优化了词库 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 2006-07-03 修正细粒度分词错误的问题 1.3.1 —— 2006-0 6-23 修
  3. 所属分类:其它

    • 发布日期:2009-04-28
    • 文件大小:891904
    • 提供者:tiancen2001
  1. IKAnalyzer 3.0 中文分词器

  2. 1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
  3. 所属分类:其它

    • 发布日期:2009-07-21
    • 文件大小:1048576
    • 提供者:linliangyi2006
  1. 地址收录程序V1.0

  2. 经过研究,用正向最大匹配算法,做了一个地址收录程序,该程序可以手机整理地址关键字,可以添加详细的地址信息,并可以检索最佳的地址信息。
  3. 所属分类:其它

    • 发布日期:2010-05-05
    • 文件大小:717824
    • 提供者:jato333
  1. Paoding中文分词包-附带实例,参考手册,Lucene实例

  2. 效果体验 使用者第一步最有可能的是想要体验了解庖丁的分词效果。考虑到这样的需求,庖丁提供了一个shell文件,使用者不必写任何代码就可以获得这样的信息。进入Paoding-Analysis分发包,在命令行模式下执行analyzer.bat(windows)或analyzer.sh(linux)即可。下以windows为例: u 显示帮助 E:\Paoding-Analysis>analyzer.bat ? u 分词对话 当没有在命令行参数种输入分词内容或待分词的文章时,analyzer.
  3. 所属分类:Linux

    • 发布日期:2010-06-08
    • 文件大小:5242880
    • 提供者:hpf911
  1. 基于分词的地址匹配技术

  2. 本文提出了一种“基于分词的地址匹配技术”,它是通过构造一种分级地址库的方法, 并转换成地址分词库,采用基于地址词典的中文分词技术,实现地址匹配。采用这种方法, 易于维护修改地址库,并构建一个可自学习的地址库,不断丰富完善,提高匹配范围与匹配 精度。
  3. 所属分类:专业指导

    • 发布日期:2010-07-02
    • 文件大小:1048576
    • 提供者:chensiyi1228
  1. 中文分词词库整理.rar

  2. 30万 中文分词词库,42537条伪原创词库,dict.txt,fingerDic.txt,httpcws_dict.txt,out.txt,百度分词词库.txt,词库地址.txt,词库下载地址.txt,四十万汉语大词库.txt,四十万可用搜狗txt词库.txt,搜狗词库方法.txt,五笔词库.TXT 解压密码为:www.5eyi.com 想省资源分可以到http://www.5eyi.com/download-sphinx-chinese-word-lexicon-collected/下载
  3. 所属分类:其它

    • 发布日期:2011-09-05
    • 文件大小:6291456
    • 提供者:logken
  1. 中文 分词 词库 整理

  2. 30万 中文分词词库,42537条伪原创词库,dict.txt,fingerDic.txt,httpcws_dict.txt,out.txt,百度分词词库.txt,词库地址.txt,词库下载地址.txt,四十万汉语大词库.txt,四十万可用搜狗txt词库.txt,搜狗词库方法.txt,五笔词库.TXT 解压密码为:www.5eyi.com
  3. 所属分类:其它

    • 发布日期:2013-07-03
    • 文件大小:6291456
    • 提供者:mwzit
  1. 中文分词系统附带四十多万中文词库

  2. 一套强大的分词系统并按照主语谓语动词等进行结构划分,并重写了数据结构个算法,并且进行了部分的人工优化内存中中文分词每秒钟大约100万字,并附带40多万中文词语库 在线测试地址: http://demo.ansj.org/index.jsp
  3. 所属分类:Java

    • 发布日期:2013-11-19
    • 文件大小:7340032
    • 提供者:michaeltang123
  1. Lucene中文分词组件 JE-Analysis 1.5.1

  2. 发布于:http://www.jesoft.cn/posts/list/5.page 1.5.1 —— 2006-01-22 修正细粒度分词错误的问题 1.5.0 —— 2007-01-18 全面支持Lucene 2.0 增强了词典维护的API 增加了商品编码的匹配 增加了Mail地址的匹配 实现了词尾消歧算法第二层的过滤 整理优化了词库 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 200
  3. 所属分类:其它

    • 发布日期:2007-01-22
    • 文件大小:891904
    • 提供者:diystar
  1. 28万词库,中文分词

  2. 多个词库的去重整理,28万超全词库,excel表整理完毕,留有词性分辨栏,可自行处理。 中文分词词库,42537条伪原创词库,dict.txt,fingerDic.txt,httpcws_dict.txt,out.txt,百度分词词库.txt,词库地址.txt,词库下载地址.txt,四十万汉语大词库.txt,四十万可用搜狗txt词库.txt,搜狗词库方法.txt,五笔词库.TXT
  3. 所属分类:互联网

    • 发布日期:2015-08-05
    • 文件大小:3145728
    • 提供者:icycho
  1. 中文地址分词及匹配项目

  2. 处理中文地址的分词和匹配 采用混合分词算法进行中文地址分词 在中文地址分词基础上采用Double Levenshetin算法进行中文地址相似度进行地址匹配
  3. 所属分类:Java

    • 发布日期:2016-08-30
    • 文件大小:18874368
    • 提供者:haiyang1226
  1. 常用中文分词器及地址链接

  2. 列举了当前常用的中文分词器及其地址链接,不用再进行网络查找,直接可以进行使用。
  3. 所属分类:搜索引擎

    • 发布日期:2017-10-18
    • 文件大小:13312
    • 提供者:ggf0101
  1. 基于分词的地址匹配技术

  2. 本文提出一种“基于分词的地址匹配技术”,它是通过构造一种分级地址库的方法,并转换成地址分词库,采用基于地址词典的中文分词技术,实现地址匹配。
  3. 所属分类:专业指导

    • 发布日期:2009-01-04
    • 文件大小:1048576
    • 提供者:gaomzh
  1. 中文地址分词

  2. 处理中文地址的分词和匹配 采用混合分词算法进行中文地址分词 在中文地址分词基础上采用Double Levenshetin算法进行中文地址相似度进行地址匹配
  3. 所属分类:深度学习

    • 发布日期:2018-12-10
    • 文件大小:20971520
    • 提供者:wangwei_5201314
  1. 中文地址分词及匹配

  2. 大数据处理中文地址的分词和匹配 采用混合分词算法进行中文地址分词 在中文地址分词基础上采用精确算法进行中文地址相似度进行地址匹配
  3. 所属分类:其它

    • 发布日期:2018-12-10
    • 文件大小:18874368
    • 提供者:yylei1019
  1. 维基百科中文语料(已分词)

  2. 自己用来训练word2vec的,已提取文本,做了分词处理,过滤了大部分的特殊字符。 共包含3273626个段落的文本(一个段落包含了多个语句)。 处理后的语料有1.1G,由于文件较大,提供百度网盘下载地址。
  3. 所属分类:机器学习

    • 发布日期:2020-02-22
    • 文件大小:650
    • 提供者:ximo881206
  1. 维基百科中文语料(已分词)

  2. 自己用来训练word2vec的,已提取文本,做了分词处理,过滤了大部分的特殊字符。 共包含3273626个段落的文本(一个段落包含了多个语句)。 处理后的语料有1.1G,由于文件较大,提供百度网盘下载地址。
  3. 所属分类:机器学习

    • 发布日期:2020-01-21
    • 文件大小:650
    • 提供者:coffee2008yy
  1. 中文分词词库

  2. 中文分词词库、百度分词词库、词库地址、四十万汉语大词库、四十万可用搜狗txt词库、搜狗词库方法、五笔词库等词库。
  3. 所属分类:其它

    • 发布日期:2013-05-06
    • 文件大小:7340032
    • 提供者:zhangkun_w
  1. chinese-address-segment:中文地址分词(地址元素识别与抽取),通过序列标注进行NER-源码

  2. 项目背景: 地址元素识别可以撤出地址中不同的地址元素,同时也可以作为其他项目任务的基础。 使用: train_eval.py:训练与评估模型(可以选择IDCNN膨胀卷积网络或者BILSTM) address_segment_service:使用Tornado部署模型(可以进行多线程部署),从而通过http协议访问服务 示例: 在浏览器地址栏输入: {'string':'江苏省南京市*区雄州街道雄州南路333号冠城大通南郡25幢1单元502室“,'entities':[{'word':'江苏省
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:28672
    • 提供者:weixin_42107165
  1. Deta_Parser:快速中文分词分析分词-源码

  2. (早期接触申请软着,以为申请软着就是发表,结果找华夏知识产权写了已经发表,这里永久申明下。) 用户使用如果遇纠纷法院热线电话12368,公安电话号码110,国外请咨询当地法院与公安部部门 :fire: 26,000 / ms的词段,用于NLP,POS,AI和深度学习/每秒中文混合分词2200〜3000万单词的高精准确率快速神经网络分词包的文本挖掘。训练词意分析,词感分析,词境分析,词灵分析和自由扩展词库免费的官方互动展示页地址: ://tinos.qicp.vip/data.html 项目
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:5242880
    • 提供者:weixin_42127835
« 12 3 4 5 6 »