您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 基于分词的地址匹配技术(PDF清晰)

  2. 基于分词的地址匹配技术:根据调查显示,城市信息80%都与地理位置有关,而这些信息中大部分却没有空间坐标,自然无法整合,无法进行控件分析。为了快速的推进数字化城市的建设和发展,有必要找到一种快速,高效的方法,将大量的与地理位置相关的信息,进行坐标编码,以便于GIS系统分析,查询。本文提出了一种基于分词的地理匹配技术,他将大量的非空间信息高效的转化为空间信息,极大提高非空间信息数据的编码,录入效率。
  3. 所属分类:专业指导

    • 发布日期:2010-03-11
    • 文件大小:1048576
    • 提供者:nextel
  1. 基于分词的地址匹配技术

  2. 本文提出了一种“基于分词的地址匹配技术”,它是通过构造一种分级地址库的方法, 并转换成地址分词库,采用基于地址词典的中文分词技术,实现地址匹配。采用这种方法, 易于维护修改地址库,并构建一个可自学习的地址库,不断丰富完善,提高匹配范围与匹配 精度。
  3. 所属分类:专业指导

    • 发布日期:2010-07-02
    • 文件大小:1048576
    • 提供者:chensiyi1228
  1. 灵柩软件 可用于汉语分词处理

  2. LJParser文本搜索与挖掘开发平台的十大功能: 1. 全文精准检索 支持文本、数字、日期、字符串等各种数据类型,多字段的高效搜索,支持AND/OR/NOT以及NEAR邻近等查询语法,支持维语、藏语、蒙语、阿拉伯、韩语等多种少数民族语言的检索。可以无缝地与现有文本处理系统与数据库系统融合。 2. 新词发现: 从文件集合中挖掘出内涵的新词语列表,可以用于用户专业词典的编撰;还可以进一步编辑标注,导入分词词典中,从而提高分词系统的准确度,并适应新的语言变化。 3. 分词标注: 对原始语料进行分词
  3. 所属分类:Web开发

    • 发布日期:2010-11-05
    • 文件大小:688128
    • 提供者:zhangguoqiang52
  1. 中文分词顺读与倒读最大化匹配测试程序

  2. 如果你正在研究中文分词,可以免分下载这个测试程序比较一下,看看分词的速度是否可以超过这个。如果你的分词速度超过这个了,我就把源代码上传上来。 除了分词速度,还要把关键词出现的频率排序。 我自认为做到极限,新浪网的首页,源码查看另存为文件有48K左右,用这个分词排序不会超过3秒钟。
  3. 所属分类:Delphi

    • 发布日期:2011-09-04
    • 文件大小:1048576
    • 提供者:i8013
  1. 汉语文本自动分词算法

  2. 最牛的分词算法,可直接应用 :分析了中文分词词典的机制,提出了一种改进的整词分词字典结构,并针对机械分词算法的特点,将其与概率算法相结 合,探讨了一种中文自动分词概率算法。采用哈希及二分法对词典进行分词匹配。实验表明,该算法具有较高的分词效率和准确 率,对于消去歧义词也有较好的性能。
  3. 所属分类:其它

    • 发布日期:2012-03-30
    • 文件大小:293888
    • 提供者:zmzbs123
  1. 中文分词切分技术研究

  2. 本文分析了现有的基于词典的分词算法,在比较各种算法优缺点的基础上提出了将正向匹配算法与逆向匹配 算法所得到的结果集进行叠加,生成粗分结果集的新观点,再对生成的粗分结果集构造非负权有向图,最后应用最短路径算法求解有向图。通过Nutch实验验证,该算法较Nutch原始搜索系统提高了其汉语切分的准确性以及切分速度,同时部分解决了交集型歧义切分问题。
  3. 所属分类:网络基础

    • 发布日期:2012-04-17
    • 文件大小:183296
    • 提供者:wsde002
  1. zt_逆向最大匹配分词(简陋Demo)

  2. zt_逆向最大匹配分词(简陋Demo) 算法分析与设计课程实验.
  3. 所属分类:.Net

    • 发布日期:2012-07-03
    • 文件大小:1041408
    • 提供者:yizifeng
  1. Lucene的中文分词方法设计与实现

  2. 本文设计实现了一个中文分词模块,其主要研究目的在于寻找更为有效的中文词汇 处理方法,提高全文检索系统的中文处理能力.整个模块基于当前最流行的搜索引擎架构 Lucene,实现了带有歧义消除功能的正向最大匹配算法.在系统评测方面,比较了该方法与现 有方法的区别,对于如何构建一个高效的中文检索系统,提出了一种实现. 关键词:中文分词;搜索引擎;Lucene;正向最大匹配
  3. 所属分类:Java

    • 发布日期:2012-09-14
    • 文件大小:356352
    • 提供者:david__zhang
  1. ShootSearch 中文分词组件(c#开源)

  2. ShootSearch 中文分词组件(c#开源) 技术支持:support@shootsoft.net http://www.shootsoft.net 分词算法:词库+最大匹配 词库来自www.jesoft.cn,已经过一定的修改 使用说明: 先加载词库,再进行分词.分词过程重载两次:支持回车的和不支持回车的,注意选择! 可以手动添加词语到sDict.txt,不过每次手动修改后需要调用SortDic()方法,否则无法实现最大匹配! sDict.txt的编码为UTF-8! 示例: 文字内容来自
  3. 所属分类:C#

    • 发布日期:2006-08-18
    • 文件大小:1001472
    • 提供者:shootsoft
  1. 基于Lucene的中文分词方法设计与实现

  2. 本文设计实现了一个中文分词模块,其主要研究目的在于寻找更为有效的中文词汇 处理方法,提高全文检索系统的中文处理能力. 整个模块基于当前最流行的搜索引擎架构 Lucene ,实现了带有歧义消除功能的正向最大匹配算法. 在系统评测方面,比较了该方法与现 有方法的区别,对于如何构建一个高效的中文检索系统,提出了一种实现
  3. 所属分类:其它

    • 发布日期:2012-12-26
    • 文件大小:328704
    • 提供者:zyddamon
  1. pscws23-20081221.tar.bz2【中文分词】

  2. php中文分词 ===== PSCWS23 - 说明文档 ===== $Id: readme.txt,v 1.3 2008/12/21 04:37:59 hightman Exp $ [ 关于 PSCWS23 ] PSCWS23 是由 hightman 于 2006 年开发的纯 PHP 代码实现的简易中文分词系统第二和第三版的简称。 PSCWS 是英文 PHP Simple Chinese Words Segmentation 的头字母缩写,它是 SCWS 项目的前身。 现 SCWS 已作为
  3. 所属分类:PHP

    • 发布日期:2013-09-08
    • 文件大小:2097152
    • 提供者:yao__shun__yu
  1. C#汉字分词程序

  2. C#汉字分词程序,正向最大匹配方法与逆向最大匹配方法均已经实现
  3. 所属分类:C#

    • 发布日期:2013-11-23
    • 文件大小:4096
    • 提供者:banxia727706033
  1. C#汉语分词程序

  2. C#汉字分词程序,正向最大匹配方法与逆向最大匹配方法均已经实现
  3. 所属分类:C#

    • 发布日期:2013-11-23
    • 文件大小:4096
    • 提供者:u012935328
  1. JAVA版本,每秒约10万汉字,基于词典的中文纯文本分词程序

  2. java版本基于词典匹配,速度为每秒约10万个汉字,本人测试。同时生成倒排索引,倒排索引包含了对于分词的相关信息,如词频。若有Bug可与我联系。
  3. 所属分类:Java

    • 发布日期:2013-12-20
    • 文件大小:124928
    • 提供者:zhukova
  1. 基于逆向最大匹配算法的中文分词的设计与开发

  2. 基于逆向最大匹配算法的中文分词的设计与开发
  3. 所属分类:其它

    • 发布日期:2014-04-10
    • 文件大小:35840
    • 提供者:u014638075
  1. 中分分词与分词性能评测代码及详细设计文档

  2. 通过本资源了解中文分词的意义,在实现正向、逆向最大匹配分词算法的过程中,加深对自然语言理解原理的探讨兴趣。本资源内含详细的代码设计分档、测试语料、源代码以及多个自己制作的语料库词典,分别实现了正、逆向最大匹配中文分词,并且设计了算法对分词效果进行了详细的评测,可以对大作业乃至毕业设计提供巨大的帮助.
  3. 所属分类:C++

    • 发布日期:2014-06-09
    • 文件大小:4194304
    • 提供者:u014132695
  1. 中文分词工具word-1.0,Java实现的中文分词组件多种基于词典的分词算法

  2. word分词是一个Java实现的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。 能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。 同时提供了Lucene、Solr、ElasticSearch插件。 分词使用方法: 1、快速体验 运行项目根目录下的脚本demo-word.bat可以快速体验分词效果 用法: command [text] [input] [output] 命令command的可选值为:demo、text、file
  3. 所属分类:Java

    • 发布日期:2014-11-05
    • 文件大小:10485760
    • 提供者:love_hachi
  1. 中文分词系统

  2. 中文分词系统的设计与实现。基于正向最大以及逆向最大匹配分词算法的系统。
  3. 所属分类:网管软件

    • 发布日期:2015-05-13
    • 文件大小:6144
    • 提供者:qq_16778171
  1. ICTCLAS中文分词和关键字匹配

  2. 本程序使用ICTCLAS中文分词系统,支持中文分词,同时实现高效率的关键字匹配,使用的分词系统支持用户自定义词典,并支持GBK和UTF-8编码,在Linux系统上运行,同时避免某些因证书引起的问题,适用于个人研究,因商业使用带来的问题,本人不负责。 系统采用2中高效的算法进行多模式串的匹配。 测试与Ubuntu14.04系统。
  3. 所属分类:C++

    • 发布日期:2015-12-25
    • 文件大小:10485760
    • 提供者:u011889952
  1. 浅析常用分词算法的比较与设想

  2. 与基于理解的分词算法和基于统计的分词算法相比,基于文本匹配的算法更加通用。基于文本匹配的算法又称之为“机械分词算法”,他是它是按照一定的策略将待分析的汉字串与一个“充分大的”机器词典中的词条进行配,若在词典中找到某个字符串,则匹配成功,可识别出一个词。按照扫描方向的不同,文本匹配分词方法可以分为正向匹配和逆向匹配两种;按照不同长度优先匹配的情况,可以分为最大(最长)匹配和最小(最短)匹配;按照是否与词性标注过程相结合,又可以分为单纯分词方法和分词与标注相结合的一体化方法。   常用的几种机械分词
  3. 所属分类:其它

    • 发布日期:2021-01-02
    • 文件大小:50176
    • 提供者:weixin_38506138
« 12 3 4 5 6 7 »