您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. JE中文分词je-analysis-1.5.1.jar

  2. 1.5.1 —— 2006-01-22 修正细粒度分词错误的问题 1.5.0 —— 2007-01-18 全面支持Lucene 2.0 增强了词典维护的API 增加了商品编码的匹配 增加了Mail地址的匹配 实现了词尾消歧算法第二层的过滤 整理优化了词库 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 2006-07-03 修正细粒度分词错误的问题 1.3.1 —— 2006-0 6-23 修
  3. 所属分类:其它

    • 发布日期:2009-04-28
    • 文件大小:891904
    • 提供者:tiancen2001
  1. perl实现中文分词-双向扫描法找出歧义段-n元语法概率模型消歧

  2. perl实现中文分词 先双向扫描法找出歧义段 再n元语法概率模型消歧 1998年人民日报语料下F1值达94%
  3. 所属分类:Perl

    • 发布日期:2009-05-27
    • 文件大小:7168
    • 提供者:heycinderella
  1. 最大匹配分词算法概述

  2. 最大匹配分词算法最大匹配分词算法最大匹配分词算法最大匹配分词算法最大匹配分词算法最大匹配分词算法
  3. 所属分类:其它

    • 发布日期:2009-06-02
    • 文件大小:372736
    • 提供者:anyupu
  1. 有关中文分词的源代码c++实现的

  2. 本程序简单的实现了中文的分词,采用的是基于词典的逆向最大匹配的方法,同时包含了新词的识别以及部分歧义处理。
  3. 所属分类:C++

    • 发布日期:2009-06-04
    • 文件大小:2048
    • 提供者:dongfangqishi
  1. Yard中文分词系统V0.1.1版

  2. Yard中文分词系统采用改进了的正向最大匹配算法,利用双字哈希进行词典组织解决了中文分词中最长词带来的分词效率低下问题。 本次发布的版本为0.1.1版能对中文词组进行完美的切分同时利用词组的词频和词性解决了歧义划分的问题,但是对人名、地名、组织名、英文、数字等还不能进行很好的切分,在下一个版本中将解决这些问题。中文词典应用了搜狗实验室提供的互联网词库。纯java编写源码和词典在附件中可以下载。本软件为开源软件你可以进行任何修改以适应你的需求,如果你加入了新功能请发送一份副本给我,我们一同完善改
  3. 所属分类:其它

    • 发布日期:2009-06-16
    • 文件大小:1048576
    • 提供者:Soul_fly
  1. python分词程序

  2. 用python写的分词程序,采用前向,后向匹配。
  3. 所属分类:Python

    • 发布日期:2009-07-06
    • 文件大小:3145728
    • 提供者:pulerain
  1. 中文分词开源项目 JAVA中文分词

  2. import WordSegment.*; import java.awt.event.ActionEvent; import java.awt.event.ActionListener; import java.awt.*; import java.io.File; import java.util.Vector; import javax.swing.*; /** * */ /** * @author Truman * */ public class WordSegDemoFrame ex
  3. 所属分类:Java

    • 发布日期:2009-08-15
    • 文件大小:391168
    • 提供者:caolijunmingyan
  1. 中文分词-C语言编写正向和反向最大匹配算法

  2. 本程序是北京师范大学学生根据一个中文字库对所给的文章进行分词。有详细说明文档和exe文件,采用C语言编写,具体在文档中完全说明。采用的算法是正向最大匹配算法和反向最大匹配算法。主要实现屏幕分词和文件分词两项功能。因为对毕业设计有所帮助,所以我要分高一点哈~勿怪偶~
  3. 所属分类:C

    • 发布日期:2009-09-21
    • 文件大小:492544
    • 提供者:manuxiao
  1. 支持英文数字中文混合分词-实现很多功能非常强大!

  2. 支持英文数字中文混合分词 常用的数量和人名的匹配 超过22万词的词库整理 实现正向最大匹配算法 智能数字,日期,人名识别。分词算法:词库+最大匹配。具体的里面有非常详尽的说明文档
  3. 所属分类:其它

    • 发布日期:2009-09-21
    • 文件大小:44032
    • 提供者:manuxiao
  1. C++编写中文分词最大匹配的分词源码

  2. C++编写的中文最大匹配分词源码,对学习分词的朋友有很大的帮助啊哦!
  3. 所属分类:C++

    • 发布日期:2009-09-21
    • 文件大小:67584
    • 提供者:manuxiao
  1. 一种基于改进最大匹配快速中文分词算法

  2. 提出了一种基于最大匹配快速中文分词算法的改进算法。通过对最大匹配分词算法做出改进,从而解决了最大匹配快速中文分词算法所不能解决的一些问题,并得出较准确的粗分结果
  3. 所属分类:其它

    • 发布日期:2009-11-02
    • 文件大小:29696
    • 提供者:ykeyan
  1. C++中文分词+自动标引范例

  2. 1、合并使用停用词表和关键词表作为分词词表,应用逆向最长匹配法对所有篇名分词,给出每条篇名对应的分词结果。在屏幕上显示篇名序号、篇名、分词结果。 2、去除停用词(显示在屏幕上)。 3、利用tfx词频加权公式,计算各词的权重,在屏幕上显示每条篇名中各词的权重。 4、根据输入的阈值,确定标引词,并在屏幕上显示标引词。 5、根据输入的标引深度,确定标引词,并在屏幕上显示标引词。
  3. 所属分类:C++

    • 发布日期:2009-12-10
    • 文件大小:956416
    • 提供者:xutaozero21
  1. 中文分词程序-正向最大匹配算法及逆向最大匹配算法

  2. 运用正向最大匹配算法进行分析,同时也实现了逆向最大匹配,内有分词词典。
  3. 所属分类:其它

    • 发布日期:2010-02-01
    • 文件大小:4194304
    • 提供者:zhujxi
  1. 基于分词的地址匹配技术(PDF清晰)

  2. 基于分词的地址匹配技术:根据调查显示,城市信息80%都与地理位置有关,而这些信息中大部分却没有空间坐标,自然无法整合,无法进行控件分析。为了快速的推进数字化城市的建设和发展,有必要找到一种快速,高效的方法,将大量的与地理位置相关的信息,进行坐标编码,以便于GIS系统分析,查询。本文提出了一种基于分词的地理匹配技术,他将大量的非空间信息高效的转化为空间信息,极大提高非空间信息数据的编码,录入效率。
  3. 所属分类:专业指导

    • 发布日期:2010-03-11
    • 文件大小:1048576
    • 提供者:nextel
  1. java版中文分词器

  2. java版的中文分词器,可自建词典,正向、逆向最大匹配。
  3. 所属分类:Java

    • 发布日期:2010-03-16
    • 文件大小:391168
    • 提供者:zhongjianwufeng
  1. 分词匹配算法:正向最大匹配和反向最大匹配

  2. 分词匹配算法:正向最大匹配和反向最大匹配
  3. 所属分类:其它

    • 发布日期:2010-03-26
    • 文件大小:30720
    • 提供者:foxmessire
  1. 汉语文本自动分词算法

  2. 最牛的分词算法,可直接应用 :分析了中文分词词典的机制,提出了一种改进的整词分词字典结构,并针对机械分词算法的特点,将其与概率算法相结 合,探讨了一种中文自动分词概率算法。采用哈希及二分法对词典进行分词匹配。实验表明,该算法具有较高的分词效率和准确 率,对于消去歧义词也有较好的性能。
  3. 所属分类:其它

    • 发布日期:2012-03-30
    • 文件大小:293888
    • 提供者:zmzbs123
  1. 15万汉字字典有解释 md b数据库格式 可以用作分词匹配

  2. 15万汉字字典有解释 mdb数据库格 式 可以用作分词匹配15万汉字字典有解释 mdb数据库格式 可以用作分词匹配
  3. 所属分类:机器学习

    • 发布日期:2018-03-24
    • 文件大小:67108864
    • 提供者:heguo1981
  1. python中文分词教程之前向最大正向匹配算法详解

  2. 前言 大家都知道,英文的分词由于单词间是以空格进行分隔的,所以分词要相对的容易些,而中文就不同了,中文中一个句子的分隔就是以字为单位的了,而所谓的正向最大匹配和逆向最大匹配便是一种分词匹配的方法,这里以词典匹配说明。 最大匹配算法是自然语言处理中的中文匹配算法中最基础的算法,分为正向和逆向,原理都是一样的。 正向最大匹配算法,故名思意,从左向右扫描寻找词的最大匹配。 首先我们可以规定一个词的最大长度,每次扫描的时候寻找当前开始的这个长度的词来和字典中的词匹配,如果没有找到,就缩短长度继续寻找,直
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:68608
    • 提供者:weixin_38741891
  1. python基础编程:python中文分词教程之前向最大正向匹配算法详解

  2. 中文分词是中文文本处理的一个基础性工作,然而长久以来,在Python编程领域,一直缺少高准确率、高效率的分词组件。下面这篇文章主要给大家介绍了关于python中文分词教程之前向最大正向匹配算法的相关资料,需要的朋友可以参考下。 前言 大家都知道,英文的分词由于单词间是以空格进行分隔的,所以分词要相对的容易些,而中文就不同了,中文中一个句子的分隔就是以字为单位的了,而所谓的正向最大匹配和逆向最大匹配便是一种分词匹配的方法,这里以词典匹配说明。 最大匹配算法是自然语言处理中的中文匹配算法中最基础的算
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:67584
    • 提供者:weixin_38691006
« 12 3 4 5 6 7 8 9 10 ... 20 »