您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 浙大acm模板c/c++

  2. 1、 几何 25 1.1 注意 25 1.2 几何公式 25 1.3 多边形 27 1.4 多边形切割 30 1.5 浮点函数 31 1.6 面积 36 1.7 球面 37 1.8 三角形 38 1.9 三维几何 40 1.10 凸包 47 1.11 网格 49 1.12 圆 49 1.13 整数函数 51 2、 组合 54 2.1 组合公式 54 2.2 排列组合生成 54 2.3 生成gray码 56 2.4 置换(polya) 56 2.5 字典序全排列 57 2.6 字典序组合 57
  3. 所属分类:C

    • 发布日期:2009-06-08
    • 文件大小:541696
    • 提供者:wlb1990221
  1. 比赛专用的ACM模版

  2. 1、 几何 25 1.1 注意 25 1.2 几何公式 25 1.3 多边形 27 1.4 多边形切割 30 1.5 浮点函数 31 1.6 面积 36 1.7 球面 37 1.8 三角形 38 1.9 三维几何 40 1.10 凸包 47 1.11 网格 49 1.12 圆 49 1.13 整数函数 51 2、 组合 54 2.1 组合公式 54 2.2 排列组合生成 54 2.3 生成gray码 56 2.4 置换(polya) 56 2.5 字典序全排列 57 2.6 字典序组合 57
  3. 所属分类:网络基础

    • 发布日期:2009-09-29
    • 文件大小:541696
    • 提供者:guoxu66
  1. ACM模板(浙大)和经典算法

  2. 很多ACM的经典算法模板,提供了很多思路和想法 1、 几何 25 1.1 注意 25 1.2 几何公式 25 1.3 多边形 27 1.4 多边形切割 30 1.5 浮点函数 31 1.6 面积 36 1.7 球面 37 1.8 三角形 38 1.9 三维几何 40 1.10 凸包 47 1.11 网格 49 1.12 圆 49 1.13 整数函数 51 2、组合 54 2.1 组合公式 54 2.2 排列组合生成 54 2.3 生成gray码 56 2.4 置换(polya) 56 2.5
  3. 所属分类:其它

  1. ACM经典算法及例子

  2. 一.数论 4 1.阶乘最后非零位 4 2. 模线性方程(组) 4 3. 素数表 6 4. 素数随机判定(miller_rabin) 6 5. 质因数分解 7 6. 最大公约数欧拉函数 8 二.图论_匹配 9 1. 二分图最大匹配(hungary邻接表形式) 9 2. 二分图最大匹配(hungary邻接表形式,邻接阵接口) 10 3. 二分图最大匹配(hungary邻接阵形式) 10 4. 二分图最大匹配(hungary正向表形式) 11 5. 二分图最佳匹配(kuhn_munkras邻接阵形式
  3. 所属分类:其它

    • 发布日期:2010-02-06
    • 文件大小:69632
    • 提供者:jk983294
  1. 中文分词论文(转载) 中文分词算法 中文分词系统

  2. 中文分词技术属于自然语言处理技术范畴,对 于一句话, 人可以通过自己的知识来明白哪些是 词,哪些不是词,但如何让计算机也能理解
  3. 所属分类:其它

    • 发布日期:2010-04-06
    • 文件大小:229376
    • 提供者:sxj84877171
  1. 浙大ACM\icpc模板

  2. 浙大acm出品的acm\icpc比赛中常用算法的模板,涵盖了acm题目的各个类型。 25 1.1 注意 25 1.2 几何公式 25 1.3 多边形 27 1.4 多边形切割 30 1.5 浮点函数 31 1.6 面积 36 1.7 球面 37 1.8 三角形 38 1.9 三维几何 40 1.10 凸包 47 1.11 网格 49 1.12 圆 49 1.13 整数函数 51 2、组合 54 2.1 组合公式 54 2.2 排列组合生成 54 2.3 生成gray码 56 2.4 置换(po
  3. 所属分类:其它

    • 发布日期:2010-04-08
    • 文件大小:637952
    • 提供者:windofshadow
  1. 中文分词算法介绍、分类详解

  2. 该文档详细介绍了中文分词的原理及相应的技术。文档讲解了最大匹配法(Forward Maximum Matching method, FMM法)、正向最大匹配法(由左到右的方向)、逆向最大匹配法(由右到左的方向)、最少切分(使每一句中切出的词数最小)。
  3. 所属分类:其它

    • 发布日期:2010-04-25
    • 文件大小:110592
    • 提供者:yangyangye
  1. 基于统计方案的自动摘要系统(含源代码)

  2. 中文分词 领域相关算法 两者相互融合得到的算法 基于字符串匹配的分词方法 正向最大匹配法(由左到右的方向); 2)逆向最大匹配法(由右到左的方向); 3)最少切分(使每一句中切出的词数最小)
  3. 所属分类:Java

    • 发布日期:2011-04-26
    • 文件大小:353280
    • 提供者:wjjfeng
  1. 网络爬虫爬虫软件

  2. 需要加载一个字典文件,此字典文件在爬虫程序中要求放在此目录结构下: c:\dictionary\dictionary.txt,词典默认认为是按照词语长到短的顺序排列的 2、此爬虫程序爬到的网页内容存储到数据库中,运用的是SQL Server 2005 3、程序中运用了基于字符串匹配的分此方法中的正向最大匹配法 4、此爬虫程序采用的是广度优先的搜索方法搜索网络中的网页
  3. 所属分类:Java

    • 发布日期:2012-04-21
    • 文件大小:2097152
    • 提供者:ymc951925
  1. 计算机领域内文章关键词抽取系统

  2. 内容摘要 随着信息化进程的深入发展和互联网的迅速发展,人们的信息资源得到最大程度的共享,同时搜索引擎成为人们查找信息的首选工具。其中,垂直搜索是针对某一个行业的专业搜索引擎,是搜索引擎的细分和延伸,其特点就是“专、精、深”,且具有行业色彩,相比较通用搜索引擎的海量信息无序化,垂直搜索引擎则显得更加专注、具体和深入。 本文主要阐述垂直搜索引擎、中文分词的基本原理。并在此基础上提出了基于垂直搜索思想和正向最大匹配的中文分词相结合的方法。利用哈希表存储相关词库、以正向最大匹配法实现了中文分词。进而利
  3. 所属分类:其它

    • 发布日期:2013-09-05
    • 文件大小:595968
    • 提供者:haohaoppk
  1. tiidf算法程序分析

  2. 对于中文检索需要有中文词库,程序中用到20万的词库。数据结构用了最简单的数组。读取文献,采用每次读取1KB的内容进行分词。分词采用正向最大匹配算法,查找用二分法(词库中词已排序)。
  3. 所属分类:C/C++

    • 发布日期:2014-11-22
    • 文件大小:57344
    • 提供者:u013274480
  1. 基于KMP思想的模式匹配算法及vc++实现

  2. 一种改进的字符串匹配算法,由D.E.Knuth与J.H.Morris和V.R.Pratt同时发现,简称KMP。关键是利用匹配失败后的信息,尽量减少模式串与主串的匹配次数以达到快速匹配的目的。具体实现的关键是next函数。简述分词算法之正向最大匹配法。
  3. 所属分类:讲义

    • 发布日期:2015-09-22
    • 文件大小:18874368
    • 提供者:CXHPLY
  1. VFP分词程序,功能不多,采用最大正向匹配法

  2. 嘿嘿,可完成功能:1.单文件和批处理分词(分词采用最原始的最大词匹配法)2.统计词频3.统计成词概率
  3. 所属分类:专业指导

    • 发布日期:2007-04-30
    • 文件大小:471040
    • 提供者:Felomeng
  1. 浙大算法包,几何 结构\数论\数值计算\图论_NP搜索\图论_连通性\图论_匹配\组合\

  2. 这里汇集了浙江大学一些同学的算法,列表如下: 几何\ 多边形 多边形切割 浮点函数 几何公式 面积 球面 三角形 三维几何 凸包(graham) 网格(pick) 圆 整数函数 注意 结构\ 并查集 并查集扩展(friend_enemy) 堆(binary) 堆(mapped) 矩形切割 线段树 线段树扩展 线段树应用 子段和 子阵和 其他\ 大数(整数类封装) 分数 矩阵 线性方程组(gauss) 日期 线性相关 数论\ 阶乘最后非零位 模线性方程(组) 质数表 质数随机判定(miller_
  3. 所属分类:其它

    • 发布日期:2009-04-26
    • 文件大小:880640
    • 提供者:wgcwayne
  1. PHP中文分词代码 v1.0 UTF-8.rar

  2. PHP中文分词代码使用居于unicode的词库,使用反向匹配模式分词,理论上兼容编码更广泛,并且对utf-8编码尤为方便。由于PhpanAlysis是无组件的系统,因此速度会比有组件的稍慢,不过在大量分词中,由于边分词边完成词库载入,因此内容越多,反而会觉得速度越快,这是正常现象,对于支持PHP-APC的服务器,本程序支持对词典进行缓存,这样做之后理论的速度并不慢于那些带组件的分词程序了。 分词系统是基于字符串匹配的分词方法 ,这种方法又叫做机械分词方法,它是按照一定的策略将待分析的汉字串与
  3. 所属分类:其它

    • 发布日期:2019-07-09
    • 文件大小:2097152
    • 提供者:weixin_39841365
  1. 中文分词JAVA_Split_Word.rar

  2. 用Java编写的中文分析算法设计与实现,对比分析了, 正向最大匹配法(FMM),逆向最大匹配法(BMM),双向最大匹配法的优缺点,实验报告请参见我的CSDN博客
  3. 所属分类:Java

    • 发布日期:2019-10-21
    • 文件大小:1048576
    • 提供者:qq_35268841
  1. java中文分词之正向最大匹配法实例代码

  2. 中文分词应用很广泛,网上也有很多开源项目,下面这篇文章主要给大家介绍了关于java中文分词之正向最大匹配法的相关资料,文中通过示例代码介绍的非常详细,需要的朋友可以参考借鉴,下面随着小编来一起学习学习吧。
  3. 所属分类:其它

    • 发布日期:2020-08-28
    • 文件大小:55296
    • 提供者:weixin_38576811
  1. 基于词典和语素的交集型歧义消除模型

  2. 提出了一种消除中文分词中交集型歧义的模型。首先通过正向最大匹配法和逆向最大匹配法对中文文本信息进行分词,然后使用不单独成词语素表对分词结果进行分析对比消歧,得到符合汉语语境的结果。整个过程分为歧义识别、歧义分析、歧义消除三个阶段。实验结果表明,该模型可以有效降低由交集型歧义引起的中文文本切分错误率。
  3. 所属分类:其它

    • 发布日期:2020-10-17
    • 文件大小:228352
    • 提供者:weixin_38712092
  1. 简单理解NLP中文分词

  2. 什么是中文分词 中文分词指将一个汉字序列切分成一个个单独的词。 中文分词的难题 分词规则(粒度)问题:不同应用对粒度的要求不一样,比如“百度搜索”可以是一个词也可以是两个词 消除歧义问题:比如“小吃店关门了” 未登录词识别问题:比如“hold”住 分词方法分类 中文分词主要分为:基于规则分词、基于概率统计分词。 基于规则分词 原理:按照一定策略将待分析的汉字串与词典中的词条进行匹配,若在词典中找到某个字符串,则匹配成功。 按照扫描方向的不同分为:正向匹配 & 逆向匹配 & 双向匹配 正向最大
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:39936
    • 提供者:weixin_38725260
  1. 浅析常用分词算法的比较与设想

  2. 与基于理解的分词算法和基于统计的分词算法相比,基于文本匹配的算法更加通用。基于文本匹配的算法又称之为“机械分词算法”,他是它是按照一定的策略将待分析的汉字串与一个“充分大的”机器词典中的词条进行配,若在词典中找到某个字符串,则匹配成功,可识别出一个词。按照扫描方向的不同,文本匹配分词方法可以分为正向匹配和逆向匹配两种;按照不同长度优先匹配的情况,可以分为最大(最长)匹配和最小(最短)匹配;按照是否与词性标注过程相结合,又可以分为单纯分词方法和分词与标注相结合的一体化方法。   常用的几种机械分词
  3. 所属分类:其它

    • 发布日期:2021-01-02
    • 文件大小:50176
    • 提供者:weixin_38506138
« 12 3 4 »