您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 最大概率分词法

  2. 最大概率分词法,这种分词算法能够较好的解决汉语分词中的歧义问题,但分词效率比最大匹配分词算法要低
  3. 所属分类:其它

    • 发布日期:2007-08-03
    • 文件大小:88064
    • 提供者:pm1784
  1. 介绍词法分析程序的编程与调试。

  2. 通过设计调试词法分析程序,实现从源程序中分出各种单词的方法:加深对课堂教学的理解;提高词法分析方法的实践能力。
  3. 所属分类:专业指导

    • 发布日期:2009-06-04
    • 文件大小:519168
    • 提供者:liyingzai
  1. 编译原理实验——单词的词法分析

  2. 完成对某一种常用高级语言(如Pascal、C语言、PL/0语言)的各类单词进行词法分析。 PL/0语言文法的EBNF描述: 〈程序〉∷= 〈分程序〉。 〈分程序〉∷= [〈常量说明部分〉][〈变量说明部分〉][〈过程说明部分〉]〈语句〉 〈常量说明部分〉∷= CONST〈常量定义〉{。〈常量定义〉}; 〈常量定义〉∷= 〈标志符〉=〈无符号整数〉 〈无符号整数〉∷= 〈数字〉{〈数字〉} 〈变量说明部分〉∷= VAR〈标志符〉{,〈标志符〉}; 〈标志符〉∷= 〈字母〉{〈字母〉|〈数字〉}
  3. 所属分类:C

    • 发布日期:2009-06-16
    • 文件大小:3072
    • 提供者:rain0906
  1. 词法分析之保留字识别

  2. 源程序(C) *函数声明*/ void Make_WordToken(char *word,FILE *fp2,int line); bool Make_ChToken(char ch,FILE *fp2,int line,int pos,char temp[]); FILE * OpenFile(char FilePath[]); char *ReadLine(FILE * fp); void Participle(char string[],FILE *fp2,int line); voi
  3. 所属分类:C

    • 发布日期:2009-09-07
    • 文件大小:961536
    • 提供者:tenfu
  1. HTML词法分析器源码(C#)

  2. 前段时间项目需要,所以从C语言移植过来的一个HTML词法分析器(从一个超简单浏览器内核提取了他的词法分析部分)。怎么使用里面有详细说明。分析速度还不错。 无论你想实现一个浏览器内核还是只是想从一堆HTML中将他的词法全部分析出来都可以DOWN来参考参考。分不是很多。
  3. 所属分类:Web开发

    • 发布日期:2009-10-09
    • 文件大小:55296
    • 提供者:jivi
  1. 武汉大学国际软件学院解释器构造作业一——词法分析

  2. 国软06级解释器构造课程96分的作品,绝对原创!
  3. 所属分类:专业指导

    • 发布日期:2009-10-18
    • 文件大小:1048576
    • 提供者:bhwolf1987
  1. c#搜索引擎,分词法

  2. 比较简单但功能还算齐全的项目。欢迎大家下载交流。适合学生使用
  3. 所属分类:C#

    • 发布日期:2010-05-06
    • 文件大小:2097152
    • 提供者:kfheimao
  1. 基于python的中文分词法

  2. 很不错的分词方法,包括原理方法和代码。很详细很具体
  3. 所属分类:Python

    • 发布日期:2010-12-27
    • 文件大小:989184
    • 提供者:fangxx2010
  1. 最大概率分词法

  2. 最大概率分词法 源码 C++
  3. 所属分类:C++

    • 发布日期:2008-04-10
    • 文件大小:83968
    • 提供者:s777n
  1. 支持Lucene3.3、3.4的庖丁解牛分词法的源码和jar包

  2. 资源为庖丁解牛分词法的最新源码以及生成的jar包,支持最新的Lucene3.4以及Lucene3.0以上版本。Jar包为本地生成,大家也可以到SVN上检出自己生成,另外庖丁解牛分词法的使用Demo我会接下来上传一份,欢迎分享。
  3. 所属分类:Java

    • 发布日期:2011-10-10
    • 文件大小:2097152
    • 提供者:a_2cai
  1. Lucene3.0以上版本庖丁解牛分词法demo

  2. 最新庖丁解牛分词法的使用demo,支持Lucene3.3、3.4等3.0以上版本,庖丁解牛的分词包为自己编译生成的,之前的2.0的版本不能支持Lucene3.0以上版本,所以需要从svn下载最新的庖丁解牛源码,生成jar文件(我同样已上传:http://download.csdn.net/detail/a_2cai/3671164),在本项目里面也有,本项目为eclipse下编写
  3. 所属分类:Java

    • 发布日期:2011-10-10
    • 文件大小:47185920
    • 提供者:a_2cai
  1. 元搜索引擎结果个性化排序的研究与实现

  2. 元搜索引擎结果个性化排序的研究与实现,分词法技术,元搜索引擎的实现
  3. 所属分类:Web开发

    • 发布日期:2012-02-19
    • 文件大小:2097152
    • 提供者:songtzu
  1. Lucene 庖丁解牛分词法2.4版本jar包

  2. Lucene 庖丁解牛分词法 , 能够使用它解决中文分词问题。
  3. 所属分类:Java

    • 发布日期:2012-02-24
    • 文件大小:3145728
    • 提供者:tangsw503935298
  1. 各种分词技术的源代码(超全)

  2. 包含文件(为本人网上souji) 最大概率分词法.rar 小叮咚分词.rar 文本分词词典.rar xerdoc分词.rar ICTCLAS.rar CSharp分词.rar
  3. 所属分类:专业指导

    • 发布日期:2008-10-01
    • 文件大小:19922944
    • 提供者:oyzdz1988
  1. Coreseek LibMMSeg中文分词包 mmseg-3.2.14.tar

  2. LibMMSeg 是Coreseek.com为 Sphinx 全文搜索引擎设计的中文分词软件包,其在GPL协议下发行的中文分词法,采用Chih-Hao Tsai的MMSEG算法。
  3. 所属分类:互联网

    • 发布日期:2017-03-30
    • 文件大小:5242880
    • 提供者:cjq1126247054
  1. 最大概率分词法 搜索引擎 分词

  2. 分词啦。最近在尝试做搜索引擎。 传给大家看一下了。希望有用。
  3. 所属分类:专业指导

    • 发布日期:2008-12-18
    • 文件大小:83968
    • 提供者:wsnzou
  1. 最大概率分词法!!!!!!!!!!!!

  2. 最大概率分词法!!!!!!!!!!!!最大概率分词法!!!!!!!!!!!!最大概率分词法!!!!!!!!!!!!最大概率分词法!!!!!!!!!!!!最大概率分词法!!!!!!!!!!!!
  3. 所属分类:专业指导

    • 发布日期:2008-12-30
    • 文件大小:88064
    • 提供者:manhuijia
  1. 简单的英文分词法

  2. 简单的英文分词方法, 本程序主要是应用正则法进行划分
  3. 所属分类:C#

    • 发布日期:2013-07-28
    • 文件大小:55296
    • 提供者:tbfuyunweiding
  1. 搜索引擎 中文分词 源代码+实验报告.rar

  2. 本次实验中,我们的研究要将给定的一个输入文件与辞典做比较,并且按照给定格式对于该文件完成最终的分词工作。主要算法:最大匹配算法、基于统计的分词法。实验报告中包括:实验目的、背景、工具、相关模型、流程图、源代码、结果与性能分析以及总结等
  3. 所属分类:C++

    • 发布日期:2020-09-02
    • 文件大小:964608
    • 提供者:Zlionheart
  1. 《中文jieba分词》总结

  2. 针对jieba分词作业做一个总结,方便以后查看。 中文分词 分词,即切词,在NLP文本预处理中经常使用一些方法来对文本进行分词,从而使文本从“字序列”升级到“词序列”。 为什么要进行分词?在中文中,一个个汉字有其自身的含义,但是组成词语时,其含义可能会发生很大的变化,使得之后进行文本处理任务时不能很好的理解句子的含义。(比如“和”,“平”,“和平”,三者的含义有很大的不同。)另外,从字序列升级成词序列,可以使模型能够得到更高级的特征。 分词算法有很多,比如正向最大匹配算法,逆向最大匹配算法,双向
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:61440
    • 提供者:weixin_38591291
« 12 3 4 5 6 7 8 9 10 »