您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 搜索引擎核心技术总体介绍

  2. 搜索引擎关键技术总体介绍,共分为一、搜索引擎总体介绍;二、爬虫技术介绍;三、中文分词和排序算法介绍;四、查询/存储技术、Cache Server介绍;五、内部、外部监控系统介绍;六、移动通信运营商搜索引擎独特优势
  3. 所属分类:其它

    • 发布日期:2009-08-03
    • 文件大小:1048576
    • 提供者:lql46211
  1. 百度分词算法分析.rar

  2. 百度分词算法分析.rar 讲诉BAIDU搜索引擎的分词算法。不过有点技术深度。。。
  3. 所属分类:其它

    • 发布日期:2010-06-09
    • 文件大小:155648
    • 提供者:wwwitcom
  1. 自己动手写搜索引擎(罗刚著).doc

  2. 自己动手写搜索引擎 1 第1章 了解搜索引擎 1 1.1 Google神话 1 1.2 体验搜索引擎 1 1.3 你也可以做搜索引擎 4 1.4 本章小结 4 第2章 遍历搜索引擎技术 5 2.1 30分钟实现的搜索引擎 5 2.1.1 准备工作环境(10分钟) 5 2.1.2 编写代码(15分钟) 6 2.1.3 发布运行(5分钟) 9 2.2 搜索引擎基本技术 14 2.2.1 网络蜘蛛 14 2.2.2 全文索引结构 14 2.2.3 Lucene 全文检索引擎 15 2.2.4 Nut
  3. 所属分类:其它

    • 发布日期:2011-04-18
    • 文件大小:6291456
    • 提供者:qq736655941
  1. 百度中文分词词库

  2. 中文分词是中文搜索引擎重要的一部分,分词词库为基于词典分词的中文分词算法提供了分词的依据。
  3. 所属分类:专业指导

    • 发布日期:2011-10-20
    • 文件大小:401408
    • 提供者:m_fans
  1. 中文分词的算法实现

  2. 中文分词算法的实现,对搜索引擎有兴趣的值得一看
  3. 所属分类:C++

    • 发布日期:2011-11-08
    • 文件大小:89088
    • 提供者:lewisustc
  1. 中文分词切分技术研究

  2. 本文分析了现有的基于词典的分词算法,在比较各种算法优缺点的基础上提出了将正向匹配算法与逆向匹配 算法所得到的结果集进行叠加,生成粗分结果集的新观点,再对生成的粗分结果集构造非负权有向图,最后应用最短路径算法求解有向图。通过Nutch实验验证,该算法较Nutch原始搜索系统提高了其汉语切分的准确性以及切分速度,同时部分解决了交集型歧义切分问题。
  3. 所属分类:网络基础

    • 发布日期:2012-04-17
    • 文件大小:183296
    • 提供者:wsde002
  1. 中文分词包

  2. 采用MMseg算法实现的中文分词器,特色是是使用搜狗词库
  3. 所属分类:Java

    • 发布日期:2012-12-26
    • 文件大小:2097152
    • 提供者:lee_xiong
  1. 搜索引擎源代码

  2. 搜索引擎是由淘特JSP搜索引擎发展而来,系统基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。
  3. 所属分类:网络管理

    • 发布日期:2013-03-16
    • 文件大小:25600
    • 提供者:fhl10051
  1. 搜索引擎技术介绍ppt

  2. 搜索引擎技术入门介绍,分析爬虫技术,中文分词和排序算法介绍,查询/存储技术、Cache Server介绍
  3. 所属分类:其它

    • 发布日期:2008-09-11
    • 文件大小:1048576
    • 提供者:k700k700
  1. 搜索引擎技术基础.ppt

  2. 中文分词: 自然语言理解和处理,是人工智能的重要的研究领域之一,是语言学、逻辑学、生理学、心理学、计算机科学和数学等相关学科发展和结合而形成的一门交叉学科。 分词作为搜索引擎的一项核心功能,和存储和查询有重大关系。但是不同的研究角度,不同的研究方向,带来研究重点和研究结果都是不一样的。 语言学方向研究的分词算法,看重分词的准确性,不看重运算速度;而搜索引擎的分次算法,特别看重分词速度,分词准确性中等。 (五)全文检索系统和搜索引擎关系: 1、搜索引擎技术来源于全文检索系统,搜索引擎是全文检索技
  3. 所属分类:Web开发

    • 发布日期:2015-10-28
    • 文件大小:1048576
    • 提供者:celestialtao
  1. 多次Hash快速分词算法

  2. 一个分词算法,搜索引擎都会用的分词算法,多次Hash快速分词算法
  3. 所属分类:其它

    • 发布日期:2008-11-24
    • 文件大小:236544
    • 提供者:sjlianan
  1. lucene.net +盘古分词器 实例

  2. Lucene.Net只是一个全文检索开发包,不是一个成型的搜索引擎 它提供了类似SQLServer数据库正式版中的全文检索功能的索引库 你把数据扔给Lucene.Net,【Lucene.Net只针对文本信息建立索引,所以他只接收文本信息,如果不是文本信息,则要转换为文本信息】它会将文本内容分词后保存在索引库中,当用户输入关键字提交查询时,Lucene.Net从索引库中检索关键字数据,所以搜索速度非常快,适合于用户开发自己站内的搜索引擎 Q:分词 A:即将"不是所有痞子都叫一毛"文本内容通过分词
  3. 所属分类:C#

    • 发布日期:2017-02-27
    • 文件大小:2097152
    • 提供者:zhfpoet
  1. 中文分词引擎

  2. 内置25 万优选基本词条,包括行业专业词汇,及新兴网络用语。 多模式复合识别算法,能有效识别中英文特殊语法习惯。 多元歧义自动识别,有效提高分词的准确性。 改进的中文人名(汉族)识别算法。 自动过滤无效字符,支持全半角和通配符等搜索引擎分词习惯。 支持外挂扩展词库,支持扩展敏感词过滤,支持对内存词库直接操作。 词库载入及分词速度较V1 / V2 有极大提高。 使用简单,只需一个DLL 文件,无需任何额外的数据系统支持。
  3. 所属分类:其它

    • 发布日期:2007-07-22
    • 文件大小:1048576
    • 提供者:xianchaoliu
  1. Python中文分词库Yaha.zip

  2. "哑哈"中文分词,更快或更准确,由你来定义。通过简单定制,让分词模块更适用于你的需求。 "Yaha" You can custom your Chinese Word Segmentation efficiently by using Yaha 基本功能: 精确模式,将句子切成最合理的词。 全模式,所有的可能词都被切成词,不消除歧义。 搜索引擎模式,在精确的基础上再次驿长词进行切分,提高召回率,适合搜索引擎创建索引。 备选路径,可生成最好的多条切词路径,可在此
  3. 所属分类:其它

    • 发布日期:2019-07-16
    • 文件大小:6291456
    • 提供者:weixin_39841856
  1. 简单搜索引擎的设计与实现

  2. 简单搜索引擎的设计与实现,该搜索引擎可以搜索c:\documents\下从00.txt-31.txt的32个英文txt文件,采用空格作为分词技术,没有去掉虚词。-s为远程搜索,-l为本地搜索,远程搜索请确保系统安装了IIS并把32个文本文件按原名(00.txt-31.txt)放到c:\wwwroot下。 只是一个做着玩的小东西,用来体会一下TFIDF算法而已。 havefun.c0de4fun
  3. 所属分类:其它

    • 发布日期:2012-01-02
    • 文件大小:10485760
    • 提供者:c0de4fun
  1. PHP中文分词的简单实现代码分享

  2. 对于中文搜索引擎来说, 中文分词是整个系统最基础的部分之一, 因为目前基于单字的中文搜索算法并不是太好。
  3. 所属分类:其它

    • 发布日期:2020-10-28
    • 文件大小:48128
    • 提供者:weixin_38712548
  1. 分词算法搜索引擎 分词搜索引擎 分词搜索引擎

  2. 分词搜索引擎 分词搜索引擎 分词搜索引擎
  3. 所属分类:其它

    • 发布日期:2009-01-05
    • 文件大小:17408
    • 提供者:nicholastee
  1. PHP中文分词的简单实现代码分享

  2. 当然, 本文不是要对中文搜索引擎做研究, 而是分享如果用 PHP 做一个站内搜索引擎。 本文是这个系统中的一篇。 我使用的分词工具是中科院计算所的开源版本的 ICTCLAS。 另外还有开源的 Bamboo, 我随后也会对该工具进行调研。 从 ICTCLAS 出发是个不错的选择, 因为其算法传播比较广泛, 有公开的学术文档, 并且编译简单, 库依赖少。 但目前只提供了 C/C++, Java 和 C# 版本的代码, 并没有 PHP 版本的代码。 怎么办呢? 也许可以学习它的 C/C++ 源码和学术
  3. 所属分类:其它

    • 发布日期:2020-12-18
    • 文件大小:54272
    • 提供者:weixin_38550334
  1. scws:开源免费的简易中文分词系统,PHP分词的上乘之选!-源码

  2. SCWS的自述文件 $ Id $ SCWS简介 是Simple Chinese Word Segmentation的首字母缩写(即:简易中文分词系统)。这是一套基于词频词典的机械式中文分词引擎,它能将一整段的中文文本基本正确地切分开的词。词是中文的最小语素单位,但在书写时并不像英语会在词之间用间隔分开,所以如何准确并快速分词一直是中文分词的攻关难点。 SCWS采用纯C语言开发,不依赖任何外部库函数,可直接使用动态链接库嵌入应用程序,支持的中文编码包括GBK , UTF-8等。几乎还提供了扩展模
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:7340032
    • 提供者:weixin_42181545
  1. gse:进行高效的文本分割和NLP; 支持英语,中文,日语等。 语言高级分词-源码

  2. se 进行有效的文本分割; 支持英语,中文,日语等。 用双数组特里(Double-Array Trie)实现, 算法是基于词频加动态编程的最短路径,以及DAG和HMM算法的词分割。 支持通用,搜索引擎,完整模式,精确模式和HMM模式的多种分词模式,支持用户词典,POS标记,运行。 支持HMM剪切文本使用Viterbi算法。 文本分割速度9.2MB / s, 26.8MB / s。 HMM文本分割单线程3.2MB / s。 (2core 4threads Macbook Pro)。 捆绑:
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:12582912
    • 提供者:weixin_42133753
« 12 3 4 5 »