您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. c#中文分词类库 可用来做搜索引擎分词 准确率90% 支持Lucene.net

  2. c#中文分词类库 可用来做搜索引擎分词 准确率90%,提供Lucene。net的支持
  3. 所属分类:C#

    • 发布日期:2009-09-08
    • 文件大小:7340032
    • 提供者:pjq5181
  1. C# 搜索引擎 分词

  2. 分词算法,不敢独享,拿来分享;分词算法,不敢独享,拿来分享
  3. 所属分类:其它

    • 发布日期:2009-11-10
    • 文件大小:44032
    • 提供者:fengyeguigui
  1. 用于中文分词的中文词库包

  2. 15W以上中文词库,可用于 信息检索 搜索引擎 分词 15W以上中文词库,可用于 信息检索 搜索引擎 分词 15W以上中文词库,可用于 信息检索 搜索引擎 分词
  3. 所属分类:Java

    • 发布日期:2010-01-04
    • 文件大小:7340032
    • 提供者:java2king
  1. 搜索引擎分词组件C#源码+示例+词库

  2. 搜索引擎分词组件C#源码+示例+词库 shootseg
  3. 所属分类:C#

    • 发布日期:2010-03-06
    • 文件大小:995328
    • 提供者:cdchongchong
  1. 汉语自动分词研究评述

  2. 汉语自动分词研究评述,对于搞搜索引擎的朋友有参考价值
  3. 所属分类:专业指导

    • 发布日期:2010-04-21
    • 文件大小:316416
    • 提供者:eyeofangel
  1. php搜索引擎之分词算法

  2. 本人写的搜索引擎部分抓词,里面含有数据库配置文件,以及本人开发心得。需要的可以下载来看看。采用的是正向最大匹配算法。目前只是分词部分结束。前台是简单的页面。使用了smarty模版分离代码。
  3. 所属分类:其它

    • 发布日期:2010-07-14
    • 文件大小:256000
    • 提供者:robert8803
  1. lucene例子 搜索引擎分词

  2. lucene例子 搜索引擎分词 lucene例子 搜索引擎分词
  3. 所属分类:Java

    • 发布日期:2011-10-25
    • 文件大小:6291456
    • 提供者:linghao00
  1. chinesetokenize中文分词

  2. 1. 识别率达到85%以上。虽然和专业分词系统相比有一定的差距,但对于中型搜索引擎分词需求而言足够了。2. 对于前后歧义有较好的识别效果。如,成都市场报刊 -- 成都 / 市场 / 报刊中国和服装饰公司 -- 中国 / 和服 / 装饰 / 公司我的MSN是eunge.liu@gmail.com,有事找我 -- 我 / 的 / MSN / 是 / eunge.liu@gmail.com / 有事 / 找 / 我3. 标点符号自动过滤,包括ASCII和Unicode标点。4. 自定义噪音词(不知道
  3. 所属分类:其它

    • 发布日期:2008-05-23
    • 文件大小:1037312
    • 提供者:wuqueyouhen
  1. je-analysis-1.4.0.jar 搜索引擎分词器

  2. je-analysis-1.4.0.jar 搜索引擎分词器,开发搜索引擎必备的分词器。
  3. 所属分类:Java

    • 发布日期:2011-11-05
    • 文件大小:899072
    • 提供者:springpp1990
  1. 关于在搜索引擎分词查找中的分词问题和词性处理问题

  2. 关于在搜索引擎分词查找中的分词问题和词性处理问题
  3. 所属分类:其它

    • 发布日期:2012-01-08
    • 文件大小:40960
    • 提供者:longer20080205
  1. 搜索引擎中的分词以及查找的编程心得

  2. 搜索引擎中的分词以及查找的编程心得,希望能对学习搜索引擎的朋友们有所帮助,也欢迎大家给出宝贵的意见和建议
  3. 所属分类:Java

    • 发布日期:2012-01-08
    • 文件大小:4096
    • 提供者:longer20080205
  1. 国内首例开源搜索引擎分词

  2. 云寻觅搜索引擎分词
  3. 所属分类:C

    • 发布日期:2013-05-15
    • 文件大小:6291456
    • 提供者:bjtenao
  1. 结巴分词jar包

  2. jieba “结巴”中文分词:做最好的 Python 中文分词组件 "Jieba" (Chinese for "to stutter") Chinese text segmentation: built to be the best Python Chinese word segmentation module. Scroll down for English documentation. 特点 支持三种分词模式: 精确模式,试图将句子最精确地切开,适合文本分析; 全模 式,把句子中所有的可以
  3. 所属分类:Java

    • 发布日期:2017-05-15
    • 文件大小:2097152
    • 提供者:subson
  1. 最大概率分词法 搜索引擎 分词

  2. 分词啦。最近在尝试做搜索引擎。 传给大家看一下了。希望有用。
  3. 所属分类:专业指导

    • 发布日期:2008-12-18
    • 文件大小:83968
    • 提供者:wsnzou
  1. CSharp分词 还是分词 搜索引擎

  2. CSharp分词 还是分词 搜索引擎 分词 搜索引擎。 我刚下的。
  3. 所属分类:Java

    • 发布日期:2008-12-18
    • 文件大小:13631488
    • 提供者:bingxueyixi
  1. 搜索引擎关键技术---分词

  2. 搜索引擎关键技术之分词介绍,对搜索引擎感兴趣的朋友多多支持。
  3. 所属分类:其它

    • 发布日期:2008-12-27
    • 文件大小:393216
    • 提供者:realorg
  1. 中文分词引擎

  2. 内置25 万优选基本词条,包括行业专业词汇,及新兴网络用语。 多模式复合识别算法,能有效识别中英文特殊语法习惯。 多元歧义自动识别,有效提高分词的准确性。 改进的中文人名(汉族)识别算法。 自动过滤无效字符,支持全半角和通配符等搜索引擎分词习惯。 支持外挂扩展词库,支持扩展敏感词过滤,支持对内存词库直接操作。 词库载入及分词速度较V1 / V2 有极大提高。 使用简单,只需一个DLL 文件,无需任何额外的数据系统支持。
  3. 所属分类:其它

    • 发布日期:2007-07-22
    • 文件大小:1048576
    • 提供者:xianchaoliu
  1. 搜索引擎分词程序源代码

  2. 用于搜索引擎分词程序源代码,可供学习和研究。
  3. 所属分类:其它

    • 发布日期:2009-04-18
    • 文件大小:1048576
    • 提供者:xiejienet
  1. jieba_分词

  2. 支持三种分词模式: 精确模式,试图将句子最精确地切开,适合文本分析;全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。支持繁体分词支持自定义词典MIT 授权协议
  3. 所属分类:机器学习

    • 发布日期:2018-10-09
    • 文件大小:11534336
    • 提供者:abc_xian
  1. 分词算法搜索引擎 分词搜索引擎 分词搜索引擎

  2. 分词搜索引擎 分词搜索引擎 分词搜索引擎
  3. 所属分类:其它

    • 发布日期:2009-01-05
    • 文件大小:17408
    • 提供者:nicholastee
« 12 3 4 5 6 7 8 9 10 ... 30 »