您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. php 中文分词程序

  2. 包含中文分词程序 与中文分词库 配置方法请看官方网站
  3. 所属分类:PHP

    • 发布日期:2009-06-24
    • 文件大小:3145728
    • 提供者:tangdayun
  1. IKAnalyzer1.4分词

  2. IKAnalyzer是一个基于Lucene的中文分词库,最新V1.4版的改进包括 1.修订特定情况下数量词切分造成指针越界异常的 BUG 2.进一步优化算法效率 3.优化词典 4.对英文和数词进行分割处理 IKAnalyzer基于lucene2.0版本API开发,实现了以词典分词为基础的正反向全切分算法,是Lucene Analyzer接口的实现
  3. 所属分类:其它

    • 发布日期:2009-07-04
    • 文件大小:868352
    • 提供者:sxd147635549
  1. 织梦智能分词完整版程序下载

  2. 织梦智能分词完整版 带智能分词库 可以单独运行,是一个非常好的分词程序
  3. 所属分类:专业指导

    • 发布日期:2009-10-09
    • 文件大小:677888
    • 提供者:gshooo
  1. 基于分词的地址匹配技术

  2. 本文提出了一种“基于分词的地址匹配技术”,它是通过构造一种分级地址库的方法, 并转换成地址分词库,采用基于地址词典的中文分词技术,实现地址匹配。采用这种方法, 易于维护修改地址库,并构建一个可自学习的地址库,不断丰富完善,提高匹配范围与匹配 精度。
  3. 所属分类:专业指导

    • 发布日期:2010-07-02
    • 文件大小:1048576
    • 提供者:chensiyi1228
  1. 中文分词库ICTCLAS最新版

  2. 中科院中文分词库ICTCLAS,最新版。 除中文分词之外,还有词性标注的功能
  3. 所属分类:C/C++

    • 发布日期:2011-05-09
    • 文件大小:8388608
    • 提供者:where_i_am
  1. 简易中文分词服务器

  2. 中英文混合分词服务器3.0正式发布,绝对稳定高效,分词库扩大到了190多万词汇,算法做了全面修正,稳定性、健壮性、速度都有了质的飞跃!同时提供c、java、C#、delphi、js调用范例 支持大规模并发,线程安全、5万字以内的文章但线程切分1秒内可以切分完毕!
  3. 所属分类:其它

    • 发布日期:2012-03-17
    • 文件大小:6291456
    • 提供者:max09601
  1. IKAnalyzer3.2.8.jar+jar包+分词库

  2. IKAnalyzer3.2.8.jar+jar包+分词库 lucene3.5 jar 包
  3. 所属分类:Java

    • 发布日期:2012-05-10
    • 文件大小:1048576
    • 提供者:yjflinchong
  1. 中文分词词库

  2. 使用中文分词的基准库 方便采用机械分词差分词库和搜索引擎使用 还使用在广告精确定投、推进引擎上
  3. 所属分类:其它

    • 发布日期:2012-05-30
    • 文件大小:949248
    • 提供者:kamilzhang
  1. 常用中文分词库

  2. 词库文件,适合配合中文分词,例如庖丁解牛
  3. 所属分类:其它

    • 发布日期:2012-12-26
    • 文件大小:1048576
    • 提供者:zheng198212
  1. 百度分词库

  2. 百度分词库,仅供参考。未考证。。。。。,用作搜索
  3. 所属分类:互联网

    • 发布日期:2013-07-02
    • 文件大小:794624
    • 提供者:u011279144
  1. IKAnalyzer3.2.8.jar+jar包+分词库免积分

  2. IKAnalyzer3.2.8.jar+jar包+分词库。jar包内涵词库 在dic里
  3. 所属分类:Java

    • 发布日期:2014-06-03
    • 文件大小:1048576
    • 提供者:caiyiwei920
  1. php中文分词库

  2. 是一个基于php的中文分词库,很好用的一个中文分词词库,不需要任何的插件支持,直接引入就可以使用。
  3. 所属分类:PHP

    • 发布日期:2014-06-17
    • 文件大小:10485760
    • 提供者:qq_15346065
  1. php 中文分词库

  2. 一个方便的php 中文分词库,可以方便的在进行中文模糊查询的时候使用。
  3. 所属分类:PHP

    • 发布日期:2015-06-22
    • 文件大小:7340032
    • 提供者:bai12345633
  1. slor动态刷新分词库

  2. 采用servlet的方式对分词库进行动态更新,请求servlet对分词库进行修改
  3. 所属分类:Java

    • 发布日期:2018-07-04
    • 文件大小:2048
    • 提供者:ylf1056157271
  1. Python中文分词库Yaha.zip

  2. "哑哈"中文分词,更快或更准确,由你来定义。通过简单定制,让分词模块更适用于你的需求。 "Yaha" You can custom your Chinese Word Segmentation efficiently by using Yaha 基本功能: 精确模式,将句子切成最合理的词。 全模式,所有的可能词都被切成词,不消除歧义。 搜索引擎模式,在精确的基础上再次驿长词进行切分,提高召回率,适合搜索引擎创建索引。 备选路径,可生成最好的多条切词路径,可在此
  3. 所属分类:其它

    • 发布日期:2019-07-16
    • 文件大小:6291456
    • 提供者:weixin_39841856
  1. 中文分词库数据.rar(包含access,sql,xlsx各一份)

  2. 15W以上中文词库,可用于 信息检索 搜索引擎 分词 中文分词库数据.rar(包含access,sql,xlsx各一份)
  3. 所属分类:其它

    • 发布日期:2020-08-22
    • 文件大小:6291456
    • 提供者:qiaoshuai0920
  1. Python中文分词库jieba,pkusegwg性能准确度比较

  2. 主要介绍了Python中文分词库jieba,pkusegwg性能准确度比较,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-17
    • 文件大小:549888
    • 提供者:weixin_38744803
  1. python中文分词库jieba使用方法详解

  2. 主要介绍了python中文分词库jieba使用方法详解,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-17
    • 文件大小:104448
    • 提供者:weixin_38589795
  1. Python中文分词库jieba,pkusegwg性能准确度比较

  2. 中文分词(Chinese Word Segmentation),将中文语句切割成单独的词组。英文使用空格来分开每个单词的,而中文单独一个汉字跟词有时候完全不是同个含义,因此,中文分词相比英文分词难度高很多。 分词主要用于NLP 自然语言处理(Natural Language Processing),使用场景有: 搜索优化,关键词提取(百度指数) 语义分析,智能问答系统(客服系统) 非结构化文本媒体内容,如社交信息(微博热榜) 文本聚类,根据内容生成分类(行业分类) Python的
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:655360
    • 提供者:weixin_38717031
  1. python中文分词库jieba使用方法详解

  2. 安装python中文分词库jieba 法1:Anaconda Prompt下输入conda install jieba 法2:Terminal下输入pip3 install jieba 1、分词 1.1、CUT函数简介 cut(sentence, cut_all=False, HMM=True) 返回生成器,遍历生成器即可获得分词的结果 lcut(sentence) 返回分词列表 import jieba sentence = '我爱自然语言处理' # 创建【Tokenizer.cut 生成器
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:107520
    • 提供者:weixin_38707356
« 12 3 4 5 6 7 8 9 10 ... 47 »