您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. idf词频统计小巧中文分词词库

  2. idf词频统计小巧中文分词词库 idf词频统计小巧中文分词词库
  3. 所属分类:专业指导

    • 发布日期:2009-05-31
    • 文件大小:790528
    • 提供者:leo1314lll
  1. php 中文分词程序

  2. 包含中文分词程序 与中文分词库 配置方法请看官方网站
  3. 所属分类:PHP

    • 发布日期:2009-06-24
    • 文件大小:3145728
    • 提供者:tangdayun
  1. google分词词库

  2. goole 分词的词库, 你可以参考它用来 进行分词, 分词词库非常好用
  3. 所属分类:专业指导

    • 发布日期:2009-07-12
    • 文件大小:1048576
    • 提供者:nicecheng
  1. 分词系统源代码

  2. 分词系统源代码 语言 C# 2.0 包含词库文件
  3. 所属分类:C#

    • 发布日期:2007-10-27
    • 文件大小:365568
    • 提供者:ETstudio
  1. ik分词-解决集成solr是出现的越界异常

  2. ik分词-解决集成solr是出现的越界异常。可自定义自己的词库。
  3. 所属分类:专业指导

    • 发布日期:2009-10-20
    • 文件大小:1048576
    • 提供者:michaelzqm
  1. 百度中文文词词库 十一万词

  2. 百度 中文 分词 词库 百度 中文 分词 词库 百度 中文 分词 词库
  3. 所属分类:专业指导

    • 发布日期:2010-02-04
    • 文件大小:354304
    • 提供者:naughty610
  1. 搜索引擎分词组件C#源码+示例+词库

  2. 搜索引擎分词组件C#源码+示例+词库 shootseg
  3. 所属分类:C#

    • 发布日期:2010-03-06
    • 文件大小:995328
    • 提供者:cdchongchong
  1. 中文分词词库(TXT格式)

  2. 中文分词词库,供分词算法使用。。。。。。。。。。。。。。。。。
  3. 所属分类:其它

    • 发布日期:2010-05-22
    • 文件大小:753664
    • 提供者:larrylin28
  1. 刨丁解羊中文分词器-主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词

  2. 刨丁解羊中文分词器,主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词,支持繁体中文分词、简体中文分词、英文分词,是制作通用搜索引擎和垂直搜索引擎的核心组件。该软件在普通PC机器上测试显示:TXT格式正文分词速度约为3000万字/分钟,网页分词速度约为277.8个网页/秒。该软件采用基础词库(63万词语)+扩展词库(用户可手工添加新词)。DLL及OCX调用请联系QQ(601069289)。
  3. 所属分类:网络基础

    • 发布日期:2010-08-30
    • 文件大小:2097152
    • 提供者:henggua
  1. 分词词库,搞搜索的应该蛮有用的

  2. 分词词库,搞搜索的应该蛮有用的,哥们可是 费力九牛二虎之力在网上 整理得哦
  3. 所属分类:专业指导

    • 发布日期:2010-11-22
    • 文件大小:565248
    • 提供者:hwqishot
  1. 中文分词词库—加三级地名2

  2. 中文分词词库—加三级地名2,词语很全,在网络找到的。
  3. 所属分类:网络基础

    • 发布日期:2010-12-20
    • 文件大小:7340032
    • 提供者:sccgood
  1. ppldic.csv分词词库PHP应用——提取内容关键字

  2. 用RMM分词算法可以实现,调用“ppldic.csv”中英文词库。在分词过程中要过滤掉 标点符号,否则,这些标点符号都将分成一个词,而这些词并不是用户查询搜索的关键内容。
  3. 所属分类:PHP

    • 发布日期:2010-12-20
    • 文件大小:25600
    • 提供者:a738611
  1. 非常齐全的txt词库下载,包含各种编程所需词库

  2. 非常齐全的txt词库打包下载,包括搜狗四十万词库,JE分词词库,噪音词库,填充词库,数字词库。编程使用。
  3. 所属分类:专业指导

    • 发布日期:2011-02-28
    • 文件大小:1048576
    • 提供者:yangcong955
  1. 中文分词十年回顾 自动分词系统

  2. 过去的十年间,尤其是2003年国际中文分词评测活动Bakeoff开展以来,中文自动分词技术有了可喜的进 步。其主要表现为:(1)通过“分词规范+词表+分词语料库”的方法,使中文词语在真实文本中得到了可计算的定 义,这是实现计算机自动分词和可比评测的基础;(2)实践证明,基于手工规则的分词系统在评测中不敌基于统计 学习的分词系统;(3)在Bakeoff数据上的评估结果表明,未登录词造成的分词精度失落至少比分词歧义大5倍以 上;(4)实验证明,能够大幅度提高未登录词识别性能的字标注统计学习方法优于
  3. 所属分类:其它

    • 发布日期:2011-04-10
    • 文件大小:1048576
    • 提供者:lwccb
  1. 中文分词工具word-1.0,Java实现的中文分词组件多种基于词典的分词算法

  2. word分词是一个Java实现的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。 能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。 同时提供了Lucene、Solr、ElasticSearch插件。 分词使用方法: 1、快速体验 运行项目根目录下的脚本demo-word.bat可以快速体验分词效果 用法: command [text] [input] [output] 命令command的可选值为:demo、text、file
  3. 所属分类:Java

    • 发布日期:2014-11-05
    • 文件大小:10485760
    • 提供者:love_hachi
  1. 基于ik动态词库分词实现--无需重启服务

  2. 基于ik动态词库分词实现--无需重启服务
  3. 所属分类:Web开发

    • 发布日期:2015-11-09
    • 文件大小:2097152
    • 提供者:jv_kevin
  1. 中文分词入门与字标注法

  2. 作为中文信息处理的“桥头堡”,中文分词在国内的关注度似乎远远超过了自然语言处理的其他研究领域。在中文分词中,资源的重要性又不言而喻,最大匹配法等需要一个好的词表,而基于字标注的中文分词方法又需要人工加工好的分词语料库。所以想研究中文分词,第一步需要解决的就是资源问题,这里曾经介绍过“LDC上免费的中文信息处理资源”,其中包括一个有频率统计的词表,共计44405条,就可以作为一个不错的中文分词词表使用。而一个好的人工分词语料库,需要很大的人力物力投入,所以无论研究还是商用往往需要一定的费用购买,
  3. 所属分类:深度学习

    • 发布日期:2017-12-14
    • 文件大小:251904
    • 提供者:u011563494
  1. 中文词库-分词算法必备

  2. 中文词库-分词算法必备 是加权的,经过BP算法的权重训练
  3. 所属分类:其它

    • 发布日期:2009-03-08
    • 文件大小:651264
    • 提供者:andy6868686
  1. 大数据英语4级词库分词专用.txt

  2. 大数据英语4级词库分词专用,大家有需要的可以下载分词表。
  3. 所属分类:Hadoop

    • 发布日期:2019-07-16
    • 文件大小:37888
    • 提供者:weixin_43818430
  1. klsstt_Java分词器word.1.3.1.jar

  2. 这是一个支持java的分词库,word分词库,实现语法分析和语料库统计相结合的方法,具备汉语切分技术、汉语语法分析技术、汉语依存关系分析技术。通过分词、词性标注等语义分析算法,再基于各类词库(包括专业词库、错误词库等),实现对客户提交的文献中的普通中文词汇、英文拼写、标点、数字、科技计量、重句、异形词、领导人姓名职务、领导人排序、政治性问题、目录、标题和图例公式序号等各种类型的错误。
  3. 所属分类:机器学习

    • 发布日期:2020-03-20
    • 文件大小:25165824
    • 提供者:klsstt
« 12 3 4 5 6 7 8 9 10 ... 47 »