您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. csw5.0中文分词组件

  2. 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
  3. 所属分类:C#

    • 发布日期:2009-09-01
    • 文件大小:3145728
    • 提供者:madl_lxj_163
  1. 中英文分词算法KTDictSeg

  2. * KTDictSeg 简介: KTDictSeg 是由KaiToo搜索开发的一款基于字典的简单中英文分词算法 * 主要功能: 中英文分词,未登录词识别,多元歧义自动识别,全角字符识别能力 * 主要性能指标: * 分词准确度:90%以上(有待专家的权威评测) * 处理速度: 600KBytes/s
  3. 所属分类:其它

    • 发布日期:2010-02-20
    • 文件大小:1039360
    • 提供者:naughty610
  1. 刨丁解羊中文分词器-主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词

  2. 刨丁解羊中文分词器,主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词,支持繁体中文分词、简体中文分词、英文分词,是制作通用搜索引擎和垂直搜索引擎的核心组件。该软件在普通PC机器上测试显示:TXT格式正文分词速度约为3000万字/分钟,网页分词速度约为277.8个网页/秒。该软件采用基础词库(63万词语)+扩展词库(用户可手工添加新词)。DLL及OCX调用请联系QQ(601069289)。
  3. 所属分类:网络基础

    • 发布日期:2010-08-30
    • 文件大小:2097152
    • 提供者:henggua
  1. 一个简单的英文分词程序

  2. 英文分词,根据字典的词对英文无空格的词序列进行分解
  3. 所属分类:专业指导

    • 发布日期:2010-10-18
    • 文件大小:2097152
    • 提供者:shuige001
  1. 用VC++做的英文分词程序

  2. 用VC++做的一个英文分词程序。程序运行时,要保证在D盘下有in.txt的文件,其实这个路径可以自行修改的!
  3. 所属分类:C++

    • 发布日期:2011-06-21
    • 文件大小:1048576
    • 提供者:qiaoqiaoshui
  1. 分词组件V2.3.1源码

  2. 分词组件V2.3.1源码 程序介绍: 盘古分词是一个中英文分词组件。作者eaglet 曾经开发过KTDictSeg 中文分词组件,拥有大量用户来自51ASPX。 作者基于之前分词组件的开发经验,结合最新的开发技术重新编写了盘古分词组件。 中文分词功能 中文未登录词识别 盘古分词可以对一些不在字典中的未登录词自动识别 词频优先 盘古分词可以根据词频来解决分词的歧义问题 多元分词 盘古分词提供多重输出解决分词粒度和分词精度权衡的问题 中文人名识别 输入: “张三说的确实在理” 分词结果:张三/说/
  3. 所属分类:C#

    • 发布日期:2012-05-23
    • 文件大小:6291456
    • 提供者:ss_geng
  1. 中文 英文分词器

  2. 目前最流行的中文 英文分词器 jar、代码、api都包含了,非常齐全。
  3. 所属分类:Java

    • 发布日期:2012-05-30
    • 文件大小:1048576
    • 提供者:chinasoft888888
  1. 英文分词工具

  2. 这是一个英文分词工具里面有详细的介绍使用方法
  3. 所属分类:Perl

    • 发布日期:2012-10-28
    • 文件大小:3145728
    • 提供者:ss13941126629
  1. 中文分词器 IK

  2. 中文分词器 IK包,完美支持中文和英文分词,还可以配置
  3. 所属分类:Java

    • 发布日期:2013-01-25
    • 文件大小:1048576
    • 提供者:yinjian520
  1. 横瓜中文分词器

  2. 横瓜中文分词器,主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词,支持繁体中文分词、简体中文分词、英文分词,是制作通用搜索引擎和垂直搜索引擎的核心组件。该软件在普通PC机器上测试显示:TXT格式正文分词速度约为3000万字/分钟,网页分词速度约为277.8个网页/秒。该软件采用基础词库(63万词语)+扩展词库(用户可手工添加新词)。
  3. 所属分类:Web开发

  1. 百度分词词库

  2. 中文分词不同于英文分词。该数据集是百度中文分词词库。
  3. 所属分类:其它

    • 发布日期:2014-01-02
    • 文件大小:425984
    • 提供者:nacozz
  1. 英文分词统计词频

  2. 一个小小的英文分词并统计词频程序 并用Jfreechart实现了图表化
  3. 所属分类:Java

    • 发布日期:2014-01-18
    • 文件大小:9216
    • 提供者:tjufjxp
  1. java实现英文文档分词

  2. 实现英文分词 可供参考,从开头到结果呈现,配有详细的注解,实验报告的形式
  3. 所属分类:Java

    • 发布日期:2014-03-14
    • 文件大小:44032
    • 提供者:u010204922
  1. 结巴分词Python代码

  2. 结巴分词,很不错的分词工具,python写的,亲身试用,不管英文还是中文分得很准!
  3. 所属分类:Python

    • 发布日期:2014-08-26
    • 文件大小:6291456
    • 提供者:csdn20140826
  1. 盘古分词2.3.1.0

  2. 盘古分词可以根据词频来解决分词的歧义题目 多元分词 盘古分词提供多重输入解决分词粒度和分词精度衡量的问题 详见eaglet/archive/2008/10/02/.html 中文人名识别 输入:“张三说切实其实实在理” 分词了局:张三/说/的/确实/在理/ 输入“李三买了一张三角桌子” 分词结果:李三/买/了/一张/三角/桌子/ 详见eaglet/archive/2009/08/19/.html 强逼一元分词 输入“张三说的确实在理” 分词结果:中文。张(0,1)/张三(0,5)/三说的(1,
  3. 所属分类:C#

    • 发布日期:2017-08-18
    • 文件大小:207872
    • 提供者:xzhanjing55
  1. 中文分词学习版

  2. 此为学习版,请勿用于商业用途或扩散。 以下描述转至互联网。 ============== 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自
  3. 所属分类:机器学习

    • 发布日期:2018-10-11
    • 文件大小:1048576
    • 提供者:weixin_43387663
  1. 用python切分英文单词

  2. 该文件有利于帮助初学者使用python进行英文分词,是学习python的入门必备。
  3. 所属分类:讲义

  1. 简单的英文分词法

  2. 简单的英文分词方法, 本程序主要是应用正则法进行划分
  3. 所属分类:C#

    • 发布日期:2013-07-28
    • 文件大小:55296
    • 提供者:tbfuyunweiding
  1. Python3爬虫中关于中文分词的详解

  2. 原理 中文分词,即 Chinese Word Segmentation,即将一个汉字序列进行切分,得到一个个单独的词。表面上看,分词其实就是那么回事,但分词效果好不好对信息检索、实验结果还是有很大影响的,同时分词的背后其实是涉及各种各样的算法的。 中文分词与英文分词有很大的不同,对英文而言,一个单词就是一个词,而汉语是以字为基本的书写单位,词语之间没有明显的区分标记,需要人为切分。根据其特点,可以把分词算法分为四大类: ·基于规则的分词方法 ·基于统计的分词方法 ·基于语义的分词方法 ·基于理解
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:142336
    • 提供者:weixin_38638292
  1. Python中文分词库jieba,pkusegwg性能准确度比较

  2. 中文分词(Chinese Word Segmentation),将中文语句切割成单独的词组。英文使用空格来分开每个单词的,而中文单独一个汉字跟词有时候完全不是同个含义,因此,中文分词相比英文分词难度高很多。 分词主要用于NLP 自然语言处理(Natural Language Processing),使用场景有: 搜索优化,关键词提取(百度指数) 语义分析,智能问答系统(客服系统) 非结构化文本媒体内容,如社交信息(微博热榜) 文本聚类,根据内容生成分类(行业分类) Python的
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:655360
    • 提供者:weixin_38717031
« 12 3 4 5 6 7 8 9 10 ... 13 »