您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. [海量智能分词].hlssplit(研究版)

  2. [海量智能分词].hlssplit 研究版~最近在做中文分词相关的项目,【海量智能分词】提供很好的参考~
  3. 所属分类:专业指导

    • 发布日期:2009-08-13
    • 文件大小:6291456
    • 提供者:jatystone
  1. BIWEB商务智能网站系统 v5.8.1

  2. BIWEB商务智能网站系统是依托在ArthurXF企业应用级PHP开发框架上的大型网站系统,是由上海网务网络信息有限公司经历了5年不断的在各种大型项目中实践、总结、开发设计出来的一个快速开发、简单易用的面向对象的企业应用级PHPMVC建站系统。现由上海网务公司开源发布,共同促进行业发展。BIWEB的设计初衷就是为了简化企业级各种基于WEB应用程序的开发,针对各种大中型企业应用级web项目,有着各种优化手段,能让服务器硬件性能提升到最大化应用。BIWEB建站系统集合了网站SEO、链接优化、数据分
  3. 所属分类:Web开发

    • 发布日期:2009-09-07
    • 文件大小:8388608
    • 提供者:lxg160
  1. 支持英文数字中文混合分词-实现很多功能非常强大!

  2. 支持英文数字中文混合分词 常用的数量和人名的匹配 超过22万词的词库整理 实现正向最大匹配算法 智能数字,日期,人名识别。分词算法:词库+最大匹配。具体的里面有非常详尽的说明文档
  3. 所属分类:其它

    • 发布日期:2009-09-21
    • 文件大小:44032
    • 提供者:manuxiao
  1. C++编写的中文分词程序

  2. C++编写的中文分词程序,可以运行: 输入一个汉字的文本文件,可将里面的汉字分解成一个个符合人们心理的词,有点智能化了哦~
  3. 所属分类:C++

    • 发布日期:2009-09-21
    • 文件大小:83968
    • 提供者:manuxiao
  1. 汉语分词技术综述.pdf

  2. [摘要]首先介绍汉语自动分词技术及基于词索引的中文全文检索技术,接着分别从文献自动标引、文摘自动生成、文本自动 分类、文本信息过滤,自然语言检索接口和智能检索等方面详细地阐述汉语自动分词技术在中文全文检索中的应用,并对目前 汉语自动分词技术存在的局限性进行分析,提出发展思路,最后对汉语自动分词技术在中文全文检索中的应用前景进行预测。 [关键词]汉语自动分词中文全文检索文献自动标引 自然语言检索
  3. 所属分类:专业指导

    • 发布日期:2009-12-14
    • 文件大小:608256
    • 提供者:shan_xue_xib
  1. 汉语分词技术综述 文档 论文

  2. 首先介绍汉语自动分词技术及基于词索引的中文全文检索技术,接着分别从文献自动标引、文摘自动生成、文本自动 分类、文本信息过滤、自然语言检索接口和智能检索等方面详细地阐述汉语自动分词技术在中文全文检索中的应用,并对目前 汉语自动分词技术存在的局限性进行分析,提出发展思路,最后对汉语自动分词技术在中文全文检索中的应用前景进行预测。
  3. 所属分类:专业指导

    • 发布日期:2010-01-17
    • 文件大小:57344
    • 提供者:tberg
  1. 最大匹配法中文分词及人名智能识别程序

  2. 这是我假期利用空余时间利用空余时间做的一个中文分词程序!效率很好!能够支持最大匹配法中文分词,人名智能识别!本人承诺完全具有可重复性!只要在cv6上肯定能运行通过,加入了简洁的运行界面!内嵌测试文本,操作简单!一键就能看到结果。
  3. 所属分类:C++

    • 发布日期:2011-03-11
    • 文件大小:630784
    • 提供者:lileihengyan
  1. 海量智能分词(研究版)

  2. 海量智能中文分词(研究版),大家都懂的!
  3. 所属分类:其它

    • 发布日期:2011-07-29
    • 文件大小:6291456
    • 提供者:menglionel
  1. ICTCLAS2009版中文分词系统

  2. 中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级7次,目前已经升级到了ICTCLAS2009 用户词典接口扩展 用户可以动态增加、删除用户词典中的词,调节分词的效果。提高了用户词典使用的灵活性。 分词粒度可调 可以
  3. 所属分类:C++

    • 发布日期:2012-01-02
    • 文件大小:9437184
    • 提供者:yahawami
  1. 中科院分词器ICTCLAS

  2. 中科院语义分词 ICTCLAS 中科院官方于2009年2月19日发布了中科院中文分词器ICTCLAS2009版,转引官方介绍说明,新版本的中文分词系统在原有的基础上主要完善的有: 1、用户词典接口扩展 用户可以动态增加、删除用户词典中的词,调节分词的效果。提高了用户词典使用的灵活性。 2、分词粒度可调 可以控制分词结果的粒度。共享版本提供两种分词粒度,标准粒度和粗粒度,满足不同用户的需求。 3、词性标注功能加强 多种标注级的选择,系统可供选择的标注级有:计算所一级标注级,计算所二级标注集,北大
  3. 所属分类:Web开发

    • 发布日期:2012-03-08
    • 文件大小:2097152
    • 提供者:abing79
  1. 收集的一个智能分词工具

  2. 收集的一个智能分词工具,该工具很适合做文本识别、搜索
  3. 所属分类:C#

    • 发布日期:2012-05-06
    • 文件大小:2097152
    • 提供者:hmy1106
  1. ShootSearch 中文分词组件(c#开源)

  2. ShootSearch 中文分词组件(c#开源) 技术支持:support@shootsoft.net http://www.shootsoft.net 分词算法:词库+最大匹配 词库来自www.jesoft.cn,已经过一定的修改 使用说明: 先加载词库,再进行分词.分词过程重载两次:支持回车的和不支持回车的,注意选择! 可以手动添加词语到sDict.txt,不过每次手动修改后需要调用SortDic()方法,否则无法实现最大匹配! sDict.txt的编码为UTF-8! 示例: 文字内容来自
  3. 所属分类:C#

    • 发布日期:2006-08-18
    • 文件大小:1001472
    • 提供者:shootsoft
  1. 智能中文分词小程序(含源码)

  2. 输入任意一篇中文文档,能够分析出里面可能的词组,然后输出,输入的文档越多,结果越准确, 不需要外部字典,输出的重点词汇用"*"开头,可以调整关键参数来调整准确率,附完整的源代码和测试文档(输入 的学习文档必须以ANSI编码保存,因为目前没有加入icu字符处理,并且固定了输入文档的文件名 命名规则,每个输入文档必须以file开头,后面跟连续的数字序号,从0开始,比如file0, file1, file2, file3 。。。输入的学习文档和测试程序的可执行文件需要在同一目录)
  3. 所属分类:C++

    • 发布日期:2012-12-02
    • 文件大小:31744
    • 提供者:yuxing_hui
  1. php智能分词源码

  2. 用php简单实现中文语句语义乃至文章的智能分词,可以应用于智能助手,机器人智能回复当中。
  3. 所属分类:PHP

    • 发布日期:2014-04-02
    • 文件大小:676864
    • 提供者:u014510608
  1. ICTCLAS2009版中文分词系统

  2. 中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级7次,目前已经升级到了ICTCLAS2009 用户词典接口扩展 用户可以动态增加、删除用户词典中的词,调节分词的效果。提高了用户词典使用的灵活性。 分词粒度可调 可以
  3. 所属分类:嵌入式

    • 发布日期:2009-02-23
    • 文件大小:9437184
    • 提供者:zhangshibin8500
  1. 第三代智能分词系统3GWS

  2. 第三代智能分词系统3GWS有汉语智能分词、命名实体与新词识别、词性标注以及支持用户自定义词典等功能,分词精度在96.56%以上,而且具有良好的跨平台性。
  3. 所属分类:3G/移动开发

    • 发布日期:2009-02-23
    • 文件大小:2097152
    • 提供者:albert_sky
  1. 分词语工具《海量智能分词研究版》

  2. 对中文中的词语进行分词,同时可以进行词性标注.可以对中文进行分词处理,处理完后就没有标点等的影响。海量智能计算技术研究中心为了使中文信息处理领域的研究者们能够共同分享海量智能中心的研究成果,共同提高中文信息处理水平,特此发布《海量智能分词研究版》,供专家学者和爱好者进行研究。 《海量智能分词研究版》仅供研究分析和学术交流,不能用于商业用途。 由于《海量智能分词研究版》仅供研究分析和学术交流,所以与正式版本在性能上有一定差别,如果需要正式版本用于商业用途,请与海量智能计算技术研究中心联系。
  3. 所属分类:专业指导

    • 发布日期:2009-03-17
    • 文件大小:6291456
    • 提供者:zhonghao0077
  1. 中文分词学习版

  2. 此为学习版,请勿用于商业用途或扩散。 以下描述转至互联网。 ============== 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自
  3. 所属分类:机器学习

    • 发布日期:2018-10-11
    • 文件大小:1048576
    • 提供者:weixin_43387663
  1. Python中文分词库jieba,pkusegwg性能准确度比较

  2. 中文分词(Chinese Word Segmentation),将中文语句切割成单独的词组。英文使用空格来分开每个单词的,而中文单独一个汉字跟词有时候完全不是同个含义,因此,中文分词相比英文分词难度高很多。 分词主要用于NLP 自然语言处理(Natural Language Processing),使用场景有: 搜索优化,关键词提取(百度指数) 语义分析,智能问答系统(客服系统) 非结构化文本媒体内容,如社交信息(微博热榜) 文本聚类,根据内容生成分类(行业分类) Python的
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:655360
    • 提供者:weixin_38717031
  1. 同义词:中文近义词:聊天机器人,智能问答工具包-源码

  2. 同义词 用于自然语言处理和理解的中文同义词。 更好的中文近义词:聊天机器人,智能问答工具包。 synonyms可以用于自然语言理解的很多任务:文本对齐,推荐算法,相似度计算,语义转换,关键字提取,概念提取,自动摘要,搜索引擎等。 表中的内容: 欢迎 pip install -U synonyms 兼容py2和py3,当前稳定版本 提示:安装后初次使用会下载词向量文件,下载速度取决于网络情况。 本文档的配置和接口说明针对python工具包。 用法 支持使用环境变量配置分词词表和word2vec词
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:14680064
    • 提供者:weixin_42109125
« 12 3 4 5 6 »