您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 论文检测系统软件,免费分享 反抄袭

  2. 现在论文抄袭、学术打假成为学术界、媒体关注的话题。有的学者心存侥幸,有的学者对学术严谨性未加重视等,以至于被相关人士揭发举报,最终身败名裂。而许多毕业生因为种种原因,并未对论文抄袭现象加以重视,最后不能顺利毕业,荒废了几年时间,得不偿失。现在提供论文检测的机构主要来源于三大中文期刊数据库,即中国知网论文检测系统,万方论文相似性检测系统,维普通达检测系统。 现在应用较多的是中国知网和万方的检测系统,但是两者都不是免费的,其中,中国知网的费用相对高,在淘宝上一篇硕士论文的检测费用达到两百元。介于此
  3. 所属分类:教育

    • 发布日期:2012-03-03
    • 文件大小:3145728
    • 提供者:baidengdao
  1. WINCE 6.0 TTS 语音合成(朗读)

  2. ejTTS 6.0 特性 支持多种规模的音库,满足各类需求; 支持合成语音的不同采样率、比特率、格式输出; 支持用户定制化需求; 支持多种压缩参数和谱参数引擎; 支持动态音频参数规划; 支持流式文本输入; 支持进度通知; 支持同步回显拼音输出; 全新架构,具有高可靠的稳定性。 2.2. 高品质的语音合成效果 由于采用了新的语音合成算法,ejTTS 在合成效果上已经接近传统大语料库语音合 成算法的效果,与以往的嵌入式语音合成软件相比,合成语音更加自然和流畅。 由于采用了一体化的智能文本分析算法,
  3. 所属分类:嵌入式

    • 发布日期:2012-06-21
    • 文件大小:1037312
    • 提供者:softn
  1. 论文相似度检测系统软件

  2. 现在论文抄袭、学术打假成为学术界、媒体关注的话题。有的学者心存侥幸,有的学者对学术严谨性未加重视等,以至于被相关人士揭发举报,最终身败名裂。而许多毕业生因为种种原因,并未对论文抄袭现象加以重视,最后不能顺利毕业,荒废了几年时间,得不偿失。现在提供论文检测的机构主要来源于三大中文期刊数据库,即中国知网论文检测系统,万方论文相似性检测系统,维普通达检测系统。 现在应用较多的是中国知网和万方的检测系统,但是两者都不是免费的,其中,中国知网的费用相对高,在淘宝上一篇硕士论文的检测费用达到两百元。介于此
  3. 所属分类:其它

    • 发布日期:2013-10-04
    • 文件大小:3145728
    • 提供者:cscdn
  1. 中分分词与分词性能评测代码及详细设计文档

  2. 通过本资源了解中文分词的意义,在实现正向、逆向最大匹配分词算法的过程中,加深对自然语言理解原理的探讨兴趣。本资源内含详细的代码设计分档、测试语料、源代码以及多个自己制作的语料库词典,分别实现了正、逆向最大匹配中文分词,并且设计了算法对分词效果进行了详细的评测,可以对大作业乃至毕业设计提供巨大的帮助.
  3. 所属分类:C++

    • 发布日期:2014-06-09
    • 文件大小:4194304
    • 提供者:u014132695
  1. hanlp-portable-1.3.2.jar

  2. HanLP是由一系列模型与算法组成的Java工具包,目标是普及自然语言处理在生产环境中的应用。不仅仅是分词,而是提供词法分析、句法分析、语义理解等完备的功能。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。
  3. 所属分类:Java

    • 发布日期:2017-04-18
    • 文件大小:7340032
    • 提供者:lilongsy
  1. 学术论文————一种改进的汉语分词算法

  2. 这是关于分词算法的一篇论文,我感觉不错,想与大家一起分享
  3. 所属分类:其它

    • 发布日期:2009-02-23
    • 文件大小:155648
    • 提供者:happy_flight
  1. HanLP自然语言处理

  2. HanLP是由一系列模型与算法组成的Java工具包,目标是普及自然语言处理在生产环境中的应用。 HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点
  3. 所属分类:机器学习

    • 发布日期:2018-03-14
    • 文件大小:92274688
    • 提供者:xmcxcoc
  1. 汉语言处理包

  2. HanLP是由一系列模型与算法组成的Java工具包,目标是普及自然语言处理在生产环境中的应用。不仅仅是分词,而是提供词法分析、句法分析、语义理解等完备的功能。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。
  3. 所属分类:Java

    • 发布日期:2018-12-11
    • 文件大小:7340032
    • 提供者:qq_29910527
  1. 精确分词摘要算法库

  2. hanlp由一系列模型与算法组成的Java工具包,目标是促进自然语言处理在生产环境中的应用。 HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。
  3. 所属分类:机器学习

    • 发布日期:2018-09-12
    • 文件大小:1048576
    • 提供者:gaodahai
  1. Java中通过HanLP实现文本分词、提取关键词、聚类(工具资源+实例)

  2. HanLP是由一系列模型与算法组成的工具包,目标是普及自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点;提供词法分析(中文分词、词性标注、命名实体识别)、句法分析、文本分类和情感分析等功能。
  3. 所属分类:Java

    • 发布日期:2019-05-20
    • 文件大小:35651584
    • 提供者:weixin_41900160
  1. Android代码-Java 实现的自然语言处理中文分词

  2. HanLP: Han Language Processing 汉语言处理包 HanLP是一系列模型与算法组成的NLP工具包,由大快搜索主导并完全开源,目标是普及自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。 HanLP提供下列功能: 中文分词 HMM-Bigram(速度与精度最佳平衡;一百兆内存) 最短路分词、N-最短路分词 由字构词(侧重精度,全世界最大语料库,可识别新词;适合NLP任务) 感知机分词、CRF分词 词典分词(侧重速度,每
  3. 所属分类:其它

    • 发布日期:2019-08-06
    • 文件大小:22020096
    • 提供者:weixin_39840924
  1. HanLP实现文本分词、提取关键词、聚类(工具资源+实例)

  2. HanLP是由一系列模型与算法组成的工具包,目标是普及自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点;提供词法分析(中文分词、词性标注、命名实体识别)、句法分析、文本分类和情感分析等功能。
  3. 所属分类:Java

    • 发布日期:2020-05-12
    • 文件大小:35651584
    • 提供者:weixin_41900160
  1. klsstt_Java分词器word.1.3.1.jar

  2. 这是一个支持java的分词库,word分词库,实现语法分析和语料库统计相结合的方法,具备汉语切分技术、汉语语法分析技术、汉语依存关系分析技术。通过分词、词性标注等语义分析算法,再基于各类词库(包括专业词库、错误词库等),实现对客户提交的文献中的普通中文词汇、英文拼写、标点、数字、科技计量、重句、异形词、领导人姓名职务、领导人排序、政治性问题、目录、标题和图例公式序号等各种类型的错误。
  3. 所属分类:机器学习

    • 发布日期:2020-03-20
    • 文件大小:25165824
    • 提供者:klsstt
  1. 使用超声波的智能手机手势识别.pdf

  2. 利用超声波技术,在智能手机上实现手势识别功能。非常实用的一篇论文徐曾春,吴凯娇,胡平:使用超声波的智能手机手势识别 ()挥手向前 ()挥手向后 ()挥手向左 ()挥手向右 图不同的手势时频图 特征均为先靠近发射源,然后远离发射源,但是细节方 面咯有不同。 实现细节 系统流程 获得反射的超声波数据集 图为系统流程图。首先,通过话筒获取 最初,系统先获得手势运动的时间序列片段,此时 段时间序列,经过快速傅里叶()变换将此序列从时片段已经经过处理,结果如图所示。出于本实验 域信号转换为频域信号。接着搜
  3. 所属分类:Android

    • 发布日期:2019-10-15
    • 文件大小:946176
    • 提供者:xiaokala_2011
  1. 统计自然语言处理

  2. 统计自然语言处理是一本很好的书籍,是一本很基础的书籍目录 序二 第2版前宣 第1版前言 第1章绪论 11基本概念 1.1.1语言学与语音学 2自然语言处理 11.3关于“理解”的标准 1,2自然语言处理研究的内容和面临的困难 1,2,1自然语言处理研宄的内容 1,22自然语言处理涉及的几个层次 1.2.3自然语言处理面临的困难 13自然语言处理的基本方法及其发展 13,1自然语言处理的基本方汏 3,2自然语言处理的发展 14自然语言处理的研究现状 本书的内容安挂 第2章顸备知识 2,1概率论基本
  3. 所属分类:Python

    • 发布日期:2019-03-04
    • 文件大小:25165824
    • 提供者:weixin_34749051
  1. HanLP中文分词所需内容_2.zip

  2. 主要包含HanLP中文分词需要的jar包,properties文件,data文件夹,以及一些测试代码。HanLP是由一系列模型与算法组成的Java工具包,目标是普及自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。 在提供丰富功能的同时,HanLP内部模块坚持低耦合、模型坚持惰性加载、服务坚持静态提供、词典坚持明文发布,使用非常方便,同时自带一些语料处理工具,帮助用户训练自己的语料。
  3. 所属分类:Java

    • 发布日期:2020-06-29
    • 文件大小:686817280
    • 提供者:qq_36649744
  1. pyhanlp安装介绍和简单应用

  2. 1. 前言 中文分词≠自然语言处理! Hanlp HanLP是由一系列模型与算法组成的Java工具包,目标是普及自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。 功能:中文分词 词性标注 命名实体识别 依存句法分析 关键词提取新词发现 短语提取 自动摘要 文本分类 拼音简繁 中文分词只是第一步;HanLP从中文分词开始,覆盖词性标注、命名实体识别、句法分析、文本分类等常用任务,提供了丰富的API。 不同于一些简陋的分词类库,HanLP精心
  3. 所属分类:其它

    • 发布日期:2020-12-31
    • 文件大小:146432
    • 提供者:weixin_38652636
  1. 基于互信息和邻接熵的新词发现算法

  2. 如何快速高效地识别新词是自然语言处理中一项非常重要的任务,针对当前新词发现存在的 问题,提出了一种从左至右逐字在未切词的微博语料中发现新词的算法。通过计算候选词语 与其右邻接字的互信息来逐字扩展,得到候选新词;并通过计算邻接熵、删除候选新词的首 尾停用词和过滤旧词语等方法来过滤候选新词,最终得到新词集。解决了因切词错误导致部 分新词无法识别以及通过 n-gram 方法导致大量重复词串和垃圾词串识别为新词的问题,最 后通过实验验证了该算法的有效性。
  3. 所属分类:其它

    • 发布日期:2021-03-23
    • 文件大小:1048576
    • 提供者:weixin_38501916
  1. 基于多特征融合的中文比较句识别算法

  2. 观点承载着文本的重要信息,而比较句是观点评论中一种常见的句式现象。针对中文比较句识别问题,该文提出了一种基于规则与统计相结合的方法并进行实验。该方法先对语料及其分词结果进行规范化处理,再通过基于比较特征词词典与句法结构模板、依存关系相结合的方法进行泛提取。然后设计一种CSR规则提取算法,并利用CRF挖掘实体对象信息及语义角色信息。最后利用SVM分类器,选取不同特征维数,找到使性能达到最优的特征形式完成精提取。
  3. 所属分类:其它

    • 发布日期:2021-03-17
    • 文件大小:326656
    • 提供者:weixin_38526421
  1. Design of a Tibetan Word Segmentation System

  2. 语料库作为基本的语言数据库和知识库,是各种自然语言处理方法实现的基础.随着统计方法在自然语言处理中的广泛应用,语料库建设已成为重要的研究课题.自动分词是句法分析的一项不可或缺的基础性工作,其性能直接影响句法分析.本文通过对85万字节藏语语料的统计分析和藏语词的分布特点、语法功能研究,介绍基于词典库的藏文自动分词系统的模型,给出了切分用词典库的结构、格分决算法和还原算法.系统的研制为藏文输入法研究、藏文电子词典建设、藏文字词频统计、搜索引擎的设计和实现、机器翻译系统的开发、网络信息安全、藏文语料库
  3. 所属分类:其它

    • 发布日期:2021-02-09
    • 文件大小:252928
    • 提供者:weixin_38599545
« 12 »