您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 语义web服务中文经典资料

  2. 国内介绍语义web服务较为全面、精辟的资料
  3. 所属分类:Web开发

    • 发布日期:2009-05-20
    • 文件大小:145408
    • 提供者:thinkingflying
  1. BPEL 中文教程,关于工作流语义BPEL语义的教程

  2. BPEL 中文教程,是关于工作流语义BPEL语义的教程,有意学习的可以下来看看
  3. 所属分类:专业指导

    • 发布日期:2009-06-11
    • 文件大小:166912
    • 提供者:weirp09
  1. C Sharp语言规范(中文CHM)

  2. C Sharp语言规范本文描述 C# 编程语言的语法、语义和设计。
  3. 所属分类:C

    • 发布日期:2009-06-19
    • 文件大小:500736
    • 提供者:weichao123
  1. csw5.0中文分词组件

  2. 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
  3. 所属分类:C#

    • 发布日期:2009-09-01
    • 文件大小:3145728
    • 提供者:madl_lxj_163
  1. C+Sharp语言规范(中文CHM)

  2. 摘要 本文描述 C# 编程语言的语法、语义和设计。 作者 Scott Wiltamuth 和 Anders Hejlsberg
  3. 所属分类:C#

    • 发布日期:2009-09-22
    • 文件大小:500736
    • 提供者:yhf369646
  1. jQuery API文档 中文

  2. jquery中文文档, 1、代码简练、语义易懂、学习快速、文档丰富。 2、jQuery是一个轻量级的脚本,其代码非常小巧,最新版的Javascr ipt包只有20K左右。 3、jQuery支持CSS1-CSS3,以及基本的xPath。 4、jQuery是跨浏览器的,它支持的浏览器包括IE 6.0+, FF 1.5+, Safari 2.0+, Opera 9.0+。 5、可以很容易的为jQuery扩展其他功能。 6、能将JS代码和HTML代码完全分离,便于代码和维护和修改。 7、插件丰富,除了
  3. 所属分类:Javascript

    • 发布日期:2009-12-14
    • 文件大小:174080
    • 提供者:guoli0813
  1. CWB中文语义词库

  2. 中文语义词库, 也是稍有特色的汉语语义词典。它含有 10 万以上的词条, 每个词条通过关系比较密切的相关词 (例如同义词、反义词、上位词、下位词等) 与其它词条相连结
  3. 所属分类:其它

    • 发布日期:2017-01-11
    • 文件大小:9437184
    • 提供者:sticklee
  1. IKAnalyzer2012.jar 中文分词

  2. IKAnalyzer2012.jar 中文语义分词
  3. 所属分类:Java

    • 发布日期:2017-05-10
    • 文件大小:1048576
    • 提供者:yyl424525
  1. cwb中文分类词库 中文语义词库

  2. CWB简介 这是一个略具规模的中文语义词库, 也是稍有特色的汉语语义词典。它含有 10 万以上的词条, 每个词条通过关系比较密切的相关词 (例如同义词、反义词、上位词、下位词等) 与其它词条相连结。整个词库呈现为比较复杂的网络结构, 并带有多种检索手段和显示方式。
  3. 所属分类:网络基础

    • 发布日期:2009-02-10
    • 文件大小:10485760
    • 提供者:zmz420
  1. 情感和语义分析最全中文数据库

  2. 最全的中文情感和语义词典,文件内容(TXT和excel)如下: 1. 褒贬词及其近义词; 2. 汉语情感词极值表; 3. 清华大学李军中文褒贬义词典; 4. 情感词典及其分类; 5. 情感词汇本体; 6. 台湾大学NTUSD简体中文情感词典; 7. 知网Hownet情感词典。
  3. 所属分类:专业指导

    • 发布日期:2018-01-18
    • 文件大小:1048576
    • 提供者:lijinxin_
  1. ansj语义分析

  2. ansj中文语义分析,可用于语音识别相关内容关键词拆分
  3. 所属分类:机器学习

    • 发布日期:2018-02-12
    • 文件大小:23068672
    • 提供者:xinjiangbf
  1. CSC中文语义词库v2.1

  2. 中文语义词库中文语义词库中文语义词库中文语义词库中文语义词库中文语义词库
  3. 所属分类:机器学习

    • 发布日期:2018-02-25
    • 文件大小:23068672
    • 提供者:q97012791
  1. 深思中文知识工厂解决方案

  2. 本文介绍了深思公司的中文知识工厂解决方案通过基于 Web 的自动搜索实现知识的积累,采用 IBM 国际领先的中文智能自动分类方法有效地组织知识,应用深思公司的数字媒体资产管理平台实现知识的管理、共享、交流和保护,运用基于中文语义的智能搜索和对 搜索结果的自动聚类实现知识的发现,通过智能摘要技术和电子商务网上支付等手段实现知识的生产,形成了一个完整的中文知识工厂的知识生产流水线。
  3. 所属分类:其它

    • 发布日期:2020-03-04
    • 文件大小:27648
    • 提供者:weixin_38604330
  1. php中文语义分析实现方法示例

  2. 主要介绍了php中文语义分析实现方法,结合实例形式分析了PHP基于BosonNLP扩展实现中文语义分析的具体操作步骤与相关实现技巧,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-10-16
    • 文件大小:59392
    • 提供者:weixin_38683721
  1. 基于图的中文语义相关性解析

  2. 基于图的中文语义相关性解析
  3. 所属分类:其它

    • 发布日期:2021-03-10
    • 文件大小:654336
    • 提供者:weixin_38750761
  1. 中文语义组块自动抽取方法

  2. 句子语义表述是当前自然语言处理领域亟待解决的重要问题,是制约自然语言能否取得深度应用的重要因素。根据中文文本的特点,摈弃以前自然语言处理语义与句法相分离的观点,提出语义组块概念,并利用深度信念网络的深度学习方法构建对中文语义组块进行自动抽取的模型,模型以句子中名词为核心,将名词与其前后词语进行组合后构成中文语义组块,之后分别使用神经网络、支持向量机和深度信念网络三种抽取方法构建抽取模型,进行了三组实验,最终结果显示在高维大数据背景下,深度信念网络的方法与支持向量机和神经网络相比较具有更好的抽取效
  3. 所属分类:其它

    • 发布日期:2021-03-01
    • 文件大小:715776
    • 提供者:weixin_38747144
  1. 基于依存句法分析的中文语义角色标注

  2. 依存句法是句法分析的一种,相比于短语结构句法分析,依存句法具有更简洁的表达方式。该文采用英文语义角色标注的研究方法,实现了一个基于中文依存句法分析的语义角色标注系统。该系统针对中文依存关系树,采用有效的剪枝算法和特征,使用最大熵分类器进行语义角色的识别和分类。系统使用了两种不同的语料,一种是由标准短语结构句法分析(CTB5.0)转换而来,另一种是CoNLL2009公布的中文语料。系统分别在两种语料的标准谓词和自动谓词的基础上进行实验,在标准谓词上取得的F1值分别为84.30%和81.68%,在自
  3. 所属分类:其它

    • 发布日期:2021-02-23
    • 文件大小:287744
    • 提供者:weixin_38559727
  1. 基于特征组合的中文语义角色标注

  2. 提出一种基于特征组合和支持向量机(support vector machine,简称SVM)的语义角色标注(semantic role labeling,简称SRL)方法.该方法以句法成分作为基本标注单元,首先从当前基于句法分析的语义角色标注系统中选出高效特征,构成基本特征集合.然后提出一种基于统计的特征组合方法.该方法能够根据正反例中组合特征的分布状况,以类间距离和类内距离之比作为统计量来衡量组合特征对分类所产生的效果,保留分类效果较好的组合特征.最后,在Chinese PropBank(CP
  3. 所属分类:其它

    • 发布日期:2021-02-22
    • 文件大小:468992
    • 提供者:weixin_38636577
  1. 深度解析MySQL 5.7之中文全文检索

  2. 前言 其实全文检索在MySQL里面很早就支持了,只不过一直以来只支持英文。缘由是他从来都使用空格来作为分词的分隔符,而对于中文来讲,显然用空格就不合适,需要针对中文语义进行分词。这不,从MySQL 5.7开始,MySQL内置了ngram全文检索插件,用来支持中文分词,并且对MyISAM和InnoDB引擎有效。 在使用中文检索分词插件ngram之前,先得在MySQL配置文件里面设置他的分词大小,比如, [mysqld] ngram_token_size=2 这里把分词大小设置为2。要记住,分词的
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:69632
    • 提供者:weixin_38717896
  1. php中文语义分析实现方法示例

  2. 本文实例讲述了php中文语义分析实现方法。分享给大家供大家参考,具体如下: 最近公司有个需求要做文章关键词提取,发现有个波森语义分析,还不错,把其http接口封装了一下, 发布到packagist上了。 简介 简单的封装了BosonNLP中文语义识别的api。 安装 composer require xdao/boson-nlp 使用 require 'vendor/autoload.php'; use Xdao\Util\BosonNLP; $news = <<<EOF
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:93184
    • 提供者:weixin_38720050
« 12 3 4 5 6 7 8 9 10 ... 20 »