您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 掌中蝶功能介绍,hand123最新手机助理

  2. 蝴蝶效应( The Butterfly Effect)是指在一个动力系统中,初始条件下微小的变化能带动整个系统的长期的巨大的连锁反应。 先从美国麻省理工学院气象学家洛伦兹(Lorenz)的发现谈起。为了预报天气,洛伦兹(Lorenz)用计算机求解仿真地球大气的13个方程式,意图是利用计算机的高速运算来提高长期天气预报的准确性。1963年的一次试验中,为了更细致地考察结果,他把一个中间解0.506取出,提高精度到0.506127再送回。而当他到咖啡馆喝了杯咖啡以后回来再看时竟大吃一惊:本来很小的
  3. 所属分类:嵌入式

    • 发布日期:2009-07-10
    • 文件大小:7340032
    • 提供者:jackssybin
  1. 文本分类论文(2),知网上下的。

  2. 文本分类论文(2),知网上下的。 给大家分享一下,如果影响到其他人,请通知我。
  3. 所属分类:专业指导

    • 发布日期:2009-08-14
    • 文件大小:18874368
    • 提供者:jiayucunyan
  1. asp图书管理系统(毕业设计)

  2. 目录 1 绪论 1 1.1 开发背景 1 1.2 开发工具的选用及介绍 1 2总体分析与设计 3 2.1系统分析 3 2.2 系统目标 3 2.3总体需求 4 2.4系统模块流程图 5 2.5数据库设计 6 3 详细设计 8 3.1 用户登陆页面 8 3.2图书查询页面 9 3.3统计超期 11 3.4数据库备份和还原 12 3.5图书添加 13 3.6用户管理 15 3.7最新添加的图书 16 3.8图书分类浏览 17 3.9给超期用户发消息提醒 18 4毕业设计小结 20 5致谢 21 6
  3. 所属分类:C#

    • 发布日期:2009-10-09
    • 文件大小:991232
    • 提供者:alonebar
  1. 2009计算机 毕业设计 诚信体育用品

  2. 毕业设计(开题报告) 题目: 诚信体育用品 在线购物系统的开发 班 级:___ __ _____ 姓 名:___ _________ 学 号:___ _ ______ 指导教师:___ ________ 时 间:__ _______ 第1章 绪论 1.1 课题的背景 本系统描术了通过包括因特网在内的计算机网络来购买商品、服务信息的过程。随着社会的发展,网络的普及,网上购物已成为在线业务的重要载体。B2C(企业与客户)能 够绕过中介(如批发商、销售商或经销商)建立与客户的直接关系。网站还可以为用
  3. 所属分类:网络基础

    • 发布日期:2009-11-06
    • 文件大小:887808
    • 提供者:cmz68799334
  1. 基于句子向量空间模型的案例知识库关键技术研究

  2. 随着信息技术的发展,经验知识管理已成为企事业单位的核心竞争力量。在人类的经验知识结构中,非结构化知识占很大比例,案例知识是非结构化经验知识的一种重要的形式,案例知识的高效交流、共享和充分利用已成为借鉴已有经验知识来解决新问题的源泉。存储案例知识的案例知识库是基于案例推理的基础和必要条件,案例知识库的研究有深远意义。 本文重点研究基于本体和句子向量空间模型(SVSM,Sentence Vecter Space Model)的案例知识库关键技术,完成的主要工作如下: 1.建立了案例知识库的三层立体
  3. 所属分类:专业指导

    • 发布日期:2010-04-03
    • 文件大小:2097152
    • 提供者:chunjunlu
  1. 校友录系统(带源码)

  2. CC校友录免费版(毕业入世版) 使用说明 想到毕业,一种别样的情绪立刻塞满心的空间:书籍、桌子、凳子]被褥被运出教室和宿舍的那一刻,我的学生们就要挥别校园。草坪、球场、操场、图书馆、自习室、教室、宿舍……曾记录我们的足迹,记录着我们的欢笑,毕业一挥手,就把我们分离;纪念册、毕业照、写满回忆与伤感……好老师、好同学、好朋友们也将不再日夜相聚…… 来到水房,看到一个水龙头没关,底下的水盆里,水早已四溢。我依靠在墙壁上看着水哗哗地流着,一下子特别伤感,我走过去,把水龙头拧了又拧……但是我知道,有些东
  3. 所属分类:Web开发

    • 发布日期:2011-12-06
    • 文件大小:4194304
    • 提供者:xxl6097
  1. 非负矩阵与张量分解及其应用

  2. 阵的低秩逼近是一种大规模矩阵低秩近似表示技术,是从大规模、复杂的数据中 寻求数据潜在信息的一种强有力方法。非负矩阵分解( Nonnegative MatrixFactorization, NMF)) 是矩阵的低秩逼近方法之一,它是指被分解的矩阵和分解结果矩阵的数值都 是非负的。由于该方法符合数据的真实物理属性,数据的可解释性强,分解结果能够表 示事物的局部特征,且模型符合人们对于客观世界的认识规律(整体是由局部组成的) 等优点, 模型和算法自提出以来得到了广泛研究和应用,已经被成功地应用到许多
  3. 所属分类:算法与数据结构

    • 发布日期:2017-11-11
    • 文件大小:2097152
    • 提供者:puppet_love
  1. 基于ngram多特征的流量载荷类型分类方法(论文)

  2. 丁杰u 黄亮3庹宇鹏〃 桑亚飞u 张永铮1 1(中国科学院信息工程研究所北京100093) 2(中国科学院大学北京100049) 3 (国家计算机网络应急技术处理协调中心北京100029) VoL34 No.2 Feb. 2017 摘 要 相关研究具有重要意义。 目前,网络流量分类技术主要按照应用类型或者协议类型对网络流量分类,不能够对未 知流量和加密流量进行分析和识别。因此提出一种基于n-gram多特征的流量载荷类型分类方法来实现对网络 数据包中传输内容的类型的识别,即将流量按照其载荷类型分
  3. 所属分类:网络安全

    • 发布日期:2019-07-18
    • 文件大小:1048576
    • 提供者:qq_37717661
  1. Decoupled Attention Network for Text Recognition——论文解读

  2. 摘要: 文字识别方法在不规则文本识别上,多采用attention的方式,但是采用自回归模型的attention容易存在attention对齐的问题。文章提出了一个 a decoupled attention network (DAN)网络。其主要由:1.特征采集器;2.一个卷积对齐模块,根据编码器的输出进行特征对齐;3.一种解耦的文本解码器,通过联合使用特征图和注意图进行最终预测 介绍 attention在文字识别中一般是用于特征对齐和文字识别(最后的分类部分),传统的attention一般利
  3. 所属分类:其它

    • 发布日期:2021-01-08
    • 文件大小:579584
    • 提供者:weixin_38602098
  1. dialogue-understanding:该存储库包含论文“话语级对话理解”中针对基线模型的PyTorch实现。-源码

  2. 话语级对话理解 该存储库包含论文“”中模型的pytorch实现。 任务定义 给定对话的文字记录以及每个组成话语的说话者信息,话语级对话理解(话语级对话理解)任务旨在从一组预定义标签中识别每个话语的标签,这些预定义标签可以是上图和下图说明了两个人之间的这种对话,其中每个话语都由潜在的情感和意图标记。形式上,给定N个发音的输入序列[(u 1 ,p 1 ),(u 2 ,p 2 ),....,(u N ,p N )],其中每个发音u i = [u我,1,U I,2,...,U I,T]由Ť话U I,j和
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:396361728
    • 提供者:weixin_42133329
  1. calvin-s-project:2018512-源码

  2. 项目清单: 2021/01/11来自贡献 计算机视觉研究-房屋检测中的语义分割(2021) 机器学习组合设计-创业项目(由于机密问题,仅上传了一些代码) •台湾股票网络爬虫,包括财务报告和个人股票报告•ML股票价格预测研究-LSTM,Seq2Seq,注意力,WGAN-GP,WGAN,GAN 有限的训练数据中的NLP姿态检测系统-Factmata UK (由于知识产权,无法上传代码) •通过python包进行可视化,例如降维-tSNE •文本挖掘•半监督学习,BERT,变分自动编码器分类器,数据
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:3072
    • 提供者:weixin_42181888
  1. ganbert:使用半监督生成对抗网络增强BERT训练-源码

  2. 甘伯特 论文代码GAN-BERT:具有健壮标签分类示例的生成式对抗性学习和一堆带标签的示例已在2020年ACL上发表-Danilo Croce (罗马大学Tor Vergata),朱塞佩·卡斯特鲁奇( Giuseppe Castellucci) (亚马逊)和Roberto Basili的短文(罗马大学的Tor Vergata)。该文件可以在找到。 GAN-BERT是BERT的扩展,它使用“生成对抗”设置来实现有效的半监督学习模式。它允许使用由有限数量的标记示例和未标记材料的较大子集组成的数据集
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:657408
    • 提供者:weixin_42138788
  1. nlp-journey:与自然语言处理有关的文档,文件和代码,包括主题模型,单词嵌入,命名实体识别,文本分类,文本生成,文本相似性,机器翻译)等。 所有代码均已实现intensorflow 2.0-源码

  2. NLP旅程 全部在tensorflow 2.0中实现, 1.基础 2.书籍( 代码:txqx) 图形模型手册。 深度学习。 神经网络和深度学习。 语音和语言处理。 3.论文 01)变压器纸 BERT:用于语言理解的深度双向变压器的预训练。 GPT-2:语言模型是无监督的多任务学习者。 Transformer-XL:Transformer-XL:超出固定长度上下文的注意力语言模型。 XLNet:用于语言理解的通用自回归预训练。 RoBERTa:稳健优化的BERT预训练方法。 D
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:5242880
    • 提供者:weixin_42103587
  1. tf-rnn-attention:用于文本分类任务的注意机制的Tensorflow实现-源码

  2. Tensorflow实现文本分类任务的关注机制。 受到“文档分类的分层注意网络”的启发,杨自超等人。 ( )。 要求 Python> = 2.6 Tensorflow> = 1.0 Keras(IMDB数据集) tqdm 要查看可视化示例,请访问 我的学士学位论文,使用带有注意机制的Bi-RNN对俄语文本进行情感分类: :
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:8192
    • 提供者:weixin_42131013
  1. cnn-text-classification:在Yelp,IMDB和句子极性数据集v1.0上使用卷积神经网络进行文本分类-源码

  2. 卷积神经网络(CNN)的文本分类 这是一个使用CNN对文本文档/句子进行分类的项目。 您可以在和的博客条目中找到类似方法的精彩介绍。 我的方法与Denny和Yoon Kim的原始论文[1]相似。 您也可以在找到Yoon Kim的实现。 ***更新***-2019年12月15日:版本0.2.0的更改 我已将代码更新为TensorFlow2。此外,我在jupyter笔记本中进行了一些更改: 删除Yelp数据集 为IMDB添加TensorFlow数据集 ***更新***-2019年5月17日:0.1
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:214016
    • 提供者:weixin_42108054
  1. Screening-Childrens-Writing-Level-With-NLP:NLP项目,将TF-IDF和Word2Vec应用于预先标记的k-12学生论文的语料库,以预测学生的写作水平-源码

  2. 更新02/02/2021:添加了基于BERT的分类器,并使用了Bigrams进行了实验(无明显改进) 更新02/03/2021:修订的BERT(使用的带库的磁带库)(准确度略有提高,达到62.069%) 要做的事情:添加句子长度功能并将其合并到模型中 应用机器学习评估学生的写作水平 该模型是概念验证的机器学习模型,用于基于先前分类的文本的语料库评估学生的写作水平。 给定可用语料库的大小,并且某些课文被归为多个年级,因此将课文分为以下年级类别:初等(k-2),初中(3-4),初中(5 -8)和高中
  3. 所属分类:其它

    • 发布日期:2021-03-29
    • 文件大小:38797312
    • 提供者:weixin_42151036