您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. wider_face数据清洗

  2. 用来将wider_face的数据集的标签清洗,防止出现段错误,训练中断的问题
  3. 所属分类:深度学习

    • 发布日期:2018-07-30
    • 文件大小:2048
    • 提供者:qq_38957170
  1. Natural Language Processing in Action.pdf

  2. 书籍描述: 使用Python使用问题解决方法实现自然语言处理应用程序。这本书有许多编码练习,将帮助您快速部署自然语言处理技术,如文本分类、部分语音识别、主题建模、文本摘要、文本生成、实体提取和情感分析。 自然语言处理配方首先提供清洗和预处理文本数据的解决方案,以及使用高级算法分析文本数据的方法。您将看到文本语义和句法分析的实际应用,以及涉及文本规范化、高级预处理、pos标记和情感分析的复杂自然语言处理方法。您还将学习机器学习和自然语言处理中的深度学习的各种应用。 通过使用本书中的配方,您将拥有
  3. 所属分类:机器学习

    • 发布日期:2019-06-21
    • 文件大小:9437184
    • 提供者:qq_37606925
  1. 数据清洗指南.pdf

  2. 讲述了人工智能领域的数据清洗的各种指导和方法:数据缺失、混乱、重复怎么办?最全数据清洗指南!要获得优秀的模型,⾸先需要清洗数据。这是⼀篇如何在 Python 中执⾏数据清洗的分步指南。
  3. 所属分类:深度学习

    • 发布日期:2020-05-22
    • 文件大小:2097152
    • 提供者:qq_16774117
  1. Vertica实时数据分析平台

  2. 深度介绍Vertica产品总体架构、核心优势、集群能力、Vertica与Hadoop的数据交换、SQL高级分析、与分布式R无缝集成、灾备能力等等,是不可多得的了解Vertica的好资料。数据分析平台演进阶段及挑战 事件触发,全量数据实时分析频 价值实 业务相关性分析 繁访问 产品分析、用户行为分析客客户活动预测,客户流失预测,直接提升业务 户分析等灵活直询和数据分析产品盈利预测 面向大量业务人员 MOLAP CUBE生成 面向少量管理者的机器学习和 现整合层行业模型批量加工 预测 监管报送等数据
  3. 所属分类:Hadoop

    • 发布日期:2019-04-20
    • 文件大小:4194304
    • 提供者:skyon
  1. 深度学习笔记(3)基于Tensorflow的多元线性回归:预测波士顿房价

  2. 问题描述 给定波士顿地区一系列地区租房的价格,然后罗列出了收集到多个因素,每个因素已经是量化好。现在给定的要求是,使用一个多元线性模型去拟合这些数据,然后用于预测。 模型 price=f(x1,x2,…,xn)=∑i=1nwixi+b price = f(x_1, x_2, …, x_n) = \sum\limits_{i=1}^{n} w_i x_i + bprice=f(x1​,x2​,…,xn​)=i=1∑n​wi​xi​+b 这里没有激活函数,所以还不到神经网络的阶段。 基于Tensor
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:249856
    • 提供者:weixin_38700240
  1. 《动手学深度学习》笔记 Task04 机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 数据预处理 将数据集清洗、转化为神经网络的输入minbatch 分词 字符串—单词组成的列表 建立词典 单词组成的列表—单词id组成的列表 载入数据集 Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 Sequence to Sequen
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:315392
    • 提供者:weixin_38739837
  1. 深度学习PyTorch入门(四)

  2. 机器翻译 机器翻译(MT): 将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征: 输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 数据预处理 将数据集清洗、转化为神经网络的输入minbatch 字符在计算机里是以编码的形式存在,我们通常所用的空格是 \x20 ,是在标准ASCII可见字符 0x20~0x7e 范围内。 而 \xa0 属于 latin1 (ISO/IEC_8859-1)中的扩展字符集字符,代表不间断空
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:587776
    • 提供者:weixin_38748580
  1. 《动手学深度学习PyTorch版》4

  2. 机器翻译及相关技术 1、机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 1.数据预处理 将数据集清洗、转化为神经网络的输入minbatch def preprocess_raw(text): # 处理空格 text = text.replace('\u202f', ' ').replace('\xa0', ' '
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:306176
    • 提供者:weixin_38727062
  1. 动手深度学习 笔记 8

  2. 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 数据预处理 将数据集清洗、转化为神经网络的输入minbatch。数据预处理的过程中,我们首先需要对数据进行清洗。 分词 字符串—单词组成的列表。 建立词典 单词组成的列表—单词id组成的列表。 注意力机制 当输入的维度大于2时,默认情况下,Dense实例会将除了第一维(样本维)以外的
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:46080
    • 提供者:weixin_38675777
  1. 深度学习笔记(4)

  2. 一、机器翻译及相关技术; 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。( 例:i am chinese=我是中国人,长度变化:3—>5) 数据预处理: 将数据集清洗、转化为神经网络的输入minbatch 分词: 字符串—>单词组成的列表 建立词典: 单词组成的列表—>单词id组成的列表 载入数据集: Encoder-Decode
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:578560
    • 提供者:weixin_38587130
  1. 笔记:动手学深度学习pytorch(机器翻译,Transformer,注意力机制和Sequence to sequence模型)

  2. – 机器翻译 – 机器翻译与数据集 – 机器翻译 顾名思义,机器翻译就是将一段文本从一种语言翻译到另外一种语言,简称MT,而利用神经网络解决这个问题就被称为神经机器翻译(NMT)。 特征主要是输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 – 数据预处理 将数据集清洗、转化为神经网络的输入minbatch with open('/home/kesci/input/fraeng6506/fra.txt', 'r') as f: raw_text = f.read
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38582685
  1. ElitesAI·动手学深度学习PyTorch版-第二次打卡task02

  2. 1、机器翻译 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 1.1 数据预处理 将数据集清洗、转化为神经网络的输入minbatch. def preprocess_raw(text): text = text.replace('\u202f', ' ').replace('\xa0', ' ') out = '' for
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38532139
  1. 动手学深度学习(四)

  2. 机器翻译及相关技术; 注意力机制与Seq2seq模型; Transformer 一 机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 首先,将数据集清洗、转化为神经网络的输入minbatch,分词,建立词典。# Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 二 注意力机制 在Do
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:618496
    • 提供者:weixin_38720997
  1. [动手学深度学习PyTorch笔记四]

  2. 一 机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 首先进行数据预处理,将数据集清洗、转化为神经网络的输入的minbatch,包括分词、建立字典、载入数据集。 Encoder-Decoder 一种通用模型框架。Encoder:编码器,从输入到隐藏状态 Decoder:解码器,从隐藏状态到输出。 特点:输入输出的长度可以不相等。不
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:80896
    • 提供者:weixin_38673909
  1. 机器学习项目中的数据预处理与数据整理之比较

  2. 在常见的机器学习/深度学习项目里,数据准备占去整个分析管道的60%到80%。市场上有各种用于数据清洗和特征工程的编程语言、框架和工具。它们之间的功能有重叠,也各有权衡。数据整理是数据预处理的重要扩展。它最适合在可视化分析工具中使用,这能够避免分析流程被打断。可视化分析工具与开源数据科学组件之间,如R、Python、KNIME、RapidMiner互为补充。避免过多地使用组件能够加速数据科学项目。因此,在数据准备步骤中利用流式获取框架或流式分析产品会是一个不错的选择。机器学习和深度学习项目在大多数
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:538624
    • 提供者:weixin_38730821
  1. 机器学习项目中的数据预处理与数据整理之比较

  2. 在常见的机器学习/深度学习项目里,数据准备占去整个分析管道的60%到80%。 市场上有各种用于数据清洗和特征工程的编程语言、框架和工具。它们之间的功能有重叠,也各有权衡。 数据整理是数据预处理的重要扩展。它最适合在可视化分析工具中使用,这能够避免分析流程被打断。 可视化分析工具与开源数据科学组件之间,如R、Python、KNIME、RapidMiner互为补充。
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:532480
    • 提供者:weixin_38741966
  1. 深度学习框架Keras介绍及实战

  2. 本文来自cnblogs,主要介绍了Dense全连接层,嵌入层Embedding,LSTM层,数据预处理:文本预处理,序列预处理,数据加载,数据清洗,Keras搭建网络相关内容。Keras是一个用Python编写的高级神经网络API,它能够以 TensorFlow,CNTK,或者Theano作为后端运行。Keras的开发重点是支持快速的实验。能够以最小的时延把你的想法转换为实验结果,是做好研究的关键。本文以Kaggle上的项目:I
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:72704
    • 提供者:weixin_38559569
  1. 基于LSTM深度学习模型的中国电信官方微博用户情绪分析

  2. 中国电信官方微博(简称电信官微)作为一种互联网媒体,是中国电信对外发布信息并获取用户反馈的重要渠道。用户对电信官微消息内容的评论,反映了用户对中国电信品牌、产品和服务的不同态度。爬取了电信官微的消息内容和评论数据,对经过清洗的数据采用Word2vec进行文本信息表示,并使用深度学习平台基于LSTM深度神经网络模型进行用户交互文本的正负面情感分类,实现电信官微访问用户情绪分析。
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:811008
    • 提供者:weixin_38551070
  1. 动手学深度学习 Task04 机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 【一】机器翻译及相关技术 机器翻译(MT): 将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出的是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 数据预处理 将数据集清洗、转化为神经网络的输入minbatch。字符在计算机里是以编码的形式存在,我们通常所用的空格是 \x20 ,是在标准ASCII可见字符 0x20~0x7e 范围内。 而 \xa0 属于 latin1 (ISO/IEC_8859-1)中的扩展字符集字
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:424960
    • 提供者:weixin_38653040
  1. 基于深度学习时间序列的诉求感知分析系统设计

  2. 针对传统诉求感知分析系统数据清洗功能较差的问题,设计一种基于深度学习时间序列的诉求感知分析系统,系统硬件配置为服务器模块,服务器模块有交换机、共享显示器、机柜、HBA卡、集中存储器、数据库专用服务器、应用处理专用服务器、数据采集卡以及解码采集服务器等。系统软件由诉求感知数据处理模块、诉求感知分析模块、数据库模块构成。通过数据处理软件对诉求感知数据进行处理,利用深度学习时间序列对诉求感知进行预测,并结合处理后的诉求感知数据,利用日志分析引擎以及日志分析线程对诉求感知进行分析。对比实验结果证明,该系
  3. 所属分类:其它

    • 发布日期:2021-01-12
    • 文件大小:1048576
    • 提供者:weixin_38617001
« 12 »