您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 利用Impala+Kudu构建准实时分析应用

  2. Kudu是Cloudera开源的新型列式存储系统,Apache Hadoop生态圈的顶级项目之一,解决了传统Lamda架构处理Hadoop上快速变化数据的存储和处理技术过于复杂的问题,同时Kudu能够与Hadoop生态的其他组件比如Impala、Spark、Flume和Kafka等组件集成,大大降低了对快速变化的数据进行准实时分析的架构设计和实现的门槛。本演讲主要对Kudu的动机、背景,以及架构进行简单介绍,并通过实际的应用场景介绍Impala+Kudu的组合实现通过SQL技术对快速变化的数据
  3. 所属分类:讲义

    • 发布日期:2017-05-16
    • 文件大小:4194304
    • 提供者:erjin_ren
  1. Spark学习笔记

  2. spark 可以很容易和yarn结合,直接调用HDFS、Hbase上面的数据,和hadoop结合。配置很容易。 spark发展迅猛,框架比hadoop更加灵活实用。减少了延时处理,提高性能效率实用灵活性。也可以与hadoop切实相互结合。 spark核心部分分为RDD。Spark SQL、Spark Streaming、MLlib、GraphX、Spark R等核心组件解决了很多的大数据问题,其完美的框架日受欢迎。其相应的生态环境包括zepplin等可视化方面,正日益壮大。大型公司争相实用sp
  3. 所属分类:spark

    • 发布日期:2017-11-06
    • 文件大小:34603008
    • 提供者:mr_liyang
  1. Spark大数据处理

  2. 本书是国内首本系统讲解 Spark 编程实战的书籍,涵盖 Spark 技术的方方面面。 1)对 Spark 的架构、运行机制、系统环境搭建、测试和调优进行深入讲解,以期让读者 知其所以然。讲述 Spark 最核心的技术内容,以激发读者的联想,进而衍化至繁。 2)实战部分不但给出编程示例,还给出可拓展的应用场景。 3)剖析 BDAS 生态系统的主要组件的原理和应用,让读者充分了解 Spark 生态系统。 本书的理论和实战安排得当,突破传统讲解方式,使读者读而不厌。 本书中一些讲解实操部署和示例的
  3. 所属分类:spark

    • 发布日期:2018-01-18
    • 文件大小:3145728
    • 提供者:qq_28743951
  1. 大数据平台端口号列表

  2. 文章中列出了大数据生态系统中hadoop hive hbase spark等组件的端口列表,用于声场环境的防火墙配置
  3. 所属分类:Hadoop

    • 发布日期:2018-01-19
    • 文件大小:27648
    • 提供者:nemo____
  1. 自己动手做大数据系统.azw3

  2. 目前很多想学习或正在学习大数据的人,大都面临一些问题或困惑,本书的第一个特点就是系统性,覆盖了如何利用爬虫、Sqoop等获取各种数据,如何利用HDFS、HBase等存储大数据,如何利用MapReduce、Hive、Pig、Python、Spark等技术来处理大数据,如何利用Spark及R分析展示大数据整个过程,而且这些过程我们都可以以实战项目的方式在云平台上完成,这又体现出本书的第二个特点,即操作的便捷性。 如果你是一位在校大学生,对大数据感兴趣,也知道使用的企业越来越多,市场需求更是日新月异
  3. 所属分类:Hadoop

    • 发布日期:2018-09-05
    • 文件大小:19922944
    • 提供者:u011669700
  1. 自己动手做大数据系统

  2. 本书从 OpenStack云平台搭建、软件部署、需求开发实现到结果展示,以纵向 角度讲解了生产性大数据项目上线的整个流程;以完成一个实际项目需 求贯穿各章节,讲述了Hadoop生态圈中互联网爬虫技术、Sqoop、 Hive、HBase组件协同工作流程,并展示了Spark计算框架、R制图软件 和SparkRHive组件的使用方法。本书的一大特色是提供了实际操作环 境,用户可以在线登录云平台来动手操作书中的数据和代码,登录网址 请参考http://www.feiguyun.com/support。
  3. 所属分类:Hadoop

    • 发布日期:2018-09-27
    • 文件大小:18874368
    • 提供者:baidu_22898855
  1. 构建近实时分析系统

  2. 利用Impala+Kudu构建准实时分析应用 Kudu是Cloudera开源的新型列式存储系统,Apache Hadoop生态圈的顶级项目之一,解决了传统Lamda架构处理Hadoop上快速变化数据的存储和处理技术过于复杂的问题,同时Kudu能够与Hadoop生态的其他组件比如Impala、Spark、Flume和Kafka等组件集成,大大降低了对快速变化的数据进行准实时分析的架构设计和实现的门槛。本演讲主要对Kudu的动机、背景,以及架构进行简单介绍,并通过实际的应用场景介绍Impala+K
  3. 所属分类:Hadoop

    • 发布日期:2018-11-15
    • 文件大小:3145728
    • 提供者:maomaosi2009
  1. spark生态系统的学习

  2. 介绍了spark生态框架包括的组件,spark的构成,原理,开发相关的知识点。
  3. 所属分类:spark

    • 发布日期:2018-11-26
    • 文件大小:8388608
    • 提供者:weixin_41561862
  1. 基于Spark技术实现驴妈妈电商用户行为分析系统技术架构与代码剖析视频教程

  2. 本教程基于Spark技术高仿驴妈妈旅游网实现的电商行为分析(视频+讲义+代码),涉及核心技术包括但不限于:基于CDH 5.x版本HADOOP生态组件,8台机器,Spark ,HBASE,HIVE,Spark,SparkSQL等
  3. 所属分类:Java

    • 发布日期:2019-02-10
    • 文件大小:62914560
    • 提供者:fwytech2010
  1. 基于大数据平台构建数据仓库的研究与实践.pdf

  2. 数据仓库设计文档,帮助大家理解及如何设计数据仓库,很不错的一篇论文。专题 lTo 学习体系,能从海量数据中提炼高价值信息,构建自主 (1)源系统结构化数据:源系统按大数据平合的 训练与反馈、可不断从最新数据中调整演化的智能业务供数规范要求提供表数据文本和标志文件。 模型体系。 (2)文件交换区FSA:文件的交换中枢,含源系 以 Hadoop^ Spark为代表的大规模数据处理技术为统结构化数据和半结构化、非结构化数据(主要是外部 超越传统数据库的处理局限性提供了先进的并行计算和数据)。 资源调度
  3. 所属分类:其它

    • 发布日期:2019-07-16
    • 文件大小:1048576
    • 提供者:bucaixia08
  1. 2.企业级大数据分析平台.pdf

  2. 让大家将所学到的大数据理论付诸于实践中。。。。。。。Lanate 企业级 hadoop高可用HDFS集群 zooKeeper Insemble-Instances Typically Reside on Master Nodes Zookeeper zooKeeper zookeeper Journalnode Zookeeper Failove Failover Controller Controller Must Res de o Journalnode Must Reside on t h
  3. 所属分类:spark

    • 发布日期:2019-10-08
    • 文件大小:1048576
    • 提供者:hyperz1988
  1. alibabacloud-jindofs:阿里云jindo-sdk-源码

  2. 简体中文 介绍 JindoFS作为阿里云基于OSS的一揽子数据湖存储优化方案,完全兼容Hadoop / Spark生态,并针对Spark,Hive,Flink,Presto等大数据组件和AI生态实现扩展和优化。JindoFS项目包括JindoFS OSS支持,JindoFS分布式缓存系统(JindoFS缓存模式)和JindoFS分布式存储优化系统(JindoFS块模式)。JindoSDK是各个计算组件可以使用JindoFS这些优化扩展功能和模式的套件,包括Hadoop Java SDK,Pyth
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:6291456
    • 提供者:weixin_42142062
  1. Spark生态系统组件

  2. 言:随着大数据技术的发展,实时流计算、机器学习、图计算等领域成为较热的研究方向,而Spark作为大数据处理的“利器”有着较为成熟的生态圈,能够一站式解决类似场景的问题。那么Spark生态系统中有哪些组件你知道吗?下面让我们跟着本文一同了解下这些不可或缺的组件。本文选自《图解Spark:核心技术与案例实战》。Spark生态系统以SparkCore为核心,能够读取传统文件(如文本文件)、HDFS、AmazonS3、Alluxio和NoSQL等数据源,利用Standalone、YARN和Mesos等资
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:354304
    • 提供者:weixin_38667849
  1. kudu介绍及安装配置

  2. Kudu是一个针对ApacheHadoop平台而开发的列式存储管理器。Kudu共享Hadoop生态系统应用的常见技术特性:它在commodityhardware(商品硬件)上运行,horizontallyscalable(水平可扩展),并支持highlyavailable(高可用)性操作。此外,Kudu还有更多优化的特点:OLAP工作的快速处理。与MapReduce,Spark和其他Hadoop生态系统组件集成。与ApacheImpala(incubating)紧密集成,使其与ApachePar
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:814080
    • 提供者:weixin_38637580
  1. zookage:Docker桌面上的Kubernetes上的Hadoop-源码

  2. 动物园 ZooKage提供了一个沙盒环境,可以在Kubernetes上启动驻留在Hadoop生态系统中的一组组件。 支持的组件 Apache Hadoop(HDFS,YARN,MapReduce) 阿帕奇蜂巢 Apache Spark 阿帕奇·特兹(Apache Tez) Apache ZooKeeper 要求 支持macOS 带有 入门 启动Hadoop集群 只需运行以下命令。 $ git clone --branch v0.1.1 gitgithub.com:zookage/zoo
  3. 所属分类:其它

    • 发布日期:2021-02-09
    • 文件大小:83968
    • 提供者:weixin_42168230
  1. hadoopcryptoledger:Hadoop加密分类帐-在大数据平台(例如HadoopSparkFlinkHive)上分析CryptoLedgers(例如比特币区块链)-源码

  2. Hadoop加密账本(hadoopcryptoledger) 该存储库将提供各种组件来读取加密账本,例如比特币和以太坊区块链,以及Hadoop和生态系统组件,例如Flink,Spark,TEZ,Hive和MapReduce。 您可以在找到有关该项目的更多信息。
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:11534336
    • 提供者:weixin_42146888
  1. 余烬火花::宏大的UI组件,适合您的Ember应用-源码

  2. 适用于Ember应用程序的雄心勃勃的UI组件 Ember Sparks旨在创建一组可以在所有Ember应用程序中使用的默认UI组件。 通过使用以及Ember生态系统对约定的强调,插件作者可以毫不费力地共享具有合理默认值但也非常易于自定义的UI元素。 安装 ember install ember-sparks 安装后重新启动您的应用程序,就可以开始了! 用法 Ember Sparks随附了一些方便的预装组件,例如{{input-spark}}和{{toggle-spark}} 。 您只需将
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:34816
    • 提供者:weixin_42138780
  1. Spark生态系统组件

  2. 言:随着大数据技术的发展,实时流计算、机器学习、图计算等领域成为较热的研究方向,而Spark作为大数据处理的“利器”有着较为成熟的生态圈,能够一站式解决类似场景的问题。那么Spark生态系统中有哪些组件你知道吗?下面让我们跟着本文一同了解下 这些不可或缺的组件。本文选自《图解Spark:核心技术与案例实战》。Spark生态系统以SparkCore为核心,能够读取传统文件(如文本文件)、HDFS、Amazon S3、Alluxio和NoSQL等数据源,利用Standalone
  3. 所属分类:其它

    • 发布日期:2021-02-01
    • 文件大小:354304
    • 提供者:weixin_38746918
  1. javaAnchorExplainer:使用marcotcr最初于2018年提出的Anchor算法快速解释机器学习模型-源码

  2. 安奇 该项目为机器学习模型提供了Anchors解释算法的有效Java实现。 Marco Tulio Ribeiro(2018)的初始建议“锚定:高精度模型不可知的解释”可在找到。 算法 作者的提供了有关算法工作原理的简短描述: 锚点解释是一个规则,该规则可以在本地充分“锚定”预测-从而使实例的其余特征值的更改无关紧要。 换句话说,对于锚点所在的实例,预测(几乎)总是相同的。 anchor方法可以解释具有两个或更多类的任何黑盒分类器。 我们所需要的只是分类器实现一个接受[数据实例]并输出[
  3. 所属分类:其它

    • 发布日期:2021-01-31
    • 文件大小:83968
    • 提供者:weixin_42157556