您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 2015 Spark技术峰会-Spark SQL结构化数据分析-连城

  2. Databrciks工程师,Spark Committer,Spark SQL主要开发者之一的连城详细解读了“Spark SQL结构化数据分析”。他介绍了Spark1.3版本中的很多新特性。重点介绍了DataFrame。其从SchemaRDD演变而来,提供了更加高层抽象的API,在形态上和R和Python很类似。Spark DataFrame vs.RDD,有些类似于动态语言和静态语言的区别,在很多场景下,DataFrame优势比较明显。1.3版中,Spark进一步完善了外部数据源API,并可
  3. 所属分类:群集服务

    • 发布日期:2015-04-27
    • 文件大小:2097152
    • 提供者:happytofly
  1. spark 1.3.0 源码

  2. spark-1.3.0源码 目前来说最新版本的spark1.3.0
  3. 所属分类:Java

    • 发布日期:2015-05-05
    • 文件大小:8388608
    • 提供者:a13575018718
  1. spark sql 代码实现

  2. 关于spark sql的代码实现 spark1.3
  3. 所属分类:Java

    • 发布日期:2015-05-05
    • 文件大小:17408
    • 提供者:a13575018718
  1. spark1.2集群搭建文档

  2. spark集群搭建文档,版本号:spark-1.2.1-bin-hadoop2.3.tgz
  3. 所属分类:Java

    • 发布日期:2015-05-05
    • 文件大小:19456
    • 提供者:a13575018718
  1. spark1.3与hadoop2.6环境配置

  2. 本文件内包含spark1.3与hadoop2.6的环境配置 包括yarn等模式,服务器上测试稳定。只需要更改自己的hostname即可使用
  3. 所属分类:Java

    • 发布日期:2015-05-07
    • 文件大小:88064
    • 提供者:a13575018718
  1. spark1.3.1源码下载

  2. spark1.3.1的源码下载
  3. 所属分类:Java

    • 发布日期:2015-07-31
    • 文件大小:13631488
    • 提供者:mz848083987
  1. spark1.3.1集群

  2. spark1.3.1集群环境搭建,可以直接参见文档上手,最好参考我以前上传的hadoop的集群配置文档。
  3. 所属分类:Java

    • 发布日期:2015-09-22
    • 文件大小:14336
    • 提供者:yuhao198208
  1. spark-1.3.0.tgz

  2. spark-1.3.0.tgz,基于linux的spark1.3.0亲测可用,大家放心
  3. 所属分类:其它

    • 发布日期:2015-11-13
    • 文件大小:8388608
    • 提供者:yanghao10200
  1. hadoop2.6.3-spark1.5.2-hbase-1.1.2-hive-1.2.1-zookeeper-3.4.6安装指南

  2. hadoop2.6.3-spark1.5.2-hbase-1.1.2-hive-1.2.1-zookeeper-3.4.6安装指南
  3. 所属分类:其它

    • 发布日期:2016-04-22
    • 文件大小:2097152
    • 提供者:h295203236
  1. hadoop 2.6.0 及Spark1.3.1平台搭建20150505-优化版

  2. Spark 是一种与 Hadoop 相似的开源集群计算环境,但是两者之间还存在一些不同之处,这些有用的不同之处使 Spark 在某些工作负载方面表现得更加优越,换句话说,Spark 启用了内存分布数据集,除了能够提供交互式查询外,它还可以优化迭代工作负载。
  3. 所属分类:spark

    • 发布日期:2017-09-15
    • 文件大小:3145728
    • 提供者:yaozhiyaoyao
  1. spark2 安装教程

  2. 单独搭建spark2.0,和spark1.3共存,适用于新老spark版本共存的情况
  3. 所属分类:spark

    • 发布日期:2017-11-30
    • 文件大小:124928
    • 提供者:sunshineqi
  1. spark1.3源码

  2. spark源码 spark1.3.0版源码包,spark源码 spark1.3.0版源码包
  3. 所属分类:spark

    • 发布日期:2017-12-27
    • 文件大小:13631488
    • 提供者:qiujing688
  1. spark-1.3.0-bin-2.5.0-cdh5.3.6 .tgz 第二部分

  2. spark1.3.0在 hadoop2.5.0 cdh5.3.6下编译完的结果,由于文件过大,所以分为两部分上传,必须同时下载,原始的名称为:spark-1.3.0-bin-2.5.0-cdh5.3.6 .tgz
  3. 所属分类:spark

    • 发布日期:2018-05-04
    • 文件大小:88080384
    • 提供者:u014467408
  1. spark-1.3.0-bin-2.5.0-cdh5.3.6 .tgz 第一部分

  2. spark1.3.0在 hadoop2.5.0 cdh5.3.6下编译完的结果,由于文件过大,所以分为两部分上传,必须同时下载,原始的名称为:spark-1.3.0-bin-2.5.0-cdh5.3.6 .tgz
  3. 所属分类:spark

    • 发布日期:2018-05-04
    • 文件大小:209715200
    • 提供者:u014467408
  1. 配置spark1.3.0 所需要的 jdk-7u79-linux-x64.tar.gz 以及 scala-2.10.4.tgz

  2. jdk-7u79-linux-x64.tar.gz 以及 scala-2.10.4.tgz 配置spark1.3.0时需要的
  3. 所属分类:Java

    • 发布日期:2018-05-07
    • 文件大小:182452224
    • 提供者:u014467408
  1. 深入理解Spark 核心思想与源码分析

  2. 深入理解Spark 核心思想与源码分析 ,耿嘉安完整版,大数据spark开发必备,你值得拥有。清晰完整版 《深入理解SPARK:核心思想与源码分析》结合大量图和示例,对Spark的架构、部署模式和工作模块的设计理念、实现源码与使用技巧进行了深入的剖析与解读。, 《深入理解SPARK:核心思想与源码分析》一书对Spark1.2.0版本的源代码进行了全面而深入的分析,旨在为Spark的优化、定制和扩展提供原理性的指导。阿里巴巴集团专家鼎力推荐、阿里巴巴资深Java开发和大数据专家撰写。, 本书分为
  3. 所属分类:spark

    • 发布日期:2018-05-22
    • 文件大小:39845888
    • 提供者:jyh2005
  1. SparkSql技术

  2. 目录 一:为什么sparkSQL? 3 1.1:sparkSQL的发展历程 3 1.1.1:hive and shark 3 1.1.2:Shark和sparkSQL 4 1.2:sparkSQL的性能 5 1.2.1:内存列存储(In-Memory Columnar Storage) 6 1.2.2:字节码生成技术(bytecode generation,即CG) 6 1.2.3:scala代码优化 7 二:sparkSQL运行架构 8 2.1:Tree和Rule 9 2.1.1:Tree
  3. 所属分类:spark

    • 发布日期:2018-08-16
    • 文件大小:5242880
    • 提供者:silentwolfyh
  1. 深入理解Spark 核心思想与源码分析

  2. 在深入了解一个系统的原理、实现细节之前,应当先准备好它的源码编译环境、运行环境。如果能在实际环境安装和运行Spark,显然能够提升读者对于Spark的一些感受,对系统能有个大体的印象,有经验的技术人员甚至能够猜出一些Spark采用的编程模型、部署模式等。当你通过一些途径知道了系统的原理之后,难道不会问问自己?这是怎么做到的。如果只是游走于系统使用、原理了解的层面,是永远不可能真正理解整个系统的。很多IDE本身带有调试的功能,每当你阅读源码,陷入重围时,调试能让我们更加理解运行期的系统。如果没有
  3. 所属分类:spark

    • 发布日期:2018-10-06
    • 文件大小:42991616
    • 提供者:kuigoutang2400
  1. spark-1.3.1-bin-2.2.0_gong.tgz

  2. spark-1.2.0-bin-hadoop2.4.tgz,用于hadoop2.4的spark1.2.0
  3. 所属分类:spark

    • 发布日期:2019-01-09
    • 文件大小:219152384
    • 提供者:j0andj
  1. spark rdd转dataframe 写入mysql的实例讲解

  2. dataframe是在spark1.3.0中推出的新的api,这让spark具备了处理大规模结构化数据的能力,在比原有的RDD转化方式易用的前提下,据说计算性能更还快了两倍。spark在离线批处理或者实时计算中都可以将rdd转成dataframe进而通过简单的sql命令对数据进行操作,对于熟悉sql的人来说在转换和过滤过程很方便,甚至可以有更高层次的应用,比如在实时这一块,传入kafka的topic名称和sql语句,后台读取自己配置好的内容字段反射成一个class并利用出入的sql对实时数据进行
  3. 所属分类:其它

    • 发布日期:2021-01-19
    • 文件大小:136192
    • 提供者:weixin_38539018
« 12 »