您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 2015 Spark技术峰会-Spark SQL结构化数据分析-连城

  2. Databrciks工程师,Spark Committer,Spark SQL主要开发者之一的连城详细解读了“Spark SQL结构化数据分析”。他介绍了Spark1.3版本中的很多新特性。重点介绍了DataFrame。其从SchemaRDD演变而来,提供了更加高层抽象的API,在形态上和R和Python很类似。Spark DataFrame vs.RDD,有些类似于动态语言和静态语言的区别,在很多场景下,DataFrame优势比较明显。1.3版中,Spark进一步完善了外部数据源API,并可
  3. 所属分类:群集服务

    • 发布日期:2015-04-27
    • 文件大小:2097152
    • 提供者:happytofly
  1. spark 1.3.0 源码

  2. spark-1.3.0源码 目前来说最新版本的spark1.3.0
  3. 所属分类:Java

    • 发布日期:2015-05-05
    • 文件大小:8388608
    • 提供者:a13575018718
  1. spark sql 代码实现

  2. 关于spark sql的代码实现 spark1.3
  3. 所属分类:Java

    • 发布日期:2015-05-05
    • 文件大小:17408
    • 提供者:a13575018718
  1. spark1.2集群搭建文档

  2. spark集群搭建文档,版本号:spark-1.2.1-bin-hadoop2.3.tgz
  3. 所属分类:Java

    • 发布日期:2015-05-05
    • 文件大小:19456
    • 提供者:a13575018718
  1. spark1.3与hadoop2.6环境配置

  2. 本文件内包含spark1.3与hadoop2.6的环境配置 包括yarn等模式,服务器上测试稳定。只需要更改自己的hostname即可使用
  3. 所属分类:Java

    • 发布日期:2015-05-07
    • 文件大小:88064
    • 提供者:a13575018718
  1. spark1.3.1源码下载

  2. spark1.3.1的源码下载
  3. 所属分类:Java

    • 发布日期:2015-07-31
    • 文件大小:13631488
    • 提供者:mz848083987
  1. spark1.3.1集群

  2. spark1.3.1集群环境搭建,可以直接参见文档上手,最好参考我以前上传的hadoop的集群配置文档。
  3. 所属分类:Java

    • 发布日期:2015-09-22
    • 文件大小:14336
    • 提供者:yuhao198208
  1. spark-1.3.0.tgz

  2. spark-1.3.0.tgz,基于linux的spark1.3.0亲测可用,大家放心
  3. 所属分类:其它

    • 发布日期:2015-11-13
    • 文件大小:8388608
    • 提供者:yanghao10200
  1. hadoop2.6.3-spark1.5.2-hbase-1.1.2-hive-1.2.1-zookeeper-3.4.6安装指南

  2. hadoop2.6.3-spark1.5.2-hbase-1.1.2-hive-1.2.1-zookeeper-3.4.6安装指南
  3. 所属分类:其它

    • 发布日期:2016-04-22
    • 文件大小:2097152
    • 提供者:h295203236
  1. spark平台scala语言自己实现的kmeans算法,相比于MLlib的Kmeans更简单,更容易看懂,代码量少注释多

  2. 不到一百行的代码教你在spark平台中使用scala实现kmeans算法。简单易懂,大量注释。适合初学者参考理解。本程序在intelliJ IDEA2016.1.1 中编程,运行在spark1.6.1 scala2.10.4本地模式下运行成功。 数据集:(其实‘,’前面的1.0 0.0没用,不过不能删除,除非你修改代码中的数据解析代码) 1.0,0.0 1.1 0.1 0.0,2.0 1.0 -1.0 0.0,2.0 1.3 1.0 1.0,0.0 1.2 -0.5 1.0,1.0 1.4 0
  3. 所属分类:其它

    • 发布日期:2016-05-20
    • 文件大小:82944
    • 提供者:vaq37942
  1. hadoop 2.6.0 及Spark1.3.1平台搭建20150505-优化版

  2. Spark 是一种与 Hadoop 相似的开源集群计算环境,但是两者之间还存在一些不同之处,这些有用的不同之处使 Spark 在某些工作负载方面表现得更加优越,换句话说,Spark 启用了内存分布数据集,除了能够提供交互式查询外,它还可以优化迭代工作负载。
  3. 所属分类:spark

    • 发布日期:2017-09-15
    • 文件大小:3145728
    • 提供者:yaozhiyaoyao
  1. spark2 安装教程

  2. 单独搭建spark2.0,和spark1.3共存,适用于新老spark版本共存的情况
  3. 所属分类:spark

    • 发布日期:2017-11-30
    • 文件大小:124928
    • 提供者:sunshineqi
  1. spark1.3源码

  2. spark源码 spark1.3.0版源码包,spark源码 spark1.3.0版源码包
  3. 所属分类:spark

    • 发布日期:2017-12-27
    • 文件大小:13631488
    • 提供者:qiujing688
  1. spark-1.3.0-bin-2.5.0-cdh5.3.6 .tgz 第二部分

  2. spark1.3.0在 hadoop2.5.0 cdh5.3.6下编译完的结果,由于文件过大,所以分为两部分上传,必须同时下载,原始的名称为:spark-1.3.0-bin-2.5.0-cdh5.3.6 .tgz
  3. 所属分类:spark

    • 发布日期:2018-05-04
    • 文件大小:88080384
    • 提供者:u014467408
  1. spark-1.3.0-bin-2.5.0-cdh5.3.6 .tgz 第一部分

  2. spark1.3.0在 hadoop2.5.0 cdh5.3.6下编译完的结果,由于文件过大,所以分为两部分上传,必须同时下载,原始的名称为:spark-1.3.0-bin-2.5.0-cdh5.3.6 .tgz
  3. 所属分类:spark

    • 发布日期:2018-05-04
    • 文件大小:209715200
    • 提供者:u014467408
  1. 配置spark1.3.0 所需要的 jdk-7u79-linux-x64.tar.gz 以及 scala-2.10.4.tgz

  2. jdk-7u79-linux-x64.tar.gz 以及 scala-2.10.4.tgz 配置spark1.3.0时需要的
  3. 所属分类:Java

    • 发布日期:2018-05-07
    • 文件大小:182452224
    • 提供者:u014467408
  1. spark-1.3.1-bin-2.2.0_gong.tgz

  2. spark-1.2.0-bin-hadoop2.4.tgz,用于hadoop2.4的spark1.2.0
  3. 所属分类:spark

    • 发布日期:2019-01-09
    • 文件大小:219152384
    • 提供者:j0andj
  1. spark-1.6.3.zip

  2. spark-1.6.3源码,学习spark1.x必备源码,从github上下载超级慢。
  3. 所属分类:spark

    • 发布日期:2019-02-20
    • 文件大小:17825792
    • 提供者:hellboy0621
  1. Spark入门实战之最好的实例

  2. 本文来自于csdn,本文主要介绍如何使用Scala编写Spark应用程序处理大数据,希望对您的学习有所帮助。安装ScalaIDE搭建Scala语言开发环境很容易,ScalaIDE官网下载合适的版本并解压就可以完成安装,本文使用的版本是4.1.0安装Scala语言包如果下载的ScalaIDE自带的Scala语言包与Spark1.3.1使用的Scala版本(2.10.x)不一致,那么就需要下载和本文所使用的Spark所匹配的版本,以确保实现的Scala程序不会因为版本问题而运行失败请下载并安装Sca
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:473088
    • 提供者:weixin_38581447
  1. spark rdd转dataframe 写入mysql的实例讲解

  2. dataframe是在spark1.3.0中推出的新的api,这让spark具备了处理大规模结构化数据的能力,在比原有的RDD转化方式易用的前提下,据说计算性能更还快了两倍。spark在离线批处理或者实时计算中都可以将rdd转成dataframe进而通过简单的sql命令对数据进行操作,对于熟悉sql的人来说在转换和过滤过程很方便,甚至可以有更高层次的应用,比如在实时这一块,传入kafka的topic名称和sql语句,后台读取自己配置好的内容字段反射成一个class并利用出入的sql对实时数据进行
  3. 所属分类:其它

    • 发布日期:2021-01-19
    • 文件大小:136192
    • 提供者:weixin_38539018
« 12 »