您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. hadoop-2.7-spark-2.1-搭建

  2. 自己在3台虚拟机环境搭建的hadoop,spark集群环境。 方便以后自己参考及流量 Linux 操作 增加用户 更改文件夹所属用户和组 安装Hadoop 2.1 安装说明 2.2每台机器安装scala 安装 2.11.8 版本 2.3安装配置zooekeeper集群(在150上 2.4每台机器安装hadoop2.7.3 版本 在 150 上操作 安装spark 2.1 3.1在150 上面解压spark2.1 3.2建立软链接 3.3 进行配置 3.4 启动服务
  3. 所属分类:Java

    • 发布日期:2017-01-09
    • 文件大小:234496
    • 提供者:favorbob
  1. hadoop2.7.3+hive1.2.1+spark2.0.1性能测试

  2. hadoop2.7.3+hive1.2.1+spark2.0.1性能测试
  3. 所属分类:Java

    • 发布日期:2017-03-17
    • 文件大小:45056
    • 提供者:lotus302
  1. hadoop2.7.4 spark2.2.1 最新版本环境搭建

  2. 虚拟机3台服务器搭建集群环境,使用jdk1.8 ,最新的hadoop2.7.4 ,spark2.21。 提供给需要学习环境搭建人员的一点文档参考。 只是基础的环境搭建,不涉及具体开发技术逻辑,请选择下载。(ps:资源分最少只能选择2分,所以请见谅)
  3. 所属分类:spark

    • 发布日期:2017-12-17
    • 文件大小:1048576
    • 提供者:favorbob
  1. windows10下spark2.3.0本地开发环境搭建-亲测

  2. windows10下spark2.3.0本地开发环境搭建 win10上部署Hadoop非Cygwin、非虚拟机方式。安装目录为D:\setupedsoft。涉及相关组件版本: win10 家庭装,64位,x86处理器 JDK1.8.0_171 hadoop-2.7.6 Spark-2.3.0 Scala-2.11.8 Maven-3.5.3 ideaIC-2018.1.4.exe spark-2.3.0-bin-hadoop2.7 对应博文:https://blog.csdn.net/hamb
  3. 所属分类:spark

    • 发布日期:2018-06-22
    • 文件大小:3145728
    • 提供者:hambition
  1. spark-2.3.1源码包

  2. spark2.3.1源码包官网给了两种编译方式,个人喜欢打包的方式,因为打包完成后可以根据自己的需要去部署spark环境,所以也推荐打包编译方式
  3. 所属分类:spark

    • 发布日期:2018-07-05
    • 文件大小:14680064
    • 提供者:weixin_36146358
  1. spark-docs-api_2.3.1.zip

  2. spark2.3.1官方文档离线版 包含http://spark.apache.org/docs/2.3.1/ 下面的所有页面和所有api文档 并附有下载方法,可适用与其他版本文档下载
  3. 所属分类:spark

    • 发布日期:2018-07-30
    • 文件大小:19922944
    • 提供者:realstalish
  1. spark2.3.1-with-hive

  2. spark2.3.1-with-hive编译版本,spark源码版本2.3.1。
  3. 所属分类:spark

    • 发布日期:2018-09-07
    • 文件大小:132120576
    • 提供者:ljinch
  1. rocketmq-spark-0.0.1-SNAPSHOT.jar

  2. 由于spark streaming不支持从rocketmq中读取消息,本jar包是基于spark2.3.2和rocketmq4.2对官方源码进行编译的,有几个scala的bug已经解决。好东西拿出来大家分享,无需积分可以找我要哈。
  3. 所属分类:spark

    • 发布日期:2018-11-28
    • 文件大小:491520
    • 提供者:my0113
  1. spark-2.3.1-bin-hadoop2-without-hive.tgz

  2. 使用maven重新编译spark2.3.1源码,用以实现hive on spark
  3. 所属分类:spark

    • 发布日期:2019-01-09
    • 文件大小:132120576
    • 提供者:lukabruce
  1. spark-2.3.1-bin-hadoop2.9-without-hive.tgz

  2. 使用maven重新编译spark2.3.1源码,用以实现hive on spark
  3. 所属分类:spark

    • 发布日期:2019-02-22
    • 文件大小:204472320
    • 提供者:lukabruce
  1. apache-carbondata-1.5.2-bin-spark2.3.2-hadoop2.7.2

  2. apache-carbondata-1.5.2-bin-spark2.3.2-hadoop2.7.2
  3. 所属分类:spark

    • 发布日期:2019-03-15
    • 文件大小:40894464
    • 提供者:dyfvsgtxi
  1. smack4.3.4+spark2.8.3.zip

  2. 费了九牛二虎之力才从官网下载下来,方便下载。 Smack主要是xmpp协议的实现,提供了一套很好的api,所以下面操作xmpp都是通过使用Smack的api来实现,从4.1.0开始,它就支持Android了,所以我们直接使用Smack即可,当然在这不支持之前是使用Asmack这个包的,里面方法跟smack包差不多。 Spark 是IM客户端的实现,其实就是使用了Smack 的api实现的。
  3. 所属分类:Java

    • 发布日期:2020-04-28
    • 文件大小:99614720
    • 提供者:Fate_Magician
  1. rocketmq-spark-0.0.1-SNAPSHOT.jar

  2. 由于spark streaming不支持从rocketmq中读取消息,本jar包是基于spark2.3.2和rocketmq4.2对官方源码进行编译的
  3. 所属分类:Linux

    • 发布日期:2020-07-30
    • 文件大小:489472
    • 提供者:t395001196
  1. Spark2.X CSV文件 创建DataFrame

  2. 一、需求分析 将CSV文件转为DataFrame,其中CSV包括无头文件和有文件。 二、数据展示 无头文件的CSV 1,张飞,21,北京,80 2,关羽,23,北京,82 3,赵云,20,上海,88 4,刘备,26,上海,83 5,曹操,30,深圳,90.8 有头文件的CSV id,name,age,city,score 1,张飞,21,北京,80 2,关羽,23,北京,82 3,赵云,20,上海,88 4,刘备,26,上海,83 5,曹操,30,深圳,90.8 三、无头文件的CSV分析
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:46080
    • 提供者:weixin_38666230
  1. Spark2.X创建DataFrame的多种方式

  2. 一、目录 1、Case Class 创建DataFrame 2、Tuple 创建DataFrame 3、JavaBean 创建DataFrame 4、Json 创建DataFrame 5、Row 创建DataFrame 6、set集合 创建DataFrame 7、map集合 创建DataFrame 8、Array数组 创建DataFrame 9、Parquet数组 创建DataFrame 二、数据源 1,张飞,21,北京,80 2,关羽,23,北京,82 3,赵云,20,上海,88 4,刘备
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:40960
    • 提供者:weixin_38716081
  1. SPARK2-2.4.0.cloudera2-1.cdh5.13.3.p0.1041012-el7.parcel

  2. SPARK2-2.4.0.cloudera2-1.cdh5.13.3.p0下载
  3. 所属分类:群集服务

    • 发布日期:2021-03-10
    • 文件大小:198180864
    • 提供者:jahon123
  1. SPARK2-2.4.0.cloudera2-1.cdh5.13.3.p0.1041012-el7.parcel.sha1

  2. SPARK2-2.4.0.cloudera2-1.cdh5.13.3.p0.1041012-el7 SHA下载
  3. 所属分类:群集服务

    • 发布日期:2021-03-10
    • 文件大小:41
    • 提供者:jahon123
  1. SparkCore:Spark核心分析,主要包含SparkContext源码,执行程序启动,阶段划分,任务执行和Spark2.0的新特性-源码

  2. Spark(基于1.3.1)源码分析 主要针对于Spark源码分析,对于比较重要的方法和代码,有注释,在熟悉的Spark源码之前,首先必须了解Akka的通信, 如果不了解的可以看一下我的Demo,单击此处 ,这里主要进行的源码分析是:Spark重新启动的脚本,Spark作业 提交的脚本,Spark作业提交中SparkContext,Spark中SparkContext,执行器进程启动的流程和结合简单的WordCount 程序对于RDD执行流程进行剖析以及进行阶段划分分析和任务提交,最后也包含Sp
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:25165824
    • 提供者:weixin_42105570
  1. Ambari HDP 下 SPARK2 与 Phoenix 整合

  2. 1、环境说明 操作系统 CentOS Linux release 7.4.1708 (Core) Ambari 2.6.x HDP 2.6.3.0 Spark 2.x Phoenix 4.10.0-HBase-1.2 2、条件 HBase 安装完成 Phoenix 已经启用,Ambari界面如下所示: Spark 2安装完成 3、Spark2 与 Phoenix整合 Phoenix 官网整合教程: http://phoenix.apache.org/phoenix_sp
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:233472
    • 提供者:weixin_38516380
  1. 【spark2.4.4源码编译】windows环境编译spark2.4.4源码

  2. windows环境编译spark2.4.4源码环境要求环境安装源码下载源码编译注意事项后记 环境要求 操作系统环境:Windows 10(Windows7、Windows8亦可) Java版本: jdk1.8 Scala版本:2.11.0 Maven版本:3.5.4 Git版本:版本无要求 以上相关组件的版本是根据spark2.4.4源码的pom文件里的组件版本进行梳理的: 1.8 3.5.4 2.11.12 根据这组配置,本人已经成功编译数遍。 环境安装 1、Git Bash 首先说明
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:350208
    • 提供者:weixin_38658568
« 12 »