您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. hadoop-2.7-spark-2.1-搭建

  2. 自己在3台虚拟机环境搭建的hadoop,spark集群环境。 方便以后自己参考及流量 Linux 操作 增加用户 更改文件夹所属用户和组 安装Hadoop 2.1 安装说明 2.2每台机器安装scala 安装 2.11.8 版本 2.3安装配置zooekeeper集群(在150上 2.4每台机器安装hadoop2.7.3 版本 在 150 上操作 安装spark 2.1 3.1在150 上面解压spark2.1 3.2建立软链接 3.3 进行配置 3.4 启动服务
  3. 所属分类:Java

    • 发布日期:2017-01-09
    • 文件大小:234496
    • 提供者:favorbob
  1. spark2 安装教程

  2. 单独搭建spark2.0,和spark1.3共存,适用于新老spark版本共存的情况
  3. 所属分类:spark

    • 发布日期:2017-11-30
    • 文件大小:124928
    • 提供者:sunshineqi
  1. hadoop2.7.4 spark2.2.1 最新版本环境搭建

  2. 虚拟机3台服务器搭建集群环境,使用jdk1.8 ,最新的hadoop2.7.4 ,spark2.21。 提供给需要学习环境搭建人员的一点文档参考。 只是基础的环境搭建,不涉及具体开发技术逻辑,请选择下载。(ps:资源分最少只能选择2分,所以请见谅)
  3. 所属分类:spark

    • 发布日期:2017-12-17
    • 文件大小:1048576
    • 提供者:favorbob
  1. hadoop-Apache2.7.3+Spark2.0集群搭建

  2. 该文档主要介绍了hadoop、hive、hbase、kafka、Spark系统集群搭建,有环境准备说明、集群环境各配置文件配置、具体项目实例,可参考
  3. 所属分类:Hadoop

    • 发布日期:2018-06-01
    • 文件大小:2097152
    • 提供者:weixin_42349399
  1. windows10下spark2.3.0本地开发环境搭建-亲测

  2. windows10下spark2.3.0本地开发环境搭建 win10上部署Hadoop非Cygwin、非虚拟机方式。安装目录为D:\setupedsoft。涉及相关组件版本: win10 家庭装,64位,x86处理器 JDK1.8.0_171 hadoop-2.7.6 Spark-2.3.0 Scala-2.11.8 Maven-3.5.3 ideaIC-2018.1.4.exe spark-2.3.0-bin-hadoop2.7 对应博文:https://blog.csdn.net/hamb
  3. 所属分类:spark

    • 发布日期:2018-06-22
    • 文件大小:3145728
    • 提供者:hambition
  1. hadoop-Spark搭建视频教程(自己录制)

  2. 本视频是本人自己在给学弟培训时录制的视频,内容包括Hadoop2.6.0和Spark2.3.0的搭建及搭建文档。(绝对可行)
  3. 所属分类:讲义

    • 发布日期:2018-07-16
    • 文件大小:89128960
    • 提供者:zhouzhuo_csuft
  1. hadoop-Apache2.7.3+Spark2.0集群搭建

  2. 包括了:Hadoop2.7.3、Spark2.0、Zookeeper3.4.8、Hive、Hbase、Kafka2.10、Flume的环境搭建
  3. 所属分类:spark

    • 发布日期:2018-08-16
    • 文件大小:2097152
    • 提供者:silentwolfyh
  1. centos7.5分布式平台搭建.docx

  2. 产品名字 版本 centos 7.5 kubernetes 1.13 docker 18.09.5 JDK 1.8_131 SSH 7.4 etcd 3.3.10(API version:2) flannel 0.10.0 TOMCAT 8 Mysql 5.6 Ambari 2.7 HDP 3.0 ElasticSearch 6.5.1 Kibana 6.5.1 Logstash 6.5.1 Neo4j 3.4 esxi 6.5 MAVEN 3.6 ElasticSearch 6.5.1 Ki
  3. 所属分类:Java

    • 发布日期:2019-08-26
    • 文件大小:6291456
    • 提供者:juzhong0521
  1. spark-2.3.0-bin-hadoop277-without-hive.tgz

  2. spark2.3.0 without hive 编译版本,用于Hive on Spark 环境搭建 ./dev/make-distribution.sh --name "hadoop277-without-hive" --tgz "-Pyarn,hadoop-provided,hadoop-2.7,parquet-provided,orc-provided" -Dhadoop.version=2.7.7
  3. 所属分类:spark

    • 发布日期:2020-01-14
    • 文件大小:133169152
    • 提供者:ghl0451
  1. Python搭建Spark分布式集群环境

  2. 前言 Apache Spark 是一个新兴的大数据处理通用引擎,提供了分布式的内存抽象。Spark 最大的特点就是快,可比 Hadoop MapReduce 的处理速度快 100 倍。本文没有使用一台电脑上构建多个虚拟机的方法来模拟集群,而是使用三台电脑来搭建一个小型分布式集群环境安装。 本教程采用Spark2.0以上版本(比如Spark2.0.2、Spark2.1.0等)搭建集群,同样适用于搭建Spark1.6.2集群。 安装Hadoop并搭建好Hadoop集群环境 Spark分布式集群的
  3. 所属分类:其它

    • 发布日期:2021-01-01
    • 文件大小:130048
    • 提供者:weixin_38693419