您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. protobuf-2.5.0.tar.gz

  2. Hadoop2.x安装必须的通信包,google的protobuf协议,google官网已经下载不了了,特地传到此处,供大家使用! 在编译hadoop的时候,是必须要安装这个的,否则编译会失败的
  3. 所属分类:其它

    • 发布日期:2015-06-24
    • 文件大小:2097152
    • 提供者:u010454030
  1. hadoop-2.x的环境搭建

  2. 关于hadoop2.x的安装,其中包括了一个完整的集群以及各种hadoop组件的安装和部署,解压包中包括了四篇的安装教程,超级完整。
  3. 所属分类:Java

    • 发布日期:2017-04-29
    • 文件大小:18874368
    • 提供者:qqq824908000
  1. Hadoop2.x版本完全分布式安装与部署

  2. Hadoop2.x版本完全分布式安装与部署,介绍完整过程,有图,条理十分清晰,包看包会。上课专用。
  3. 所属分类:Hadoop

    • 发布日期:2017-05-28
    • 文件大小:1037312
    • 提供者:u014052243
  1. winutils.64bit

  2. winutils.exe是hadoop中的服务进程,这个是64位版本,hadoop是由apache推出的分布式系统基础构架,多适用于web开发者使用,如果在配置hadoop的时候出现了找不到winutils.exe文件的问题可以使用。 windows配置hbase异常解决方法: 1.hbase是完全依赖hadoop的,hadoop为了满足windows用户提供了启动环境,在hadoopX.X/bin/下边的winutils.exe 2.但是从Hadoop2.2开始,此文件不再打包到压缩包里。
  3. 所属分类:Hadoop

    • 发布日期:2017-11-15
    • 文件大小:1048576
    • 提供者:tuichike3668
  1. spark-2.0.2-bin-hadoop2.4.tgz

  2. spark安装包 支持JDK7、hadoop2.4/2.5/2.6 需要scala2.11.X 解决官网下载速度慢 网络延迟高的问题。
  3. 所属分类:spark

  1. spark2.3.0-hadoop2.6.tgz

  2. 解压后改名并修改spark-env.sh和slaves,提前安装scala11.x和hadoop2.6。
  3. 所属分类:spark

    • 发布日期:2018-07-23
    • 文件大小:223346688
    • 提供者:baidu_38025516
  1. hadoop高可用搭建

  2. hadoop集群搭建高可用文档在Hadoop2.x之后的版本,提出了解决单点问题的方案--HA(High Available 高可用)。这篇博客阐述如何搭建高可用的HDFS和YARN,执行步骤如下: 创建hadoop用户 安装JDK 配置hosts 安装SSH 关闭防火墙 修改时区 ZK(安装,启动,验证) HDFS+HA的结构图 角色分配 环境变量配置 核心文件配置 slave 启动命令(hdfs和yarn的相关命令) HA的切换 效果截图   下面我们给出下载包的链接地址:   zooke
  3. 所属分类:其它

    • 发布日期:2018-11-13
    • 文件大小:11264
    • 提供者:qq_36174334
  1. hadoop-2.4.1安装软件包以及教程jdk.zip

  2. 1.准备Linux环境 1.0点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改subnet ip 设置网段:192.168.1.0 子网掩码:255.255.255.0 -> apply -> ok 回到windows --> 打开网络和共享中心 -> 更改适配器设置 -> 右键VMnet1 -> 属性 -> 双击IPv4 -> 设置window
  3. 所属分类:Hadoop

    • 发布日期:2019-10-25
    • 文件大小:193986560
    • 提供者:u011280364
  1. snappy-1.1.1.tar.gz

  2. 服务安装包,hadoop2.x的编译 & hadoop-snappy编译 & hadoop2.x 配置 snappy压缩
  3. 所属分类:互联网

    • 发布日期:2020-04-27
    • 文件大小:926720
    • 提供者:lfy609225258
  1. hadoop3.x盘地址及官方其他版本下载地址.rar

  2. 文件中包含了hadoop3.x版本的hadoop无需编译安装包(linux版本)百度盘地址。同时附上了官网上其他版本的下载地址。hadoop3.x比起hadoop2.x拥有更高的存储性能。
  3. 所属分类:Hadoop

    • 发布日期:2020-03-26
    • 文件大小:167
    • 提供者:qq_36203774
  1. Hadoop2.x安装包

  2. Hadoop是一个分布式系统基础框架,它的核心部分是HDFS和MapReduce。HDFS是基于流数据访问模式的分布式文件系统,支持海量数据的存储;MapReduce是分布式并行编程模型,用于进行大数据量的计算。
  3. 所属分类:Hadoop

    • 发布日期:2020-06-07
    • 文件大小:225443840
    • 提供者:qq_45069279
  1. 配置高可用的Hadoop平台

  2. 在Hadoop2.x之后的版本,提出了解决单点问题的方案--HA(HighAvailable高可用)。这篇博客阐述如何搭建高可用的HDFS和YARN。然后根据提示,设置密码。接着我给hadoop用户设置面免密码权限,也可自行添加其他权限。将下载好的安装包解压到/usr/java/jdk1.7,然后设置环境变量,命令如下:然后编辑配置,内容如下:然后使环境变量立即生效,命令如下:然后验证JDK是否配置成功,命令如下:若显示对应版本号,即表示JDK配置成功。否则,配置无效!集群中所有机器的hosts
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:832512
    • 提供者:weixin_38678796
  1. 配置高可用的Hadoop平台

  2. 在Hadoop2.x之后的版本,提出了解决单点问题的方案--HA(HighAvailable高可用)。这篇博客阐述如何搭建高可用的HDFS和YARN。然后根据提示,设置密码。接着我给hadoop用户设置面免密码权限,也可自行添加其他权限。将下载好的安装包解压到/usr/java/jdk1.7,然后设置环境变量,命令如下:然后编辑配置,内容如下:然后使环境变量立即生效,命令如下:然后验证JDK是否配置成功,命令如下:若显示对应版本号,即表示JDK配置成功。否则,配置无效!集群中所有机器的hosts
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:832512
    • 提供者:weixin_38715008
  1. spark-源码

  2. 阿帕奇火花 下载Spark 本地版本: 日期:2021年3月 Spark版本3.1.1; 程序包类型“为Hadoop 2.7预先构建”; openjdk 15.0.2; python 3.9.2和pyspark; PySpark外壳 在Linux / OS X上启动PySpark $HOME/spark-3.1.1-bin-hadoop2.7/bin/pyspark 或使用pip安装并启动pyspark pip install pyspark pyspark 理论 参考:《火花在行动》第
  3. 所属分类:其它

    • 发布日期:2021-03-31
    • 文件大小:3072
    • 提供者:weixin_42127783