您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. hadoop 源码分析

  2. 作为目前对Hadoop开源系统的代码级的分析,这篇文档可谓详之又详,但是还是需要各位花费点时间和经历来研究,可以对照官方给出的框架,去查找自己关心的部分。
  3. 所属分类:专业指导

    • 发布日期:2010-05-20
    • 文件大小:4194304
    • 提供者:jinking01
  1. hadoop源码分析-mapreduce部分.doc

  2. hadoop源码分析-mapreduce部分.doc
  3. 所属分类:专业指导

    • 发布日期:2010-12-07
    • 文件大小:2097152
    • 提供者:lianbiao190
  1. hadoop源码分析-mapreduce部分.doc

  2. hadoop源码分析-mapreduce部分.doc hadoop源码分析-mapreduce部分.doc
  3. 所属分类:其它

    • 发布日期:2011-03-17
    • 文件大小:2097152
    • 提供者:qachenzude
  1. hadoop源码分析-mapreduce部分

  2. 大家都熟悉文件系统,在对HDFS进行分析前,我们并没有花很多的时间去介绍HDFS的背景,毕竟大家对文件系统的还是有一定的理解的,而且也有很好的文档。在分析Hadoop的MapReduce部分前,我们还是先了解系统是如何工作的,然后再进入我们的分析部分。下面的图来自http://horicky.blogspot.com/2008/11/hadoop-mapreduce-implementation.html,是我看到的讲MapReduce最好的图。
  3. 所属分类:Web开发

    • 发布日期:2011-05-13
    • 文件大小:2097152
    • 提供者:whycoder
  1. hadoop源码分析-HDFS部分

  2. 经济不行啦,只好潜心研究技术。 Google的核心竞争技术是它的计算平台。Google的大牛们用了下面5篇文章,介绍了它们的计算设施。 GoogleCluster: http://research.google.com/archive/googlecluster.html Chubby:http://labs.google.com/papers/chubby.html GFS:http://labs.google.com/papers/gfs.html BigTable:http://labs
  3. 所属分类:Web开发

    • 发布日期:2011-05-13
    • 文件大小:4194304
    • 提供者:whycoder
  1. hadoop源码分析-HDFS部分

  2. 目前,基于类似思想的Open Source项目还很多,如Facebook用于用户分析的Hive。 HDFS作为一个分布式文件系统,是所有这些项目的基础。分析好HDFS,有利于了解其他系统。由于Hadoop的HDFS和MapReduce是同一个项目,我们就把他们放在一块,进行分析。
  3. 所属分类:群集服务

    • 发布日期:2012-10-21
    • 文件大小:4194304
    • 提供者:t890211
  1. hadoop源码分析

  2. 目前,基于类似思想的Open Source项目还很多,如Facebook用于用户分析的Hive。 HDFS作为一个分布式文件系统,是所有这些项目的基础。分析好HDFS,有利于了解其他系统。由于Hadoop的HDFS和MapReduce是同一个项目,我们就把他们放在一块,进行分析。 下图是MapReduce整个项目的顶层包图和他们的依赖关系。Hadoop包之间的依赖关系比较复杂,原因是HDFS提供了一个分布式文件系统,该系统提供API,可以屏蔽本地文件系统和分布式文件系统,甚至象Amazon S
  3. 所属分类:Java

    • 发布日期:2013-10-09
    • 文件大小:5242880
    • 提供者:shizhongwen
  1. MapReduce2.0源码分析与实战编程

  2. 《MapReduce 2.0源码分析与编程实战》比较系统地介绍了新一代MapReduce 2.0的理论体系、架构和程序设计方法。全书分为10章,系统地介绍了HDFS存储系统,Hadoop的文件I/O系统,MapReduce 2.0的框架结构和源码分析,MapReduce 2.0的配置与测试,MapReduce 2.0运行流程,MapReduce 2.0高级程序设计以及相关特性等内容。《MapReduce 2.0源码分析与编程实战》最后部分介绍了数据挖掘的初步知识,以及不同应用类型的MapRed
  3. 所属分类:Java

    • 发布日期:2014-06-06
    • 文件大小:8388608
    • 提供者:chencn722
  1. Hadoop源码分析完整版

  2. MapReduce整个项目的顶局包图和他们的依赖关系。Hadoop包乊间的依赖关系比较复杂,原因是HDFS提供了一个分布式文件系统,该系统提供API,可以屏蔽本地文件系统和分布式文件系统,甚至象Amazon S3返样的在线存储系统。返就造成了分布式文件系统的实现,戒者是分布式文件系统的底局的实现,依赖亍某些貌似高局的功能。功能的相亏引用,造成了蜘蛛网型的依赖关系。一个典型的例子就是包conf,conf用亍读叏系统配置,它依赖亍fs,主要是读叏配置文件的时候,需要使用文件系统,而部分的文件系统的
  3. 所属分类:讲义

    • 发布日期:2014-11-26
    • 文件大小:5242880
    • 提供者:zhibingzhu
  1. MapReduce 2.0源码分析与编程实

  2. 《MapReduce2.0源码分析与编程实战》比较系统地介绍了新一代MapReduce2.0的理论体系、架构和程序设计方法。全书分为10章,系统地介绍了HDFS存储系统,Hadoop的文件I/O系统,MapReduce2.0的框架结构和源码分析,MapReduce2.0的配置与测试,MapReduce2.0运行流程,MapReduce2.0高级程序设计以及相关特性等内容。《MapReduce2.0源码分析与编程实战》最后部分介绍了数据挖掘的初步知识,以及不同应用类型的MapReduce2.0编
  3. 所属分类:其它

    • 发布日期:2015-11-08
    • 文件大小:65011712
    • 提供者:hx0_0_8
  1. MapReduceV1:Job提交流程之JobClient端分析

  2. 我们基于Hadoop1.2.1源码分析MapReduceV1的处理流程。MapReduceV1实现中,主要存在3个主要的分布式进程(角色):JobClient、JobTracker和TaskTracker,我们主要是以这三个角色的实际处理活动为主线,并结合源码,分析实际处理流程。下图是《Hadoop权威指南》一书给出的MapReduceV1处理Job的抽象流程图:如上图,我们展开阴影部分的处理逻辑,详细分析Job提交在JobClient端的具体流程。在编写好MapReduce程序以后,需要将Jo
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:151552
    • 提供者:weixin_38612811
  1. MapReduceV1:Job提交流程之JobClient端分析

  2. 我们基于Hadoop1.2.1源码分析MapReduceV1的处理流程。MapReduceV1实现中,主要存在3个主要的分布式进程(角色):JobClient、JobTracker和TaskTracker,我们主要是以这三个角色的实际处理活动为主线,并结合源码,分析实际处理流程。下图是《Hadoop权威指南》一书给出的MapReduce V1处理Job的抽象流程图:如上图,我们展开阴影部分的处理逻辑,详细分析Job提交在JobClient端的具体流程。在编写好MapReduce程序以后,需要将J
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:151552
    • 提供者:weixin_38569675