您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. hadoop 源码分析

  2. 作为目前对Hadoop开源系统的代码级的分析,这篇文档可谓详之又详,但是还是需要各位花费点时间和经历来研究,可以对照官方给出的框架,去查找自己关心的部分。
  3. 所属分类:专业指导

    • 发布日期:2010-05-20
    • 文件大小:4194304
    • 提供者:jinking01
  1. hadoop源码分析-HDFS

  2. 经济不行啦,只好潜心研究技术。 Google的核心竞争技术是它的计算平台。Google的大牛们用了下面5篇文章,介绍了它们的计算设施。 GoogleCluster: http://research.google.com/archive/googlecluster.html Chubby:http://labs.google.com/papers/chubby.html GFS:http://labs.google.com/papers/gfs.html BigTable:http://labs
  3. 所属分类:Java

    • 发布日期:2011-03-30
    • 文件大小:4194304
    • 提供者:zyh1159
  1. hadoop源码分析-HDFS部分

  2. 经济不行啦,只好潜心研究技术。 Google的核心竞争技术是它的计算平台。Google的大牛们用了下面5篇文章,介绍了它们的计算设施。 GoogleCluster: http://research.google.com/archive/googlecluster.html Chubby:http://labs.google.com/papers/chubby.html GFS:http://labs.google.com/papers/gfs.html BigTable:http://labs
  3. 所属分类:Web开发

    • 发布日期:2011-05-13
    • 文件大小:4194304
    • 提供者:whycoder
  1. hadoop 源码分析全

  2. 一个比较详细的hadoop源码分析文档,内容很详实,包括hadoop、hdfs、hive等等等
  3. 所属分类:互联网

  1. hadoop源码分析

  2. hadoop源码分析 前,基于类似思想的Open Source项目还很多,如Facebook用于用户分析的Hive。 HDFS作为一个分布式文件系统,是所有这些项目的基础。分析好HDFS,有利于了解其他系统。由于Hadoop的HDFS和MapReduce是同一个项目,我们就把他们放在一块,进行分析。
  3. 所属分类:Java

    • 发布日期:2012-03-13
    • 文件大小:5242880
    • 提供者:yange1203
  1. hadoop源码分析

  2. Google的核心竞争技术是它的计算平台。Google的大牛们用了下面5篇文章,介绍了它们的计算设施。 GoogleCluster: http://research.google.com/archive/googlecluster.html Chubby:http://labs.google.com/papers/chubby.html GFS:http://labs.google.com/papers/gfs.html BigTable:http://labs.google.com/pape
  3. 所属分类:Java

    • 发布日期:2012-12-06
    • 文件大小:5242880
    • 提供者:haojun186
  1. hive词法语法分析草稿0.3

  2. antlr的应用实例教程 hive源码分析 从词法语法语义解析到执行计划的生成优化以及执行。
  3. 所属分类:其它

    • 发布日期:2013-10-07
    • 文件大小:965632
    • 提供者:sjjf
  1. hadoop源码分析

  2. 目前,基于类似思想的Open Source项目还很多,如Facebook用于用户分析的Hive。 HDFS作为一个分布式文件系统,是所有这些项目的基础。分析好HDFS,有利于了解其他系统。由于Hadoop的HDFS和MapReduce是同一个项目,我们就把他们放在一块,进行分析。 下图是MapReduce整个项目的顶层包图和他们的依赖关系。Hadoop包之间的依赖关系比较复杂,原因是HDFS提供了一个分布式文件系统,该系统提供API,可以屏蔽本地文件系统和分布式文件系统,甚至象Amazon S
  3. 所属分类:Java

    • 发布日期:2013-10-09
    • 文件大小:5242880
    • 提供者:shizhongwen
  1. Hadoop源码分析完整版

  2. Google的核心竞争技术是它的计算平台。Google的大牛们用了下面5篇文章,介绉了它们的计算设施。 GoogleCluster: http://research.google.com/archive/googlecluster.html Chubby:http://labs.google.com/papers/chubby.html GFS:http://labs.google.com/papers/gfs.html BigTable:http://labs.google.com/pape
  3. 所属分类:专业指导

    • 发布日期:2014-03-06
    • 文件大小:5242880
    • 提供者:dongqing0812
  1. Hadoop源码分析完整版

  2. 目前,基于类似思想的Open Source项目还很多,如Facebook用于用户分析的Hive。 HDFS作为一个分布式文件系统,是所有这些项目的基础。分析好HDFS,有利于了解其他系统。由于Hadoop的HDFS和MapReduce是同一个项目,我们就把他们放在一块,进行分析。
  3. 所属分类:其它

    • 发布日期:2015-07-21
    • 文件大小:6291456
    • 提供者:mj327
  1. hive源码分析

  2. hive 源码分析
  3. 所属分类:数据库

    • 发布日期:2016-05-25
    • 文件大小:308224
    • 提供者:s646575997
  1. Hive on Spark源码分析DOC

  2. Hive on Spark源码分析,实际场景中会遇到需求:将Hive默认的执行引擎MapReduce换成Spark或者Tez。
  3. 所属分类:Hive

    • 发布日期:2017-12-18
    • 文件大小:452608
    • 提供者:asas1314
  1. 深入理解Spark 核心思想与源码分析

  2. 深入理解Spark 核心思想与源码分析 ,耿嘉安完整版,大数据spark开发必备,你值得拥有。清晰完整版 《深入理解SPARK:核心思想与源码分析》结合大量图和示例,对Spark的架构、部署模式和工作模块的设计理念、实现源码与使用技巧进行了深入的剖析与解读。, 《深入理解SPARK:核心思想与源码分析》一书对Spark1.2.0版本的源代码进行了全面而深入的分析,旨在为Spark的优化、定制和扩展提供原理性的指导。阿里巴巴集团专家鼎力推荐、阿里巴巴资深Java开发和大数据专家撰写。, 本书分为
  3. 所属分类:spark

    • 发布日期:2018-05-22
    • 文件大小:39845888
    • 提供者:jyh2005
  1. 深入理解Spark 核心思想与源码分析

  2. 在深入了解一个系统的原理、实现细节之前,应当先准备好它的源码编译环境、运行环境。如果能在实际环境安装和运行Spark,显然能够提升读者对于Spark的一些感受,对系统能有个大体的印象,有经验的技术人员甚至能够猜出一些Spark采用的编程模型、部署模式等。当你通过一些途径知道了系统的原理之后,难道不会问问自己?这是怎么做到的。如果只是游走于系统使用、原理了解的层面,是永远不可能真正理解整个系统的。很多IDE本身带有调试的功能,每当你阅读源码,陷入重围时,调试能让我们更加理解运行期的系统。如果没有
  3. 所属分类:spark

    • 发布日期:2018-10-06
    • 文件大小:42991616
    • 提供者:kuigoutang2400
  1. 深入理解Spark 核心思想与源码分析

  2. 本书对Spark源代码进行了全面而深入的分析,旨在为Spark的优化、定制和扩展提供原理性的指导。阿里巴巴集团专家鼎力推荐,阿里巴巴资深Java开发和大数据专家撰写。本书对Spark的核心模块、部署和协作模块的实现原理与使用技巧进行了深入的剖析与解读。   本书分为三篇:   准备篇(第1~2章),介绍了Spark的环境搭建、设计理念与基本架构,帮助读者了解一些背景知识。   核心设计篇(第3~7章),着重讲解SparkContext的初始化、存储体系、任务提交与执行、计算引擎及部署模式的原理
  3. 所属分类:spark

    • 发布日期:2019-04-04
    • 文件大小:41943040
    • 提供者:fd2025
  1. Spark-2.3.1源码解读

  2. Spark-2.3.1源码解读。 Spark Core源码阅读 Spark Context 阅读要点 Spark的缓存,变量,shuffle数据等清理及机制 Spark-submit关于参数及部署模式的部分解析 GroupByKey VS ReduceByKey OrderedRDDFunctions那些事 高效使用mappartitions standalone模式下executor调度策略 Spark Sql源码阅读 Spark Sql源码阅读 hive on spark调
  3. 所属分类:spark

    • 发布日期:2019-10-20
    • 文件大小:15728640
    • 提供者:bruce__ray
  1. SparkSQL源码分析之核心流程

  2. 自从去年SparkSubmit2013MichaelArmbrust分享了他的Catalyst,到至今1年多了,SparkSQL的贡献者从几人到了几十人,而且发展速度异常迅猛,究其原因,个人认为有以下2点:1、整合:将SQL类型的查询语言整合到Spark的核心RDD概念里。这样可以应用于多种任务,流处理,批处理,包括机器学习里都可以引入Sql。2、效率:因为Shark受到hive的编程模型限制,无法再继续优化来适应Spark模型里。前一段时间测试过Shark,并且对SparkSQL也进行了一些测
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:678912
    • 提供者:weixin_38663608
  1. Zeppelin源码分析—Zeppelin的设计思想

  2. ApacheZeppelin是一个基于Web的交互式数据分析开源框架,提供了数据分析、数据可视化等功能。支持多种语言,包括Scala、Python、SparkSQL、Hive、Markdown、Shell等。本文从需求出发,探索Zeppelin的架构设计、技术选型、代码的模块划分和依赖关系的最初“出发点”,从而我们可以了解到Zeppelin为什么是这样设计的。Zeppelin的最核心的功能,用一句话总结就是:支持多语言repl的解释器。开发者可以自定义开发更多的解释器为Zeppelin添加执行引
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:386048
    • 提供者:weixin_38678773
  1. SparkSQL源码分析之核心流程

  2. 自从去年SparkSubmit2013MichaelArmbrust分享了他的Catalyst,到至今1年多了,Spark SQL的贡献者从几人到了几十人,而且发展速度异常迅猛,究其原因,个人认为有以下2点:1、整合:将SQL类型的查询语言整合到Spark的核心RDD概念里。这样可以应用于多种任务,流处理,批处理,包括机器学习里都可以引入Sql。2、效率:因为Shark受到hive的编程模型限制,无法再继续优化来适应Spark模型里。前一段时间测试过Shark,并且对SparkSQL也进行了一些
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:678912
    • 提供者:weixin_38668672
  1. Zeppelin源码分析—Zeppelin的设计思想

  2. ApacheZeppelin是一个基于Web的交互式数据分析开源框架,提供了数据分析、数据可视化等功能。支持多种语言,包括Scala、Python、SparkSQL、Hive、Markdown、Shell等。本文从需求出发,探索Zeppelin的架构设计、技术选型、代码的模块划分和依赖关系的最初“出发点”,从而我们可以了解到Zeppelin为什么是这样设计的。Zeppelin的最核心的功能,用一句话总结就是:支持多语言repl的解释器。开发者可以自定义开发更多的解释器为Zeppelin添加执行引
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:386048
    • 提供者:weixin_38631049
« 12 3 4 »