您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. spark 代码示例

  2. spark 代码示例 介绍了基本的代码使用情况,入门参考,新手级
  3. 所属分类:其它

    • 发布日期:2014-09-12
    • 文件大小:886784
    • 提供者:yhg_1980
  1. Spark 实战开发教程

  2. 最近在学习Apache Spark,搜集些资料(共5个文档),供大家分享。 1、《Spark实战高手之路-从零开始》 2、《Spark开发环境配置及流程(Intellij_IDEA)》 3、《spark官方文档中文版》 4、《Spark 入门之 Scala 语言解释及示例讲解》 5、《Scala编码规范》 总结: Hadoop MapReduce会被新一代的大数据处理平台替代是技术发展的趋势,而在新一代的大数据处理平台中,Spark目前得到了最广泛的认可和支持。
  3. 所属分类:其它

    • 发布日期:2016-03-29
    • 文件大小:22020096
    • 提供者:itlhb
  1. spark local下 WordCount运行示例

  2. spark local下 WordCount运行示例,maven项目,直接导入eclipse即可
  3. 所属分类:Java

    • 发布日期:2016-08-14
    • 文件大小:10240
    • 提供者:xsdxs
  1. ApacheCN - Apache Spark 2.0.2 中文官方文档 - v0.1.0.pdf版下载

  2. ApacheCN - Apache Spark 2.0.2 中文文档 - v0.1.0.pdf 网页地址为 : http://www.apache.wiki/pages/viewpage.action?pageId=2883613 Apache Spark 2.0.2 中文文档 Spark 概述 编程指南 快速入门 Spark 编程指南 概述 Spark 依赖 Spark 的初始化 弹性分布式数据集(RDDS) 共享变量 部署应用到集群中 使用 Java / Scala 运行 spark Jo
  3. 所属分类:其它

    • 发布日期:2017-04-17
    • 文件大小:4194304
    • 提供者:u012185296
  1. Spark学习--RDD编码

  2. RDD:弹性分布式数据集(ResilientDistributed Dataset),是Spark对数据的核心抽象。RDD其实是分布式的元素集合。当Spark对数据操作和转换时,会自动将RDD中的数据分发到集群,并将操作并行化执行。 Spark中的RDD是一个不可变的分布式对象集合。每个RDD都倍分为多个分区,这些分区运行在集群中的不同节点。RDD可以包含Python、Java、Scala中任意类型的对象,甚至可以包含用户自定义对象,本文主要通过Java实现相关示例。 Spark程序或shel
  3. 所属分类:Java

    • 发布日期:2017-05-09
    • 文件大小:10240
    • 提供者:a123demi
  1. Spark学习---统计文件单词出现次数

  2. 上一节我们简单介绍了RDD中转化和执行操作的用法,本节将通过一个具体的示例来加深对RDD的认识。 一.需求 统计本地文件中单词出现次数 二.操作流程 1.读取外部文件创建JavaRDD; 2.通过flatMap转化操作切分字符串,获取单词新JavaRDD; 3.通过mapToPair,以key为单词,value统一为1的键值JavaPairRDD; 4.通过reduceByKey,累计叠加每个key,统计单词出现次数; 三.代码实现 四.下载代码
  3. 所属分类:Java

    • 发布日期:2017-05-12
    • 文件大小:13312
    • 提供者:a123demi
  1. Spark最全操作完整示例代码

  2. 最全Spark操作完整示例代码-------是基于java的。 包含所有的spark常用算子操作和ml以及mlib、sparkstreaming、sparkSQL操作的示例DEMO。 内附有详细说明,由于内容过大删除了两个jar包,需要自己去下载,spark的安装包下的有这两个包,导入项目即可。懒得改maven项目了。 适合有一定基础和已经工作的人员下载学习。 个人Github: https://github.com/huangyueranbbc
  3. 所属分类:spark

    • 发布日期:2017-08-03
    • 文件大小:43
    • 提供者:huangyueranbbc
  1. spark官方文档

  2. 1 概述(Overview) Spark SQL是Spark的一个组件,用于结构化数据的计算。Spark SQL提供了一个称为DataFrames的编程抽象,DataFrames可以充当分布式SQL查询引擎。 2 DataFrames DataFrame是一个分布式的数据集合,该数据集合以命名列的方式进行整合。DataFrame可以理解为关系数据库中的一张表,也可以理解为R/Python中的一个data frame。DataFrames可以通过多种数据构造,例如:结构化的数据文件、hive中的
  3. 所属分类:spark

    • 发布日期:2017-09-01
    • 文件大小:15728640
    • 提供者:qq_39532946
  1. 深入理解Spark核心思想与源码分析

  2. 本书结合大量图和示例,对spark的架构,部署模式与工作模块的设计理念,实现源码与使用技巧进行了深入的剖析与解读
  3. 所属分类:spark

    • 发布日期:2017-09-05
    • 文件大小:60817408
    • 提供者:ryancl
  1. Big Data Analytics with Spark

  2. Big Data Analytics with Spark.pdf,一本很好的入门spark的书,特别是代码示例,很实用,这里提供影印版的,看着更舒服。
  3. 所属分类:spark

    • 发布日期:2017-09-24
    • 文件大小:4194304
    • 提供者:dmcpxy
  1. 深入理解Spark+核心思想与源码分析.pdf

  2. 深入理解Sp深入理解SPARK:核心思想与源码分析》结合大量图和示例,对Spark的架构、部署模式和工作模块的设计理念、实现源码与使用技巧进行了深入的剖析与解读。 《深入理解SPARK:核心思想与源码分析》一书对Spark1.2.0版本的源代码进行了全面而深入的分析,旨在为Spark的优化、定制和扩展提供原理性的指导。阿里巴巴集团专家鼎力推荐、阿里巴巴资深Java开发和大数据专家撰写。ark+核心思想与源码分析.pdf完整版
  3. 所属分类:spark

    • 发布日期:2017-11-19
    • 文件大小:60817408
    • 提供者:qq_30448629
  1. Spark 2.0.2 Spark 2.2 中文文档

  2. 本资源为网页,不是PDF Apache Spark 2.0.2 中文文档 Spark 概述 编程指南 快速入门 Spark 编程指南 概述 Spark 依赖 Spark 的初始化 Shell 的使用 弹性分布式数据集(RDDS) 并行集合 外部数据集 RDD 操作 RDD 持久化 共享变量 Broadcast Variables (广播变量) Accumulators (累加器) 部署应用到集群中 使用 Java / Scala 运行 spark Jobs 单元测试 Spark 1.0 版本前
  3. 所属分类:spark

    • 发布日期:2017-12-07
    • 文件大小:62
    • 提供者:huoyongjie698
  1. Spark Streaming 示例

  2. 包含kafka消息中间件的使用和Spark Streaming的示例。
  3. 所属分类:spark

    • 发布日期:2018-04-03
    • 文件大小:29696
    • 提供者:qq_28044241
  1. spark的详细资料

  2. spark从安装部署,到入门程序示例,到详细文档都有,还包括非常有用的spark学习笔记,如果需要请留言邮箱,会给发送完整的spark教学视频,上传资源大小限制,无法上传视频,欢迎下载,欢迎交流
  3. 所属分类:Java

    • 发布日期:2018-05-03
    • 文件大小:1048576
    • 提供者:rsharing
  1. Spark 入门之 Scala 语言解释及示例讲解

  2. spark官方文档中文版本,希望对于刚入门的同学有帮助。
  3. 所属分类:spark

    • 发布日期:2018-05-15
    • 文件大小:110592
    • 提供者:dl2277130327
  1. 深入理解Spark 核心思想与源码分析

  2. 深入理解Spark 核心思想与源码分析 ,耿嘉安完整版,大数据spark开发必备,你值得拥有。清晰完整版 《深入理解SPARK:核心思想与源码分析》结合大量图和示例,对Spark的架构、部署模式和工作模块的设计理念、实现源码与使用技巧进行了深入的剖析与解读。, 《深入理解SPARK:核心思想与源码分析》一书对Spark1.2.0版本的源代码进行了全面而深入的分析,旨在为Spark的优化、定制和扩展提供原理性的指导。阿里巴巴集团专家鼎力推荐、阿里巴巴资深Java开发和大数据专家撰写。, 本书分为
  3. 所属分类:spark

    • 发布日期:2018-05-22
    • 文件大小:39845888
    • 提供者:jyh2005
  1. Spark的TopN示例

  2. Spark中实现MapReduce的TopN算法,分为唯一键TopN算法,非唯一键TopN算法和Group内的TopN算法
  3. 所属分类:spark

    • 发布日期:2018-06-10
    • 文件大小:99328
    • 提供者:luofazha2012
  1. spark源码以及官方的示例(方便阅读源码学习)

  2. 搜集好了的spark源码以及官方案例,方便感兴趣的人阅读源码去学习。:-D,
  3. 所属分类:spark

    • 发布日期:2018-07-08
    • 文件大小:1048576
    • 提供者:qq_38440882
  1. spark2官方示例源代码

  2. spark的官方示例源代码,包括wordcount,操作数据库,访问parqurt,json文件等等
  3. 所属分类:spark

    • 发布日期:2018-08-27
    • 文件大小:2097152
    • 提供者:cocoa2003
  1. SparkDemo, spark示例代码,有一些生产实践.zip

  2. SparkDemo, spark示例代码,有一些生产实践 SparkDemo我们还提供了一些实际的案例,这些案例是对真实场景的抽象,展示了一个实际项目开发需要考虑的问题,这些案例经过了充分测试,读者完全可以在实际项目中参考。hadoop: 2.6.0火花:1.6.1集群的搭建方式
  3. 所属分类:其它

    • 发布日期:2019-09-17
    • 文件大小:7340032
    • 提供者:weixin_38744207
« 12 3 4 5 6 7 8 9 10 »