您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. openfire+spark视频通话依赖包

  2. Openfire+Spark的开发环境,实际感受一下搭建整套IM通讯系统的过程,openfire + spark 视频通话 war包放在openfire的plugins下重启openfire jar包spark的plugins目录下即可实现视频聊天功能
  3. 所属分类:网管软件

    • 发布日期:2015-03-16
    • 文件大小:35651584
    • 提供者:stone1116
  1. Spark在TalkingData移动大数据平台的实践

  2. 2013年9月份,TalkingData开始尝试使用Spark解决数据挖掘性能问题。随着对Spark的逐渐了解,TalkingData开始将Spark应用到整个移动大数据平台的建设中。在移动大数据平台中,ETL过程、计算过程、数据挖掘、交互式数据提取等等都依赖于Spark。在这里,我将要介绍我们使用Spark的状况、平台架构、以及一些实践经验。当然也包括一些总结的最佳实践。
  3. 所属分类:其它

    • 发布日期:2016-04-28
    • 文件大小:834560
    • 提供者:zhong930
  1. Spark实时计算的开发平台RCS_ 阿里流式分析实战

  2. Spark开发者会将自己的代码完成开发并提交到YARN集群,之后任务的监控、报警、性能优化等都依赖于开发者本身;为此我们为Spark开发者提供一套可以完成任务提交、数据接入、任务监控、任务报警、错误日志查看的一体化实时计算的开发平台real-time computing service。通过我们的平台可以: 自助本地提交任务;jar包版本维护在HDFS上 数据接入覆盖主流中间件:Kafka、MetaQ、TT和SLS 任务的监控、报警、日志处理 Spark任务容灾 Spark集群容灾
  3. 所属分类:Java

    • 发布日期:2016-08-15
    • 文件大小:5242880
    • 提供者:taobai021
  1. bigdl-SPARK_2.0-0.1.0-20170116.182205-8-jar-with-dependencies-and-spark.jar

  2. bigdl-SPARK_2.0-0.1.0-20170116.182205-8-jar-with-dependencies-and-spark.jar 官方BigDL的prebuild包,内含spark依赖,可以直接scala -cp **.jar 进入REPL界面调试,使用。也可作为spark依赖库导入。如介意大小,请到oss中央仓库下载无spark依赖prebuild包。 项目git:https://github.com/intel-analytics/BigDL 本jar包原地址:htt
  3. 所属分类:其它

    • 发布日期:2017-02-09
    • 文件大小:170917888
    • 提供者:u011500720
  1. ApacheCN - Apache Spark 2.0.2 中文官方文档 - v0.1.0.pdf版下载

  2. ApacheCN - Apache Spark 2.0.2 中文文档 - v0.1.0.pdf 网页地址为 : http://www.apache.wiki/pages/viewpage.action?pageId=2883613 Apache Spark 2.0.2 中文文档 Spark 概述 编程指南 快速入门 Spark 编程指南 概述 Spark 依赖 Spark 的初始化 弹性分布式数据集(RDDS) 共享变量 部署应用到集群中 使用 Java / Scala 运行 spark Jo
  3. 所属分类:其它

    • 发布日期:2017-04-17
    • 文件大小:4194304
    • 提供者:u012185296
  1. Apache Spark的设计与实现 PDF中文版

  2. 本文主要讨论 Apache Spark 的设计与实现,重点关注其设计思想、运行原理、实现架构及性能调优,附带讨论与 Hadoop MapReduce 在设计与实现上的区别。不喜欢将该文档称之为“源码分析”,因为本文的主要目的不是去解读实现代码,而是尽量有逻辑地,从设计与实现原理的角度,来理解 job 从产生到执行完成的整个过程,进而去理解整个系统。 讨论系统的设计与实现有很多方法,本文选择 问题驱动 的方式,一开始引入问题,然后分问题逐步深入。从一个典型的 job 例子入手,逐渐讨论 job
  3. 所属分类:spark

    • 发布日期:2017-07-12
    • 文件大小:26214400
    • 提供者:whulovely
  1. spark官方文档

  2. 1 概述(Overview) Spark SQL是Spark的一个组件,用于结构化数据的计算。Spark SQL提供了一个称为DataFrames的编程抽象,DataFrames可以充当分布式SQL查询引擎。 2 DataFrames DataFrame是一个分布式的数据集合,该数据集合以命名列的方式进行整合。DataFrame可以理解为关系数据库中的一张表,也可以理解为R/Python中的一个data frame。DataFrames可以通过多种数据构造,例如:结构化的数据文件、hive中的
  3. 所属分类:spark

    • 发布日期:2017-09-01
    • 文件大小:15728640
    • 提供者:qq_39532946
  1. Spark学习笔记

  2. spark 可以很容易和yarn结合,直接调用HDFS、Hbase上面的数据,和hadoop结合。配置很容易。 spark发展迅猛,框架比hadoop更加灵活实用。减少了延时处理,提高性能效率实用灵活性。也可以与hadoop切实相互结合。 spark核心部分分为RDD。Spark SQL、Spark Streaming、MLlib、GraphX、Spark R等核心组件解决了很多的大数据问题,其完美的框架日受欢迎。其相应的生态环境包括zepplin等可视化方面,正日益壮大。大型公司争相实用sp
  3. 所属分类:spark

    • 发布日期:2017-11-06
    • 文件大小:34603008
    • 提供者:mr_liyang
  1. Spark学习笔记三

  2. Spark 共享变量——累加器(accumulator)与广播变量(broadcast variable) 广播变量 累加器 RDD持久化 Spark中的checkpoint作用与用法 Spark的运行模式 任务提交 宽赖窄依赖 Spark任务调度
  3. 所属分类:spark

    • 发布日期:2017-11-09
    • 文件大小:567296
    • 提供者:cvzhanshi
  1. Spark 2.0.2 Spark 2.2 中文文档

  2. 本资源为网页,不是PDF Apache Spark 2.0.2 中文文档 Spark 概述 编程指南 快速入门 Spark 编程指南 概述 Spark 依赖 Spark 的初始化 Shell 的使用 弹性分布式数据集(RDDS) 并行集合 外部数据集 RDD 操作 RDD 持久化 共享变量 Broadcast Variables (广播变量) Accumulators (累加器) 部署应用到集群中 使用 Java / Scala 运行 spark Jobs 单元测试 Spark 1.0 版本前
  3. 所属分类:spark

    • 发布日期:2017-12-07
    • 文件大小:62
    • 提供者:huoyongjie698
  1. Spark 源码编译完整教程(maven编译+sbt编译+编译工具包+操作步骤笔记+依赖包下载镜像设置)

  2. 自己学习并应用Spark一段时间后,由于需要改源代码,就研究了下怎么编译源码,成功编译后,记录下了编译的步骤和遇到的问题,例如编译过程中,下载大量的依赖包,默认从国外下载,非常慢,可能要编译好几个小时,通过设置国内镜像,10分钟就能编译好了,资料里面包含详细的镜像设置方法以及注意事项等。另外编译使用的工具可以是maven,也可以是sbt,我都研究过了,两种编译方法都予以描述,可根据自身喜好选用。
  3. 所属分类:spark

    • 发布日期:2018-03-08
    • 文件大小:9437184
    • 提供者:jangcy
  1. tensorflow on spark安装的部分资源包

  2. tensorflowonspark的资源包,主要是保证那些依赖关系的正确,这个官方的很坑,这是我自己收集的
  3. 所属分类:机器学习

    • 发布日期:2018-03-26
    • 文件大小:5242880
    • 提供者:huledebing
  1. spark-core_2.11-1.5.2.logging.jar解决spark升级没有log的jar包

  2. 解决Spark升级到2.1后测试streaming-kafkaIDEA报java.lang.NoClassDefFoundError: org/apache/spark/Logging错误,将这个jar包放到spark的lib目录中,将这个jar包导进IDEA中的依赖,文档中除资源地址外,还有详细图解说明
  3. 所属分类:spark

    • 发布日期:2018-05-27
    • 文件大小:152576
    • 提供者:yewakui2253
  1. pyspark-2.2.1

  2. spark依赖包下载pyspark-2.2.1.tar.gz xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
  3. 所属分类:IT管理

    • 发布日期:2018-07-19
    • 文件大小:187695104
    • 提供者:a1191254215
  1. window 运行spark所需文件

  2. hadoop2.20以上在使用eclipse远程链接时要安装一个winutils,否则在跑MR时会报一个空指针的异常。安装如下 下载一个winutils.exe (与windows系统位数保持一致)放入本地的hadoop源码里的 bin 目录下 然后在下载一个hadoop.dll的依赖为winutils使用,下载后放入C:\windows\System32下
  3. 所属分类:Hadoop

    • 发布日期:2018-08-04
    • 文件大小:79872
    • 提供者:qq_28719873
  1. spark-assembly-1.2.0-cdh5.3.4-hadoop2.5.0-cdh5.3.4

  2. spark+cdh+hadoop,在用CDH开发过程中,可能会出现缺少依赖包的情况,这个包可能会有用!
  3. 所属分类:spark

    • 发布日期:2018-08-17
    • 文件大小:97517568
    • 提供者:qq_34897813
  1. Databricks Spark 知识库

  2. Spark最佳实践 最佳实践 避免使用 GroupByKey 不要将大型 RDD 的所有元素拷贝到请求驱动者 常规故障处理 Job aborted due to stage failure: Task not serializable 缺失依赖 执行 start-all.sh 错误 - Connection refused Spark 组件之间的网络连接问题 性能 & 优化 一个 RDD 有多少个分区 数据本地性 Spark Streaming ERROR OneForOneStrategy
  3. 所属分类:spark

    • 发布日期:2018-01-26
    • 文件大小:1048576
    • 提供者:zhaolong1990ok
  1. scala程序依赖jar

  2. scala程序依赖jar,编写scala必须依赖的jar,否则编译不通过
  3. 所属分类:Java

    • 发布日期:2018-02-21
    • 文件大小:186646528
    • 提供者:wangqiang_cyou
  1. Spark-2.1.1-Java测试最小依赖包(经过严格测试)

  2. spark-2.1.1-Java测试最小依赖包,很多博客都写过,但是很多博客都没有经过验证,本依赖包是经过代码严格检测的,能够通过最简单的hbase数据写入,数据读取等操作的,请放心下载
  3. 所属分类:spark

    • 发布日期:2018-07-15
    • 文件大小:39845888
    • 提供者:y1170328179s
  1. spark依赖

  2. – 4.0.0 com.bjsxt.spark MySpark 1.0-SNAPSHOT – UTF-8 1.8 1.8 – – org.apache.spark spark-core_2.11 2.3.1 – org.apache.spark spark-sql_2.11 2.3.1 – org.apache.spark spark-hive_2.11 2.3.1 – mysql mysql-connector-java 5.1.47 – org.apache.spark spark-stre
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:18432
    • 提供者:weixin_38675746
« 12 3 4 5 6 7 »