您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Spark源码分析 文档

  2. Spark源码分析文档。1,相关知识(Scala,Akka)2.运行实例 3.共享变量 4.RDD 5.RDD的物理计算逻辑 6.Serializer 7.DAGScheduler 8.TaskScheduler 9.Executor 10.部署模式 11.Shuffle 12.Storage模块13.MLlib
  3. 所属分类:Java

    • 发布日期:2015-09-26
    • 文件大小:417792
    • 提供者:u012585795
  1. Spark & SparkSql编程学习资料

  2. Spark编程学习资料 、 SparkSql Python 编程实例 第1章 Spark编程模型 第2章 构建Spark分布式集群 第3章 Spark开发环境及其测试 第4章 Spark RDD与编程API实战 第5章 Spark运行模式深入解析 第6章 Spark内核解析 第7章 GraphX大规模图计算与图挖掘实战 第8章 Spark SQL原理与实战 第9章 Machine Learning on Spark 第10章 Tachyon文件系统 第11章 Spark Streaming原理
  3. 所属分类:spark

    • 发布日期:2018-03-28
    • 文件大小:49283072
    • 提供者:ao1682012
  1. intellij开发Spark配置说明

  2. 纯新手配置Intellij,可完全上手。并总结可能遇到的问题提示及解决方法,部分内容概述如下: 问题如何解决:NoSuchMethodError: scala.collection.JavaConverters,版本不匹配错误;java.lang.NoClassDefFoundError:org/apache/hadoop/fs/FSDataInputStream,无Hadoop包错误 Project创建及配置: 1. 可通过Import spark-2.4.2-bin-hadoop2.7中的
  3. 所属分类:spark

    • 发布日期:2019-06-28
    • 文件大小:132120576
    • 提供者:wangshixia1988
  1. Apache atlas使用说明文档.pdf

  2. 元数据管理apache atlas 自己总结的使用说明文档。主要包括Apache atlas 第一章: Apache atlas简介 1.1 apache atlas 架构介绍 2 1.1.1核心组件Core 2 1.1.2 Integration 4 1.1.3 Metadata source 4 1.1.4 应用领域 4 .2 apache atlas基本功能 4 第二章: Atlas Admin UI 使用介绍 5 2.1 Search 5 2.1.1 BASE SEARCH 5 2.1
  3. 所属分类:Hive

    • 发布日期:2019-10-17
    • 文件大小:2097152
    • 提供者:weixin_43597282
  1. spark-2.4.0-bin-hadoop-2.7.3-hive.tgz

  2. 基于Hadoop-2.7,手动源码编译的Spark-2.4,支持hive,
  3. 所属分类:spark

    • 发布日期:2019-03-04
    • 文件大小:120
    • 提供者:u011436316
  1. kubernetes handbook

  2. 最全的使用手册。记录了从零开始学习kubernetes的心路历程。着重于经验分享及总结。同时也会有相关概念解析。ConfigMap 2.3.15 ConfigMap的热更新 2.3.15 Horizontal Pod Autoscaling 2.3.16 Label 2.3.17 垃圾收集 2.3.18 NetworkPolicy 2.3.19 Annotation 2.3.20 用户指南 用户指南 3.1 资源对象配置 3.2 配置Pod的 liveness和 readiness探针 3.2.
  3. 所属分类:kubernetes

    • 发布日期:2019-03-02
    • 文件大小:38797312
    • 提供者:cqkey
  1. spark-2.4.7:spark-2.4.7源码-源码

  2. 阿帕奇火花 Spark是用于大数据的快速通用集群计算系统。 它提供了Scala,Java,Python和R中的高级API,以及优化的引擎,该引擎支持用于数据分析的通用计算图。 它还支持丰富的高级工具集,包括用于SQL和DataFrames的Spark SQL,用于机器学习的MLlib,用于图形处理的GraphX和用于流处理的Spark Streaming。 在线文件 您可以在找到最新的Spark文档,包括编程指南。 此自述文件仅包含基本的安装说明。 建筑火花 Spark是使用构建的。 要构建Sp
  3. 所属分类:其它

    • 发布日期:2021-03-23
    • 文件大小:23068672
    • 提供者:weixin_42178688
  1. Wiki:Spark探索全文Wikipedia文章-源码

  2. 维基百科 计算编程语言的排名 1.您需要下载数据(133 MB): : 2.您需要将wikipedia.dat文件放在项目目录中的src/main/resources/wikipedia文件夹中。 3.安装JDK-8 4.安装sbt-1.4.7 5.打开Intellij IDEA并安装Scala插件 [ ] 6.选择导入项目,然后打开项目的build.sbt文件。 7.使用sbt.version = 1.4.7 8.运行维基百科排名 9.转到SparkUI http://localhost
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:5120
    • 提供者:weixin_42117340
  1. cathay_test-源码

  2. 一切之前 CD(连续交付):请注意因为这个projets在gitlab并没有和任何系统串接,所以没有做到CD,请注意 能否支持Spark:目前暂时仅支持Spark本地模式 测试使用的docker image的spark安装目录: /opt/spark/latest pyspark路径: /opt/spark/latest/bin/中可以看到pyspark Docker映像包信息 的OpenJDK 8 Python 2和Python 3 火花2.4.3-hadoop-2.7 CentOS的
  3. 所属分类:其它

    • 发布日期:2021-03-12
    • 文件大小:17408
    • 提供者:weixin_42126668
  1. DockerSpark245:带有示例培训Jupyter笔记本的Docker容器中的Spark集群-源码

  2. Docker集群中的Spark和Kafka 此构建基于以下文章: : 由编写,然后进行了调整和扩展以包括Spark Streaming和PySpark兼容性。 两个节点的群集和一个spark主节点被构建为Docker映像以及单独的JupyterLab环境。 每个服务器都在单独的容器中运行,并共享一个网络和共享的文件系统。 Spark和Hadoop配置和发布信息 Spark版本2.4.5用于确保与PySpark和Kafka的兼容性,并启用与PySpark兼容的Spark流。 Hadoop版本
  3. 所属分类:其它

    • 发布日期:2021-03-12
    • 文件大小:288768
    • 提供者:weixin_42131785
  1. bdp-base:大数据生态解决方案基础平台-源码

  2. 大数据生态解决方案基础平台 1.1基础搜索 技术:java, db,es 搜索系统 统一搜索入口,搜索nosql db、es、db的数据 1.2碱基共通 技术:java, db, spring cloud 公共系统 属于公共系统抽离,提供基础公共服务 1.3基本任务 任务管理系统 场景1:数据分析的task管理 场景2:跑数据的task管理 场景3:定时task管理 1.4基渠 数据binlog采集 配置mysql binlog, 实时采集到kakfa队列,然后基于kafka队列做spar
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:9437184
    • 提供者:weixin_42107561
  1. BigData_Movie-Recommendation-System:一个简单的电影推荐系统-源码

  2. 简单的电影推荐系统 采用协同过滤算法生成模型,进行预测推荐 实验环境:Ubuntu 19.04 + Hadoop 2.9.0 + Spark 2.4.3 + Python 3.7.3 实验工具:Jupyter笔记本 具体内容:ml-100k.zip文件是此实验的数据集,使用其中的u.data和u.item文件。
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:4194304
    • 提供者:weixin_42174176
  1. learning-bigdata-from-zero-源码

  2. 程序员从零单排之大数据学习 1.从零单排HDFS 2.从零单排Zookeeper 3.从零单排Hive 4.从零单排水槽 5.从零单排Kafka 6.从零单排Redis 7.从零单排Hbase 8.从零单排ElasticSearch 9.从零单排Cassandra 10.从零单排Scala 11.从零单排Spark 12.从零单排Storm 13.从零单排Flink
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:68608
    • 提供者:weixin_42165018
  1. pyspark-源码

  2. pyspark 该存储库专用于pyspark的代码段。 该代码已针对为Hadoop 2.7.3构建的Spark 2.4.6进行了测试。 注意:为了通过pyspark连接到Mongodb,您需要其他jar文件,具体取决于您使用的spark版本。 有用链接:
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:4194304
    • 提供者:weixin_42134240
  1. glue_local-源码

  2. AWS Glue模拟库 重要提示:该库正在开发中,尚未稳定 引言 目标是能够在本地运行Glue代码,跳过所有特定于Cloud的功能,使用本地模拟文件并仅测试pyspark转换。 在最好的情况下,您具有相同的代码,可以使用此库在本地运行该代码,在最坏的情况下,您必须稍稍调整代码,但仍与云保持向后兼容。 该库基于官方的AWS Glue存储库并适用于Python 3 安装,准备和运行 安装python3 安装火花 对于Spark 2.4,您将需要Java 8 对于Spark 3-Java 11
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:53248
    • 提供者:weixin_42140625
  1. BigDL教程:使用BigDL的Apache Spark分步深入学习教程-源码

  2. 使用BigDL在Apache Spark上进行深度学习的教程 使用在Apache Spark上的分步深度学习教程。 这些教程的灵感来自, 和。 主题 环境 的Python 3.5 / 3.6 JDK 8 Apache Spark> = 2.2.1 Jupyter笔记本电脑4.1 大DL 0.7.0 / 启动Jupyter服务器 运行pip install BigDL==0.7.0 运行jupyter notebook --notebook-dir=./ --ip=0.0.0.0
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:11534336
    • 提供者:weixin_42101384
  1. guofei9987.github.io:我的博客-源码

  2. 0-读论文(7篇) 文章编号 文章译文 链接 0 【读论文】先知 1个 【论文笔记】在神经网络中提取知识 2 【论文笔记】深层神经网络很容易被愚弄 3 【论文笔记】深度神经网络的特征如何可传递 4 【论文笔记】CNN具有现成的功能 5 【论文笔记】CNN中级图像表示的学习和传递 6 【论文笔记】CNN的可视化与理解 1-1-算法平台(16篇) 文章编号 文章译文 链接 101 【Linux】常用命令 103 git语法速查表。 141 【Docker】入门 150 【SQL】
  3. 所属分类:其它

    • 发布日期:2021-02-22
    • 文件大小:2097152
    • 提供者:weixin_42110362
  1. docker-spark-stand-alone:Spark 2.4.7独立docker镜像-源码

  2. Docker Spark独立 概括 Spark 2.4.7独立docker映像 这是的Docker映像 要求 包裹 版本 python3 3.8.5 码头工人 20.10.2 码头工人组成 1.27.4 火花 2.4.7 怎么跑 该映像可用于使用 安装docker-compose 运行docker-compose up 。 ~ /projects/personal/docker-spark-stand-alone$ sudo docker-compose up Creating sp
  3. 所属分类:其它

    • 发布日期:2021-02-13
    • 文件大小:105472
    • 提供者:weixin_42118011
  1. sf-crime-statistics-spark-streaming:使用Spark Streaming的旧金山犯罪统计-源码

  2. 使用Spark Streaming进行旧金山犯罪统计 在此项目中,我们分析了从Kaggle提取的SF犯罪率的真实数据集,以使用Apache Spark结构化流技术提供统计分析。 先决条件 在继续之前,有必要安装下一个软件: Scala2.11 Java 1.8(openJDK 8) 使用Scala 2.11构建Kafka Python 3.6或3.7 Spark 2.4.7(如果需要WebUI中的“结构化流”选项卡,则为Spark 3.0.1和Scala 2.12) 步骤测试软件 作为
  3. 所属分类:其它

    • 发布日期:2021-02-12
    • 文件大小:344064
    • 提供者:weixin_42139302
  1. pypmml-spark:PySpark作为SparkML Transformer的Python PMML评分库-源码

  2. PyPMML火花 PyPMML-Spark是PySpark的Python PMML评分库,称为SparkML Transformer,它实际上是的Python API。 先决条件 Java> = 1.8 Python 2.7或> = 3.5 依存关系 模组 PySpark PySpark> = 3.0.0 PySpark> = 2.4.0,<3.0.0 安装 pip install pypmml-spark 或从github安装最新版本: pip insta
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:4194304
    • 提供者:weixin_42107491
« 12 »