您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 赫拉调度系统jar包(已编译)

  2. 基于zeus重写的分布式任务调度系统支持任务的定时调度、依赖调度、手动调度、手动恢复支持丰富的任务类型:shell,hive,python,spark-sql,java可视化的任务DAG图展示,任务的执行严格按照任务的依赖关系执行某个任务的上、下游执行状况查看,通过任务依赖图可以清楚的判断当前任务为何还未执行,删除该任务会影响那些任务。支持上传文件到hdfs,支持使用hdfs文件资源支持日志的实时滚动支持任务失败自动恢复实现集群HA,机器宕机环境实现机器断线重连与心跳恢复与hera集群HA,节
  3. 所属分类:Java

    • 发布日期:2019-03-15
    • 文件大小:89128960
    • 提供者:karonkaron
  1. 大数据.pdf

  2. 大数据理论知识讲解,及Hadoop的配置,4V属性讲解,Nosql2、搭建 Hadoop集群环境 21安装DK 见附件:《DK环境搭建.md》 22搭建z0 keeper集群 见附件:《乙K环境搭建.md》 23搭建 hadoop集群 见巛 hadoop集群搭建md》 六、 Hadoop-HDFS 1、简介 Hadoop Distributed File Systen Hadoop的分布式文件系统,是GFs( Google File System)的克隆 分布式 分别部署,将一个系统划分为多个子
  3. 所属分类:Hadoop

    • 发布日期:2019-08-17
    • 文件大小:714752
    • 提供者:longhhao
  1. Airflow使用指南【About云整理】.pdf

  2. About云整理的Airflow使用指南 1. 如何安装和配置 Airflow? 2. 如何通过 Airflow UI 监控 data pipeline (管道)并对其进行故障排除 3. 什么是 Airflow Platform ? 4. Airflow 是如何进行数据分析,追踪数据,调试数据流的? 5. Airflow 命令行接口的基本操作有哪些?www.aboutyun.com活到老学到老 以下是一些将触发一些任务实例的命令。在运行以下命令时,您应该能够在 example bash
  3. 所属分类:Hadoop

    • 发布日期:2019-06-30
    • 文件大小:2097152
    • 提供者:bj278595437
  1. 云粘合平台漫谈及代码理解初步例子

  2. NULL 博文链接:https://lokki.iteye.com/blog/1041255大规模自动化服务,及以上以下的一些名词,但大多数都只实现了简单的服务和功能部件,也未能很 好地"动态化、按需化、快速化”。而在互联网服务新阶段,云计算基础设施里,分布式海量储存、 cache、 KeyValue、 KeyList、非关系式储存、 MapReduce、 Loadbalance、CDN、 ondemand等,这些名 词是常见和普及化的。用后面介绍的名词来说要有专业方向云技术部件” “SLA服务
  3. 所属分类:其它

    • 发布日期:2019-03-23
    • 文件大小:748544
    • 提供者:weixin_38669628
  1. 完美解决python针对hdfs上传和下载的问题

  2. 主要介绍了完美解决python针对hdfs上传和下载的问题,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:195584
    • 提供者:weixin_38723691
  1. Python连接HDFS实现文件上传下载及Pandas转换文本文件到CSV操作

  2. 主要介绍了Python连接HDFS实现文件上传下载及Pandas转换文本文件到CSV操作,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:378880
    • 提供者:weixin_38553381
  1. python使用hdfs3模块对hdfs进行操作详解

  2. 之前一直使用hdfs的命令进行hdfs操作,比如: hdfs dfs -ls /user/spark/ hdfs dfs -get /user/spark/a.txt /home/spark/a.txt #从HDFS获取数据到本地 hdfs dfs -put -f /home/spark/a.txt /user/spark/a.txt #从本地覆盖式上传 hdfs dfs -mkdir -p /user/spark/home/datetime=20180817/ .... 身为一个python
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:62464
    • 提供者:weixin_38600253
  1. 完美解决python针对hdfs上传和下载的问题

  2. 当我们使用python的hdfs包进行上传和下载文件的时候,总会出现如下问题 requests.packages.urllib3.exceptions.NewConnectionError:: Failed to establish a new connection: [Errno -2] Name or service not known 其实这主要是由于没有将各个集群节点的ip映射到/etc/hosts文件中 修改/etc/host
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:39936
    • 提供者:weixin_38526823
  1. Python连接HDFS实现文件上传下载及Pandas转换文本文件到CSV操作

  2. 1. 目标 通过hadoop hive或spark等数据计算框架完成数据清洗后的数据在HDFS上 爬虫和机器学习在Python中容易实现 在Linux环境下编写Python没有pyCharm便利 需要建立Python与HDFS的读写通道 2. 实现 安装Python模块pyhdfs 版本:Python3.6, hadoop 2.9 读文件代码如下 from pyhdfs import HdfsClient client=HdfsClient(hosts='ghym:50070')#hdfs地址
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:75776
    • 提供者:weixin_38628150
  1. SBIR_TFIDF_KMeans:在小型企业创新研究(SBIR)数据的TFIDF功能上使用KMeans进行文档聚类-源码

  2. Apache Spark中的数据科学 使用TF / IDF-> K均值聚类和LSH(MinHash) SBIR 语言:Scala和Python 要求: 火花2.x 作者:伊恩·布鲁克斯(Ian Brooks) 关注[LinkedIn-Ian Brooks PhD]( ) 源数据 其他信息:小型企业创新研究(SBIR)计划是一项极具竞争力的计划,旨在鼓励国内小型企业从事具有商业化潜力的联邦研究/研究与开发(R / R&D)。 通过基于奖励的竞争性计划,SBIR使小型企业能够发掘
  3. 所属分类:其它

    • 发布日期:2021-03-13
    • 文件大小:2097152
    • 提供者:weixin_42134554