您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. kafka-python

  2. 使用python操作kafka目前比较常用的库。 使用python操作kafka目前比较常用的库。
  3. 所属分类:kafka

    • 发布日期:2018-05-10
    • 文件大小:307200
    • 提供者:unix2000
  1. kafka初尝试.7z

  2. 适用于windows下python环境,kafka-python操作的kafka环境。 kafka和zookeeper已经在里面了。 修改下启动的bat路径即可,我在里面写的是绝对路径,打击可以修改下 实例demo也已经存在了。更多功能,大家可以继续扩展。
  3. 所属分类:kafka

    • 发布日期:2019-09-09
    • 文件大小:62914560
    • 提供者:qq_38044574
  1. spark streaming实时网站分析项目实战.rar

  2. 操作步骤: 一.数据采集:视频网站访问日志(编辑python脚本) 1.Python日志产生器开发URL ,ip信息,状态码,时间等 2.python日志产生器测试并将日志写入到文件中 3.通过定时调度工具每一分钟产生一批数据 4.使用flume实时收集日志信息 5.对接实时数据到kafka并输出到控制台 6.spark streaming对接kafka的数据进行消费 数据采集详情:项目其他\数据采集.docx 二.数据清洗:见项目 使用spark streaming完成数据清洗操作 三
  3. 所属分类:Linux

    • 发布日期:2020-08-18
    • 文件大小:357376
    • 提供者:weixin_44222986
  1. Python通过kerberos安全认证操作kafka方式

  2. 主要介绍了Python通过kerberos安全认证操作kafka方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:43008
    • 提供者:weixin_38675341
  1. 对python操作kafka写入json数据的简单demo分享

  2. 今天小编就为大家分享一篇对python操作kafka写入json数据的简单demo,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-19
    • 文件大小:31744
    • 提供者:weixin_38747233
  1. python操作kafka实践的示例代码

  2. 主要介绍了python操作kafka实践的示例代码,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
  3. 所属分类:其它

    • 发布日期:2020-09-19
    • 文件大小:159744
    • 提供者:weixin_38687904
  1. Python通过kerberos安全认证操作kafka方式

  2. 如何通过Kerberos认证. 1.安装Kerberos客户端 CentOS: yum install krb5-workstation 使用which kinit查看是否安装成功; 2.拷贝Kerberos配置文件 conf目录下krb5.conf和kafka.keytab和jaas.conf拷贝到客户端机器的etc目录, 同时,krb5.conf中的kdc集群主机名和IP配置到客户端机器hosts配置文件中 3.Kinit客户端通过kerberos认证 获取Principal klis
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:45056
    • 提供者:weixin_38529397
  1. python操作kafka实践的示例代码

  2. 1、先看最简单的场景,生产者生产消息,消费者接收消息,下面是生产者的简单代码。 #!/usr/bin/env python # -*- coding: utf-8 -*- import json from kafka import KafkaProducer producer = KafkaProducer(bootstrap_servers='xxxx:x') msg_dict = { sleep_time: 10, db_config: { database: test_1
  3. 所属分类:其它

    • 发布日期:2021-01-01
    • 文件大小:160768
    • 提供者:weixin_38680811
  1. sqlcli:Python SQL测试工具-源码

  2. SQLCli快速说明 SQLCli是一个主要用Python完成的,命令快速的测试工具。设计目的: 1:满足数据库方面的相关功能测试,压力测试需要。 2:能够作为一个日常小工具,进行数据库的日常操作。 3:能够根据需要快速,灵活的生成测试需要的随机数据。 4:能够操作Kafka消息收发器。 5:能够操作HDFS上的文件。 6:完成基于执行结果比对的回归测试校验。 程序可以通过JPype连接数据库的JDBC驱动。也可以通过ODBC标准连接数据库的ODBC驱动,但是这部分并没有经过严谨的测试。 SQ
  3. 所属分类:其它

    • 发布日期:2021-03-17
    • 文件大小:34603008
    • 提供者:weixin_42106299
  1. awesome-zio:大量有用的ZIO链接-源码

  2. 很棒的ZIO 社区驱动的有用ZIO库,框架和软件的列表。 受到启发。 其他很棒的列表也可以在“列表”中找到。 拥有500多名观星者的项目以粗体显示。 部分基于ZIO文档。 目录 专案 :一个示例,说明如何在多个子项目和专用子域中管理错误ADT,以及如何逐步在域层中使错误消息上下文化。 使用队列,方括号,与Java的互操作以及历史代码。 请参阅。 :Clover Group AI平台后端,它使用ZIO,Doobie,http4s和Kafka。 :一款新的多语言笔记本,具有一流的Scal
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:173056
    • 提供者:weixin_42131541
  1. ServiceCommander-IBMi:适用于IBM i的Service Commander-源码

  2. IBM i的服务指挥官 该实用程序用于统一管理在IBM i上运行的各种服务和应用程序的艰巨任务。 此工具可用于管理许多服务,例如: IBM i托管服务器作业 IBM i标准TCP服务器(* TCP,* SSHD等) 您编写的开源程序(Node.js,Python,PHP应用程序) Apache Tomcat实例 Kafka,Zookeeper,ActiveMQ服务器等 詹金斯 当前功能 该工具的一些功能包括: 指定依赖关系的能力(例如,如果一个应用程序或服务依赖于另一应用程序或服务),
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:43008
    • 提供者:weixin_42113754
  1. KSQL:ApacheKafka的开源流式SQL

  2. KSQL是一个用于Apachekatkatm的流式SQL引擎。KSQL降低了进入流处理的门槛,提供了一个简单的、完全交互式的SQL接口,用于处理Kafka的数据。你不再需要用Java或Python这样的编程语言编写代码了!KSQL是开源的(Apache2.0许可)、分布式的、可扩展的、可靠的和实时的。它支持广泛的强大的流处理操作,包括聚合、连接、窗口、会话,等等。实际上,它与SQL数据库有很大的不同。大多数数据库都用于对存储数据进行按需查找和修改。KSQL不进行查找(但是),它所做的是连续的转换
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:338944
    • 提供者:weixin_38628429
  1. Python操作分布式流处理系统Kafka

  2. Kafka是一个分布式流处理系统,流处理系统使它可以像消息队列一样publish或者subscribe消息,分布式提供了容错性,并发处理消息的机制。kafka运行在集群上,集群包含一个或多个服务器。kafka把消息存在topic中,每一条消息包含键值(key),值(value)和时间戳(timestamp)。kafka有以下一些基本概念:Producer-消息生产者,就是向kafkabroker发消息的客户端。Consumer-消息消费者,是消息的使用方,负责消费Kafka服务器上的消息。Top
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:1004544
    • 提供者:weixin_38752830
  1. kafka-twitter-spark-streaming:实时计算每个用户的推文-源码

  2. Apache Kafka的Twitter和Spark流 该项目实时统计每个用户包含#GoTS7主题标签的推文。 此外,还会打印用户名和推文计数。 代码说明 身份验证操作已通过Python的Tweepy模块完成。 为Twitter流创建了名为KafkaPushListener的StreamListener。 StreamListener为Kafka Consumer生成数据。 产生的数据已被过滤掉,其中包括《权力的游戏》主题标签。 创建SparkContext来连接Spark集群。 创建了
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:3072
    • 提供者:weixin_42139252
  1. spark-twitter-sentiment-analysis:具有Spark结构化流的Twitter主题的情感分析-源码

  2. Twitter情绪分析 该项目是关于使用Apache Spark结构化流,Apache Kafka,Python和AFINN模块对所需Twitter主题进行情感分析的。 您可以了解所需主题的情感状态。 例如; 您可能对《权力的游戏》的新剧集感到好奇,并且您可能先前已经获得了某人对该新剧集的意见。 根据意见,答案可以是负的,中性的或正的。 代码说明 身份验证操作已通过Python的Tweepy模块完成。 您必须从Twitter API获取密钥。 名为TweetListener的StreamLi
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:3072
    • 提供者:weixin_42097208
  1. saas:软件即服务-CRM,ERP,PLM,SCM,GIS,ETC ..-源码

  2. 软件即服务(最终名称未确定) 多租户业务运营软件 APP_NAME是一款多租户,多用途的内部部署或云业务运营软件,旨在满足企业的大多数需求。 它提供了组织运营各个领域所需的许多服务。 它跨越了任何操作所需的许多功能区域,例如: 用户,角色和权限管理 客户和租户管理 会计和金融 人力资源管理 库存管理 项目管理 它使用了最好的同类技术,例如: 建立在python pyramid框架之上 OAUTH身份验证与多个受支持的提供程序 嵌入在已签名会话cookie中的JWT令牌 前端的自定义Web
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:508928
    • 提供者:weixin_42143161
  1. KSQL:ApacheKafka的开源流式SQL

  2. KSQL是一个用于Apachekatkatm的流式SQL引擎。KSQL降低了进入流处理的门槛,提供了一个简单的、完全交互式的SQL接口,用于处理Kafka的数据。你不再需要用Java或Python这样的编程语言编写代码了!KSQL是开源的(Apache2.0许可)、分布式的、可扩展的、可靠的和实时的。它支持广泛的强大的流处理操作,包括聚合、连接、窗口、会话,等等。实际上,它与SQL数据库有很大的不同。大多数数据库都用于对存储数据进行按需查找和修改。KSQL不进行查找(但是),它所做的是连续的转换
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:335872
    • 提供者:weixin_38589812
  1. Python操作分布式流处理系统Kafka

  2. Kafka是一个分布式流处理系统,流处理系统使它可以像消息队列一样publish或者subscribe消息,分布式提供了容错性,并发处理消息的机制。kafka运行在集群上,集群包含一个或多个服务器。kafka把消息存在topic中,每一条消息包含键值(key),值(value)和时间戳(timestamp)。kafka有以下一些基本概念:Producer-消息生产者,就是向kafkabroker发消息的客户端。Consumer-消息消费者,是消息的使用方,负责消费Kafka服务器上的消息。Top
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:1004544
    • 提供者:weixin_38721252
  1. 对python操作kafka写入json数据的简单demo分享

  2. 如下所示: 安装kafka支持库pip install kafka-python from kafka import KafkaProducer import json ''' 生产者demo 向test_lyl2主题中循环写入10条json数据 注意事项:要写入json数据需加上value_serializer参数,如下代码 ''' producer = KafkaProducer( value_serializer=lambda v: json.dumps(v).e
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:36864
    • 提供者:weixin_38719540
  1. python消费kafka数据批量插入到es的方法

  2. 1、es的批量插入 这是为了方便后期配置的更改,把配置信息放在logging.conf中 用elasticsearch来实现批量操作,先安装依赖包,sudo pip install Elasticsearch2 from elasticsearch import Elasticsearch class ImportEsData: logging.config.fileConfig(logging.conf) logger = logging.getLogger(msg) def _
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:51200
    • 提供者:weixin_38658086