您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 逍遥留言本 Build 0220 正式版(BOOK veryok 2002 alph

  2. 逍遥留言本 Build 0220 正式版(BOOK veryok 2002 alpha 0220)
  3. 所属分类:专业指导

    • 发布日期:2004-08-19
    • 文件大小:23552
    • 提供者:xintc110
  1. GB-9092费率和负载控制时间开关

  2. 本标准规定了最新制造的室内使用的并具有工作储备的时间开关型式试验要求其时间开关用于 对全年中指定日期和时间内的电负载费率计度器和最大需量指示器的控制这些时间开关可以以包 括电子线路的各种形式工作
  3. 所属分类:嵌入式

    • 发布日期:2011-06-11
    • 文件大小:965632
    • 提供者:yuanling2000
  1. drivers 数据库驱动

  2. -------------------------------oracle-------------------------------- 驱动:oracle.jdbc.driver.OracleDriver URL:jdbc:oracle:thin:@:dbname 注:machine_name:数据库所在的机器的名称; port:端口号,默认是1521 -------------------------------mysql--------------------------------
  3. 所属分类:其它

    • 发布日期:2013-08-16
    • 文件大小:1024
    • 提供者:u011710959
  1. Activiti的安装详细过程

  2. 工作流 Activiti 的学习总结(六) Activiti 的安装详细过程 activiti-5.6 的安装 项目中采用最新的 Activiti 版本为 5.6GA 的 activiti REST 方式访问相关的 REST WebService 服务, activiti 提供了 对 mysql 、 oracle 、 postgres 的全面支持。 demo 的安装脚本比之前的版本都有 了很大的优化,基本上按教程就能顺利 demo , 真正达到了 GA 的效果了。为此我将在使用 mysql 的
  3. 所属分类:Java

    • 发布日期:2014-03-05
    • 文件大小:4096
    • 提供者:fengyun8810
  1. kafka_2.9.2-0.8.2.1.tgz

  2. kafka_2.9.2-0.8.2.1.tgz 安装 liunx环境 安装jdk vi /etc/profile在末尾追加 JAVA_HOME JRE_HOME PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib source /etc/profile使环境变量立刻生效 安装kafka 解压 tar -xzvf kafka
  3. 所属分类:Java

    • 发布日期:2015-12-22
    • 文件大小:16777216
    • 提供者:shy_snow
  1. kafka client依赖包和示例代码

  2. 版本:kafka_2.12-0.10.2.1,生产者消费者示例代码,以及client相关包。 部分代码: public static KafkaProducer getProducer() { if (kp == null) { Properties props = new Properties(); props.put("bootstrap.servers", "127 .0.0.1:9092"); props.put("acks", "0"); props.put("retries", 0
  3. 所属分类:kafka

    • 发布日期:2017-09-21
    • 文件大小:6291456
    • 提供者:runningya
  1. 费率和负载控制时间开关

  2. 代替GB9092-88. 在第四章中要求增加了间隙和爬电距离、抗高温和火焰蔓延、机械要求等,对短路性能、自热、功率消耗、供电电压长时间中断影响、计时准确度和电磁兼容性等电气要求提出了具体规定。
  3. 所属分类:专业指导

    • 发布日期:2009-03-23
    • 文件大小:822272
    • 提供者:sylmslinyang
  1. nodejs.socketio很好的入门例子javascript脚本方式

  2. 1.运行时候找不到 express 等,进入工程目录,npm install express,package.json就会加入库; 通过socket.on( 监听通道,socket.emit 发送数据。 index.html是客户端,很简单: [removed] //socket var socket = io('http://127.0.0.1:9092'); socketdata(socket); function socketdata(socket) { // socket.on('co
  3. 所属分类:Javascript

    • 发布日期:2018-03-14
    • 文件大小:2048
    • 提供者:feica
  1. 基于storm实时热点统计的分布式并行缓存预热

  2. 一、基于nginx+lua完成商品详情页访问流量实时上报kafka的开发 ==================================== 在nginx这一层,接收到访问请求的时候,就把请求的流量上报发送给kafka 这样的话,storm才能去消费kafka中的实时的访问日志,然后去进行缓存热数据的统计 用得技术方案非常简单,从lua脚本直接创建一个kafka producer,发送数据到kafka ``` wget https://github.com/doujiang24/lua-
  3. 所属分类:Java

    • 发布日期:2018-03-19
    • 文件大小:31457280
    • 提供者:qq1137623160
  1. 更新上个angular版本问题 Kafka监控工具KafkaOffsetMonitor-assembly-0.4.6-SNAPSHOT.jar

  2. KafkaOffsetMonitor-assembly-0.4.6-SNAPSHOT.jar https://github.com/quantifind/KafkaOffsetMonitor 更新上个angular版本问题 本地化所有需网络请求的JS,包括被墙了的 angular.js, angular-route.js, angular-resource.js。并附上启动和关闭Linux命令 jquery-1.10.2.min.js moment.min.js bootstrap.min.j
  3. 所属分类:kafka

    • 发布日期:2019-04-02
    • 文件大小:53477376
    • 提供者:nicklsq
  1. socket9092.jar

  2. 配合Android测试的Socket服务端,IP是本机IP,端口是9092。
  3. 所属分类:其它

    • 发布日期:2019-06-18
    • 文件大小:26214400
    • 提供者:u013190012
  1. AA支付源码www.wayu.cnaa.rar

  2. 部署前必看: 1. 服务器系统必须是Linux系统不能是Windows系统 2. 推荐安装宝塔管理工具,其他的则自己参考文档部署 首先、客户提供: 1.一台干净的linux服务器(阿里云、腾讯云、华为云),及其公网ip、用户名、密码,系统要求centos7.3x。 2.支付平台的名称、联系电话、域名(域名要求已备案、已解析)。 3.解析七个域名到服务器ip。例如你的域名是xx.com 3.1.admin.xx.com 平台3.2.u.xx.com 盘口3.3.m.xx.com
  3. 所属分类:Linux

    • 发布日期:2020-04-07
    • 文件大小:136314880
    • 提供者:qq_23836533
  1. ServletContextListener socket实现数据接收

  2. 通过创建ServletContextListener监听器,socket来实现tcp/ip协议客户端数据的接收功能。这是一个maven项目,直接导入eclipse即可运行,此处监听的是9092端口,将项目运行起后,可以对其端口使用情况进行查看,在window下,可以使用命令 netstat -aon|findstr "9092",在linux下可以使用命令netstat -tunlp|grep 9092
  3. 所属分类:Java

    • 发布日期:2020-01-20
    • 文件大小:62464
    • 提供者:jinxiumeihappy
  1. kafdrop-3.28.0-SNAPSHOT.jar

  2. 可直接java 启动的kafka UI管理 (官方源码编译,可直接运行) java -jar ./kafdrop-3.28.0-SNAPSHOT.jar \ -Dcom.sun.management.jmxremote \ --kafka.brokerConnect=10.122.149.202:9092 \ --server.port=9099 \ --management.server.port=9099 \ --kafka.isSecured=false
  3. 所属分类:互联网

    • 发布日期:2020-09-23
    • 文件大小:46137344
    • 提供者:du_denglan
  1. 通过pykafka接收Kafka消息队列的方法

  2. 没有Kafka环境,所以也没有进行验证。感觉今后应该能用到,所以借抄在此,备查。 pykafka使用示例,自动消费最新消息,不重复消费: # -* coding:utf8 *- from pykafka import KafkaClient host = '192.168.200.38' client = KafkaClient(hosts="%s:9092" % host) print client.topics # 生产者 # topicdocu = client.topics['task
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:38912
    • 提供者:weixin_38705640
  1. Python测试Kafka集群(pykafka)实例

  2. 生产者代码: # -* coding:utf8 *- from pykafka import KafkaClient host = 'IP:9092, IP:9092, IP:9092' client = KafkaClient(hosts = host) print client.topics # 生产者 topicdocu = client.topics['my-topic'] producer = topicdocu.get_producer() for i in range(10
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:30720
    • 提供者:weixin_38677227
  1. python每5分钟从kafka中提取数据的例子

  2. 我就废话不多说了,直接上代码吧! import sys sys.path.append("..") from datetime import datetime from utils.kafka2file import KafkaDownloader import os """ 实现取kafka数据,文件按照取数据的间隔命名 如每5分钟从kafka取数据写入文件中,文件名为当前时间加5 """ TOPIC = "rtz_queue" HOSTS = "ip:9092,ip:9092" GROUP
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:37888
    • 提供者:weixin_38710781
  1. python3连接kafka模块pykafka生产者简单封装代码

  2. 1.1安装模块 pip install pykafka 1.2基本使用 # -* coding:utf8 *- from pykafka import KafkaClient host = 'IP:9092, IP:9092, IP:9092' client = KafkaClient(hosts = host) # 生产者 topicdocu = client.topics['my-topic'] producer = topicdocu.get_producer() for i in r
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:40960
    • 提供者:weixin_38658564
  1. Flink笔记(二十四):Flink 数据 保存 Redis(自定义Redis Sink)

  2. 本文主要来介绍 Flink 读取 Kafka数据,并实时下沉(Sink)数据到 Redis 的过程。        通过如下链接:Flink官方文档,我们知道数据保存到 Redis 的容错机制是 at least once。所以我们通过幂等操作,使用新数据覆盖旧数据的方式,以此来实现 exactly-once 。 1.代码部分 1.1 config.properties配置文件 bootstrap.server=192.168.204.210:9092,192.168.204.211:9092,
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:164864
    • 提供者:weixin_38531017
  1. KAFKA权限配置SASL/PLAIN身份验证

  2. zookeeper集群SASL认证&KAFKA权限配置SASL/PLAIN身份验证 配置环境 JKD: 1.8 Kafka: 2.3.0 Zookeeper: 3.4.14 服务器名 kafka内网IP:PORT kafka外网IP:PORT zookeeper内网IP:PORT KAFKA01 192.168.1.157:9092 116.155.153.185:19092 192.168.1.157:2181 KAFKA02 192.168.1.158:9092 116.
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:108544
    • 提供者:weixin_38678172
« 12 3 »