您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. java实现接收kafka-avro数据

  2. 项目亲测有效,如使用发现问题,或使用中有疑问,均可咨询594274919.
  3. 所属分类:群集服务

    • 发布日期:2018-06-20
    • 文件大小:30408704
    • 提供者:vxx1314
  1. avro-tools-1.8.0.jar

  2. Apache Avro 是类似于 Google protobuf 那样的数据交换协议,但 Avro 可以用 JSON 格式来定义 Schema, 所以相比而言更容易上手。它也是 Hadoop, Kafka 所采用的交换格式。对于生成的 avro 序列化文件如果要编写代码来解读其中内容的话就太过于麻烦,Apache 给了我们一个便捷的工具来处理 Avro Schema 和数据,那就是avro-tools-1.8.0.jar
  3. 所属分类:Hadoop

    • 发布日期:2018-07-03
    • 文件大小:33554432
    • 提供者:and1_1
  1. 2017最新大数据架构师精英课程

  2. 本资源为大数据基础到中高级教学资源,适合稍微有点大数据或者java基础的人群学习,资源过大,上传乃是下载链接,不多说,上目录: 1_java基础2 l3 a2 a$ t7 J2 b+ `- p 2_java引入ide-eclipse 3_java基础知识-循环-类型转换 4_循环-函数-数组-重载 5_多为数组-冒泡-折半-选择排序 6_oop-封装-继承-static-final-private 7_多态-接口-异常体系 8_适配器/ k% N! Y7 j/ |- c) O5 M' V6 S
  3. 所属分类:Java

  1. kafka-avro-serializer-5.3.2.jar

  2. Confluent Schema Registry 在使用java开发生产者以及消费者时的依赖包,在使用时导入到工程即可
  3. 所属分类:kafka

    • 发布日期:2020-01-03
    • 文件大小:35840
    • 提供者:weixin_41609807
  1. kafka-scala-template-源码

  2. Kafka Scala模板 这是使用scala与kafka一起工作的模板。 使用自动生成的avro代码,一切都被docker化,所有消息均以avro格式发送。 该模板针对使用Linux / Ubuntu / Mac和Intellij的人群。 目录 该程序做什么 该程序在生产者中产生小的“ Hello there”消息,并且kafka-connect自动将它们传输到postgres。 流模块添加了!!! 在每封邮件的末尾。 消费者显示生产者和流模块已发出的消息。 如何运行 build.gradle
  3. 所属分类:其它

    • 发布日期:2021-03-26
    • 文件大小:885760
    • 提供者:weixin_42118701
  1. kafka-tool-源码

  2. 卡夫卡工具 Kafka GUI客户端。对于第一个版本,它仅使用Schema Registry读取AVRO
  3. 所属分类:其它

    • 发布日期:2021-03-22
    • 文件大小:48128
    • 提供者:weixin_42097533
  1. kafka-connect-custom-avro-converter-源码

  2. Kafka Connect Converter序列化自定义Avro模式 有关如何添加到连接器的示例: "value.converter": "com.github.noelyahan.kafka.connect.converter.AvroConverter", "value.converter.schema.registry.url": "http://localhost:8081", "value.converter.schema.subject": "com.domain.events.
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:8192
    • 提供者:weixin_42116604
  1. py2k:Python to Kafka序列化工具-源码

  2. Py2k 具有Schema Registry兼容性和自动avro模式创建的高级Python到Kafka API。 免费软件:Apache2许可证 安装 Py2K当前可在PIP上使用: > pip install py2k 贡献 请参阅以获取更多信息。 用法 最小的例子 from py2k . models import DynamicKafkaModel from py2k . writer import KafkaWriter # assuming we have a pandas
  3. 所属分类:其它

    • 发布日期:2021-03-15
    • 文件大小:33792
    • 提供者:weixin_42160252
  1. kafka-api:Kafka的经纪人-源码

  2. Akkeris卡夫卡经纪人 纲要 运行REST API,以提供对Kafka主题,用户和ACL,架构注册表Avro到主题的映射的管理 终点 get /octhc get /v1/kafka/clusters get /v1/kafka/topics/:topic get /v1/kafka/topics get /v1/kafka/cluster/:cluster/credentials/:user get /v1/kafka/cluster/:cluster/acls get /v1/kafka
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:68608
    • 提供者:weixin_42162171
  1. spring-cloud-stream-kafka:Spring Cloud Streams Kafka Avro-源码

  2. spring-cloud-stream-kafka:Spring Cloud Streams Kafka Avro
  3. 所属分类:其它

    • 发布日期:2021-02-15
    • 文件大小:15360
    • 提供者:weixin_42101164
  1. kafka-samples:有关技术的示例工作示例-源码

  2. 样本 技术样本示例 独立的Avro生产者/消费者测试 TestMessageProducer SchemaValidationTest 测试消费者
  3. 所属分类:其它

    • 发布日期:2021-02-09
    • 文件大小:90112
    • 提供者:weixin_42128558
  1. kafka-connect-file-pulse::link:多功能的Kafka Connect连接器,可轻松将任何格式的任何文件解析,转换和流式传输到Apache Kafka-源码

  2. Kafka Connect文件脉冲 Connect FilePulse是多功能,可扩展且可靠的,可轻松将任何格式的任何文件解析,转换和流式传输到Apache Kafka:trade_mark:。 连接FilePulse * 动机 在组织中,经常通过使用各种格式(例如CSV,XML,JSON,Avro等)的文件从旧系统中导出,共享和集成数据。 对于通常会导致复杂且难以维护的数据集成混乱的企业而言,处理所有这些格式可能很快成为一个真正的挑战。 现代方法包括构建可扩展的数据流平台作为中枢神经系统,
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:3145728
    • 提供者:weixin_42126865
  1. kafka-storm-starter:代码示例显示了如何将Apache Kafka 0.8+与Apache Storm 0.9+和Apache Spark Streaming 1.1+集成在一起,同时使用Apache Avro作为数据序列

  2. kafka-storm-starter:代码示例显示了如何将Apache Kafka 0.8+与Apache Storm 0.9+和Apache Spark Streaming 1.1+集成在一起,同时使用Apache Avro作为数据序列化格式
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:247808
    • 提供者:weixin_42101237
  1. spring-kafka-samples:Kafka侦听器示例存储库-源码

  2. Spring卡夫卡样品 该存储库是Spring Kafka和相关测试框架的各种功能的游乐场。 例子: JSON && Avro侦听器 KTable - UserTable 流(和表联接) DeliveryNotificationStream Spring重试(请参阅RetryListenerSpec ) 流测试(请参阅UserTableSpec && DeliveryNotificationStreamSpec ) 嵌入式测试(请参阅UserTableEmbeddedSpec & De
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:88064
    • 提供者:weixin_42116596
  1. kafka-connect-spooldir:Kafka Connect连接器,用于将CSV文件读入Kafka-源码

  2. 介绍 通过安装 该Kafka Connect连接器提供了监视目录的文件和在将新文件写入输入目录时读取数据的功能。 输入文件中的每个记录将根据用户提供的模式进行转换。 CSVRecordProcessor支持读取CSV或TSV文件。 它可以将CSV即时转换为强类型的Kafka Connect数据类型。 当前,它支持Kafka Connect支持的所有架构类型和逻辑类型。 如果将其与Confluent的Avro转换器和Schema Registry结合使用,您将能够实时处理CSV,Json或TSV
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:217088
    • 提供者:weixin_42151036
  1. akhq:用于Apache Kafka的Kafka GUI,用于管理主题,主题数据,使用者组,架构注册表,连接等。-源码

  2. AKHQ(以前称为KafkaHQ) 用于Kafka GUI,用于管理主题,主题数据,使用者组,架构注册表,连接等... 内容 产品特点 一般 适用于现代Kafka集群(1.0+) 连接标准或SSL,SASL群集 多集群 话题 清单 配置视图 分区视图 ACLS视图 消费者组分配视图 节点负责人和分配视图 创建一个话题 配置主题 删除主题 浏览主题数据 查看数据,偏移量,键,时间戳和标题 使用架构注册表自动编码的Avro消息反序列化 配置视图 日志视图 删除记录 清空主题(删除一个主题中的所有
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:9437184
    • 提供者:weixin_42100129
  1. schema-registry:适用于Kafka的Confluent Schema Registry-源码

  2. 架构注册表 Confluent Schema Registry为您的元数据提供了一个服务层。 它提供了一个RESTful接口,用于存储和检索Avro:registered:,JSON模式和Protobuf模式。 它根据指定的主题名称策略存储所有架构的版本历史记录,提供多种兼容性设置,并允许根据配置的兼容性设置以及对这些架构类型的扩展支持来演进架构。 它提供了插入到ApacheKafka:registered:客户端的序列化程序,这些客户端处理模式存储和以任何受支持的格式发送的Kafka消息的检索
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:1048576
    • 提供者:weixin_42160376
  1. streamx:kafka-connect-s3:从Kafka到对象存储(s3)提取数据-源码

  2. 基于安全问题,已计划此REPO SEC故障单#SEC-2988 StreamX:Kafka Connect for S3 从很棒的 StreamX是基于kafka连接的连接器,用于将数据从Kafka复制到对象存储,例如Amazon s3,Google Cloud Storage和Azure Blob存储。 它专注于可靠和可扩展的数据复制。 它可以以不同的格式(如镶木地板)写出数据,以便分析工具可以轻松使用它,也可以满足不同的分区要求。 ##产品特点 : StreamX从kafka-conn
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:252928
    • 提供者:weixin_42126668
  1. kafka 总结

  2. kafka 总体介绍 消息队列应用场景 异步解耦、广播发布订阅、 流量削锋 。 kafka企业使用方式 1.kafka topic 管理平台。包含topic 注册 管理,topic 消息结构体定义及其修改(topic 消息结构 定义为avro 结构。方便接入到大数据hive 里面。消息可以持久化到hbase中,最终可以通过ksql 查询)。 2.topic 消息监控。生成和消费情况监控hook等。 kafka 架构和功能介绍 角色分为集群、broker、 生产者、消费者、topic、消费组、消费
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:39936
    • 提供者:weixin_38575456
  1. kafka-avro-confluent:使用avro和Confluent的Schema Registry的Kafka DeSerializer-源码

  2. 卡夫卡-阿夫罗融合 使用avro和Confluent的Schema Registry的Kafka De / Serializer 从1.1.1-4-> 1.1.1-5 +迁移 1.1.1-5添加了对逻辑类型的支持。 此支持是自动的,将在序列化和反序列化中使用。 如果需要反序列化为基础基本类型,则需要在创建反序列化器时禁用逻辑类型转换,即 ( des/->avro-deserializer schema-registry :convert-logical-types? false )
  3. 所属分类:其它

    • 发布日期:2021-04-01
    • 文件大小:28672
    • 提供者:weixin_42169245
« 12 3 »