Openflow Connector for Kafka

备注

使用该连接器需遵守 连接器条款

本主题介绍 Openflow Connector for Kafka 的基本概念和限制。

Apache Kafka 软件使用发布和订阅模型来写入和读取记录流,类似于消息队列或企业消息传递系统。Kafka 允许进程异步读取和写入消息。订阅者不需要直接连接到发布者;发布者可以在 Kafka 中对消息进行排队,以便订阅者稍后接收。

应用程序将消息发布到主题,并且应用程序订阅主题以接收这些消息。Kafka 可以处理和传输消息;然而,这超出了本文档的范围。可将主题划分为分区以提高可扩展性。

Openflow Connector for Kafka 从 Kafka 主题中读取数据,并使用 Snowpipe Streaming 机制将其写入到 Snowflake 表中。

如果您希望实现以下功能,可以使用此连接器:

  • 将来自 Apache Kafka 的实时事件引入 Snowflake 以进行近乎实时的分析

限制

  • 如果未设置 Topic To Table Map 参数:

    • 表名称必须与其保存的数据主题精确匹配。

    • 表名称必须采用大写格式。

  • 如果设置了 Topic To Table Map 参数:

    • 表名称必须与映射中指定的表名称相匹配。表名称必须是有效的 Snowflake 无引号标识符。有关有效表名称的信息,请参阅 标识符要求

  • 仅支持 JSON 和 AVRO 格式。

  • 仅支持 Confluent 架构注册表。

  • 支持 PLAINTEXTSASL_PLAINSSLSASL_SSL 安全协议。

  • 支持 PLAINSCRAM-SHA-256SCRAM-SHA-512AWS_MSK_IAM SASL 机制。

  • mTLSAWS MSK IAM 身份验证方法需要通过服务进行额外配置。有关更多详细信息,请参阅 为 Openflow Connector for Kafka 配置其他身份验证方法

  • 如果向表中插入数据失败,连接器将继续无限重试。

后续步骤

语言: 中文