所有处理器(按字母顺序排列)¶
本主题按字母顺序提供所有 Snowflake Openflow 处理器的列表。该列表包括:
每个处理器的名称
每个处理器的摘要
A¶
处理器 |
描述 |
|
---|---|---|
Snowflake |
使用 Bulk API 2 在 Salesforce 中中止查询作业。 |
|
生成输入 FlowFile 属性的 CSV 表示形式。 |
||
生成输入 FlowFile 属性的 JSON 表示形式。 |
C¶
处理器 |
描述 |
|
---|---|---|
计算记录集中的记录数,也可以计算每个类别的元素数量,其中类别由用户定义的属性定义。 |
||
Snowflake |
从 MySQL 数据库读取 CDC 事件。 |
|
Snowflake |
从 PostgreSQL 数据库读取 CDC 事件。 |
|
Snowflake |
从 SQL 服务器数据库读取 CDC 事件。 |
|
Snowflake |
捕获对 Shared Google Drive 所做的更改,并针对发生的每一次更改发出 FlowFile。 |
|
Snowflake |
获取 Microsoft365 组的更改,并针对发生的每一项更改发出 FlowFile。 |
|
Snowflake |
从 Sharepoint 文档库中捕获变更,并对发生的每个变更发出 FlowFile。 |
|
Snowflake |
正在检查 Meta Ads 报告是否可供下载的处理器。 |
|
Snowflake |
将文本进行分块处理,支持按分隔符和最大字符长度递归拆分。 |
|
Snowflake |
将文本进行分块处理,支持按分隔符和最大字符长度递归拆分。 |
|
使用用户指定的压缩算法压缩对 FlowFiles 的内容进行压缩或解压,并相应地更新 mime。 |
||
充当 WebSocket 客户端端点,与远程 WebSocket 服务器进行交互。 |
||
通过 AMQP 0 使用来自 AMQP 代理的 AMQP 消息。 |
||
通过检查点接收来自 Microsoft Azure 事件中心的消息,以确保事件处理的一致性。 |
||
使用来自 Box admin_logs_streaming 流类型的企业事件。 |
||
使用来自 Box 的所有事件。 |
||
一种处理器,它使用范围查询对字段重复运行分页查询,以使用来自 Elasticsearch 索引/查询的新文档。 |
||
使用来自已配置的 Google Cloud PubSub 订阅的消息。 |
||
通过 IMAP 协议使用来自电子邮件服务器的消息。 |
||
使用 BytesMessage、TextMessage、ObjectMessage、MapMessage 或 StreamMessage 类型的 JMS 消息,将其内容转换为 FlowFile,并将其转换为“success”关系。 |
||
使用来自 Apache Kafka Consumer API 的消息。 |
||
Snowflake |
使用来自 Apache Kafka Consumer API 的消息。 |
|
从指定的 AWS Kinesis Stream 读取数据,并为每条已处理的记录(原始)输出 FlowFile,或者为一批已处理的记录输出 FlowFile(如果配置了记录读取器和记录写入器)。 |
||
订阅主题并接收来自 MQTT 代理的消息 |
||
通过 POP3 协议使用来自电子邮件服务器的消息。 |
||
从已配置的一个或多个 Slack 通道中检索消息。 |
||
Snowflake |
从应用程序可用的 Slack 对话中检索消息。 |
|
Snowflake |
从应用程序可用的所有 Slack 通道中提取历史消息。 |
|
Snowflake |
从 Snowflake 流中提取数据并将其写入到 FlowFile。 |
|
Streams 通过 Twitter 的流式传输 API v2 进行推文。 |
||
控制数据传输到后续处理器的速率。 |
||
将 FlowFile 的内容从一个字符集转换到另一个字符集 |
||
使用配置的记录读取器和记录写入控制器服务将记录从一种数据格式转换为另一种数据格式。 |
||
Snowflake |
将传入的数据库架构转换为 Snowflake CDC 日志表的相应架构。 |
|
将 Azure Blob 存储中的 blob 从一个账户/容器复制到另一个账户/容器。 |
||
将文件从一个桶和键复制到 AWS S3 中的另一个桶和键 |
||
计算传入文本的各种指标。 |
||
Snowflake |
为 Amazon Ads 连接器创建报告配置的处理器。 |
|
Snowflake |
使用 Azure OpenAI 为文本创建嵌入。 |
|
使用指定模板并基于 FlowFile 内容中的值,为 Box 文件创建一个元数据实例。 |
||
使用 FlowFile 内容中的字段规范创建 Box 元数据模板。 |
||
Snowflake |
使用 Cohere 为文本创建嵌入。 |
|
Snowflake |
为 Meta Ads 连接器创建报告配置的处理器。 |
|
Snowflake |
使用 OpenAI 为文本创建嵌入。 |
|
Snowflake |
使用 Snowflake Cortex 大型语言模型函数创建向量嵌入 |
|
Snowflake |
使用 VertexAI 为文本创建嵌入。 |
|
使用给定算法计算 FlowFile 内容的加密哈希值,然后将其写入输出属性。 |
D¶
处理器 |
描述 |
|
---|---|---|
DebugFlow 处理器可以帮助测试和调试 FlowFile 框架:它允许在收到 FlowFile 时,或者在使用计时器或基于 cron 的调度的情况下收到计时器事件(无需 FlowFile)时,明确触发各种响应。 |
||
使用 age-encryption 解密内容。 |
||
解密 OpenPGP 消息的内容。 |
||
该处理器对记录集中的单个记录进行去重处理。 |
||
从 Azure Blob 存储中删除指定的 blob。 |
||
从 Azure Data Lake Storage 中删除提供的文件 |
||
使用指定的模板键从 Box 文件中删除元数据实例 |
||
使用查询从 Elasticsearch 索引中删除。 |
||
Snowflake |
删除 DBFS 文件和目录。 |
|
根据哈希和范围键从 DynamoDB 中删除文档。 |
||
从文件系统中删除文件。 |
||
从 Google Cloud Bucket 中删除对象。 |
||
使用文件名或查询从 GridFS 中删除文件。 |
||
Snowflake |
按 ID 从 Milvus 数据库的集合中删除向量。 |
|
对 MongoDB 集合执行删除查询。 |
||
Snowflake |
从 Pinecone 索引中删除向量。 |
|
Snowflake |
使用 Bulk API 2 在 Salesforce 中删除查询作业。 |
|
从 Amazon S3 桶中删除文件。 |
||
删除 SFTP 服务器上驻留的文件。 |
||
从 Amazon Simple Queuing Service Queue 中删除消息 |
||
Snowflake |
删除 Unity Catalog 文件或目录。 |
|
Snowflake |
描述 Salesforce Data Cloud 中的指定数据共享元数据。 |
|
Snowflake |
在 Salesforce 中描述指定的对象元数据。 |
|
为每个传入 FlowFile 缓存一个根据 FlowFile 属性计算得出的值,并确定缓存的值是否已经被看到。 |
||
根据分布策略将 FlowFiles 分布到下游处理器。 |
||
此处理器用于负载测试,将为每个传入 FlowFile 的副本创建配置数量。 |
E¶
处理器 |
描述 |
|
---|---|---|
使用 Base64、Base32 或十六进制编码架构对 FlowFile 的内容进行编码或解码 |
||
使用 age-encryption 加密内容。 |
||
使用 OpenPGP 加密内容。 |
||
强制执行单个节点内属于同一数据组的 FlowFiles 预期排序。 |
||
Snowflake |
使用配置的 Lookup Service 查找一个值,并将结果作为一个或多个属性添加到 FlowFile 中。 |
|
Snowflake |
丰富来自 CaptureChangePostgreSQL 等的传入 FlowFiles。 |
|
对照 FlowFile 的内容评估一个或多个 JsonPath 表达式。 |
||
Snowflake |
通过计算 F1 分数、余弦相似度和答案正确性等指标,评估检索增强生成 (RAG) 上下文中生成的答案的正确性。 |
|
Snowflake |
通过使用 LLM 分析响应来评估在检索增强生成 (RAG) 系统中生成的答案的可信度(例如 |
|
Snowflake |
计算使用 LLM 作为判断的 RAG 系统的检索指标(Precision@N、Recall@N、FScore@N、MAP@N、MRR)。 |
|
对照 FlowFile 的内容评估一个或多个 XPaths。 |
||
对照 FlowFile 的内容评估一个或多个 XQueries。 |
||
实验性扩展 Groovy 脚本处理器。 |
||
运行用户指定的操作系统命令并将该命令的输出写入 FlowFile。 |
||
实验 – 在给定 FlowFile 和流程会话的情况下执行脚本。 |
||
执行提供的 SQL select 查询。 |
||
执行提供的 SQL select 查询。 |
||
Snowflake |
对数据库执行 SQL DDL 或 DML 语句。 |
|
ExecuteStreamCommand 处理器提供了一种灵活的方式,来将外部命令和脚本集成到 NiFi 数据流中。 |
||
从 Avro 数据文件的标头中提取元数据。 |
||
从 mime 格式的电子邮件文件中提取附件,将其拆分为单独的 FlowFile。 |
||
使用 FlowFile 内容作为数据源,从 RFC 合规电子邮件文件中提取标头,为 FlowFile 添加相关属性。 |
||
对照 FlowFile 的内容评估一个或多个 Grok 表达式,将结果添加为属性或用匹配内容的 JSON 符号替换 FlowFile 的内容 |
||
使用提供的记录读取器从 FlowFile 中提取记录架构并将其写入到 'avro. |
||
Snowflake |
使用提供的记录读取器从 FlowFile 中提取记录架构列,并将其写入 'schema. |
|
使用 Box AI 从 Box 文件中提取元数据。 |
||
对照 FlowFile 的内容评估一个或多个正则表达式。 |
F¶
处理器 |
描述 |
|
---|---|---|
从 Azure Blob 存储中检索指定的 blob 并将其内容写入到 FlowFile 的内容中。 |
||
从 Azure Data Lake Storage 中提取指定文件 |
||
从 Box 文件夹中提取文件。 |
||
从 Box 中提取文件的元数据并将其添加到 FlowFile 的属性中。 |
||
使用模板键和范围检索与 Box 文件关联的特定元数据实例。 |
||
使用表示提示提取 Box 文件表示形式并将其写入 FlowFile 内容。 |
||
从 FlowFile 属性中为每个传入的 FlowFile 计算缓存键,并从“Distributed Map Cache”中获取与每个键相关的值。 |
||
从 Dropbox 提取文件。 |
||
从磁盘读取文件的内容并将其流式传输到传入 FlowFile 的内容中。 |
||
从远程 FTP 服务器获取文件的内容,并使用远程文件的内容覆盖传入 FlowFile 的内容。 |
||
从 Google Cloud Bucket 中提取文件。 |
||
从 Google 云端硬盘文件夹中提取文件。 |
||
Snowflake |
提取 Google Drive 文件的评论及其回复。 |
|
Snowflake |
提取 Google 云端硬盘文件元数据。 |
|
通过文件名或用户定义的查询从 GridFS 桶中检索一个或多个文件。 |
||
Snowflake |
使用带可配置搜索选项的 REST API v3 从 Jira Cloud 提取问题。 |
|
Snowflake |
从 Microsoft Dataverse 表中获取记录 |
|
检索 S3 对象的内容并将其写入到 FlowFile 的内容中 |
||
从远程 SFTP 服务器获取文件的内容,并使用远程文件的内容覆盖传入 FlowFile 的内容。 |
||
Snowflake |
从 Sharepoint Drive 提取文件内容,如果适用,可以选择下载文件的 PDF 或 HTML 版本。 |
|
Snowflake |
对于每个驱动器项目,都会检索其元数据和权限,并将其写入为 FlowFile 属性。 |
|
Snowflake |
提取 Slack 对话信息和成员的电子邮件 |
|
Snowflake |
下载在 Slack 上共享的文件。 |
|
Snowflake |
提取有关单条 Slack 消息的数据 |
|
从 SMB 共享中提取文件。 |
||
Snowflake |
从表中读取属性并将其存储为 FlowFile 属性。 |
|
Snowflake |
提取表架构(即 |
|
Snowflake |
从数据库中提取表的快照。 |
|
通过保留指定属性并移除其余属性或移除指定属性并保留其余属性来筛选 FlowFile 的属性。 |
||
Snowflake |
根据 Sharepoint Drive ID 和项目路径查找 Sharepoint Drive 项目。 |
|
使用户能够获取嵌套的 JSON 文档,并将其展平化为简单的键/值对文档。 |
||
该处理器与 JoinEnrichment 处理器配合使用,负责添加 JoinEnrichment 处理器执行其功能所需的属性。 |
||
该处理器允许用户将一条记录分成多条记录。 |
G¶
处理器 |
描述 |
|
---|---|---|
Snowflake |
使用大型语言模型 (LLM) 生成传入记录中存在的每个问题的综合答案。 |
|
Snowflake |
使用 LLM 生成传入记录中每个问题的综合答案。 |
|
该处理器使用随机数据或自定义内容创建 FlowFiles。 |
||
Snowflake |
根据可配置的 JSON 架构生成一批具有随机字段值的 JSON 对象。 |
|
此处理器使用指定字段具有随机值的记录创建 FlowFiles。 |
||
生成从表中获取提取由行构成的“页”的 SQL select 查询。 |
||
查找 IP 地址的地理位置信息,并将地理信息添加至 FlowFile 属性。 |
||
查找 IP 地址的地理位置信息,并将地理信息添加至 FlowFile 属性。 |
||
Snowflake |
在准备就绪时,处理器会从 Amazon Ads 下载报告。 |
|
检索 AWS Polly 作业的当前状态。 |
||
检索 AWS Textract 作业的当前状态。 |
||
检索 AWS 转录作业的当前状态。 |
||
检索 AWS Translate 作业的当前状态。 |
||
在不进行可靠的检查点跟踪的情况下接收来自 Microsoft Azure 事件中心的消息。 |
||
从 Azure Queue Storage 中检索消息。 |
||
检索 Box 文件中的所有协作者,并将协作信息添加到 FlowFile 的属性中。 |
||
检索 Box 组的成员并将其详细信息写入 FlowFile 属性。 |
||
Snowflake |
描述 Salesforce Data Cloud 中的指定数据共享元数据。 |
|
Snowflake |
描述 Salesforce Data Cloud 中的指定数据共享元数据。 |
|
Snowflake |
读取 DBFS 文件。 |
|
根据哈希和范围键从 DynamoDB 中检索文档。 |
||
Elasticsearch get 处理器,它使用官方 Elastic REST 客户端库,通过 _id 从 Elasticsearch 提取单个文档。 |
||
从目录中的文件创建 FlowFiles。 |
||
该处理器使用配置的文件资源的内容创建 FlowFiles。 |
||
从 FTP 服务器提取文件并从这些文件中创建 FlowFiles |
||
检索 Google Vision 操作的当前状态。 |
||
检索 Google Vision 操作的当前状态。 |
||
Snowflake |
可以与 Google Ads Reporting API 进行交互的处理器。 |
|
Snowflake |
从一个或多个 Google Groups 中检索成员,这些群组通过 FlowFile 属性中提供的逗号分隔的群组 IDs 列表指定。 |
|
Snowflake |
负责从 Google 表格中提取数据的处理器。 |
|
从私有 HubSpot 应用程序检索 JSON 数据。 |
||
Snowflake |
按 ID 或唯一值获取 HubSpot 对象及其关联。 |
|
Snowflake |
处理器从 LinkedIn Reporting APIs 下载指标。 |
|
Snowflake |
检索 Microsoft365 组成员,并针对发生的每一项更改发出 FlowFile。 |
|
从用户指定的查询加载的 FlowFiles 中的文档创建 MongoDB。 |
||
GetMongo 的基于记录的版本,使用记录写入器来写入 MongoDB 结果集。 |
||
Snowflake |
使用 Bulk API 2 在 Salesforce 中获取查询作业的结果。 |
|
Snowflake |
使用 Bulk API 2 在 Salesforce 中获取查询作业的状态。 |
|
检查 S3 中是否存在某个对象并在不尝试下载的情况下提取其元数据。 |
||
检查 S3 中是否存在某个对象并在不尝试下载的情况下提取其标签。 |
||
从 SFTP 服务器提取文件并从这些文件中创建 FlowFiles |
||
Snowflake |
检索 SharePoint 站点组的所有成员。 |
|
从自定义 Shopify 商店检索对象。 |
||
将文件从 samba 网络位置读取到 FlowFiles。 |
||
从 Splunk Enterprise 中检索数据。 |
||
从 Amazon Simple Queuing Service Queue 中提取消息 |
||
Snowflake |
读取最大 5 GiB 的 Unity Catalog 文件。 |
|
Snowflake |
检查 Unity Catalog 文件元数据。 |
|
该处理器可以与可配置的 Workday 报告进行交互。 |
||
逐步从 Zendesk API 提取数据。 |
H¶
处理器 |
描述 |
|
---|---|---|
启动 HTTP 服务器并监听 HTTP 请求。 |
||
向生成了 FlowFile 的请求者发送 HTTP 响应。 |
I¶
处理器 |
描述 |
|
---|---|---|
尝试识别用于 FlowFile 的 MIME 类型。 |
||
可以与可配置的 HTTP 端点交互的 HTTP 客户端处理器。 |
||
实验性功能 – 为给定脚本中定义的处理器调用脚本引擎。 |
||
查找 IP 地址的 ISP 信息,并将信息添加至 FlowFile 属性。 |
J¶
处理器 |
描述 |
|
---|---|---|
将两个不同 FlowFiles 中的记录合并,其中一个 FlowFile 作为“original”,包含任意记录,第二个 FlowFile 作为“enrichment”,包含应用于丰富第一个文件的附加数据。 |
||
将 Jolt 规范列表应用于 FlowFile JSON 内容或指定 FlowFile JSON 属性。 |
||
对 FlowFile 有效负载中的每条记录应用 JOLT 规范。 |
||
对 FlowFile JSON 有效负载应用 JSLT 转换。 |
||
一种允许用户运行使用 Elasticsearch JSON DSL 编写的查询(包含聚合)的处理器。 |
L¶
处理器 |
描述 |
|
---|---|---|
Snowflake |
列出 HubSpot 中所选对象类型的存档数据,并为每个列出的对象生成一个 FlowFile,并将相应的元数据作为 FlowFile 属性。 |
|
列出 Azure Blob 存储容器中的 Blob。 |
||
列出 Azure Data Lake Storage Gen 2 文件系统中的目录 |
||
列出 Box 文件夹中的文件。 |
||
提取 Box 文件夹中每个文件的文件元数据。 |
||
检索与 Box 文件关联的所有元数据实例。 |
||
检索与 Box 文件关联的所有元数据模板。 |
||
生成一组 FlowFile,每个文件都包含与数据库连接中表的元数据相对应的属性。 |
||
Snowflake |
列出 DBFS 目录中的文件名并输出带有文件名的新 FlowFile。 |
|
从 Dropbox 检索文件列表(忽略快捷方式)。 |
||
启动一个 FTP 服务器,该服务器监听指定端口,并将传入文件转换为 FlowFiles。 |
||
启动 HTTP 服务器并监听给定的基本路径以将传入的请求转换为 FlowFiles。 |
||
通过 HTTP 或 gRPC 收集 OpenTelemetry 消息。 |
||
从一个或多个 Slack 对话中检索实时消息或 Slack 命令。 |
||
监听通过 TCP 或 UDP 发送到给定端口的 Syslog 消息。 |
||
监听传入 TCP 连接并使用行分隔符作为消息分隔符从每个连接读取数据。 |
||
监听给定端口上的数据报包。 |
||
在指定端口监听数据报包,并使用配置的记录读取器读取每个数据报的内容。 |
||
充当接受客户端连接的 WebSocket 服务器端点。 |
||
从输入目录检索文件列表。 |
||
列出 FTP 服务器上驻留的文件。 |
||
从 GCS 桶中检索对象列表。 |
||
列出 Google 云端硬盘文件夹中的具体文件(忽略快捷方式)。 |
||
Snowflake |
列出指定 Google Drive 中的所有文件和文件夹。 |
|
Snowflake |
列出 Google Workspace 中给定域名的所有群组。 |
|
Snowflake |
从 HubSpot 提取指定对象类型的数据,并为每个列出的对象生成一个 FlowFile,并将相应的元数据作为 FlowFile 属性。 |
|
Snowflake |
列出来自 Microsoft Dataverse 环境的表 |
|
从 S3 桶中检索对象列表。 |
||
Snowflake |
列出组织中可供已识别用户使用的可用数据共享。 |
|
Snowflake |
列出组织中可供识别用户使用的可用对象。 |
|
列出 SFTP 服务器上驻留的文件。 |
||
Snowflake |
为指定 Sharepoint 站点中存在的每个驱动器发出 FlowFile。 |
|
Snowflake |
列出指定 SharePoint 站点上可用的所有 SharePoint 站点组。 |
|
列出通过 SMB 协议共享的具体文件。 |
||
Snowflake |
获取所有源表名称并将其与一种可能的配置进行匹配:- 正则表达式,例如 |
|
Snowflake |
列出 Unity Catalog 目录中的文件名,并输出一个带有文件名的新 FlowFile。 |
|
在指定的日志级别发出 FlowFile 的属性 |
||
在指定的日志级别发出日志消息 |
||
从 Lookup Service 中查找属性 |
||
从记录中提取一个或多个字段,然后在 LookupService 中查找这些字段的值。 |
M¶
处理器 |
描述 |
|
---|---|---|
根据用户定义的策略将一组 FlowFiles 合并在一起,并将它们打包成一个 FlowFile。 |
||
该处理器将多条面向记录的 FlowFiles 合并为一个 FlowFile,其中包含所有输入 FlowFiles 的记录。 |
||
Snowflake |
在 Snowflake 中,针对从日记表到目标表的变更触发合并操作。 |
|
丢弃二进制文件开头和结尾处的字节范围或所有内容。 |
||
更改用于压缩 FlowFile 内容的压缩算法,方法是使用用户指定的压缩算法解压缩 FlowFiles 内容,然后使用指定的压缩格式属性重新压缩内容。 |
||
监控流的活动情况:当在指定时间内未检测到任何数据流动时,发出一个指示信号;流活动恢复后,再次发出指示信号。 |
||
在 Azure Data Lake Storage Gen 2 中移动内容。 |
N¶
处理器 |
描述 |
|
---|---|---|
在分布式缓存中缓存版本信号标识符,也可以缓存 FlowFile 的属性。 |
O¶
处理器 |
描述 |
|
---|---|---|
Snowflake |
将音频转录为英文文本。 |
P¶
处理器 |
描述 |
|
---|---|---|
该处理器会将 FlowFile 属性和内容打包成可以从 NiFi 中导出和导回至 NiFi 的输出 FlowFile,同时保留原始属性和内容。 |
||
一种允许用户运行使用 Elasticsearch JSON DSL 编写的分页查询(包含聚合)的处理器。 |
||
解析 Windows 事件日志文件 (evtx) 的内容并将产生的 XML 写入 FlowFile |
||
Snowflake |
负责解析 Excel 单元格引用公式的处理器。 |
|
尝试按照 RFC5424 和 RFC3164 格式解析 Syslog 消息的内容,并为 Syslog 消息的每个部分 FlowFile 添加属性。 |
||
尝试按照 RFC5424 格式解析格式正确的 Syslog 消息的内容,并为 Syslog 消息的每个部分 FlowFile 添加属性,包括结构化数据。 |
||
根据数据中配置的字段对面向记录的数据进行拆分或分区。 |
||
Snowflake |
使用 Snowflake Cortex ML 函数对 PDF 文档执行光学字符识别 (OCR)。 |
|
Snowflake |
接受完全限定表名的列表,并确定以下表:- 为新表(未复制,但已添加到源中)- 已存在(已复制,并且存在于源中)- 已过时(已复制,但在源中已不存在)配置作为 FlowFile 属性传递。 |
|
Snowflake |
向 Anthropic 发送提示,将响应作为 FlowFile 属性写入,或将其写入到传入 FlowFile 的内容中。 |
|
Snowflake |
向 Azure 的 OpenAI 服务发送提示,将响应写入为 FlowFile 属性或写入传入 FlowFile 的内容。 |
|
Snowflake |
该处理器向大型语言模型 (LLM) 发送用户定义的提示以进行响应。 |
|
Snowflake |
向 OpenAI 发送提示,将响应作为 FlowFile 属性写入或写入传入 FlowFile 的内容。 |
|
Snowflake |
向 Snowflake Cortex 发送提示,将响应作为 FlowFile 属性写入或将其写入传入 FlowFile 中。 |
|
Snowflake |
向 VertexAI 发送提示,将响应作为 FlowFile 属性写入或写入传入 FlowFile 的内容。 |
|
根据 FlowFile 的内容创建 AMQP 消息,并将该消息发送到 AMQP 交换器。 |
||
将传入 FlowFile 的内容发布到已配置的 Google Cloud PubSub 主题。 |
||
从 FlowFile 的内容创建 JMS 消息,并将其作为 JMS BytesMessage 或 TextMessage 发送到 JMS 目标(队列或主题)。 |
||
使用 Kafka Prod API 将 FlowFile 内容作为消息或单个记录发送给 Apache Kafka。 |
||
Snowflake |
使用 Kafka Prod API 将 FlowFile 内容作为消息或单个记录发送给 Apache Kafka。 |
|
向 MQTT 主题发布消息 |
||
向指定的 Slack 通道发布消息。 |
||
将内容放入 Azure Blob 存储的 blob 中。 |
||
该处理器是记录感知处理器,用于通过 Core SQL API 将数据插入 Cosmos DB。 |
||
充当 Azure 数据资源管理器接收器,将 FlowFiles 发送到提供的端点。 |
||
将 FlowFile 内容作为文件写入 Azure Data Lake Storage Gen 2 |
||
将 FlowFile 内容发送到 Azure 事件中心 |
||
将传入 FlowFiles 写入已配置的 Azure Queue Storage。 |
||
将 FlowFile 的内容写入 Google BigQuery 表中。 |
||
将内容放入 Box 文件夹。 |
||
向 Amazon CloudWatch 发布指标。 |
||
PutDatabaseRecord 处理器使用指定 RecordReader 从传入 FlowFile 中输入(可能是多条)记录。 |
||
Snowflake |
使用 Databricks REST API 提交一条 SQL 执行请求,并将返回的 JSON 响应写入 FlowFile 内容中。 |
|
Snowflake |
将 FlowFile 内容写入 DBFS。 |
|
使用根据 FlowFile 属性计算的缓存键,获取 FlowFile 的内容并将其放入分布式映射缓存中。 |
||
将内容放入 Dropbox 文件夹。 |
||
根据哈希和范围键从 DynamoDB 放置文档。 |
||
根据以记录为导向的数据将项目插入 DynamoDB。 |
||
使用官方 Elastic REST 客户端库的 Elasticsearch 放置处理器。 |
||
使用官方 Elastic REST 客户端库的记录感知 Elasticsearch put 处理器。 |
||
对于每个传入的 FlowFile,向已配置的收件人发送一封电子邮件 |
||
将 FlowFile 的内容写入本地文件系统 |
||
将 FlowFiles 发送到 FTP 服务器 |
||
将 FlowFile 的内容作为对象写入到 Google Cloud Storage 中。 |
||
将 FlowFile 的内容作为文件写入 Google Drive。 |
||
将文件写入 GridFS 桶。 |
||
Snowflake |
对一个 HubSpot 对象执行更新插入。 |
|
Snowflake |
使用可配置的目录将记录存储在 Iceberg 中,以管理命名空间和表。 |
|
将内容发送到指定的 Amazon Kinesis Firehose。 |
||
将内容发送到指定的 Amazon Kinesis。 |
||
将内容发送到指定的 Amazon Lambda 函数。 |
||
将 FlowFile 的内容写入 MongoDB |
||
将 FlowFile 的内容作为批量更新写入 MongoDB |
||
该处理器是记录感知处理器,用于向 MongoDB 中插入/更新数据。 |
||
PutRecord 处理器使用指定的 RecordReader 从传入 FlowFile 中输入(可能包含多条)记录,并将其发送到 Record Destination Service(即记录接收器)指定的目标位置(即 |
||
使用指定的哈希值将记录字段数据放入 Redis,该哈希值由包含哈希值的每个记录中的字段的 RecordPath 确定。 |
||
将 FlowFile 的内容作为 S3 对象写入 Amazon S3 桶中。 |
||
为指定的 Salesforce sObject 创建新记录。 |
||
将 FlowFiles 发送到 SFTP 服务器 |
||
将 FlowFile 的内容写入 samba 网络位置。 |
||
Snowflake |
将文件放入 Snowflake 内部暂存区。 |
|
Snowflake |
将记录流式传输到 Snowflake 表中。 |
|
将 FlowFile 的内容作为通知发送到 Amazon Simple Notification Service |
||
通过 TCP、TCP + TLS/SSL 或 UDP 将日志发送到 Splunk Enterprise。 |
||
通过 HTTP 或 HTTPS 将 FlowFile 内容发送到指定的 Splunk 服务器。 |
||
执行 SQL UPDATE 或 INSERT 命令。 |
||
向 Amazon Simple Queuing Service Queue 发布消息 |
||
通过 TCP 或 UDP 向给定的主机和端口发送 Syslog 消息。 |
||
通过 TCP 将序列化的 FlowFiles 或记录发送到具有可选 TLS 支持的可配置目标 |
||
PutUDP 处理器接收 FlowFile,并将 FlowFile 内容打包成单个 UDP 数据报包,然后将其传输到已配置的 UDP 服务器。 |
||
Snowflake |
将最大大小为 5 GiB 的 FlowFile 内容写入 Unity Catalog。 |
|
Snowflake |
生成 JSON 文档并将其上传到 Vectara 的上传端点。 |
|
Snowflake |
将 FlowFile 内容上传到 Vectara 的索引端点。 |
|
使用由 ListenWebSocket 或 ConnectWebSocket 建立的 WebSocket 会话向 WebSocket 远程端点发送消息。 |
||
使用 Zendesk API 创建 Zendesk 票证。 |
Q¶
处理器 |
描述 |
|
---|---|---|
查询 Azure Data Explorer 并将 JSON 结果流式传输到输出 FlowFiles |
||
生成 SQL select 查询,或使用提供的语句,然后执行该查询以获取指定最大值列中值大于先前看到的最大值的所有行。 |
||
生成 SQL select 查询,或使用提供的语句,然后执行该查询以获取指定最大值列中值大于先前看到的最大值的所有行。 |
||
Snowflake |
使用向量查询 Milvus 数据库中的给定集合。 |
|
Snowflake |
查询 Pinecone 中与输入向量相似的向量,或根据 ID 检索指定向量。 |
|
对 FlowFile 内容执行一个或多个 SQL 查询。 |
||
从 Salesforce sObject 检索记录。 |
||
查询 Splunk 服务器以获取索引确认的状态。 |
R¶
处理器 |
描述 |
|
---|---|---|
修改包含面向记录的数据的 FlowFile 的内容(即 |
||
重命名 FlowFile 的每条记录中的一个或多个字段。 |
||
通过在 FlowFile 内容中搜索某些文本值(通过正则表达式/regex 或字面量值)并将内容中匹配的部分替换为某个替代值来更新 FlowFile 的内容。 |
||
使用正则表达式匹配 FlowFile 内容,并将匹配部分替换为映射文件中提供的值,从而更新其内容。 |
||
FlowFiles 传递给此处理器时,会根据配置的“Maximum Retries”值检查“Retry Attribute”值。 |
||
使用属性表达式语言基于其属性路由 FlowFiles |
||
将正则表达式应用于 FlowFile 的内容,并将 FlowFile 的副本路由到与正则表达式匹配的每个目的地。 |
||
根据用户定义的一组规则路由文本数据。 |
||
Snowflake |
触发预定义的 Databricks 作业,以使用自定义参数运行。 |
|
每当收到 FlowFile 时运行聚合查询的处理器。 |
S¶
处理器 |
描述 |
|
---|---|---|
根据指定的抽样策略(例如蓄水池抽样算法),对 FlowFile 的记录进行抽样。 |
||
扫描 FlowFiles 的指定属性,检查其值是否存在于指定的术语字典中 |
||
扫描 FlowFiles 的内容,查找是否包含用户提供的字典中的术语。 |
||
该处理器能够使用用户提供的脚本筛选掉 FlowFiles 的记录。 |
||
接收面向记录的数据(即 |
||
提供对传入 FlowFile 中的每条记录评估一段简单脚本的功能。 |
||
该处理器能够使用用户提供的脚本验证 FlowFiles 中的记录。 |
||
一种允许用户重复运行使用 Elasticsearch JSON DSL 编写的分页查询(包含聚合)的处理器。 |
||
将 FlowFile 按字节边界拆分成多个较小的分段。 |
||
使用 OpenPGP 私钥对内容进行签名 |
||
Snowflake |
检查 Snowflake 表中是否已经存在 FlowFile 的哈希值(作为 FlowFile 属性提供),如果找到,则将 FlowFile 路由到“duplicate”,如果未找到,则路由到“distinct”,或错误时路由到“failure”。 |
|
根据配置的输出大小,将二进制编码的 Avro 数据文件拆分为较小的文件。 |
||
按指定字节序列拆分传入的 FlowFiles |
||
此处理器可将包含多个工作表的 Microsoft Excel 表格拆分为多个单独的 Excel 文件,其中原始文件中的每个工作表都会被转换为一个独立的电子表格,并各自成为一个 FlowFile。 |
||
针对由 JsonPath 表达式指定的数组元素,将 JSON 文件分割成多个独立的 FlowFiles。 |
||
将面向记录的数据格式的输入 FlowFile 拆分成多个较小的 FlowFiles |
||
在受最大行数或片段总大小的限制的行边界上,将文本文件拆分为多个较小的文本文件。 |
||
将 XML 文件拆分成多个单独的 FlowFiles,其中每个都包含原始根元素的子元素或后代元素 |
||
触发 AWS Polly 作业。 |
||
触发 AWS Textract 作业。 |
||
触发 AWS 转录作业。 |
||
触发 AWS Translate 作业。 |
||
在文件输入时触发 Vision 操作。 |
||
在图像输入时触发 Vision 操作。 |
||
Snowflake |
使用 Bulk API 2.0 向 Salesforce 提交查询作业。 |
|
Snowflake |
该处理器使用大语言模型 (LLM) 来汇总 FlowFile 的内容。 |
T¶
处理器 |
描述 |
|
---|---|---|
在 Amazon S3 对象上添加或更新标签。 |
||
“跟踪”一个文件或文件列表,原样引入已写入文件的数据。 |
||
将提供的 XSLT 文件应用于 FlowFile XML 有效负载。 |
U¶
处理器 |
描述 |
|
---|---|---|
解压缩使用几种不同打包格式之一打包的 FlowFiles 的内容,为每个输入 FlowFile 发出一个到多个 FlowFiles。 |
||
使用属性表达式语言更新一个 FlowFile 的属性和/或根据正则表达式删除属性 |
||
使用给定 FlowFile 中的记录更新 Box 文件的元数据模板值。 |
||
使用查询更新 Elasticsearch 索引中的文档。 |
||
该处理器允许用户在流中设置特定的计数器和关键点。 |
||
该处理器使用 JDBC 连接和传入记录来生成支持传入记录所需的任何数据库表更改。 |
||
更新包含面向记录的数据的 FlowFile 的内容(即 |
||
Snowflake |
根据传入 FlowFile 中提供的架构更新 Snowflake 表的定义。 |
|
Snowflake |
更新 Snowflake Iceberg 表的定义。 |
|
Snowflake |
更新表状态服务中表的状态 |
|
Snowflake |
将给定集合的向量更新插入到 Milvus 数据库中 |
|
Snowflake |
将向量(包括元数据和可选文本)发布到 Pinecone 索引。 |
|
Snowflake |
将传入 FlowFile 中的记录更新插入到 Salesforce 中 |
V¶
处理器 |
描述 |
|
---|---|---|
根据用户指定的 CSV 架构验证 FlowFiles 的内容或 FlowFile 属性值。 |
||
验证 FlowFiles 内容是否符合可配置的 JSON 架构。 |
||
根据给定架构验证传入 FlowFile 的记录。 |
||
验证 FlowFile 中包含的 XML。 |
||
使用提供的密钥计算消息身份验证码,并将其与提供的 MAC 属性进行比较 |
||
使用 OpenPGP 公钥验证签名 |
W¶
处理器 |
描述 |
|
---|---|---|
将传入的 FlowFiles 路由到“wait”关系,直到在分布式缓存中识别到一个由相应的 Notify 处理器存储的匹配释放信号。 |
||
Snowflake |
阻止传入的 FlowFiles,直到相应的表状态不等于已接受状态。 |