在本系列的第一篇文章中,我们对欺诈检测引擎的目标和所需功能给出了高层次的描述。我们还解释了如何让Apache Flink中的数据分区基于可修改的规则来定制,替代使用硬编码的KeysExtractor实现。
我们特意略过了关于如何初始化应用的规则,以及在运行时有哪些方法来更新这些规则的细节内容。在这篇文章中我们将具体介绍这些细节。你将学习如何将第一部分中描述的数据分区方法与动态配置结合起来使用。只要共同使用这两种模式,调整很多业务逻辑时就不用再重新编译代码和重新部署Flink作业了。
首先我们来看一下先前定义的数据处理管道:
DataStream<Alert> alerts =
transactions
.process(new DynamicKeyFunction())
.keyBy((keyed) - > keyed.getKey());
.process(new DynamicAlertFunction())
DynamicKeyFunction提供动态数据分区,而DynamicAlertFunction负责执行处理事务的主要逻辑,并根据已定义的规则发送警报消息。
本系列的第一篇文章简化了用例,并假定应用的规则集已预先初始化,可以通过DynamicKeyFunction中的List访问。
public class DynamicKeyFunction
extends ProcessFunction<Transaction, Keyed<Transaction, String, Integer>> {
/* Simplified */
List<Rule> rules = /* Rules that are initialized somehow.*/;
...
}
显然,在初始化阶段就可以直接在Flink作业的代码内部向这个列表添加规则(创建一个List对象,使用它的add方法)。这样做的主要缺点是每次修改规则后都需要重新编译作业。在现实的欺诈检测系统中规则会经常更改,因此从业务和运营角度来看,这种方法是不可接受的。我们需要另一种方式。
接下来是在上篇文章中引入的规则定义示例:
图1:规则定义
上一篇文章提到,DynamicKeyFunction使用groupingKeyNames来提取消息键。该规则第二部分中的参数由DynamicAlertFunction使用:它们定义所执行操作的实际逻辑及其参数(例如警报触发阈值)。这意味着在DynamicKeyFunction和DynamicAlertFunction中必须存在相同的规则。为了获得这个结果,我们将使用Apache Flink的数据分发广播机制。
下图展示了我们正在构建系统的最终作业图:
图2:欺诈检测Flink作业的作业图
事务处理管道的主要模块有:
上面的作业图还指出了运算符之间的各种数据交换模式。为了解广播模式的工作机制,我们先走一小段弯路,讨论Apache Flink的分布式运行时中存在哪些消息传播方法。
图3:跨运算符实例传递的FORWARD消息
图4:在运算符实例之间传递的哈希消息(通过keyBy
)
图5:跨运算符实例传递的REBALANCE消息
图2中的欺诈检测作业图包含一个附加数据源:规则源(Rules Source)。它还从Kafka消费。规则通过BROADCAST通道“混合”到主处理数据流中。在运算符之间传输数据的其他方法(例如forward、hash或rebalance),会让每个消息只可在接收的运算符的并行实例之一中处理;相比之下,broadcast会让每个消息在broadcast stream连接的运算符的所有并行实例的输入上可用。这使得broadcast方法适用于多种需要影响所有消息处理的任务,而无需考虑它们的键或源分区。
图6:跨运算符实例传递的BROADCAST消息
注意:实际上Flink中有一些更特殊的数据分区方案,我们在这里没有提到。如果你想了解更多信息,请参阅Flink有关流分区的文档。
为了使用规则源,我们需要将其“连接”到主数据流:
// Streams setup
DataStream<Transaction> transactions = [...]
DataStream<Rule> rulesUpdateStream = [...]
BroadcastStream<Rule> rulesStream = rulesUpdateStream.broadcast(RULES_STATE_DESCRIPTOR);
// Processing pipeline setup
DataStream<Alert> alerts =
transactions
.connect(rulesStream)
.process(new DynamicKeyFunction())
.keyBy((keyed) -> keyed.getKey())
.connect(rulesStream)
.process(new DynamicAlertFunction())
如你所见,可以调用broadcast方法并指定状态描述符,从任何常规流中创建广播流。Flink假定在处理主数据流的事件时需要存储和检索广播的数据,因此总是从该状态描述符自动创建相应的广播状态(broadcast state)。这与其他的Apache Flink状态类型是不一样的,其他类型中你需要在处理函数的open()方法中对其进行初始化。另请注意,广播状态始终具有键值格式(MapState)。
public static final MapStateDescriptor<Integer, Rule> RULES_STATE_DESCRIPTOR =
new MapStateDescriptor<>("rules", Integer.class, Rule.class);
连接到rulesStream会导致处理函数的签名发生某些变化。上一篇文章在这里做了一点简化,用的是ProcessFunction。但是,DynamicKeyFunction实际上是一个BroadcastProcessFunction。
public abstract class BroadcastProcessFunction<IN1, IN2, OUT> {
public abstract void processElement(IN1 value,
ReadOnlyContext ctx,
Collector<OUT> out) throws Exception;
public abstract void processBroadcastElement(IN2 value,
Context ctx,
Collector<OUT> out) throws Exception;
}
这里的区别在于增加了processBroadcastElement方法,规则流的消息将通过该方法到达。下面新版本的DynamicKeyFunction允许在运行时通过这个流,修改数据分配键的列表:
public class DynamicKeyFunction
extends BroadcastProcessFunction<Transaction, Rule, Keyed<Transaction, String, Integer>> {
@Override
public void processBroadcastElement(Rule rule,
Context ctx,
Collector<Keyed<Transaction, String, Integer>> out) {
BroadcastState<Integer, Rule> broadcastState = ctx.getBroadcastState(RULES_STATE_DESCRIPTOR);
broadcastState.put(rule.getRuleId(), rule);
}
@Override
public void processElement(Transaction event,
ReadOnlyContext ctx,
Collector<Keyed<Transaction, String, Integer>> out){
ReadOnlyBroadcastState<Integer, Rule> rulesState =
ctx.getBroadcastState(RULES_STATE_DESCRIPTOR);
for (Map.Entry<Integer, Rule> entry : rulesState.immutableEntries()) {
final Rule rule = entry.getValue();
out.collect(
new Keyed<>(
event, KeysExtractor.getKey(rule.getGroupingKeyNames(), event), rule.getRuleId()));
}
}
}
在上面的代码中,processElement()接收事务,而processBroadcastElement()接收规则更新。创建新规则后将按图6所示分配,并使用processBroadcastState将其保存在运算符的所有并行实例中。我们使用规则的ID作为存储和引用各个规则的键。我们不再迭代硬编码的List,而是迭代动态更新的广播状态的条目。
在将规则存储在广播MapState中时,DynamicAlertFunction遵循相同的逻辑。如第一部分中所述,processElement输入中的每个消息会由一个特定规则处理,并通过DynamicKeyFunction带有相应ID的“预标记”。我们需要做的就是使用提供的ID从BroadcastState中检索相应规则的定义,并根据该规则所需的逻辑对其进行处理。在这一阶段,我们还将消息添加到内部函数状态,以便在所需的数据时间窗口上执行计算。我们将在欺诈检测系列的最后一篇文章中探讨如何做到这一点。
本文,我们继续研究了使用Apache Flink构建的欺诈检测系统的用例。我们研究了在并行运算符实例之间分配数据的各种方式,而最重要的是探讨了广播状态。我们演示了如何通过广播状态模式提供的功能来配合和增强动态分区(本系列第一部分中介绍的一种模式)。在运行时发送动态更新的能力是Apache Flink的强大功能,适用于其他多种用例,例如控制状态(清除/插入/修复)、运行A/B实验或执行ML模型系数的更新等。
原文链接:https://flink.apache.org/news/2020/03/24/demo-fraud-detection-2.html
领取专属 10元无门槛券
私享最新 技术干货