当前位置: 首页 > 知识库问答 >
问题:

Flink 1.10.1在平行度最大值大于1时表现不同

薛文斌
2023-03-14

首先,我已经在这里发现了这个问题:flink程序在并行性方面的行为不同,它看起来和我现在面临的问题一样,但是我认为我在我的场景中确实需要CEP,因为我每小时有超过1百万条属于不同用户密钥的记录需要分析。

所以当我用并行性1运行cep时,一切都运行得很好,即使是不同的用户键,但有点慢,因为flink需要在单个线程中逐个用户地分析用户,而这个操作需要足够快,以识别某种模式,然后在不到1分钟的时间内发送通知例如,这就是为什么我需要一个以上的并行线程。

在我的例子中,我使用RichFlatMapFunction来保持前一个模式以识别下一个模式,然后发送通知,下面是我的代码:

final DataStream<EventPush> eventsStream = RabbitMQConnector.eventStreamObject(env)
                .flatMap(new RabbitMQPushConsumer())
                .keyBy(k -> k.id);

private static SingleOutputStreamOperator<String> getPushToSend(KeyedStream<EventPush, String> stream) {
        return stream.flatMap(new WebPushFlatMapFunction())
                .map(x -> new ObjectMapper().writeValueAsString(x));
    }

/*the code below belongs to WebPushFlatMapFunction class, which is the RichFlatMapFunction using ValueState*/

 private boolean inTime(long start, long end) {
        final long difference = (end > start) ? (end - start) : (start - end);
        long time_frame = 120000L;
        return difference > 0 && time_frame >= difference;
    }

    @Override
    public void flatMap(EventPush value, Collector<EventPush> out) {
        final String pageName= value.pageName.trim();
        Tuple4<String, String, Long, Timestamp> prev;
        try {
            prev = previous.value();
            if (b_pageName.equalsIgnoreCase(pattern)) {
                LOG.info("umid " + value.idsUmid + " match (" + pattern + ") at: " + value.timestamp);
                previous.update(new Tuple4<>(value.idsUmid, pageName, value.timestamp.getTime(), value.timestamp));
            }
            if (prev != null) {
                if (inTime(value.timestamp.getTime(), prev.f2)) {
                    if ((prev.f1 != null && !prev.f1.equals("")) && prev.f1.equals(full_pattern) && pageName.equals(home) && prev.f3.before(value.timestamp)) {
                        if (PropertyFileReader.isWebPushLoggerActivated())
                            LOG.info("umid " + value.idsUmid + " match (" + home + ")" + "triggered at: " + value.timestamp);
                        prev.f1 = "";
                        out.collect(value);
                    }
                    if ((prev.f1 != null && !prev.f1.equals("")) && prev.f1.equals(pattern) && pageName.equals(full_pattern) && prev.f3.before(value.timestamp)) {
                        LOG.info("umid " + value.idsUmid + " match (" + full_pattern + ") at: " + value.timestamp);
                        prev.f3 = value.timestamp;
                        prev.f1 = pageName;
                        previous.update(prev);
                    }
                }
            }
        } catch (IOException e) {
            CatchHandler.generalCatchHandler(e);
        }
    }

通过并行度1,我得到正确的顺序:1,2,3。更多的是,我可以在一个线程中接收1,从另一个线程中接收3,因为所有的都属于同一个用户键,这3个状态将在不同的线程中进行分区。我的问题是:有没有什么方法可以用更多的并行性来做到这一点?亲切的问候。

共有1个答案

岳俊雅
2023-03-14

这听起来像是您希望将针对每个用户的所有分析放在一起,但同时执行针对不同用户的分析。这样做的方法是通过用户ID对流进行密钥。这确实意味着对于单个用户,他们的事件正在由单个(非并行)管道处理。

如果这太慢了,你可以做一些事情来加速它。通常最有帮助的事情包括:更有效的序列化、执行预聚合或增量聚合、删除密钥或重新平衡以及启用对象重用。

 类似资料: