timeline:2023/08/31一面,2023/09/06二面;每次时长都在半个小时左右。面试官好像是一个资深的技术总监。
从Kafka的特点着手,Kafka的特性是消息在消费之后不会消失的。
这个就是和我的项目有关的,从源码角度和配置角度来说,Connector读取数据到topic中,会进行序列化,会把读取的数据转换为Kafka Record实例,该实例包含这个字段的类型(String or Integer?),然后还有这个字段的值。读取数据的时候会根据这些信息来输出到目的数据库中。
内部会专门有一个offset topic来记录消费者消费到哪里了,消费者上线后只需要从上次中断的地方开始读取即可。
也许是想让我说网络IO模型?NIO、BIO、IO多路复用这种?
面试官让我想到啥就说啥,不知道也没事。我主要强调了一下PgSQL的函数比MySQL要强一些的,但是没考虑到生态方面
我说通过参照物比对,这道题我真不知道咋回答,有没有老哥说一下这种问题咋回答?
语言比较全,基本都有:C、C++、Go、python、Java都有。Java的话主要是做大数据平台这方面的开发。
希望可以在使用技术的时候,也考察和了解一下技术方面的生态(感觉面试官比较看重这个,包括一开始问我的一些github找开源项目的问题),比如PgSQL的生态和MySQL的生态?这些也是会和技术选型有关。可以多多对比多种技术的不同和优缺点,因为在实际生产中,技术调研选型花的时间比实际开发要多许多的。
确实,作为一名应届毕业生,对于这方面的生态的了解不够充分,一些技术只是会想到怎么用和底层的一些原理,对于一些生态、可持续支持方面的考察确实不多;
to 大B。
#科来#