自我介绍 1. 使用Java socket有遇到什么问题 2. Java集合 3. 一道sql,求每个部门工资最高的那位 4. 1 - 99的数字,有一个重复了,怎么快速找出 5. 栈和队列的区别和使用场景 反问 体验: 首先一看面试官脸就知道是kpi面,不过无所谓了,也不是没经历过,就当提升面试经验了。但就算是kpi面也用点心行不?全程无互动,并且声音小的像蚊子,我说听不清之后会变正常一点但下一
👥 面试题目 1.自我介绍 2.怎么理解运营? 3.你觉得自己有哪些优势? 🤔 面试感受 面试十几分钟就结束了,面试官问完三个问题就介绍了一下岗位工作内容(主要有五个方向),说实习生的工作内容前期会比较简单,后期可以自己选择参与的工作方向。但是我有点担心主要工作就一直是简单的信息整理😢 #我的实习求职记录#
一共面了五轮,做了1次笔试,2次性格测评,面试过程还有用纸当场写题 一道是产品有关的技能;一道是爱用app的发展规划;一道是技术题 一面 1.自我介绍 2.项目介绍 3.怎么理解你这个项目 4.讲一下实习经历 5.你是怎样的契机来做产品经理的 6.你自身有哪些优点? 7.描述一个浏览器请求一个网站的过程 8.你最喜欢的app和它成功的底层逻辑 9.这个app的盈利模式? 二面 50min
我们目前正在使用 SpringXD 将数据从各种数据源摄取到接收器。由于 Springxd 计划终止可用性,我们希望迁移到 Spring Cloud 数据流。 < li >我们为SpringXD编写了几个自定义模块。如何在SCDF使用相同的模块。在SCDF使用这些需要做什么改变。 < li >我们的集群配置了kerberos,SCDF支持kerberized kafka和hadoop吗?。 < l
我正在尝试使用谷歌云数据流将谷歌PubSub消息写入谷歌云存储。PubSub消息采用json格式,我要执行的唯一操作是从json到parquet文件的转换。
我创建了一个简单的光束管道,如下所示 我(非常有限)的理解是,作为flex模板的一部分创建的docker映像只是在Dataflow上启动作业,所以不太明白它为什么抱怨java目录不存在。任何线索都将不胜感激。
我用apache-beam做了几个测试,使用了自动缩放工作人员和1个工作人员,每次我看到启动时间大约为2分钟。是否有可能缩短启动时间,如果有,建议哪些最佳做法来缩短启动时间?
我正在尝试实现一个Spring Cloud数据流,它从数据库中读取记录,将这些记录传递给转换为Avro模式的处理器,然后将其传递给接收器应用程序使用。 我有数据从SQL数据库流向我的源应用程序,并通过Kafka绑定器传递数据,没有问题,我遇到了问题,将数据从处理器发送到Sink应用程序序列化/反序列化与Avro。 我创建了一个名为ech的avro模式。avsc和已使用处理器内的avro maven
我已经开始使用Scala SDK Scio开发我的第一个DataFlow工作。数据流作业将以流模式运行。 有谁能建议最好的部署方法吗?我已经在Scio文档中阅读了他们使用的,然后将其部署到Docker容器中。我也读过关于使用数据流模板的内容(但不是很详细)。 什么是最好的?
我怀疑为每一个传入的事件记录执行postgresql操作将是一个性能问题。 对于这种情况,有什么更好的或可供选择的设计?
我正在尝试设置我的开发环境。我一直在使用pubsub模拟器进行开发和测试,而不是在生产中使用谷歌云pubsub。为此,我设置了以下环境变量: 这适用于python google pubsub库,但当我切换到使用java apache beam进行google数据流时,管道仍然指向生产google pubsub。管道上是否有需要设置的设置、环境变量或方法,以便管道读取本地pubsub仿真器?
我使用beam SDK用python编写了一个Google数据流管道。有一些文档介绍了我如何在本地运行它,并设置runner标志以在数据流上运行它。 我现在正尝试将其自动部署到CI管道(bitbucket管道,但并不真正相关)。有关于如何“运行”管道的文档,但没有真正的“部署”管道。我测试过的命令如下: 这将运行作业,但因为它正在流式传输,所以永远不会返回。它还在内部管理打包并推送到存储桶。我知道
我已经添加了保存点到kafka源,它恢复kafka流,但相反,我想恢复我处理过的数据流 我的字符串流被进一步传递给另一个进程,该进程被转换为对象的数据流。我希望处理流的状态应该只被保持,而不是kafka流。有没有办法将保存点附加到数据流
我是pyflink的新手。我正在尝试编写一个python程序来从kafka主题读取数据并将数据打印到标准输出。我按照链接Flink Python Datastream API Kafka Producer Sink Serializaion进行了操作。但由于版本不匹配,我一直看到NoSuchMethod odError。我添加了https://repo.maven.apache.org/maven
我在Openshift集群上安装了一个Spring Cloud数据流。我尝试注册一个应用程序,然后创建一个任务,一切都很好,但当我试图安排任务时,我遇到了以下异常: 我不知道这是什么意思,我是Dataflow的新手。我不明白为什么他试图使用Maven而不是kubernetes部署器,也不明白为什么我会出现这个错误。有人能再给我解释一下吗? 顺便说一句,我将这些应用程序注册为docker容器。