#软件开发笔面经# 一面 8.30 (50min) 开局一道题 lc33。老哥看我写的代码看了几分钟,丁真一下细节 说说Golang中的Channel的数据结构是什么样的? TCP中四次挥手,最后一次为啥要进行等待2MSL? 如果让你设计一个分布式锁你会如何设计? 消息队列的使用场景是什么? Kafka如何保证高可用性? 问项目,问题都比较简要,自己在问题上拓展了一下 二面9.6 (40min)
这次是真面爽了,50分钟,没算法题,没问项目和实习 对方是个架构师, 开局看我的博客,看到我的博客有架构设计的知识,问我对高可用架构的理解,对方说感觉我有些紧张,说一面我面评很好,这次面试是来决定定级是S还是A的,哥们直接原地高潮,人都支棱起来了,直接正襟危坐。 1.架构设计的top3是什么? 2.你觉得高可用架构设计的top3技术是什么?后面他说了他自己的理解,哥们直接追问拷打(你说的限流是怎么
[流程中] 投递岗位:图像算法工程师(北京) BG:双9,无实习 研究方向:计算机视觉(一篇一作SCI在投) 7.1 投递 —— 7.24 一面 —— 7.30 二面(预约) 一面(30min): 自我介绍 项目介绍(10min),提问项目创新点、与其他类似方法的比较等 论文介绍(15min),提问创新点和技术细节 手写Cross Entropy Loss 反问:业务场景、工作强度、后续安排 #面
我想知道kubernetes在有多个等待作业时是如何选择要运行的作业的。它不是FIFO,而是LIFO? 这是我的实验设置。 Kubernetes服务器版本1.21.5 kubernetes集群中的1个节点 通过将<code>ResourceQuota</code>设置为命名空间,限制每个节点3个pod 我安排了9个< code > cron jobs (< code > cron job 1 ..
是否可以直接访问Dynamics 365 business central的SQL server数据库,或者只能通过API访问它?
我有一些数据库表,我在其中插入数据在每个月手动,它是重复的条目,插入在同一天,在1日,从我的laravel应用程序的相同数量。我是laravel新手,所以我想知道如何在cron作业处理函数中编写代码,以便在db表MySQL中插入循环数据。请让我知道一些可能的代码和引用。真的很感谢你的帮助。
我们已经设置了一个库伯内特斯网络抓取cron作业集群。在cron作业开始失败之前,一切似乎都很顺利(例如,当站点结构发生变化并且我们的抓取器不再工作时)。看起来偶尔会有一些失败的cron作业会继续重试,直到它导致我们的集群崩溃。运行(在集群失败之前)会显示有太多作业正在为失败的作业运行。 我试图遵循这里描述的关于pod退避失败策略的已知问题的注释;然而,这似乎不起作用。 以下是我们的配置供参考:
一面8.24 vector和list的区别, 有什么办法把两者的优点结合起来, 删除的时间复杂度是多少, 如何实现deque的随机访问, 知道哪些排序, 时间复杂度分别是多少 有没有基于比较的排序比nlogn更低的, 如何实现交换两个变量, 为什么异或可以交换,知道原理吗, 如何去计算平均数(考虑溢出) 二面8.27 说一下io多路复用的原理, 浏览器访问服务器需要做哪些事情, http请求报文包
我想在dev/prod环境中更改Spark作业的类型安全配置。在我看来,实现这一点的最简单方法是将传递给作业。那么Typesafe配置库将为我完成这项工作。 将选项添加到spark-submit命令时,不会发生任何情况。 我收到。
已成功执行作业E=但找不到数据。此外,检查了在hcatalog中创建的表的位置,检查该位置后发现没有为此创建任何目录,并且只找到了一个0字节的文件_$folder$。
我有spring boot maven java多模块结构。我的结构是: product-data将实体对象返回到product-business,product-business将实体对象返回到product-rest,product-rest返回json对象。 产品-业务POM
我有一个Google Cloud Dataflow作业,我正在使用以下命令字符串从IntelliJ IDEA运行该作业: 它从这里运行良好,我想把它部署到本地服务器上,以便在构建时自动运行。参数指定管道选项;在任何给定的构建中,我们都需要使用这个管道启动三个不同的作业,并且重新编译三次是很浪费的。所以我正在使用mvn包以以下方式生成一个jar文件: 问题是,当我通过项目目标目录中的Java-jar
我正在尝试创建和阶段数据流经典模板。按照下面提供的链接中的文档- https://cloud.google.com/dataflow/docs/guides/templates/creating-templates#java_8 . mvn编译exec: java\-Dexec.mainClass=com.example.myclass\-Dexec.args="--runner=Dataflow
我需要实现一个从HBase表和HDFS文件访问数据的MR作业。E、 例如,映射器从HBase表和HDFS文件读取数据,这些数据共享相同的主键,但具有不同的模式。然后,reducer将所有列(来自HBase表和HDFS文件)连接在一起。 我试着在线查看,但找不到使用这种混合数据源运行MR作业的方法。MultipleInput似乎只适用于多个HDFS数据源。如果您有一些想法,请告诉我。示例代码会很棒。
我是 Azure WebJobs 的新手,我运行了一个示例,其中用户将图像上传到 blob 存储并将记录插入队列,然后作业从队列中检索该记录,作为执行调整上传图像大小的操作的信号。基本上,在代码中,作业使用公共静态方法上的 属性来完成所有这些操作。 现在我需要一个工作,它只是每小时将一条记录插入数据库表,它没有任何类型的触发器,它只是自己运行。我该怎么做? 我尝试使用一个静态方法,并在其中插入到数