🕒 岗位/面试时间 9月11日上午9:30 💼 公司岗位 JAVA开发工程师 👥 面试流程 线下是技术二面与HR综合面试,分两个房间,签到后,叫到名字进入房间与面试官单聊。 技术面 1.自我介绍 2.挑一个项目介绍 2.1 画个架构图 2.2 所用技术 2.3面试官提问 3智力题?问我了解成都有多少加油站吗?🤔 HR面 自我介绍 对招行的了解 自我优势 就业考虑因素的优先级 最成功的事情
发面经,攒人品~ 1.自我介绍 2.对测试开发的认识 3.常用的测试方法 4.针对上面说的测试方法写测试用例,并举例子 5.手撕代码 算一年中的第几天 6.sql题 7.找sql写的bug
发面经攒人品 面试官问了实习和项目有没有接触过测开,懂不懂自动化测试脚本啥的,大模型怎么应用于测试,我没接触过都说了不知道 其他都是项目相关: tcp和udp区别 项目用的多线程,为什么不用多进程 问了项目的一些细节怎么实现 场景题:如果开发在项目截止前不能完成工作,怎么处理?如何和业务方沟通?怎么确保下次合作? 场景题:机场设置汇率转换机器,怎么设置测试用例 手撕:最长公共子序列 9.6面试,9
发面经攒运气 问的很多都是实习时做的东西,可能因为和招商的岗位比较对口,八股少 post和get的区别 了解redis等中间件吗(我说没有然后就没怎么问了 对网络这边了解吗,问了些八股没答上来 用postman做接口测试的话和普通的测试有什么区别,有什么好处 对觅本怎么看(听都没听说过 最后撕了一道代码,很简单但是我没写出来哈哈 估计凉凉 面试官人很好,不清楚的地方会很细的给你讲解,然后说不懂的也
#招银# 自我介绍 为什么不做算法做后端(我研究生是做CV的) 研究生做算法以后感觉对做后端有哪些好处。 然后就是问项目了,按简历里项目一个一个问,为什么这么做,为什么不用那个,还可以怎么做,项目里没有做如果现在做要怎么做…… 没有八股 面试官挺好的,就是自己没准备好,问的很多没考虑过,没答好,有的压根不会。
09/06一面,base深圳。面试官态度非常友好,面试体验很好~问得流程大概如下: 1. 自我介绍 2. 介绍项目。(猛吹项目,其实也讲得稍微有点乱,面试官大概还是听懂了) 3. 问了点计网的,TCP的那些。(答得感觉不是特别好,就大概都答上来了) 一共两个面试官,然后这里换了另外一个面试官 4. 兴趣爱好。(说健身,基本上每天都练, 面试官表示很赞许,) 5. 问我坚持了多久。(我说高考完后一直
1. 面向过程和面向对象的区别 2. 面向对象编程有哪些缺点 3. java 堆栈区别 4. 字符串是在堆还是栈 5. 自动拆箱和自动装箱 6. 注入和控制反转 7. 项目中redis是怎么部署的 手撕:重排链表 体验:中午 11:36 面的,面试难度感觉和网上看的面经差异好大,网上的好难啊,面的好简单,不会 KPI 吧
1.网络七层模型 2.做过什么java项目,用了哪些技术栈 3.前端项目主要负责什么,当时是怎么渲染的 4.反问 总长10分钟左右
我有一个工作,将连续访问一个数据库,并计算一个表中的行数。当数量达到某个阈值时,作业必须停止检查表并触发一些新的作业。现在,我正在尝试使用来执行此操作,但我不确定如何删除第一个作业。即: (2)当有5行时,Job1将。 (3)现在Job2需要启动,Job1必须停止运行。如何删除Job1?我知道,但我不确定何时或何处调用它,因为我不能在类中为更改。 此外,我如何触发Job2开始运行在这一点?我已经读
问题内容: 使用以下方法安装业力后,我尝试将业力作为有 角种子 项目的一部分运行 我得到: 当我尝试从angular-client \ scripts运行test.bat时,此文件的内容为: 设置BASE_DIR =%〜dp0 业力开始“%BASE_DIR%.. \ config \ karma.conf.js”%* 我还尝试导航到“ \ AppData \ Roaming \ npm \ nod
问题内容: 问题: 当我将作业提交到hadoop 2.2.0集群时,它没有显示在作业跟踪器中, 但是作业成功完成。 这样,我可以看到输出并且它正在正确运行,并在运行时打印输出。 我尝试了多个选项,但作业跟踪器看不到该作业。如果我使用2.2.0 hadoop运行流作业,它将显示在任务跟踪器中,但是当我通过hadoop-client api提交它时,它不会显示在作业跟踪器中。我正在查看端口8088上的
我已经在一个订单中链接了一组Spring批处理作业。 我怀疑任务执行者。在独立的情况下,我们不指定任何任务执行器(默认值为SyncTaskExecutor),作业流工作正常。但是在Jboss中部署时,我们使用SimpleAsyncTaskExecutor,因为在Jboss中使用SyncTaskExecutor甚至不会触发作业。 我在这里错过了什么,或者我在这里做错了什么。?请建议。
这是关于一个flink作业,它有一个简单的源来从url中获取数据,然后过滤数据,然后在一个进程函数中收集数据一段时间(keyBy),最后在一个映射中处理收集到的数据。由于某些原因,即使flinkUI显示它正在运行,作业在几天后也会停止运行。有没有办法知道为什么会有这样的行为,也有没有办法知道一个作业实际上是否已经停止,即使UI显示它正在运行。 附言:我怎么知道工作已经停止了??答:它没有执行它正在
问题:当我向hadoop 2.2.0集群提交一个作业时,它不会显示在作业跟踪器中,但该作业成功完成了。通过这个,我可以看到输出,它正在正确运行,并在运行时打印输出。 etc/hadoop/core-site.xml
我在Openshift环境中运行SCDF。我正在安排一个Spring批处理作业每5分钟运行一次。有时作业可能运行超过5分钟。在这种情况下,是否可以保留下一个计划的作业执行,直到上一个完成其执行? 我们不想改变作业执行的频率和间隔。 谢了。