C++四种类型转换 进程内存分布 多进程、多线程、多协程优缺点 STL由哪六部分构成 拷打WebServer,另外给了一个场景,让优化 手撕单例模式 手撕快排非递归 面试官问的题不难,可能是手撕代码的地方出了点问题,一面面完挂了。
1.自我介绍 2.数据采集相关,怎么把kafka中的数据采集到mysql中? 忘了 3.hive,两张表的重复数据,怎么去重? 回答distinct,group by ,开窗取第一条, 开窗函数是哪个? 没回答上来 4.udf函数写过吗,flink消费kafka中的数据写过代码吗,需要看代码? 5.使用java干过那些代码? 面试时长:10分钟,面试效果,差 不足:对于简历上的内容,回答支支吾吾,
奇安信 计划研究院 算法工程师 一面 40min 11.06 1.介绍了三段实习实习经历,里面用到的模型的原理,改进方法等 聊了20min 2.刚收到图像的训练数据,怎么进行处理 3.Yolov5的主要改进点 4.介绍特征金字塔,以及为什么它能提升模型的效果 5.介绍Centernet模型 6.anchor free比 anchor base有什么优缺点 7.Python列表去重的方法 8.Pyt
https://zhuanlan.zhihu.com/p/665595011 Boss直聘 算法工程师 一面 11.06 项目介绍 画出Lstm的结构图,并进行说明 Lstm用的激活函数是什么?相比sigmoid有什么优势? 介绍Rcnn。为什么它速率较慢 C++内存泄露的原因 Python哪些对象是可变的,哪些是不可变的,怎么判断 Coding y = np.array([1, 1, 1, 1,
一面 11.23(有些问题忘了) 44min 自我介绍 详细讲解下目前做的项目(diffusion相关) 为什么网络结构要这样设计 与ip-adapter有什么不同 有没有效果展示(展示了下效果,面试官说不错) 了不了解GAN GAN和diffusion的区别 了解模型部署相关的知识吗(不了解) 写题: 力扣-704 写一个含有三层卷积层的10分类神经网络,写出每层的shape输出 反问: 对我这
Timeline: 9.24 笔试 -> 10.19 一面 -> 10.31 二面 -> 11.30 HR 面 + OC 谈薪 流程也太慢了,应该前面拒了很多才轮到我,而且广州珠海也没 HC 被调剂到武汉了,不考虑了。 金山服务端开发工程师一面 自我介绍 了解什么 Redis 数据类型? stream 底层实现? hash 底层实现?哈希表怎么扩容? zset 底层实现?跳表查询时间复杂度? Re
时间:10月 2技术面+hr面 已OC 一面 20min 自我介绍 重点聊聊你专业方面的一些积累、基础知识,项目经历、角色、贡献 主要讲安卓 说到Intent传Bitmap的问题 你用了全局变量 是不是得特别关注销毁和管理 管理周期(?有点怪) 假如说要查询数据库某一天的数据 一般我们数据精确到秒/毫秒级别的时间戳 这种时间格式怎么进行筛选 怎么去比较(说了from_unixtime和dateti
总共三十分钟左右,面试官人很好,没太多拷打,整体面试感觉不错 1.自我介绍 2.拷打实习项目,先让我整体介绍了一下,然后问了包括数据构建、模型规模、模型怎么训的、模型部署推理时延、模型怎么量化的等,然后问了一些包括用户输入一些攻击模型的话语怎么办、模型输出攻击性话语怎么办、模型幻觉怎么解决等问题 3.代码题,两道,一道全排列,一道连续子数组最大乘积 4.反问,问部门业务,说是做智慧座舱的 #软件开
单选25*2' 多选10*3' 编程题2*10' 两道编程题一道力扣原题:230二叉树的第k小元素,一道sql题。 这段时间做过的最简单的一次笔试(泪目/(ㄒoㄒ)/~~)#海康威视求职进展汇总#
荣耀:2022秋招 推荐搜索工程师 一面 自我介绍、论文 论文模型中学习率、batch size 以及其他参数是如何调优的 学习率使用模拟退火优化,初始值设置的稍大。 Batch Size 设置的尽可能大来提高学习的效率,并根据具体结果适当调整。 其他参数网格搜索。 介绍 LSTM-> Transformer -> BERT 传统 RNN 存在长期依赖的梯度问题,被 LSTM 通过三个门控解决,G
一面 1. 逐个介绍项目,问的很详细 2. 从公式的角度说明一下L2损失为什么会平滑 3. 解决模型过拟合的方法 4. 为什么L1正则化可以缓解过拟合 5. 代码 (1)快排 (2)手写卷积 #2023秋招##算法工程师#
10月12日 一面 30 min 技术面 一、自我介绍 二、 深挖项目、主要负责哪块? 三、ICP流程 四、C++掌握如何 五、对ORBSLAM2的理解 六、了解激光SLAM吗 七、深度学习模型做了什么? 八、约了第二天的手撕代码。。。。哎。。。终归是我不配了,一个一面都好难啊 估计自己面试表现太差了 #零跑科技##2023校招##面经##零跑科技校招#
今年面试难度top给中邮 虽然只有十五分钟,感觉硬核程度高于大厂n倍 简历主要nlp 1.自我介绍,项目介绍 2.文本阅读理解中,如果原文有相关的语义描述,但需要抽取的实体本身不在原文中,需要怎么做? 3.介绍一下t5,和GPT有什么区别和联系 4.讲讲基于对比学习的词嵌入方法(simCSE,不久前的顶会) 5.除了bert以外,还有哪些预训练词嵌入? 麻了,nlp卷成这样了吗
Bert的模型架构讲一下? BERT模型的全称是:BidirectionalEncoder Representations from Transformer,也就是说,Transformer是组成BERT的核心模块,而Attention机制又是Transformer中最关键的部分,因此,利用Attention机制构建Transformer模块,在此基础上,用多层Transformer组装BERT模
听说写面经可以多拿offer 小红书一共是三轮技术面+HRBP面,整个面试体验很好,官网投完简历两天就面试了,结果出的也很快,几轮的面试官人都很nice。 一面,一小时左右: 首先是做自我介绍,这个可以提前准备一下 介绍简历中写的论文,讲的过程中面试官会提一些问题,问的蛮中肯的,也提了一些建议,沟通很愉快。会问下做的东西在工业界有没有一些应用场景,可以发散的聊一聊 问了下之前在美团实习主要是做些什