Timeline: 9.24 笔试 -> 10.19 一面 -> 10.31 二面 -> 11.30 HR 面 + OC 谈薪 流程也太慢了,应该前面拒了很多才轮到我,而且广州珠海也没 HC 被调剂到武汉了,不考虑了。 金山服务端开发工程师一面 自我介绍 了解什么 Redis 数据类型? stream 底层实现? hash 底层实现?哈希表怎么扩容? zset 底层实现?跳表查询时间复杂度? Re
时间:10月 2技术面+hr面 已OC 一面 20min 自我介绍 重点聊聊你专业方面的一些积累、基础知识,项目经历、角色、贡献 主要讲安卓 说到Intent传Bitmap的问题 你用了全局变量 是不是得特别关注销毁和管理 管理周期(?有点怪) 假如说要查询数据库某一天的数据 一般我们数据精确到秒/毫秒级别的时间戳 这种时间格式怎么进行筛选 怎么去比较(说了from_unixtime和dateti
总共三十分钟左右,面试官人很好,没太多拷打,整体面试感觉不错 1.自我介绍 2.拷打实习项目,先让我整体介绍了一下,然后问了包括数据构建、模型规模、模型怎么训的、模型部署推理时延、模型怎么量化的等,然后问了一些包括用户输入一些攻击模型的话语怎么办、模型输出攻击性话语怎么办、模型幻觉怎么解决等问题 3.代码题,两道,一道全排列,一道连续子数组最大乘积 4.反问,问部门业务,说是做智慧座舱的 #软件开
单选25*2' 多选10*3' 编程题2*10' 两道编程题一道力扣原题:230二叉树的第k小元素,一道sql题。 这段时间做过的最简单的一次笔试(泪目/(ㄒoㄒ)/~~)#海康威视求职进展汇总#
荣耀:2022秋招 推荐搜索工程师 一面 自我介绍、论文 论文模型中学习率、batch size 以及其他参数是如何调优的 学习率使用模拟退火优化,初始值设置的稍大。 Batch Size 设置的尽可能大来提高学习的效率,并根据具体结果适当调整。 其他参数网格搜索。 介绍 LSTM-> Transformer -> BERT 传统 RNN 存在长期依赖的梯度问题,被 LSTM 通过三个门控解决,G
一面 1. 逐个介绍项目,问的很详细 2. 从公式的角度说明一下L2损失为什么会平滑 3. 解决模型过拟合的方法 4. 为什么L1正则化可以缓解过拟合 5. 代码 (1)快排 (2)手写卷积 #2023秋招##算法工程师#
10月12日 一面 30 min 技术面 一、自我介绍 二、 深挖项目、主要负责哪块? 三、ICP流程 四、C++掌握如何 五、对ORBSLAM2的理解 六、了解激光SLAM吗 七、深度学习模型做了什么? 八、约了第二天的手撕代码。。。。哎。。。终归是我不配了,一个一面都好难啊 估计自己面试表现太差了 #零跑科技##2023校招##面经##零跑科技校招#
今年面试难度top给中邮 虽然只有十五分钟,感觉硬核程度高于大厂n倍 简历主要nlp 1.自我介绍,项目介绍 2.文本阅读理解中,如果原文有相关的语义描述,但需要抽取的实体本身不在原文中,需要怎么做? 3.介绍一下t5,和GPT有什么区别和联系 4.讲讲基于对比学习的词嵌入方法(simCSE,不久前的顶会) 5.除了bert以外,还有哪些预训练词嵌入? 麻了,nlp卷成这样了吗
Bert的模型架构讲一下? BERT模型的全称是:BidirectionalEncoder Representations from Transformer,也就是说,Transformer是组成BERT的核心模块,而Attention机制又是Transformer中最关键的部分,因此,利用Attention机制构建Transformer模块,在此基础上,用多层Transformer组装BERT模
听说写面经可以多拿offer 小红书一共是三轮技术面+HRBP面,整个面试体验很好,官网投完简历两天就面试了,结果出的也很快,几轮的面试官人都很nice。 一面,一小时左右: 首先是做自我介绍,这个可以提前准备一下 介绍简历中写的论文,讲的过程中面试官会提一些问题,问的蛮中肯的,也提了一些建议,沟通很愉快。会问下做的东西在工业界有没有一些应用场景,可以发散的聊一聊 问了下之前在美团实习主要是做些什
双非本985硕,icpc银,一篇一区论文 先自我介绍 1. 介绍其中一篇论文 2. 你的论文结果和其他人的有什么优势? 3. 如何提升这个项目?(换模型,提升并发度) 4. Yolo的正负样本是什么?(与所有真实标签iou都小于阈值的预测框为负样本,反之为正样本) 5. 模型压缩和加速的方法有哪些?(gpu、蒸馏、剪枝、半精度) 6. 半精度是什么?(舍弃后16bit的半浮点数) 7. 半精度的理
1.SyN算法(微分流形) 2.梯度下降 求y=x^2的最速下降(一阶) 3.Rest-Net 结构encoder和style Encoder 4.解决错误变形的方法
时间:晚上10:16左右,20分钟左右 面试官男,非常疲惫,每次我回答完问题都沉默了很久,声音也很疲惫。 1、问学校,学位证,毕业证 2、项目经理(sd、lora、fine-tune过程) 3、L2正则化解释一下 4、用过BN(batch normalization)吗? (答了梯度消失的时候的最佳解决方案,顺便扯了梯度消失的时候换激活函数,实际上还有梯度爆炸也可以用) 5、用过Dropout吗?
上来介绍项目相关,然后提问 1、有做过微调相关的吗?(答sd和lora,解释了底层架构和原理) 2、用过哪些网络?(常规问题) 3、正则化的方法?(常规问题) 4、常用的损失函数?(常规问题) 5、目标检测算法如何设计?(yolo相关的原理没准备好) 6、有部署过相关大模型的经验吗?(有过但不熟练) 7、有业务经验吗?(基本没有) 8、python用的怎么样?(还行,基本的算法都能写,但主要C/C
老东家属实给面子,要么不给面,给面就一定能进二面。全程半个多小时,一直在聊实习,没有问什么技术问题,也没有手撕,这一点倒是也奇怪,我也纳闷他为啥不问技术问题。部门是做车端高精地图的,基本把我在蔚来、B 站、百度的工作内容都给覆盖了,可以说是校招以来最 match 的岗位。 Intern & NIO: 使用 cgroup 的项目背景、车机系统包含哪些服务 哪个服务占用最高(感知 arg_app) 蔚