一面 1、自我介绍之后直接做题,LC102. 二叉树的层序遍历 2、项目中遇到难点 3、MySQL 索引结构,为什么要用 B+ 树 4、MySQL 事务的理解 5、MySQL MVCC 机制 6、以后的就业方向有要求 7、反问:做什么业务?推荐相关,Java 比较多,C++ 也有 二面 1、场景题:两地机房分别有一个很大文件,如何得到这两个文件不同的数据项(没答好 参考:https://blog.
#24届软开秋招面试经验大赏# 认准拉普拉斯,秋招必上岸。就业咨xun可私。 字节面的是抖音直播提前批,七月份面的了。应该是我今年秋招第一场面试。难度不是很大,但是感觉提前批竞争是比较激烈的。其实跟一面面试官聊的还挺好的,面试官还说挺喜欢跟我唠😢 面试时间一小时,难度三颗星。 记忆有点模糊了,大概写写。 1 自我介绍 2 项目介绍,实习介绍,科研介绍。 3 介绍一下微调的方法。 4 介绍一下语训
#24届软开秋招面试经验大赏# 投递岗位:算法优化工程师 笔试时间:8.20 120min 双机位 笔试题型:20个不定项选择、2个编程、1个数据结构论述题、1个4选1的论述题 笔试考察知识点: 选择题涉及概率分布、贝叶斯概率计算、排列组合、函数求极限、机器学习、矩阵奇异值分解、C/C++基础知识、图像处理方法、HOG特征、SIFT特征、进程与线程、算法时间复杂度计算等等。 编程有点难度,第1题5
滴滴其实没有专门的slam岗,因此我投的是算法工程师-自动驾驶大类,但是8月份面完如今依然在泡池子 滴滴面试可以提前留够时间,是一面完过直接约二面的,可以一天直接面完 一面 1、五分钟自我介绍 2、简历上项目深挖 3、手撕代码,指定使用迭代法中序遍历二叉树,不能使用递归 4、反问环节 二面 跟一面的流程几乎相同,面手撕试官出的题目是删除链表中倒数第n个节点,力扣原题 三面 三面没有手撕环节,全程介
旷视我投的是提前批的Learning-based V-SLAM,面试的时候其实很忐忑,因为我没什么learning背景,但询问面试官后发现其实vslam也是可以投的 一面 1、五分钟自我介绍 2、简历上项目深挖 3、由于简历中提到了矢量化相关的工作,因此面试官出的题目是给定一组二维点拟合直线,但指定函数方程为ax+by+1=0,使用最小二乘实现函数功能即可,可以使用eigen库 此外还问了一道概率
投的是SLAM/三维重建/图文多模态算法工程师-视觉团队的岗位 一面 1、五分钟自我介绍 2、简历上项目深挖 3、由于简历中提到了矢量化相关的工作,因此面试官出的题目是给定一组二维点拟合直线,使用最小二乘实现函数功能即可,可以使用eigen库 4、反问环节 一些碎碎念 其实整体面下来我可以感受到面试官应该是做感知出身的,至于为什么会安排专业不太对口的面试官来面我也不太理解 今年SLAM岗位真的很少
九月底投递的 没笔试没测评 直接约面 一面技术面 十月初 面试时间:30min 面试内容:自我介绍 然后问了一些项目相关的问题 无八股无手撕 强度低 反问业务 做拖拉机自动驾驶和高精度建图 二面主管面 一面2天后 面试时间:25min 面试内容:自我介绍然后纯聊天 三面hr 二面第二天 hr直接发offer给薪资 三天时间考虑 总体来说给的还可以 在上海 挺想回家的 但是感觉技术栈不是很匹配 主要
【一面】 对着项目问的比较多 1. 线性回归的假设条件是什么 2. 介绍lstm,transformer这些 3. transformer相比于seq2seq,它的增量点在什么地方 4. 因果推断和(事件发生前拟合一个模型,使用这个模型对事件发生后进行预测从而得到效应),增量在什么地方,有哪些本质上的区别(跟我的项目相关) 5. 对于销量预测模型,你有什么思路;怎么进行模型选型;如果没有其他特征,
写面筋,攒一点好运~ 等了两个星期终于等到蚂蚁电话约一面 面试主要在拷打项目, 先自我介绍,然后针对项目问题刨根究底的询问。 除此之外 问了一下对比一下KG + LLM 与 RAG的优劣(好像他们主要也在做KG+LLM) 无算法 反问: 几面?一共有三轮技术面,第二轮会有算法。三面leader面。 业务做啥?垂领大模型构建,KG+LLM P.S. 1. 昨天面试官找我约好时间,结果今天他还迟到了一
感觉已经凉透了。。。写点热乎的凉经攒攒人品。反馈效率非常3高,只要这轮过了当天就会联系你约下一面,是我面过的最不墨迹的单位 一面 聊一个项目(自己挑) Deepspeed了解吗 介绍下熟悉的主流大模型(llama) 和transformer有什么区别/改进 旋转位置编码怎么做的 了解强化学习吗 算法题: 1.大小为k的滑动窗口扫描无序数组(步长1),输出移动过程中的窗口最大值 2.最大值栈 反问
全程1h. 项目 多分类的损失函数 多标签损失函数怎么设计 BN层计算方式和作用 自注意力计算方式 多头自注意力机制、复杂度 手撕代码,没撕出来,面完一查才知道是困难,lc410 反问: 无自驾背景是否介意 应该无了
这个岗位楼主是在内推投递的,但是我本身做的是算法工程、算法落地化的方向,之前的实习经历还有项目经历也是,不知道为什么算法岗的面试官会看上我叫我来面试😂 自我介绍 自己挑一个项目来介绍,介绍了在字节做的vllm优化,面试官没听懂 问llm自动评测系统怎么设计,期望答案是用另一个大模型作为裁判 设计一个llm对话机器人的整个链路,我直接将之前实习的经验答上去了,但好像面试官对知识库召回的部分不太满意
极氪:面试官做规划的都聊的规划,项目 为什么用frenet坐标系,lattice planner的cost有什么,单例模式,面向对象,怎么debug,用什么工具分析数据,一道dp 小米:面试官做控制的,项目,mpc怎么提高速度(面试官说了一个热启动,查了一下是用上一时刻的最优值当下一时刻的初始值加速收敛,apollo的lqr为什么需要前馈,pid的i为什么能减小稳态误差,定位信息不准控制算法能做什
9.11上午面的,首先问项目,以及神经网络相关知识 问深度学习基础知识,比如交叉熵损失函数为什么是log,为什么有负号,有用过其他类型的神经网络吗 但面试官的网好卡,中间还卡断了掉线了,之后他的信号时好时差,说话听不太清,断断续续的。 然后今天(9.12)就收到了感谢信😢😢emo #开立医疗#