前言: 岗位:机器学习算法实习 笔试情况:无笔试 一面 1.自我介绍(非科班硕,一份水实习); 2.介绍项目,并由此引出一系列八股文: 介绍gbdt算法的原理与实现 说说xgboost对于gbdt所做的主要优化 3.介绍实习工作 简单介绍resnet及其主要改进(shortcut连接,BN层),说说这些改进为什么work 介绍transformer及self-attention机制实现方式 了解哪
蚂蚁很早就投了,但是直到三月底才捞起来面试,部门是支付宝事业线,岗位是计算机视觉算法 先问了一下有没有做笔试,做了笔试就先不做题了 项目中为什么使用了卡尔曼滤波,为什么跟踪模型使用了比较老的SORT 场景中相邻帧的box跳动较大对跟踪的影响 SORT的匹配是怎么做的,简述一下匈牙利算法(被面试官质疑了一下,问是不是应该是KM算法,脑子抽了没想起来,其实带权的二分图匹配就是KM算法,只记得叫匈牙利了
一面 1. PTQ和QAT的区别 2. 如果对embedding也做量化,你觉得会有什么问题 3. 说一下常见的量化方法和原理 4. 假如现在让你对transformer模型进行量化,你觉得需要量化哪些算子 5. 矩阵乘法算子的量化过程 手撕(如流IDE) 1. 搜索二维矩阵 Ⅱ lc原题 2. Top k 3. python pep9规范 问题 二面:交叉面 1. SLU和NLU的区别 2. 其
1.code 硬币换零钱问题 秒了 2.项目 严格拷打最近一个实习的项目,面试官很厉害,一下子就指出了一些当时没有考虑过的东西 3.八股 无 4.反问 组里做什么,base在哪 流程半小时结束,面试官说因为人太多了,所以面试很短 vivo hr说暑期实习技术面就一面,希望好运,进hr面
一面 一小时 介绍自己的项目 项目相关问题(其中一个是问方法/论文的创新点在哪) 协方差和相关系数是什么,他们的的关系是什么 L1范数和L2范数的区别 谈谈Sigmoid ReLU函数在0点的梯度怎么处理 Transformer和Rnn的区别 谈谈Transformer多头注意力机制,多头注意力和普通注意力的区别 从普通注意力换成多头注意力会导致参数暴涨吗?如果有所增加的话,请分析主要是哪个结构导
1.(100%)简单map,但我觉得长度这么短索性用了5个变量 https://pastebin.com/VpAaUgnV 2.(100%)连续n个d的回文子串数为n*(n+1)/2,"red"的回文子串数为3,"re"的回文子串数为2,"r"的回文子串数为1。那就先添加连续的d使其回文子串数小于目标值,再继续添加red使得回文子串数和目标值之差小于3,最后根据需要添加re或r即可。 https:
真的好难啊啊啊🤯 单选和非定向上花了太多时间 后面只有一小时写代码... 第一次笔试,时间掌握的不太好 代码题三题只a了第二题,第一题看了一眼没有思路直接跳了,第三题明明自测代码和提供的例子都过了,但是提交就是0%,不知道为什么555 第一题:构造一个长度为n的数组,满足以下三个条件:1. 所有元素绝对值不大于3;2. 相邻两元素乘积小于0;3. 所有元素之和为0 第二题:必须且只交换一次相邻两
项目问题: 1、增强纠错译码项目是怎么做的?目前有几个人在做? 2、该项目未来方向是利用bert来提取自然冗余信息,具体怎么做? 3、NLP的发展历史?(attention+transformer+bert) 4、bert的两个应用场景?(完形填空+给一句话预测下一句) 5、你生活中是怎么使用大模型的?(chat-gpt?文献检索+代码解读+图像生成) 6、yolo和R-CNN区别? 7、目标检测
2024年3月29日高德算法实习生岗位的一面面试。 这次面试主要是为了积累经验,虽然有些问题没有答上来,但还是希望能为大家提供一些参考。 面试过程 请介绍一段与算法相关的项目经验。 请解释Xgboost和GBDT的区别。 回答:两者都是梯度提升模型,但Xgboost使用二阶泰勒展开,而GBDT使用残差进行训练。Xgboost的决策树可以是回归树或分类树,训练速度较快,因为可以并行训练。 你有进行调
问了硕士研究方向的一些问题 然后全程问项目 无八股 手撕 数字字符串加法 中间屋内断了两次网,简直坑爹。希望不要影响大局。许愿一个oc
Timeline: 4.1 投递 4.3 测评+笔试 4.8 一面 4.10 二面 4.12 hr面 4.23 oc 苦等11天终于oc了,阿里池子都要泡烂了
三道题 分数占比100、200、300 最后通过用例:100%、97%、17% ACM模式 第一题时间花在处理字符串,主要考察map 第二题考察union set,大致意思是计算图的每个连通子图中所有边的和 第三题考查dfs、bfs 建议提前练习一下多行字符串每个字符串中又包含多个字段的处理,处理输入确实蛮花时间的(对于平常只刷leetcode的xx来说,acm佬勿喷)
全程25分钟,部门是百度文库策略部 1.自我介绍 2.介绍第一个项目,我的是一个RAG的项目,讲完他疯狂挑刺,然后我说了一些我们优化的一些点,他就说“你们这个地方做的挺粗糙的”,服了 3.问问题,问我transformer的结构, 我吟唱了一遍,然后他开始问一些里面比较偏的问题,有的答不出来就说一句“行吧行吧”我觉得我答不出来确实是我菜,多问一些拷打我我没问题,但是面试官也没必要这样搞人心态吧😭
1. 介绍项目 2. imu怎么加入到vo 3. imu加进去对定位精度的提升 4. 平面拟合,有斜坡怎么处理 5. 激光雷达和相机结合进行三维重建的具体步骤 6. 了解过滤波吗,说说kf,ekf,ukf 7. ekf中传感器噪声和测量噪声的大小,对滤波过程的影响,两者太大,分别会造成什么问题 8. 了解过什么运动模型,没明白意思,面试官举了一个横向运动的例子 9. 智能指针,讲一讲 10. 引用
一面:35分钟(回忆版) 1、自我介绍 2、上来直接问上段实习内容 (可能因为两家公司有过合作,所以面试官比较感兴趣,尽管上段实习不是图像算法岗,也问得比较多) 3、对yolov5的理解(简历内容) 4、C语言static 答了C++的,就没继续问,可能公司不用C++吧 5、用过哪些单片机做过什么? 6、车道线检测算法的思路 提前准备到了 7、卡尔曼滤波器了解吗,能否用C语言写一个 反问:实习能否