感觉不像面试,纯聊天哈哈,过不过另说,聊得挺开心的
海康 5-31算法面试 15min 介绍项目 一个问题:说一下cartographer的大致流程 反问。 想问下有佬收到2面邮件了没。
1.项目 问了问项目 有什么办法能让你的模型对用户的反馈做出即时更新,我从特征以及端上模型介绍了一下,然后面试官反问,请详细介绍一下你端上模型的设计思路,特征是什么,目标是什么,梯度怎么更新,信息怎么和精排联动? 你模型引入SENet和Bilinear的模块,为什么要这么做。有可能是因为模型参数量提高的结果吗,假如我把你这俩模块换成同样参数的全连接层,会有效果吗。如果不会,你觉得为什么他们会比全连
面试官人很好,一直乐呵呵的 1、自我介绍 2、穿插项目问了一些八股都很简单 3、 auc实现 4、给一个数组输出不包含重复值的数组 更新,已挂
🕒 8.12 时长:20min 1.自我介绍 2.问了一些基本情况 3.针对简历讲一个自己熟悉的项目,然后问了几个问题 4.面试官介绍部门情况 反问 1.base地 2.后续流程:技术面会有两面,第一面是项目经理面,通过后会领导技术面,说是要准备PPT介绍项目。
先自我介绍,这次没有先做题,好评 1. 从实习/项目/论文中挑一个讲 讲了在快手的推荐算法实习,面试官听得很仔细,针对我的经历问了很多问题,也提出了自己的想法。聊了快一个小时。 2. 题目lc39 组合总和 很经典的一道回溯题,不难,写出来了 3. 反问 主要还是问了下组里的工作和面评 无八股
先自我介绍,然后就直接做题了(好像百度都是先做题 1. lc 312 戳气球 二维dp 没做过 想到是二维dp但是面试官引导了半小时还是没写出来😢 2. lc172 阶乘后的0 写出了On的写法,面试结束后看了下还是logn的解法,没写出来 3. 聊了实习的内容,我主要做的是因果消偏召回,所以基本也只问了召回相关的 4. 简单聊了一篇论文 无八股 反问 组里的业务是什么 面试官人非常好,也很有耐
百度算法实习一面,50分钟 1.手撕代码两道,最大子序列和,完全平方数 2.介绍下项目 3.Transformer 4.Attention 5.QKV原理 6.GCN初始化怎么处理 7.项目做的有关时间序列,问除了transformer怎么针对时间上的特征更好地建模,考虑过传统方法吗? 8.DIEN中怎么对输入文本,标签,用户画像等数据进行转换时,有哪些embedding方法,针对不同数据有什么的
拷打项目 1. 除了MHA 还有其他种类的Self attention吗 2. 为什么要除根号d_k 3. 知道哪些位置编码? 4. Infernce 和Training 的时候 在GPU中都要保存哪些值和变量?有什么区别? Code: 5. 手写mha 6. 最长无重复子串
base深圳 4.07 一面40min 深挖项目 然后基础八股transformers结构、bert结构之类的 深拷贝浅拷贝区别 python lambda作用 手撕最长重复子序列 4.09 二面30min 基本深挖项目 无八股 问了个统计学知识(什么数据正态分布还是啥的……不懂 没答上来) 以及被询问了是否接受转开发 4.11 三面线下hr面 30min 就聊聊天 然后问了薪资期望等等 许愿oc
1.transformer 2.自注意力机制,自注意力机制的起作用的地方 3.BN,LN 4.梯度消失与爆炸的理解 5.论文讲解 6.transformer的位置编码 7.focal loss 8.模型怎么评价好坏 9.自注意力机制的参数量计算 10.编写代码:topk,用了堆排序,快排都写了
最近面试少了, 精力放在工作上。 偶尔面试保持手感即可。 今天这个学习意义比较大就记录一下。 面试本身没啥特殊的,就是项目+八股+代码。 项目问了我的蚂蚁实习, DeepFM 相关的东西和大模型相关的东西。 所以问了一些八股 1.DEEPFM 介绍一下(聊了一些) 2. 还了解别的推荐的模型吗(不了解) 3. LLAMA 和别的模型架构有啥区别? 4. Llama 用的是什么 norm 和激活函数
面试时长五十分钟 面试官给提示给的很多 体验还挺好 但听说B站没hc了
1. 自我介绍 2. 问实习经历(和算法相关度低,主要是开发) 3. 问 kaggle 竞赛做了什么 4. xgboost 和 lightgbm 的区别(接着 kaggle 竞赛问的) 5. 算法题:给一个 0.7 概率返回 1, 0.3 概率返回 0 的随机数生成器,怎么生成任意指定概率返回 1 的随机数生成器。答得很烂,面试官引导了很久才做出来。 6. (面试官说我简历项目相关的太少,很多东西
自我介绍之后,还问了实验室和导师是谁,是不是博导()。 觉得我项目和岗位没什么匹配度(在实验室主要做CV的),就只问了一段实习。(好详细啊) 下面问了好多八股题: 1.BERT详解 2. 借口任务是什么意思 3.为什么自注意力要除以根号dk 4.编码器和解码器是什么关系 4.1 Transformer中编码和解码的作用 5.推荐系统中大模型的应用 6.BERT在做分类、命名实体识别、句子相似度任务