先自我介绍,然后就直接做题了(好像百度都是先做题 1. lc 312 戳气球 二维dp 没做过 想到是二维dp但是面试官引导了半小时还是没写出来😢 2. lc172 阶乘后的0 写出了On的写法,面试结束后看了下还是logn的解法,没写出来 3. 聊了实习的内容,我主要做的是因果消偏召回,所以基本也只问了召回相关的 4. 简单聊了一篇论文 无八股 反问 组里的业务是什么 面试官人非常好,也很有耐
百度算法实习一面,50分钟 1.手撕代码两道,最大子序列和,完全平方数 2.介绍下项目 3.Transformer 4.Attention 5.QKV原理 6.GCN初始化怎么处理 7.项目做的有关时间序列,问除了transformer怎么针对时间上的特征更好地建模,考虑过传统方法吗? 8.DIEN中怎么对输入文本,标签,用户画像等数据进行转换时,有哪些embedding方法,针对不同数据有什么的
拷打项目 1. 除了MHA 还有其他种类的Self attention吗 2. 为什么要除根号d_k 3. 知道哪些位置编码? 4. Infernce 和Training 的时候 在GPU中都要保存哪些值和变量?有什么区别? Code: 5. 手写mha 6. 最长无重复子串
base深圳 4.07 一面40min 深挖项目 然后基础八股transformers结构、bert结构之类的 深拷贝浅拷贝区别 python lambda作用 手撕最长重复子序列 4.09 二面30min 基本深挖项目 无八股 问了个统计学知识(什么数据正态分布还是啥的……不懂 没答上来) 以及被询问了是否接受转开发 4.11 三面线下hr面 30min 就聊聊天 然后问了薪资期望等等 许愿oc
1.transformer 2.自注意力机制,自注意力机制的起作用的地方 3.BN,LN 4.梯度消失与爆炸的理解 5.论文讲解 6.transformer的位置编码 7.focal loss 8.模型怎么评价好坏 9.自注意力机制的参数量计算 10.编写代码:topk,用了堆排序,快排都写了
最近面试少了, 精力放在工作上。 偶尔面试保持手感即可。 今天这个学习意义比较大就记录一下。 面试本身没啥特殊的,就是项目+八股+代码。 项目问了我的蚂蚁实习, DeepFM 相关的东西和大模型相关的东西。 所以问了一些八股 1.DEEPFM 介绍一下(聊了一些) 2. 还了解别的推荐的模型吗(不了解) 3. LLAMA 和别的模型架构有啥区别? 4. Llama 用的是什么 norm 和激活函数
面试时长五十分钟 面试官给提示给的很多 体验还挺好 但听说B站没hc了
1. 自我介绍 2. 问实习经历(和算法相关度低,主要是开发) 3. 问 kaggle 竞赛做了什么 4. xgboost 和 lightgbm 的区别(接着 kaggle 竞赛问的) 5. 算法题:给一个 0.7 概率返回 1, 0.3 概率返回 0 的随机数生成器,怎么生成任意指定概率返回 1 的随机数生成器。答得很烂,面试官引导了很久才做出来。 6. (面试官说我简历项目相关的太少,很多东西
自我介绍之后,还问了实验室和导师是谁,是不是博导()。 觉得我项目和岗位没什么匹配度(在实验室主要做CV的),就只问了一段实习。(好详细啊) 下面问了好多八股题: 1.BERT详解 2. 借口任务是什么意思 3.为什么自注意力要除以根号dk 4.编码器和解码器是什么关系 4.1 Transformer中编码和解码的作用 5.推荐系统中大模型的应用 6.BERT在做分类、命名实体识别、句子相似度任务
算法岗 1. Lora原理 2. qwen词表大小 3. deepspeed原理 4. zero原理 5. 讲一下transformer结构 6. 有哪些Encoder-Decoder结构模型 7. multi-head attention原理 8. 讲一下Stable Diffusion 9. SD中,controlNet怎么结合进来的 10. 大模型的训练流程 11. clip原理 12. 为
8.29 一面 50min 1.拷打论文 (面试官反馈,讲的很清楚) 2.拷打实习 3.LoRA原理 4.对Seq2Seq模型的理解 5.self-attention原理 6.位置编码,LLM用的是什么?为什么这么设计? 7. RAG了解吗?讲下RAG链路?RAG为什么有用? 8. RAG向量召回怎么做的? 9. 手撕——删除链表倒数第n个节点(从class开始实现, 有个地方有bug, 不过面试
真的没面过这么无语的面试,雷点太多。 1.面试官迟到,还要候选人自己call。 2.面试官不开摄像头。 3.介绍实习工作时,我想共享ppt。一般来说都是鼓励你图文并茂展示的,结果他一来就说不要用这种第三方资料,真的无大语。 4.我工作说完没有任何要问的东西,都没有认真听,就开始问我有没有做过diffusion相关工作。(大哥我的简历清清楚楚,所有的论文和技术栈都写了)然后我说我做的几个任务学术界并
先说总结,体验极差,断网声音小面试迟到。 约的上午9:45一面大概十点才来。 十点人来了,一个hr一个技术人员,之后断网,这是我的问题暂且不说,但声音真的好小,音量已经开到最大了还是外音,趴上去听都担心听错。之后开始正式面试: 1你家是河南的,意向城市为郑州,来济南如何? 2你的网不好,可以调调吗? 3期待薪资多少? 4介绍下你具有代表性的一个项目 接下来技术面开始: 1超长上下文咋办 2tran
总共面了不到半个小时,不知道是不是KPI面。 自我介绍 提问: - 论文创新点 - vit - transformer的全局依赖是怎么做的 - 自注意力的Q,K,V的物理意义 反问: - 业务 - 建议 - 后续流程(不太清楚) 一面完后续面试还有技术面吗?
多模态深度学习方向 问一些论文、项目相关 深度学习基础知识 过拟合解决方式 L1,L2正则化 BN层和过拟合的关系 算法题 给定字符串,删除最少的左括号和右括号,使得字符串括号能一一匹配 思路:从左到右扫描,遇到左括号入栈,右括号出栈,栈空时遇到的右括号直接删除,记录需要删除的字符位置 可能要去看一些多模态大模型相关的工作,了解很少,被问到有点尴尬