海笔果然就是让大家做着玩的,这也太简单了…… 第一个题说是滑动窗口中找合意义的子串,但其实就是很简单的双指针判断,第二个稍微有点意思,不断改变01让数组全相等,就是查基数偶数。第三个图里的标准bfs 100,100,90几,物业来敲门修东西,我也懒得改细节了,交了。 选择题反正是g,我投的深度学习岗,一个机器学习的题都没,反正早就共享了,做着玩了
视频面试,面试时间:50多分钟 1、自我介绍 2、介绍实习项目,并提问 3、介绍科研项目并提问(问了几个) 4、对NLP领域的了解(这个部门搞NLP的) 5、编码器、解码器有了解吗?简单介绍一下 6、attention有了解吗?简要介绍一下? 7、对NLP经典的和最新的一些技术有了解吗?(报了下菜名,因为研究方向并不是NLP) 8、算法题:不记得了,不过不难,lc中等难度的题 9、反问环节:具体的
7.20 一面 40分钟 1.自我介绍 项目部分: 2.常见模型的结构:bert,TextCNN,transformer,ERNIE 3.怎么比较用哪个模型更好 4.模型输入的长度限制是多少 5.怎么解决多标签问题的 6.attention的时间复杂度是多少 7.有没有做过知识图谱和问答 8.GPT的结构 9.各个类别数据不均衡怎么办? 10.关于模型的部署和优化 11.a,b是两个常数,怎么在不
背景:211本浙大硕,研一,acm铜牌,一篇Neurips在投,之前是做3d视觉的。百度这个岗位其实和我不太匹配,是做diffusion相关的。 一面:对方看我的acm经历,认为我代码能力应该没问题。然后聊了聊我的论文,说我研一能发论文已经很不错了,平时应该比较忙。然后得知了这篇论文是我三个月做出来的,表示我上手能力应该比较快,到时候转diffusion应该会很快,并且问我能不能接受转方向。然后聊
选择题感觉比较基础,编程题大家交流下做的怎么样 第一题最小平均值,感觉是个数学问题,本来想暴力一下骗分的时间不够了 第二题ac 第三题应该是个滑动窗口,可以优化的,没优化只能70% 算下来编程题分数刚刚过半基本上寄了
单选+多选+编程3题 哎...前面还做了一个笔试...留给百度的时间只有1小时10分钟... 编程1:baidu串(100%) 思路:纯暴力,没啥好说的!只要胆子大,暴力都不怕! 编程2:01串(100%) 思路:观察0和1的个数 编程3:踏前斩(5%) 思路:(数组求和sum-最大可减去[1,2,3]个数*6) + 最大可减去[1,2,3]个数*5 来不及做了...随便console.log了一
7.21 面的算法岗,面试官很和蔼,问的问题很有深度,后面才知道是百度很多模型的核心开发人员,牛! 上来先做题,让共享屏幕。题目是编辑距离,想了一会写出来了,让写几个测试样例跑一下,写了几个边界条件测试了一下,面试官说可以了,然后手撕代码就过了。 接着开始自我介绍,完了开始问论文相关的东西。我介绍过程中他会就感兴趣的点提问,问的很有深度,但是好在多数问题我自己准备过,答得还算可以。 接着根据论文延
面试大概一个小时 1. 自我介绍 2. 说一段项目经历并深挖 3. 了解transformer吗,详细介绍encoder的结构,并说明为何需要position encoding 4. 了解堆排序吗,说说流程 5. 手撕最长上升子序列 6. 反问业务,说是大模型微调 全部答上来了,几乎没有答的不满意的地方。面试完秒挂。应该是方向不匹配。那为啥捞我?
一面 简单挖简历 你的三个项目怎么做的? 讲一下cnn? 讲一下lstm? 讲一下反向传播? 讲一下sigmoid函数? 讲一下逻辑回归和随机森林的优缺点? 讲一下svm? 在线共享codding—求一个正数的平方根 在线codding,求链表的倒数第k个位置的value,由于时间原因只说了思路 二面 中度挖简历 三个项目的部分细节? 第一个项目后续优化的思路? 讲一下你对大模型的理解,知道哪些大
先自我介绍,这次没有先做题,好评 1. 从实习/项目/论文中挑一个讲 讲了在快手的推荐算法实习,面试官听得很仔细,针对我的经历问了很多问题,也提出了自己的想法。聊了快一个小时。 2. 题目lc39 组合总和 很经典的一道回溯题,不难,写出来了 3. 反问 主要还是问了下组里的工作和面评 无八股
先自我介绍,然后就直接做题了(好像百度都是先做题 1. lc 312 戳气球 二维dp 没做过 想到是二维dp但是面试官引导了半小时还是没写出来😢 2. lc172 阶乘后的0 写出了On的写法,面试结束后看了下还是logn的解法,没写出来 3. 聊了实习的内容,我主要做的是因果消偏召回,所以基本也只问了召回相关的 4. 简单聊了一篇论文 无八股 反问 组里的业务是什么 面试官人非常好,也很有耐
百度算法实习一面,50分钟 1.手撕代码两道,最大子序列和,完全平方数 2.介绍下项目 3.Transformer 4.Attention 5.QKV原理 6.GCN初始化怎么处理 7.项目做的有关时间序列,问除了transformer怎么针对时间上的特征更好地建模,考虑过传统方法吗? 8.DIEN中怎么对输入文本,标签,用户画像等数据进行转换时,有哪些embedding方法,针对不同数据有什么的
1.自我介绍 2.深问项目 3.大模型出现幻觉的原因,及对应的解决方法 4.做题(二叉树的层次遍历)
问了bert模型原理 问怎么实现的 因为投的是ml/数据挖掘/nlp一起的岗位 但其实面我这个部门的面试官是做nlp的。。。就完全不怎么match我自己也没有什么nlp的经验 (bert没答上来 一脸懵逼) 然后问了项目中lstm交易数据是怎么预测的 输入和输出分别是什么 (答得不对 我说了时间 面试官说时间预测不了应该是价格。。) 然后项目中写了自己会一些前端的东西 被拷打 怎么实现居中 fla
背景:自己做的是算法部署 四十五分钟 主要拷打项目和实习所做的东西,聊了很多模型部署的工作 八股量很少,问你对NLP熟不熟悉,就NLP 大模型 关键词聊了一些,BERT transformer NER啥的,答的一般 最后介绍部门情况,说其实我们这边主要是算法设计,不是很偏部署,但是校招主要是看潜力,要是进来了能不能接受转方向