一面 1h 自我介绍 paper、实习 手撕:均值滤波,kernel size=2*2 反问 二面 1h 自我介绍 paper、实习 手撕: 1、transformer(简历中有提到,然后聊到就当场让手撕(torch)) 2、说出一个概率题(前面聊到了diffusion model),准备出题的时候我说没学过概率论,面试官就说算了直接出算法题 3、括号匹配,()*,其中*可以代表( 或 )或空字符
发面经攒人品,用快手一个部门的面经求另一个部门的offer 一面 研究方向,论文的问题 深度学习相关 ReLU ReLU,LeakyReLU ReLU表达式,优缺点,为什么用,为什么不用 ReLU激活函数是如何解决梯度消失和梯度爆炸问题的? 什么是梯度消失和梯度爆炸?什么单元更容易出现梯度消失梯度爆炸的问题?ReLU如何解决梯度消失问题 ReLU之前常用的激活函数 Sigmoid 写一下sigmo
想死,搁这考试呢 CNN的优缺点 CNN每一个环节的定义和优缺点 距离计算公式 评价指标计算公式 机器学习选一个你最懂的说优缺点 Pandas数据类型区别 集合和列表的区别 我知道很简单,但我根本记不住 不想转码了,想死
记录第一次互联网的算法面试 感谢手子给的机会 kaggle金牌,建模一等 金牌说了在模型融合上创新的点 换了3道算法题,手撕是真的写不来,脑子空白 面试官提示也写不出来 参加的数据竞赛多,一一介绍 问项目,问了具体内容的实现细节 XGBoost, KMeans, PCA, Labelsmoothing八股都答上来了 部门是违规检测,开放题,问你做会从什么入手 反问 #快手信息集散地#
攒攒攒!攒人品!希望拿offer! 自我介绍+项目 10min 手撕算法 20min +思路介绍 算法题是Leetecode中等难度 AC了 场景题 20min 反问 10min(没啥要问的 #快手信息集散地# #快手24秋招#
投的时候很犹豫投搜索还是投nlp,想着先投搜索吧,挂了再投nlp,一面完不匹配,都想直接让hr结束流程赶紧转投得了,不过犹豫了下结果过了……二面换了个面试官估计是做内容理解的,面试流程好了很多,没有一面那种割裂感了,但是不是很会搜索,现在如果拒了转投沉没成本有点大 一面,讲实习经历,面试官不太了解我做的,所有问了我一些搜索相关的场景题,我竭尽所能回答了,不过感觉回答的一坨,类似于如果让你设计召回,
攒人品!希望多拿offer! 1.自我介绍 2min左右 2.项目经历 20min (这个聊得多) 3.实习经历 20min 4.一些机器学习知识常规问答(LSTM RNN区别啥的)(问传统机器学习做的多不多 但我做的比较少 所以没问了) 5.手撕算法 2个题 一道sql 一道字符串相关 6.反问环节 (比较好奇业务 所以只问了业务 别的也不知道问啥了) 整个过程很舒服,面试体验可以 更新一下 进
投递的CV岗,C9本硕,low level方向,两篇A一作,无大厂实习 一面 主要在聊论文和项目 比较transformer和CNN的特点 了解哪些生成模型,stable diffusion的原理 手撕分类网络 面完当天约二面 二面 开场手撕海中岛屿数量 聊论文,问提出的方法可以继续应用到哪些领域 因为简历上基本上都是low level相关,所以继续问了对cv其它领域的了解 当天约三面 三面 面试
自我介绍 对推荐系统的了解:背景,前景,架构,方法 项目拷打:特征构建,模型选择,评价指标 论文拷打:背景,模型,评价指标 八股(都是从项目和论文中找的点):SVM原理及其推导,LR原理及其推导,XGBoost原理及其推导,XGBoost处理缺失值的方法,模型过拟合的处理方法, 手写:数组中前k个最小的数(类快排)
自我介绍 实习经历详细介绍,讲了快30分钟 算法题:字符子串最大不重复字母数之和,手撕MLP 问了对于推荐算法的了解,我一无所知
面完四五天了 先拷打项目和实习经历 场景题讨论(十五分钟);这部分面试官问的很细,很发散;交流过程感觉收获不小 两道算法:其中一道是树遍历,难度不算大 反问面评:还不错,基础扎实 后续安排:不清楚 #面经##提前批##快手#
复活赛,广告 一面: 1. 面试官上来就先介绍部门情况,无自我介绍 2. 挑一个竞赛和项目讲一下 3. 问XGBoost,正则化公式手写,共轭梯度法,牛顿法的黑塞矩阵,神经网络中为啥不用牛顿法,口述的时候都让我手写一下,回答的基本没问题 4. 手撕哈夫曼编码,已知字符ABC各自出现的次数,求最短的编码,25分钟左右,写出来了 5. 业务中的场景题,类似01背包,但是求不了全局最优,回答用最优化方法
1.transformer 2.自注意力机制,自注意力机制的起作用的地方 3.BN,LN 4.梯度消失与爆炸的理解 5.论文讲解 6.transformer的位置编码 7.focal loss 8.模型怎么评价好坏 9.自注意力机制的参数量计算 10.编写代码:topk,用了堆排序,快排都写了
最近面试少了, 精力放在工作上。 偶尔面试保持手感即可。 今天这个学习意义比较大就记录一下。 面试本身没啥特殊的,就是项目+八股+代码。 项目问了我的蚂蚁实习, DeepFM 相关的东西和大模型相关的东西。 所以问了一些八股 1.DEEPFM 介绍一下(聊了一些) 2. 还了解别的推荐的模型吗(不了解) 3. LLAMA 和别的模型架构有啥区别? 4. Llama 用的是什么 norm 和激活函数
回馈一下牛油们——— Bg 陆本英本2+2,英硕top2, 均科班,两篇论文,无相关实习 Timeline: 4.12 投递 4.17 一面 1. 自我介绍+细讲项目 2. 八股 1)介绍一下Transformer的结构 2)Transformer的缺点? 3)为什么需要/sqrt(dk) 4)讲一下Diffusion中的DDPM模型 5) Diffusion 和 GAN各有什么特点?为什么Dif