分享面经 攒攒欧气! 一面 1. 首先是自我介绍加一个项目介绍 介绍了研究生期间的课题 用了什么方法?提升了多少指标?分析过badcase吗? 2. 简历有写大模型微调 问了目前的大模型微调方法你觉得哪一个最好? 3. 反问 二面 1. 自我介绍 2. 介绍命名实体识别项目,实体嵌套怎么解决? 3. 介绍大模型角色扮演项目,数据集怎么构建?原本微调后大模型只能扮演一个角色,问训练一次能否实现大模型
总时长45mins 1、拷打论文,因为课题跟小样本学习有关,问了问很多小样本学习的内容。 2、拷打项目和来源,回答是导师和公司合作的。 3、拷打实习,问得很细,比如包括遇到了什么难点,为什么要这么做不那么做。 3.1、为什么图像分类要减均值除方差,目标检测一般不需要。 3.2、怎么提高模型泛化性。 3.3、数据集怎么采集的。 3.4、模型不收敛的原因有哪些 反问有几面,答2技术面1个HR面。 有点
初筛完成进入面试 一面:53分钟,主要是介绍实习,项目,比赛,C++八股和python语法使用!每一个细节问的都比较细,我是从实习开始介绍,每一项都很细,面试官问的挺好,很专业, 我重点做的内容是:bevfusion模型训练加部署orin平台量化推理! 一面没有手撕 二面:34分钟,面试官是随即问的,有关深度学习,模型量化压缩都会问,手撕一道中等排序题,然后结束了! 总之面试感觉:挺好的
泡好久了,发发面经攒人品,许愿一个offer 一面 1. 八股文: vector emplace_back和push_back的区别?resize和reserve的区别?迭代器失效的情形?map和unordered_map的区别?编译器如何实现this指针绑定的?设计模式有了解吗? 2. 检查代码问题:一个野指针,一个空指针调用类成员函数; 3. 手撕代码:合并区间;最小栈。 面试官一上来就说,我
(为什么wxg一共有四轮技术面啊😅,麻了 teg一面挂后,被wxg捞起来了。 3.27一面 针对简历上的简历问了很多,包括一些技术细节和实现方法。八股考察了llm和传统nlp的知识 1.chatglm2与chatglm1做了哪些改进?是怎么训练的 2.微调以后的模型会出现什么问题?如何改进 3.llm的评测怎么做的 4.bert与GPT的区别?bert的pe是怎么做的? 5.bert怎么做预训练
一面时间:3月25日11:00 ~ 11:50 自我介绍 聊实习经历,根据实习经历问了几道八股: 简单介绍attention机制 有什么和self-attention不一样的注意力机制了解过吗 为什么要使用多头注意力 然后问了一些推荐场景的业务问题,结合自己的经历聊 最后算法题:3. 无重复字符的最长子串 面试官人很好,也没有问什么刁难的题,最后反问环节问了还有什么需要加强的也给我指导了许多,面试
个人情况是双九小硕,一段AIGC强相关的项目,一段小厂实习,一篇2区一作 目前投了一些AIGC和多模态方面的算法岗,分享一下遇到的面经 不同厂之间有重复的问题我就不一一列举了 京东: 1. 围绕项目问了一些具体的技术路线和细节 2. DeepFloyd的结构+优势 3. classifer guidance和~-free guidance的区别&原理 聊的非常融洽,面完感觉比较match就给过了h
淘天aigc算法面经 2.24一面(50min) gan和diffusion区别 diffusion优劣 常见的采样方式及原理 ddim dpm++ lcm turbo sdxl相比sd的改进 详细分析了每个部分的改动意图 开放问题 sora diffusion3看法 如何训练达成精准文字生成? 问了一大堆项目 三十分钟左右 问得很细 会结合项目问相关算法原理 2.26 通知下午hr面
没挖项目,自我介绍完就是一问一答,然后手撕,然后反问组内方向,除此之外0互动
一面(和我之后的mentor面的): 深扒了我的项目,问我的方向主要是做什么的。当时是去年12月份,一篇CVPR在投。 transformer中self-attention的复杂度,写一下self-attention的公式,为什么要除以根号dk,问的很深,mentor超级有水平。后来进组被疯狂碾压。 为什么用论文里面用了transformer 一道算法,忘记是啥了,什么最长的.......,暴力解
今天面试了豆瓣算法岗,我一番自我介绍完之后,最后说自己学习能力强。然后面试官就说:我们先写一个基础的算法题吧。然后就给出了一个算法题,无奈自己LeetCode刷的真的还不太够,写了半个小时都没有写出来。
5月23日一面(30min) 自我介绍 介绍项目(图像分割) 项目中遇到的问题,如何解决 实际代码实现时间 对transformer在分割中应用的看法 其他一些项目细节,大概20min 手撕一道简单的括号匹配(10min) 反问环节 -------------------------------------------------------- 5月26日收到电话约二面 -------------
9.1一面 一、实习 & 项目 Q:KM算法中的权重?动态变化? A:str / 接驾时长 Q:自注意力机制? 二、概率题 Q:30次都不点击的概率是0.936,问10次中至少点击一次的概率? A:1-(1-0.936)^(1/3) 三、算法题 不含重复字符的最小子串长度 9.14二面 一、问项目:实习相关 约40min Q:如何评估仿真系统的准确性? A:校准 二、深度相关问题 Q:平台补贴场景
#运筹优化# #实习# #OPPO# 1.自我介绍 2.单纯形法、分枝定界 3.单纯形法是不是能解所有凸优化(我说只能解线性规划,被质疑,让解释),机器学习优化过程为什么不用单纯形法、用什么方法、和单纯形法有什么区别(区别我没太搞懂,只说了一个是单纯形法是精确解,梯度下降不是) 4.整数规划是不是凸的(我说不是:整数规划的可行域不是凸集,被质疑?然后问凸集的概念) 5.机器学习,xgboost为什
#影石Insta360# 其实已经过大半年有余了,去年7月offer,现在才突然想到,应该写一下当时的经验的 本人简历:研究生,视频超分,有论文及项目,无实习,有超分竞赛经历(没奖) 一面 自我介绍 围绕简历提问,重点是技术核心和关键问题的解决 归一化目的,归一化永远是好的吗 反问,得知工作地点是研究院,偏落地 二面 自我介绍 围绕简历提问,重点是技术核心和关键问题的解决 手写transform