NLP算法工程师岗 铁废物冲算法:中专,大专,专升本,双非硕 2段实习经验,多个竞赛,一个破论文 一面(技术): 主要围绕简历上的项目问,刚好做过大模型,这个问了挺多 langchain原理 glm架构是什么 coding:爬楼梯 二面(总监+HR): 总监 还是围绕项目的内容询问 课程成绩 在项目中担任什么角色,如果和同事遇到冲突怎么解决 本科哪里的 家里的情况 职业规划 为什么考这个学校:调剂
面试官很客气 把每个项目都问了一遍 然后反复挖掘项目里面的细节 有问chatglm跟gpt的区别,放了个国庆忘记了。。。 问了一个场景题说如果用户输入的文本太长了,模型输入不了那么长的文本怎么办? 还问了一个人事方面的问题,如果合作过程中与同事发生分歧,怎么解决? #面经#
1. pytorch2onnx具体做了什么 2. 项目模型结构是什么样的 3. 为什么模型需要量化 4. 量化的过程做了什么,有什么样的效果 5. 量化的过程中为什么会有精度损失,损失是怎么调优的 6. LSTM怎么解决梯度爆炸和梯度消失的问题 7. 给101个硬币,其中一个是假币,称重两次判断假币比真币重还是轻 手撕(web IDE) 旋转矩阵 lc原题 方向不太match,面后秒挂 #字节##
一面 1. PTQ和QAT的区别 2. 如果对embedding也做量化,你觉得会有什么问题 3. 说一下常见的量化方法和原理 4. 假如现在让你对transformer模型进行量化,你觉得需要量化哪些算子 5. 矩阵乘法算子的量化过程 手撕(如流IDE) 1. 搜索二维矩阵 Ⅱ lc原题 2. Top k 3. python pep9规范 问题 二面:交叉面 1. SLU和NLU的区别 2. 其
#面经##科大讯飞##算法##如何判断面试是否凉了# 30min 面试官人很好,也很nice,奈何自己太菜了 自我介绍 围绕实习经历、论文简单聊 最具挑战性的一段经历以及解决办法 实习用到的模型介绍 论文怎么没用大模型?(论文确实没用,说了实习阶段有简单使用过) 八股: Transformer BERT GPT区别? 有没有自己动手写过transformer的代码实现?(我说没有,用的开源现成的。
1、自我介绍 2、手撕算法 翻转二叉树 我先用了递归,后面面试官说不用递归的方法 矩阵顺时针旋转90°,有点紧张没撕出来,第一次用牛客面试不知道还能调试 3、假设有一百亿个网址,里面有重复,如何去重 4、数据采样是什么 5、给你一个数组,说说数据采样的流程 6、假设有一个数据流,不知道数据总量大小,要你采用k个数据(保证数据量大于k),符合平均分布,问怎么采用。 寄!#NLP算法工程师##作业帮#
#面试##算法##面经##如何判断面试是否凉了# 11.8 16:15~17:00 大概45分钟 面试官是个小姐姐,很温柔,答不上来的还一直说没关系没关系 自我介绍 介绍论文,出发点、模型结构、为什么这么做 实习经历,项目背景、做了哪些工作、用了什么模型、效果如何、有什么收获。深挖用到的ner模型,为啥用这个,能否解决非连续实体问题,如何处理特别长的实体,如何设置的负样本,前期数据预处理怎么做的
之前面试金山武汉的部门给我挂了,但是因为又投了金山珠海的部门,所以又从头再来了一遍流程,希望这一次运气好点😅。 🕒 岗位/笔试时间 11月7日 时长40分钟 📝 一面面试题目 1.计算机基础 (1)解决哈希冲突的方法 (2)哈夫曼树 (3)动态规划算法思想 2.word2vector的两种改进方法 3.在语言模型算法中可不可以使用两层lstm 4.讲解一下论文课题中的序列标注任务 5.有没有
投递岗位:NLP算法工程师 投递时间:看不到了 进去就看到面试官趴着,心里就觉得要挂了 从面试开头趴到结束,后悔没有直接退了 正式批 1. 自我介绍 2. 对自我介绍丝毫不关注,直接开问大模型 3. 可以直接去找相关前沿,或者企业的内容知识 恶心,秋招最离谱的一场面试,完全不知道对面在干嘛 #24届软开秋招面试经验大赏#
#24届软开秋招面试经验大赏##如何判断面试是否凉了##找不到实习会影响秋招吗# 面试16:40开始,周五下班前面试。害,还去酒店开了钟点房准备面试。 我知道自己很菜,但还是想最后试一下算法,现实给了重重一击,转开发或者取银行了,此生不会碰算法。 出奇的项目一个没问orz.... 可能项目别人看不上。 一个男面试官,成熟胡茬,看着就像技术大佬。 1.自我介绍(我说多益是十大网络游戏公司直接打听我的
拷打45分钟,主要拷打两个项目 1.自我介绍 2.拷打第一个项目;巨细,详细问了我论文里的东西,每个部分都让我讲了,包括模型结构、模型训练细节、输入输出、强化学习过程,然后让我详细讲了实验部分,我做的久了有的细节都快忘了😭 3.拷打第二个项目;先让我介绍了项目整体,然后让我介绍一下项目亮点,我就讲了向量库构建和对比解码缓解大模型幻觉,然后他让我详细讲一下对比解码部分;然后又拷打了几个重要的点😭
35分钟左右 面试官很温柔 1.自我介绍 2.介绍实习中大模型的工作 3.针对实习提问,比较好奇怎么做的 4.算法题:拆分单词。。写完还没跑就让我交了…事后发现代码有问题… 5.微调用了什么框架? 6.有没有全量微调过? 7.提问 团队介绍 1.做的产品是一个海外的大模型,没记住名字,隐约听他提到了对话问答NPC 2.NLP团队和CV团队差不多都是15人左右 3.可以实习转正,说备注一下跟二面面试
bg 双一流硕 微软9个月nlp实习 商汤医疗cv实习 研究方向与nlp无关 笔试0320 三道a两道,过 一面0327 面试是个很温柔的小哥哥,只问问题不追问,因此非常舒适 简历详细地一条条问 分类问题有几种方法可以做 如何处理过拟合 如何处理正负样本不均衡 有哪些激活函数 讲一下transformer gpt和bert区别在哪 无代码 二面0401 明显感觉职级高一级,问的全是场景题 简历 用
1.拷打项目,问的很细 2.八股: RLHF 大模型怎么处理图结构的数据 针对竞赛提问: XGBoost GBDT 随机森林的区别 特征清洗问题 有没有考虑组合特征 kmeans中k怎么选取,如果样本数量很大呢? 3.手撕代码 多头注意力 编辑距离 合并区间 全程1h30min#算法面试经验分享##面试经验分享##腾讯凉经#
面试时间:3.28 流程:自我介绍—>项目/八股穿插—>手撕代码(本地IDE)——>反问 时长:约70分钟 八股: RoBERTa的改进 中文RoBERTa的分词(不过这点面试官说不了解也没关系) focal loss lora原理 什么情况下适合全参数微调,什么情况下适合lora微调(我答的数据量少、单一任务时更适合lora,因为lora更新的参数少,原论文没有对FFN更新,任