9.27一面 1.自我介绍 2.复盘9.21机考,只做了两个题,简单说了一下没做出来的题的思路 3.做题,在lc 上面直接码,三个mid选一个 4.用什么语言-java py 换着用 5.数组和链表的区别 6.多线程 7.数据库 8.介绍一下自己熟悉的机器学习算法 8.算法评价 9.深度和广度的区别 中间还有一些忘了,总的来说以为投的算法考机器学习多结果全是java已经很久没看了,稀碎,不过好歹给
自我介绍 职业规划(传统算法,还是ai)(在这我选了传统算法,因为课题跟项目用到,虽然俺也很想搞机器学习) 边缘跟踪(直接不会,没用到过) 说一说边缘检测算法(sobel,canny) 细嗦canny检测(非极大值抑制是他想听的关键,跟边缘跟踪有联系,写完这个查一查) 继续问项目跟课题(这时候提到很多次效率) 本科的项目用到opencv,细讲。 问到项目里的圆检测,疯狂回想,最后想起来是hough
今日面了360,面试官说通过了,其他问题都比较常规,但算法题有点意思。 1.假设一个人物的战斗力是5,只能挑战1~5的关卡,超过5就会死掉,不能再战斗。现在给两个战斗力n的人物,给一个用最小挑战次数确定n的算法。 2.大数的排重和排序,输出今日收发过消息的qq号。 问题1我最开始想到的是二分查找,但有可能无法找到结果。第二想到的是按区间查找,例如第一个人物的步长是10,第二个人物的步长是1。 面试
pdd算法岗面试 transform的结构 self-attention 和 attention(空间,通道) 的区别 手写conv2d 损失函数的公式 最长好数组(任意两个相与为0为好数组) 很少答出来,反问环节,说没啥问的了,因为后面还有两轮面试(后来想到,这么菜,还不知能不能过,哪里还有面试呀) #面经##拼多多面试#
居然收到了腾讯算法的一面,离谱的是笔试居然直接跳过了??? 一面70min左右,三道题 1.快慢指针,没复习到,随便写了写,这个寄。 2.手撕AdamW优化器,手撕Transformer等,挑着做,然后就手撕了Transformer的encoder,整体框架和细节大差不差,跑肯定是跑不起来的。 3.数学智力题,这个还是不方便说了,答案答对了,就是不知道面试官老哥有没有理解我在说什么。 然后再问了一
编程第二题想知道错在哪里,怎么都ac不了 import sys if __name__ == "__main__": # 读取第一行的n h = sys.stdin.readline().strip() n,k = map(int, h.split()) score = sys.stdin.readline().strip() score = list(map(int, score.split()
问项目细节,时长一个小时 手撕multi head cross attention ,忘写softmax了,不知道给不给过
一面纯问项目,下午面的,晚上就进人才库了 有点KPI面的意思了,双非难啊😪
因为之前实习内容和面试官所在部门高度相关,都是在算法推理加速,量化,部署优化之类,大多数时间都在问实习项目。也问了transformer架构模型的优化方法。 无手撕代码,面试官人挺好的,总体面试体验不错。 许愿可以进二🙏#秋招##面经#
普通财经双非硕士小菜鸡,在线勇闯算法,做个记录。 1.百度提前批大模型算法一面: 自我介绍 具体介绍一下RAG项目中的应用,如何处理文档,如何计算相似度 手撕transformer模型代码,介绍模型架构,介绍交叉熵损失函数,介绍L1,L2正则化有什么区别,写下完整损失函数公式,写下transformer所有矩阵转换的数学公式,如何理解需要除根号d 手撕算法题 leetcode 2116. 检查一个
一面30分钟 主要就问了一些项目,项目每个部分做什么的 写了yolo的项目,问了一下yolo具体怎么做的,项目前面还有一部分融合,就问了怎么融合,轻量化,量化部署一类的 之后也差不多类似,没问的很深入,主要问了应用上的一些问题,如何做的之类的 之后论文什么的也是类似,简单问如何实现的,顺着项目问了一些简单的出现问题如何解决之类的,或者说类别不均衡如何解决,之后没用笔试题就结束了 问了transfo
3.25一面 3.28二面 至今问hr也没有结果 一面 介绍项目 bert gpt llama1和2的区别 二面 又多又杂 大模型长期记忆短期记忆 监督微调部署 给一个场景 让我从头开始做 我怎么做 回答完了也没有后续跟进 一直不停的继续问 到后面连续问了两三个不会之后面试结束 #tcl# #大模型算法#
面经攒人品,让我过吧 自我介绍,中文 问我觉得笔试难不难,我说在参加的里面大概是中等难度吧(我根本不记得了,好久了) 然后就是项目拷打,但是主要在问很开放的问题,技术细节没有那么多。主要是流程啊,用到的技术间的区别等。(还是要熟悉自己的简历和项目) 唯一像八股的就是问了下我 attention 里 mask 一般是怎么实现的,有什么用(一直没对上脑电波,我想说 BERT 那种 mask 的作用,现
投的时候很犹豫投搜索还是投nlp,想着先投搜索吧,挂了再投nlp,一面完不匹配,都想直接让hr结束流程赶紧转投得了,不过犹豫了下结果过了……二面换了个面试官估计是做内容理解的,面试流程好了很多,没有一面那种割裂感了,但是不是很会搜索,现在如果拒了转投沉没成本有点大 一面,讲实习经历,面试官不太了解我做的,所有问了我一些搜索相关的场景题,我竭尽所能回答了,不过感觉回答的一坨,类似于如果让你设计召回,
趁热 了解RNN和LSTM吗 RNN input具体计算 RNN梯度爆炸和梯度消失的原因 为什么LSTM一定程度上解决RNN问题 transformer embedding bert encoder层里的参数量 bert预训练任务 xgb为何优于GBDT 追问xgb并行计算 seaborn库操作 numpy如何对列求平均 lamada匿名函数 spring boot 解释下bean equal和