一面 1,自我介绍; 2,展开介绍项目,项目难点和解决方法; 可能面试官是传统定位方向,不太了解感知和深度学习,在深度学习相关的项目上问得都不太深入,传统组合定位项目问得多了些。还问了一些深度学习和传统方法的不同之处(没研究过传统方法都没答上来),还问了项目提到的交叉注意机制是怎么实现信息融合的,最后问了下卡尔曼滤波滤波和最小二乘法的不同之处,以及对卡尔曼滤波的看法。 3,面试官介绍部门情况; 4
各家公司面试时部分问题记录如下: 蔚来 leetcode 20. 有效的括号 c++左值和右值的区别 滴滴 leetcode 150. 逆波兰表达式求值 explicit 关键字用法 构造函数,析构函数能不能是虚函数 智能指针 list和vector区别 autox static 关键字作用 leetcode 64. 最小路径和 #面经#
自我介绍 简单聊了聊项目中的一些实现方法: 光线追踪中的抗锯齿,项目里面用的jitter camera 讲了讲MSAA, SSAA, TAA 问了问MSAA如何判断边缘, 四倍MSAA的话一个像素执行几次片段着色器? 色调映射、后期处理效果、亮度、曝光度、色彩度调整 有没有做过IBL(引擎项目里实现了IBL,但那部分不是我做的,讲了讲原理) Bloom效果怎么做的。 c++: 讲讲c++11/14
上周五一面结束,这周二约的二面。 全程20分钟,纯聊天。 面试官人巨好。 问了手里有的offer,为什么还在找。 然后是聊项目,论文的创新点。 之后就是反问了,给我科普了广告所做的内容。 问下一轮面试,如果通过就是HR面了。 面试官看时间还比较早,就继续聊了会儿。 面试官人巨好,也跟我说了对我的评价,需要和一面面试官讨论一下再确认结果。 真的是很愉快的一次面试。 许愿二面能够通过
笔试ak了被捞起来了,部门是支付宝广告业务技术部。 全程30min(感觉又要凉) 项目。问GRU的原理(这里重置门和更新门具体的作用记不清哪个是哪个了) 问到线性回归(平时用深度学习比较多,机器学习接触的少一些) 然后就做题了。。 三道题选一个即可,都是leetcode原题,分别是 16最接近的三数和 22括号生成 53最大子数组和 选第三个秒了 反问:业务、新人培养(问HR比较好)、深度学习多还
时间:3月19日15:00 ~ 15:50 上来先自我介绍,介绍完之后面试官让看着简历一个项目一个项目的详细介绍 细节扣得比较细,比如设计的attention中qkv具体的映射方式如何实现等等 然后项目中评估指标用到了有PSNR和AUC值,让讲一下具体的公式和原理 还有实习经历中的一些场景的思考。 上面的问项目中间夹杂对应八股的部分大约半个小时 然后就是算法题,做了一道,leetcode原题 30
3.12 大概面了50分钟,大部分在深挖项目,实现细节问得比较深。 1.自我介绍,把简历内容快速过了一遍,面试官还夸了一句我做过的东西蛮充实 2.针对实习项目挖呀挖呀挖,这部分耗时最久,项目实现细节问得很详细 3.介绍一下Bert 4.GPT和Bert的区别 5.介绍一下Roberta,它的改进点在哪 6.Transformer和LSTM的结构与原理 7.介绍RLHF技术 8.介绍注意力机制 9.
主要是问一些 python 基础和实习内容吧 面试时长:35min 面试内容: * with 做什么的,有自己实现过吗 * 删除列表的空元素有哪些方法 * 如何实现单例模式 * GIL 的目的是? * 不可变元素和可变元素的区别 * Flask 用过吗 * C++和 Python 哪个用得多 * 手撕:两个进程顺序打印 0-100 * 实习经历深挖了十分钟
1.自我介绍; 2.介绍一下做过的项目和论文; 3.用过哪些机器学习模型(XGBoost、LightGBM、RF、LR等),介绍他们的特点和区别; 5.深度学习用过哪些结构(MLP、CNN、RNN、Transformer、BERT等),介绍一下各自的特点和区别; 6.深度学习主要有哪些任务(分类和回归,分类可以使用有监督、无监督、半监督等方法,回归主要使用有监督方法); 7.了解CV吗,用过开源框
整体39分钟,无手撕;这个感觉和之前的面试不太一样,上面写着:新锐加面,可能过了的话给的会稍多一点点 1.自我介绍 2.拷打实习项目,我介绍了一下我的智能npc相关的,然后他开始拷打,先问我微调数据的格式、用了什么策略、指令微调是干什么的、大模型本身有没有指令遵循能力、预训练和sft两个阶段的区别、rlhf是用来干什么的、rlhf了解哪些方法、介绍一下ppo、dpo,我主要介绍了ppo;然后问我模
OPPO 计算机视觉算法开发工程师(camera方向) 一面(8.9): 着重介绍一下就是说这个项目里面你这段实习经历里面他有什么需要解决的一个任务,然后遇到了些什么难点,你是怎么解决这些问题的? 怎么提升模型服务CPU和GPU的利用率的? 神经网络是否会出现预测错误的情况,如何改善? 问了一个项目中的损失函数的目的是什么 介绍一下知识蒸馏,不同的蒸馏方法的优劣势 手撕:二叉树按层输出节点(层序遍
2024/07/17 16:00(50分钟) 聊项目,基本没关注竞赛 手撕:C语言,64无符号整形指定位设为0/1,开平方 很久没写过这种风格的东西了,写得稀碎,感觉凉凉
【一面】 1. word2vec的原理,skip-gram训练的具体流程,使用的损失函数,是怎么选择正负样本的,选择样本上有哪些优化算法,负采样的原理,还有哪些优化方法 2. 贝叶斯调优,机器学习中有哪些优化参数的方法,为什么交叉熵会作为softmax结果的损失函数?梯度下降为什么有效,关于损失求一阶导数为什么有效?刚你提到了泰勒一阶展开,泰勒二阶展开有哪些相关的优化方法呢? 3. SGD的原理,
全程50分钟,这次是女面试官,人很好,不怎么拷打,开始时先介绍了面试流程 1.自我介绍 2.介绍第一个项目,我的是一个RAG的项目,吟唱完让我说一下项目的两个亮点,我就介绍了语义感知的文本切分和缓解幻觉的两个点,又提问了一些问题 3.介绍第二个项目,我的是一个论文项目,我直接共享桌面对着模型图讲了一遍,当然中间也穿插着提问,殊不知这次共享有几率让我寄掉 4.问一个基础问题,面试官问了我transf
1、自我介绍 2、深挖第一段实习经历 3、根据项目中自己实现的聚类算法进行提问,为什么不用其它现有的聚类算法? 4、介绍dbscan聚类算法 5、深挖腾讯实习经历 6、介绍SVM支持向量机 7、SVM和单层MLP的效果是否一样? 8、代码题,leetcode 45.跳跃游戏II (dp秒了) 9、反问,一共三轮技术面,组里主要做CV的,research和工程都有,看自己兴趣。 一面面试官人很好,基