奇安信 计划研究院 算法工程师 一面 40min 11.06 1.介绍了三段实习实习经历,里面用到的模型的原理,改进方法等 聊了20min 2.刚收到图像的训练数据,怎么进行处理 3.Yolov5的主要改进点 4.介绍特征金字塔,以及为什么它能提升模型的效果 5.介绍Centernet模型 6.anchor free比 anchor base有什么优缺点 7.Python列表去重的方法 8.Pyt
https://zhuanlan.zhihu.com/p/665595011 Boss直聘 算法工程师 一面 11.06 项目介绍 画出Lstm的结构图,并进行说明 Lstm用的激活函数是什么?相比sigmoid有什么优势? 介绍Rcnn。为什么它速率较慢 C++内存泄露的原因 Python哪些对象是可变的,哪些是不可变的,怎么判断 Coding y = np.array([1, 1, 1, 1,
一面 11.23(有些问题忘了) 44min 自我介绍 详细讲解下目前做的项目(diffusion相关) 为什么网络结构要这样设计 与ip-adapter有什么不同 有没有效果展示(展示了下效果,面试官说不错) 了不了解GAN GAN和diffusion的区别 了解模型部署相关的知识吗(不了解) 写题: 力扣-704 写一个含有三层卷积层的10分类神经网络,写出每层的shape输出 反问: 对我这
总共三十分钟左右,面试官人很好,没太多拷打,整体面试感觉不错 1.自我介绍 2.拷打实习项目,先让我整体介绍了一下,然后问了包括数据构建、模型规模、模型怎么训的、模型部署推理时延、模型怎么量化的等,然后问了一些包括用户输入一些攻击模型的话语怎么办、模型输出攻击性话语怎么办、模型幻觉怎么解决等问题 3.代码题,两道,一道全排列,一道连续子数组最大乘积 4.反问,问部门业务,说是做智慧座舱的 #软件开
一面 1. 逐个介绍项目,问的很详细 2. 从公式的角度说明一下L2损失为什么会平滑 3. 解决模型过拟合的方法 4. 为什么L1正则化可以缓解过拟合 5. 代码 (1)快排 (2)手写卷积 #2023秋招##算法工程师#
10月12日 一面 30 min 技术面 一、自我介绍 二、 深挖项目、主要负责哪块? 三、ICP流程 四、C++掌握如何 五、对ORBSLAM2的理解 六、了解激光SLAM吗 七、深度学习模型做了什么? 八、约了第二天的手撕代码。。。。哎。。。终归是我不配了,一个一面都好难啊 估计自己面试表现太差了 #零跑科技##2023校招##面经##零跑科技校招#
今年面试难度top给中邮 虽然只有十五分钟,感觉硬核程度高于大厂n倍 简历主要nlp 1.自我介绍,项目介绍 2.文本阅读理解中,如果原文有相关的语义描述,但需要抽取的实体本身不在原文中,需要怎么做? 3.介绍一下t5,和GPT有什么区别和联系 4.讲讲基于对比学习的词嵌入方法(simCSE,不久前的顶会) 5.除了bert以外,还有哪些预训练词嵌入? 麻了,nlp卷成这样了吗
Bert的模型架构讲一下? BERT模型的全称是:BidirectionalEncoder Representations from Transformer,也就是说,Transformer是组成BERT的核心模块,而Attention机制又是Transformer中最关键的部分,因此,利用Attention机制构建Transformer模块,在此基础上,用多层Transformer组装BERT模
听说写面经可以多拿offer 小红书一共是三轮技术面+HRBP面,整个面试体验很好,官网投完简历两天就面试了,结果出的也很快,几轮的面试官人都很nice。 一面,一小时左右: 首先是做自我介绍,这个可以提前准备一下 介绍简历中写的论文,讲的过程中面试官会提一些问题,问的蛮中肯的,也提了一些建议,沟通很愉快。会问下做的东西在工业界有没有一些应用场景,可以发散的聊一聊 问了下之前在美团实习主要是做些什
双非本985硕,icpc银,一篇一区论文 先自我介绍 1. 介绍其中一篇论文 2. 你的论文结果和其他人的有什么优势? 3. 如何提升这个项目?(换模型,提升并发度) 4. Yolo的正负样本是什么?(与所有真实标签iou都小于阈值的预测框为负样本,反之为正样本) 5. 模型压缩和加速的方法有哪些?(gpu、蒸馏、剪枝、半精度) 6. 半精度是什么?(舍弃后16bit的半浮点数) 7. 半精度的理
1.SyN算法(微分流形) 2.梯度下降 求y=x^2的最速下降(一阶) 3.Rest-Net 结构encoder和style Encoder 4.解决错误变形的方法
时间:晚上10:16左右,20分钟左右 面试官男,非常疲惫,每次我回答完问题都沉默了很久,声音也很疲惫。 1、问学校,学位证,毕业证 2、项目经理(sd、lora、fine-tune过程) 3、L2正则化解释一下 4、用过BN(batch normalization)吗? (答了梯度消失的时候的最佳解决方案,顺便扯了梯度消失的时候换激活函数,实际上还有梯度爆炸也可以用) 5、用过Dropout吗?
一面一上来先做了道栈的原创题,之后就是问项目,主要是数据部分。 第二天约的二面,二面是纯聊项目,压力非常大,堪比商汤的三面。对方应该是一个领导过一个大型基座模型分布式训练项目的leader。 从一个垂域大模型从零开始的数据收集,清洗,评估,增强, 到模型的训练,评测,微调策略,scalinglaw实验, 到分布式训练,4D并行,节点通信,坏点检测, 再到算法上的decoder only,atten
预训练数据收集流程 隐私过滤是怎么做的 怎么用OCR算法解决读取pdf公式语料以及双栏pdf的问题 预训练数据集构建中的亮点 数据质量评估方式 垂域评测集的构建方式 微调评测集是怎么做的,全参微调还是lora,lora原理 图文模型是怎么做的 没有八股,coding是旋转图像和编辑距离二选一。 全程都是问项目。团子面试体验太好了,面试官情绪价值拉满,就迟到一分钟但还是道歉,全程点头微笑,快比我还礼
bg和前两次面经可以看动态 9.21上午收到线下终面通知,约的9.23下午2点,面试地点在哈尔滨一栋写字楼内,迈瑞包下了其中一整层,不过里面看起来空间不大,也没有各种研发用的设备,应该只是迈瑞在哈尔滨的一个办事处 简单进行自我介绍,然后开始唠一些个人情况,感觉更多是像性格测试?面试官也直说了就是走流程,全程人也非常nice,语气很温和,时刻保持微笑,有问必答,体验很好 以下有些问题记得不全,差不多