趁热 了解RNN和LSTM吗 RNN input具体计算 RNN梯度爆炸和梯度消失的原因 为什么LSTM一定程度上解决RNN问题 transformer embedding bert encoder层里的参数量 bert预训练任务 xgb为何优于GBDT 追问xgb并行计算 seaborn库操作 numpy如何对列求平均 lamada匿名函数 spring boot 解释下bean equal和
自我介绍 问研究生期间工作,感兴趣内容会问,一次都没打断,很感动。 问给一个有噪声的图,怎么样恢复成一个所有点都有边连接的图(大概是这样吧,记不清了,因为我当时也听错了要求hh,当成怎么检测图中哪里有不连接的边)。 手撕代码 商店中有一些礼物,每个有一定的价值(可能有重复价值) 100买三个不重复的礼物,求总价值不超过100的最大价值 dfs+剪枝秒撕 面试老师:是否能够有其他方法(估计是嫌复杂度
一面完,半小时不到直接主管面,时长都在半个小时左右 一面:主要问项目,手撕:压缩字符串,然后讲一下代码的思路。 二面:简单问问项目,其中的难点,对华为文化的了解(能否适应压力等等),有没有特别沮丧的时候,兴趣爱好等,总体比较轻松。
上来自我介绍,然后让把实习、项目和竞赛都说一遍。没怎么问问题,就根据简历问了一两个简单的小问题。然后做题,本来说三道题,第一道过了,第二道的时候代码写完让自己测一下,结果我太菜了,构建二叉树构建了半天😂😂😂面试官说时间够了,今天就到这儿吧。 总结:我太菜了,建个树都不会。。#秋招##提前批##百度##算法岗#
1. 两种糖,每个盒子装三个,要求每种至少一个,求最多装几盒。 2. 有一个数组由0,1,-1组成,找一个分割点,分割点左面>=0个数加上右面<=0个数最小 3. 小美有n块魔法石,每块魔法石都有正反两面,每一面上都刻有一个魔法阵,初始状态下,n块魔法石都是正面向上。这n块魔法石的能量刚好可以构建一个大型魔法阵,但是需要至少一半的魔法石向上的一面铭刻的阵法相同才能触发大型魔法阵的效果。 小美希望翻
今天面试官小姐姐人好好,全程谈项目,不知道结果如何(球求菩萨显灵) 1、自我介绍 2、两个项目的经历都是特征孔识别吗3、基于特征提取用的是什么方法? 4、对pcl点云处理库的了解程度,用到了什么程度 5、是在视屏上做的还是图像上做的 6、相机标定和手眼标定在项目里的作用 7、相机标定的方法,详细说下 8、相机标定精度的要求 9、什么影响了标定精度 10、相机标定中提取圆用的是什么方法 11、相机标
视频面试,面试时间:约一个小时 面试官迟到了几分钟 1、面试官解释迟到原因 2、自我介绍 3、介绍实习工作,并基于实习工作提问 4、介绍一个科研项目,并提问 5、算法题:01矩阵中找出面积最大的全一正方形(动态规划),问时间和空间复杂度 6、数组和链表的区别 7、有没有了解常见的机器学习算法?(报了下菜名) 8、反问环节:询问是哪个部门(因为百度投递的时候不知道部门)以及具体的业务 -------
NLP算法工程师岗 铁废物冲算法:中专,大专,专升本,双非硕 2段实习经验,多个竞赛,一个破论文 一面(技术): 主要围绕简历上的项目问,刚好做过大模型,这个问了挺多 langchain原理 glm架构是什么 coding:爬楼梯 二面(总监+HR): 总监 还是围绕项目的内容询问 课程成绩 在项目中担任什么角色,如果和同事遇到冲突怎么解决 本科哪里的 家里的情况 职业规划 为什么考这个学校:调剂
初筛完成进入面试 一面:53分钟,主要是介绍实习,项目,比赛,C++八股和python语法使用!每一个细节问的都比较细,我是从实习开始介绍,每一项都很细,面试官问的挺好,很专业, 我重点做的内容是:bevfusion模型训练加部署orin平台量化推理! 一面没有手撕 二面:34分钟,面试官是随即问的,有关深度学习,模型量化压缩都会问,手撕一道中等排序题,然后结束了! 总之面试感觉:挺好的
10.10一面 前面主要聊论文项目实习,面试官挑了一些东西问具体是怎么做的,我就在白板上写写画画讲讲,面试官基本就是“我大概了解了”的反馈,也没太细问,估计做的方向不完全一样。 代码题是一个挺变态的题。。题目都差点没读明白。面试官说给了提示能做出来就行,磨了接近四五十分钟,心态差点崩了,就写出了个简化版本。整场面试持续了一个半小时,面试官也挺好的,代码能不断给提示。 面完大概一周多约了2面 10.
10.16一面 很熟悉优化的大佬,对我的优化建模进行了拷打 手撕代码是求解方程x^5-x+1=0,用牛顿法写了,还问了什么初始解能让他迭代收敛 10.19二面 应该是泊车组的,问实习问得很详细 手撕 1.给一段代码,找错误(1.函数内给指针赋值 2.指针没用->取成员) 2.用二分法判断一条轨迹上的轨迹点是否安全 3.换零钱(dp) 4.口述一题,给思路 10.24三面 应该还是泊车组的 问项目和
(为什么wxg一共有四轮技术面啊😅,麻了 teg一面挂后,被wxg捞起来了。 3.27一面 针对简历上的简历问了很多,包括一些技术细节和实现方法。八股考察了llm和传统nlp的知识 1.chatglm2与chatglm1做了哪些改进?是怎么训练的 2.微调以后的模型会出现什么问题?如何改进 3.llm的评测怎么做的 4.bert与GPT的区别?bert的pe是怎么做的? 5.bert怎么做预训练
一面时间:3月25日11:00 ~ 11:50 自我介绍 聊实习经历,根据实习经历问了几道八股: 简单介绍attention机制 有什么和self-attention不一样的注意力机制了解过吗 为什么要使用多头注意力 然后问了一些推荐场景的业务问题,结合自己的经历聊 最后算法题:3. 无重复字符的最长子串 面试官人很好,也没有问什么刁难的题,最后反问环节问了还有什么需要加强的也给我指导了许多,面试
1.自我介绍 2.Bert结构 3.Bert 预训练学习目标是什么? 4.谈一下 faster rcnn 和 yolo 5.目标检测中,单双阶段分别目的是什么? 6.Faster RCNN 中怎么用检测的网络适应不同的框的大小? 7.yolo 目标函数 8.谈谈detr,detr 中的 query 怎么来的? 9.detr 目标函数是什么? 10.transformer 中的位置编码在哪实现的?是
分享面经攒人品 9.11 一面 50分钟左右 1 自我介绍 2 提问项目中负责的内容 3 详细介绍了一个项目 4 浅问了一些项目相关的问题,技术问题挖的不深 5 问了很多医院合作中间的细节,以及如何处理进度压力等问题 6 一些开放型问题,脑机接口,人类意识之类 7 base意愿、预期薪资、反问