一面 1.自我介绍 2.介绍卷积 激活 池化 全连接层含义 3.什么情况下可以不使用池化层 4.项目中使用了什么数据增强技术 5.阐述SVM原理 6.解决过拟合的方法 7.决策树怎么划分特征 8.随机森林有两种随机方式 怎么体现 9.线性模型和非线性模型的优缺点 10.样本数量小且特征数量多时 使用线性还是非线性模型 11.离散特征的处理方式 12.会不会用Linux 13.会不会TensorFl
自我介绍 项目经历 之前项目中使用过hive,spark处理数据吗 auc的定义,如何计算 xgb,lightgbm原理,模型的搭建过程,区别等 正负样本不平衡怎么解决(损失函数,降采样,过采样,模型融合等) 模型过拟合原因,该怎么解决(样本纬度,特征维度,模型维度都回答了一遍) 如何进行特征筛选 了解推荐算法吗 推荐系统构建的整体流程(召回,粗排,精排,重排,每一部分进行了简单介绍) dcn,d
1. 自我介绍 2. 写一个算法 Q:给一个有序数组arr[ ],和一个 int target,找到target的左索引和右索引。 例:arr = [1,1,1,1,2,2,2,3,3,3,3,3,5,5,5], target = 3. return left = 7, right = 11; 3. 问简历 3.1 介绍了电影推荐的项目。问了几个模型。 3.2 介绍了强化学习的论文,问了DQN和x
#拼多多##推荐算法面经##暑期实习# ### 一面 - 时间:2024-04-01 总计30分钟 - 自我介绍 - 本科推荐系统项目(项目细节问的比较多,基于项目展开考察八股,细节可以参考我的美团一面和快手一面面经,内容差不多) - 介绍pointwise-loss、pairwise-loss、listwise-loss - BPR损失 - 特征重要性评估方法 - 排列重要性:随机打乱某一维特征
211本硕,目前研一,计算机相关专业 找的就是搜广推的实习,忘记把本科做的推荐系统点击率预估的毕设写到简历里面了。 一面 1.自我介绍 2.介绍项目:介绍了介绍研一目前做的时间序列预测的项目和本科毕设做的点击率预估 3.问的时间序列预测的模型架构和指标 4.sigmoid函数和softmax函数的区别 5.多头注意力机制里的QKV,缩放 6.快速排序算法 7.反问
面试时间:4月12日15:00 ~ 16:00 先是自我介绍,介绍完让详细介绍一个项目,期间问项目细节。 然后问基础知识: 介绍一下transformer,attention怎么计算,为什么除以根号dk。 LN和BN的区别,以及为什么cv中用BN,nlp中用LN。 self attention和position embedding是直接相加的,那如果变成concat会有什么影响吗(这个答的纬度变化
9月,一面即挂,女面试官 主要围绕实习和论文, ndcg指标, mrr指标 adam优化器 deepfm 较wide& Deep 的升级,问除了lr替换成fm还有什么 mmoe、essm、ple、star 吟唱 谈谈attention dssm缺点以及解决方案 bagging , boosting 手撕1:两个字符串的最长公共子序列, 秒 手撕2:返回 array1和array2 中两个长度相同的
1.hr问题 问了最大的挑战,喜欢什么样的leader,觉得国外和国内上学的区别,性格怎么样,周围人怎么评价你,有没有女朋友,女朋友怎么评价你,反正问了一堆性格,以及什么时候可以来 2.反问 组里氛围,转正策略,公司福利 第一次全部面完,开泡! hr说四月上统一发offer
自我介绍 对推荐系统的了解:背景,前景,架构,方法 项目拷打:特征构建,模型选择,评价指标 论文拷打:背景,模型,评价指标 八股(都是从项目和论文中找的点):SVM原理及其推导,LR原理及其推导,XGBoost原理及其推导,XGBoost处理缺失值的方法,模型过拟合的处理方法, 手写:数组中前k个最小的数(类快排)
自我介绍 实习经历详细介绍,讲了快30分钟 算法题:字符子串最大不重复字母数之和,手撕MLP 问了对于推荐算法的了解,我一无所知
一面: 实习经历,项目经历 感觉科研经历比较多,介意做业务吗 算法:合并两个有序数组 二面: 实习经历,项目经历 推荐常用的多目标模型 AUC如何计算,推荐模型的评价指标有哪些 场景设计:瑞幸咖啡原价20元一杯,成本5元,设置动态定价的策略和算法,使利润最大(考虑用户接受度,季节偏差,是否举办活动) 算法题:AUC计算
1.transformer 2.自注意力机制,自注意力机制的起作用的地方 3.BN,LN 4.梯度消失与爆炸的理解 5.论文讲解 6.transformer的位置编码 7.focal loss 8.模型怎么评价好坏 9.自注意力机制的参数量计算 10.编写代码:topk,用了堆排序,快排都写了
最近面试少了, 精力放在工作上。 偶尔面试保持手感即可。 今天这个学习意义比较大就记录一下。 面试本身没啥特殊的,就是项目+八股+代码。 项目问了我的蚂蚁实习, DeepFM 相关的东西和大模型相关的东西。 所以问了一些八股 1.DEEPFM 介绍一下(聊了一些) 2. 还了解别的推荐的模型吗(不了解) 3. LLAMA 和别的模型架构有啥区别? 4. Llama 用的是什么 norm 和激活函数
回馈一下牛油们——— Bg 陆本英本2+2,英硕top2, 均科班,两篇论文,无相关实习 Timeline: 4.12 投递 4.17 一面 1. 自我介绍+细讲项目 2. 八股 1)介绍一下Transformer的结构 2)Transformer的缺点? 3)为什么需要/sqrt(dk) 4)讲一下Diffusion中的DDPM模型 5) Diffusion 和 GAN各有什么特点?为什么Dif
自我介绍之后,还问了实验室和导师是谁,是不是博导()。 觉得我项目和岗位没什么匹配度(在实验室主要做CV的),就只问了一段实习。(好详细啊) 下面问了好多八股题: 1.BERT详解 2. 借口任务是什么意思 3.为什么自注意力要除以根号dk 4.编码器和解码器是什么关系 4.1 Transformer中编码和解码的作用 5.推荐系统中大模型的应用 6.BERT在做分类、命名实体识别、句子相似度任务