推荐算法是非常古老的,在机器学习还没有兴起的时候就有需求和应用了。概括来说,可以分为以下5种: 1)基于内容的推荐:这一类一般依赖于自然语言处理NLP的一些知识,通过挖掘文本的TF-IDF特征向量,来得到用户的偏好,进而做推荐。这类推荐算法可以找到用户独特的小众喜好,而且还有较好的解释性。这一类由于需要NLP的基础,本文就不多讲,在后面专门讲NLP的时候再讨论。 2)协调过滤推荐:本文后面要专门讲
推荐系统并不是新鲜的事物,在很久之前就存在,但是推荐系统真正进入人们的视野,并且作为一个重要的模块存在于各个互联网公司,还是近几年的事情。 随着互联网的深入发展,越来越多的信息在互联网上传播,产生了严重的信息过载。如果不采用一定的手段,用户很难从如此多的信息流中找到对自己有价值的信息。 解决信息过载有几种手段:一种是搜索,当用户有了明确的信息需求意图后,将意图转换为几个简短的词或者短语的组合(即q
自我介绍 简单介绍一下这个推荐项目 用户数据量和内容数据量,总共有多少特征,具体是大概有哪些特征,用户行为序列用到了吗? 一个特征有多个值的情况是怎么处理的? 有做特征选择吗?训练数据量多大?多路召回怎么做的?多路召回有几路?多路召回是怎么融合的? 有做粗排吗? 召回的离线指标和线上指标大概是什么情况? 用户的冷启动是怎么做的? 介绍一下 GrapSAGE,word2vec, deepwalk,
由于本身是做cv的,没有任何推荐算法经验,因此本篇内容对于找推荐算法意义不大,纯粹记录一下 1. 自我介绍,然后介绍完面试官问我知不知道面的是推荐算法😅,不过这也是他们看的简历没挂我简历就是他们的问题😄 2.是否知道cv在推荐搜索当中的一些应用? 3.项目介绍,t2i和inpainting模型分别解决什么问题,为什么要级联 4.做的主要是微调的任务,微调过程当中有些什么trick?以及背后的原
共计35min 1、自我介绍 2、介绍一下实习? 大模型微调的样本量大概是多少? 详细介绍推荐算法实习的背景和思路? 3、学习经历 本科学过什么课?编程相关的?运筹优化相关的?实验室研究方向是啥? 4、八股 大模型和推荐结合的地方有什么?想做大模型还是推荐? 对推荐系统的哪些地方感兴趣?了不了解召回?有哪些算法?了不了解排序?有哪些算法?介绍一下SENET?用户冷启动怎么做? 推荐系统物品点击率的
自我介绍 对推荐算法了解如何 项目深挖 两个项目都是kaggle上的,面试官还吐槽怎么全是kaggle(这不是非科班没有项目只能硬整两个么) 打比赛模型大家都差不多,如何进行提升 介绍一下transfermer 手写一下transfermer的自注意力的公式 求数组中第k大的数(写了个nlogn的归并,经面试官提醒发现可以用快排写o(n),但是快排忘了) 反问 面试了一个小时,体验还行,面试官看我
9月,一面即挂,女面试官 主要围绕实习和论文, ndcg指标, mrr指标 adam优化器 deepfm 较wide& Deep 的升级,问除了lr替换成fm还有什么 mmoe、essm、ple、star 吟唱 谈谈attention dssm缺点以及解决方案 bagging , boosting 手撕1:两个字符串的最长公共子序列, 秒 手撕2:返回 array1和array2 中两个长度相同的
1.hr问题 问了最大的挑战,喜欢什么样的leader,觉得国外和国内上学的区别,性格怎么样,周围人怎么评价你,有没有女朋友,女朋友怎么评价你,反正问了一堆性格,以及什么时候可以来 2.反问 组里氛围,转正策略,公司福利 第一次全部面完,开泡! hr说四月上统一发offer
自我介绍 对推荐系统的了解:背景,前景,架构,方法 项目拷打:特征构建,模型选择,评价指标 论文拷打:背景,模型,评价指标 八股(都是从项目和论文中找的点):SVM原理及其推导,LR原理及其推导,XGBoost原理及其推导,XGBoost处理缺失值的方法,模型过拟合的处理方法, 手写:数组中前k个最小的数(类快排)
自我介绍 实习经历详细介绍,讲了快30分钟 算法题:字符子串最大不重复字母数之和,手撕MLP 问了对于推荐算法的了解,我一无所知
一面: 实习经历,项目经历 感觉科研经历比较多,介意做业务吗 算法:合并两个有序数组 二面: 实习经历,项目经历 推荐常用的多目标模型 AUC如何计算,推荐模型的评价指标有哪些 场景设计:瑞幸咖啡原价20元一杯,成本5元,设置动态定价的策略和算法,使利润最大(考虑用户接受度,季节偏差,是否举办活动) 算法题:AUC计算
1.transformer 2.自注意力机制,自注意力机制的起作用的地方 3.BN,LN 4.梯度消失与爆炸的理解 5.论文讲解 6.transformer的位置编码 7.focal loss 8.模型怎么评价好坏 9.自注意力机制的参数量计算 10.编写代码:topk,用了堆排序,快排都写了
最近面试少了, 精力放在工作上。 偶尔面试保持手感即可。 今天这个学习意义比较大就记录一下。 面试本身没啥特殊的,就是项目+八股+代码。 项目问了我的蚂蚁实习, DeepFM 相关的东西和大模型相关的东西。 所以问了一些八股 1.DEEPFM 介绍一下(聊了一些) 2. 还了解别的推荐的模型吗(不了解) 3. LLAMA 和别的模型架构有啥区别? 4. Llama 用的是什么 norm 和激活函数
回馈一下牛油们——— Bg 陆本英本2+2,英硕top2, 均科班,两篇论文,无相关实习 Timeline: 4.12 投递 4.17 一面 1. 自我介绍+细讲项目 2. 八股 1)介绍一下Transformer的结构 2)Transformer的缺点? 3)为什么需要/sqrt(dk) 4)讲一下Diffusion中的DDPM模型 5) Diffusion 和 GAN各有什么特点?为什么Dif
自我介绍之后,还问了实验室和导师是谁,是不是博导()。 觉得我项目和岗位没什么匹配度(在实验室主要做CV的),就只问了一段实习。(好详细啊) 下面问了好多八股题: 1.BERT详解 2. 借口任务是什么意思 3.为什么自注意力要除以根号dk 4.编码器和解码器是什么关系 4.1 Transformer中编码和解码的作用 5.推荐系统中大模型的应用 6.BERT在做分类、命名实体识别、句子相似度任务