30分钟 自我介绍 项目拷打 Kmeans与Kmeans++的区别 Kmeans一定会收敛吗(EM算法来证明) LightGBM比XGBoost的最大提升在于直方图加速,请详细介绍一下原理和过程 为什么sigmoid、tanh和relu能被用作激活函数 神经网络梯度爆炸问题怎么解决 无手撕题
#24届软开秋招面试经验大赏# 认准拉普拉斯,秋招必上岸 就业咨xun可私。 荣耀的面试体验真的很不错,面试官都是用“您”提问。而且面试过程也挺像唠嗑,还是很舒服的。 之前听说荣耀要变成国企,还有说要单独上市的,也不知道谁说得对。 整体来看,面试难度不高,而且今年好像给的很大方。 面了半小时,难度两颗星。 1 自我介绍 2 实习介绍 项目介绍 科研介绍 3 讲一下科研,挺感兴趣这个东西 4 说一下
#24届软开秋招面试经验大赏# 认准拉普拉斯,秋招必上岸 就业zixun可私。 荣耀一共就两轮面试,而且也没考coding。每轮都是半小时左右。去面试间等着叫号,还是体验挺好的。 出结果也挺快的,不像华子那么能泡。 二面应该是主管面了。 面试时间半小时,难度一颗星。 1 自我介绍 2 实习介绍 项目介绍 科研介绍 3 平时喜欢看哪方面的论文,分享一个。 4 看我实习挺多,方向是怎么选的,有没有什么
#快手# #暑期实习# #二面# #推荐算法# #推荐算法面经# 时间2024年4月3日 15:00 总计65min 1.自我介绍 2.本科推荐系统项目(参考一面面经) 3.论文 4. 讲一讲CTR预估和序列推荐模型 - DIN DIEN SIM Caser GRU4Rec SLiRec CLSR MIND.... 5. 了解矩阵分解吗 - MF、LFM 6.LSTM模型介绍,几个门的作用 7.t
一面 3.21 问项目:问了一个项目,问的非常详细,大概问了30min 然后问基础: transformer的架构 为什么使用multi-head、残差链接和前馈神经网络层 梯度消失的原因是什么 gpt和t5的区别 bert和t5的区别 了解现有的大模型,比如LLaMa这些吗 代码:删除链表倒数第k个节点,需要考虑到k>链表长度这个边界情形
选择题内容:概率论 全是概率论(考研是吧?) 跟机器学习相关题目就一题,考recall和精确度关系; 填空题:找规律 脑筋急转弯 什么数组[i]值为不为数组中不为i的元素个数; 编程题:没写。润
10点到3点半,中间停了一个半小时,面完人都傻了,真遭不住...... 一面 基本就围绕实验室项目聊了好久,中间穿插问了几个强化学习算法原理 然后问了深度学习和pytorch 几个简单的点 手撕:一个数组,对每个数可以给+ 或者-号,问有多少种情况可以和为target 二面 基本也是就围绕实验室项目聊了好久 然后再聊了好久Tcmalloc 手撕:一个无序数组,然后把它变成a <= b >= c <
1. 手撕,给出中序遍历和后序遍历,构建树 2. 介绍树模型,(GBDT,XGBoost等) 3. 项目为什么用XGBoost 4. 介绍LR 6. XGB和LR的区别,各适用哪些场景。 7. 项目中Lovain算法是个什么算法。 8. 项目中使用的评价指标 9. 准确率有什么缺点和问题 10. AUC 11. 优化算法 12. 激活函数 13. 特征提取方法? 14. CNN和MLP区别,CNN
一面 约35min 自我介绍 项目内容 项目内mysql和redis的应用 BERT细节 data collator相关 八股 python 协程、线程、进程 go与python最大的不同点 mysql慢查询怎么优化 ddp有没用过 反问: 技术栈(C++和python)、为算法部门服务、资源管理(k8s,docker) 一周内知道结果 二面: 约35min 自我介绍 项目内容 流程介绍、数据集、
补录批了,还是比较简单的 面试内容: * 自我介绍 * 挑一个困难的项目介绍 * 武汉和深圳如何考虑 * 职业规划 * 期望薪资 * 三方还在吗 * 为啥还没签三方?是0offer吗
面试时长:40min 面试内容: * 自我介绍 * 简历挨着介绍 * modelart * 推理框架 * 精度影响因素 * 算子开发流程 * 手撕:阻塞队列
常检测是一种机器学习任务,包括发现所谓的异常值。 “异常值是一种数据集中的观测值,似乎与该组数据的其余部分不一致。”-- Johnson 1992 “异常值是一种观测值,与其他观测值有很大差异,引起人们怀疑它是由不同的机制产生的。”-- Outlier/Anomaly Hawkins 1980 异常检测设定的类型 监督 AD 标签可用于正常和异常数据 类似于稀有类挖掘/不平衡分类 半监督 AD(新
特征提取 在这里,我们将讨论一个重要的机器学习:从数据中提取定量特征。 到本节结束时,你将 了解如何从现实世界数据中提取特征。 请参阅从文本数据中提取数值特征的示例 此外,我们将介绍 scikit-learn 中的几个基本工具,可用于完成上述任务。 特征是什么? 数值特征 回想一下 scikit-learn 中的数据应该是二维数组,大小为n_samples×n_features。 以前,我们查看了
聚类是根据一些预定义的相似性或距离(相异性)度量(例如欧氏距离),将样本收集到相似样本分组中的任务。 在本节中,我们将在一些人造和真实数据集上,探讨一些基本聚类任务。 以下是聚类算法的一些常见应用: 用于数据减少的压缩 将数据汇总为推荐系统的再处理步骤 相似性: 分组相关的网络新闻(例如 Google 新闻)和网络搜索结果 为投资组合管理分组相关股票报价 为市场分析建立客户档案 为无监督特征提取构
许多无监督学习的实例,例如降维,流形学习和特征提取,在没有任何额外输入的情况下找到输入数据的新表示。 (与监督学习相反,如之前的分类和回归示例,无监督算法不需要或考虑目标变量)。 一个非常基本的例子是我们的数据重缩放,这是许多机器学习算法的要求,因为它们不是规模不变的 - 重缩放属于数据预处理类别,几乎不能称为学习。 存在许多不同的重缩放技术,在下面的示例中,我们将看一个通常称为“标准化”的特定方