补录批了,还是比较简单的 面试内容: * 自我介绍 * 挑一个困难的项目介绍 * 武汉和深圳如何考虑 * 职业规划 * 期望薪资 * 三方还在吗 * 为啥还没签三方?是0offer吗
面试时长:40min 面试内容: * 自我介绍 * 简历挨着介绍 * modelart * 推理框架 * 精度影响因素 * 算子开发流程 * 手撕:阻塞队列
30分钟 自我介绍 项目拷打 Kmeans与Kmeans++的区别 Kmeans一定会收敛吗(EM算法来证明) LightGBM比XGBoost的最大提升在于直方图加速,请详细介绍一下原理和过程 为什么sigmoid、tanh和relu能被用作激活函数 神经网络梯度爆炸问题怎么解决 无手撕题
选择题内容:概率论 全是概率论(考研是吧?) 跟机器学习相关题目就一题,考recall和精确度关系; 填空题:找规律 脑筋急转弯 什么数组[i]值为不为数组中不为i的元素个数; 编程题:没写。润
#24届软开秋招面试经验大赏# 认准拉普拉斯,秋招必上岸 就业咨xun可私。 荣耀的面试体验真的很不错,面试官都是用“您”提问。而且面试过程也挺像唠嗑,还是很舒服的。 之前听说荣耀要变成国企,还有说要单独上市的,也不知道谁说得对。 整体来看,面试难度不高,而且今年好像给的很大方。 面了半小时,难度两颗星。 1 自我介绍 2 实习介绍 项目介绍 科研介绍 3 讲一下科研,挺感兴趣这个东西 4 说一下
#24届软开秋招面试经验大赏# 认准拉普拉斯,秋招必上岸 就业zixun可私。 荣耀一共就两轮面试,而且也没考coding。每轮都是半小时左右。去面试间等着叫号,还是体验挺好的。 出结果也挺快的,不像华子那么能泡。 二面应该是主管面了。 面试时间半小时,难度一颗星。 1 自我介绍 2 实习介绍 项目介绍 科研介绍 3 平时喜欢看哪方面的论文,分享一个。 4 看我实习挺多,方向是怎么选的,有没有什么
#快手# #暑期实习# #二面# #推荐算法# #推荐算法面经# 时间2024年4月3日 15:00 总计65min 1.自我介绍 2.本科推荐系统项目(参考一面面经) 3.论文 4. 讲一讲CTR预估和序列推荐模型 - DIN DIEN SIM Caser GRU4Rec SLiRec CLSR MIND.... 5. 了解矩阵分解吗 - MF、LFM 6.LSTM模型介绍,几个门的作用 7.t
一面 3.21 问项目:问了一个项目,问的非常详细,大概问了30min 然后问基础: transformer的架构 为什么使用multi-head、残差链接和前馈神经网络层 梯度消失的原因是什么 gpt和t5的区别 bert和t5的区别 了解现有的大模型,比如LLaMa这些吗 代码:删除链表倒数第k个节点,需要考虑到k>链表长度这个边界情形
1. 手撕,给出中序遍历和后序遍历,构建树 2. 介绍树模型,(GBDT,XGBoost等) 3. 项目为什么用XGBoost 4. 介绍LR 6. XGB和LR的区别,各适用哪些场景。 7. 项目中Lovain算法是个什么算法。 8. 项目中使用的评价指标 9. 准确率有什么缺点和问题 10. AUC 11. 优化算法 12. 激活函数 13. 特征提取方法? 14. CNN和MLP区别,CNN
我们要学习Mybatis的源码,第一步肯定是要找到学习的切入点,我们先从一个简单的Demo开始,重新感受一下Mybatis的使用方式,并从中可以切入到mybatis源码的学习过程中去。 Hello World 首先我们新建一个Hello World工程,用来体会Mybatis的使用方式。 数据准备 连接Mysql服务器,新建一个名为mybatis的数据库,并创建一个包含了两个字段(id,name)
最难蚌的一次面试 百度数据科学实习生,文心一言产品线那边的 有认识的人面过同样的岗位说问的都是业务问题,稍微考了很简单的Python基础函数(处理JSON文件) 结果面试官除了简历没问业务方面的问题,然后问了简历项目上我用过的很多算法问题,很多SQL和Python的函数还有模型,什么窗口函数(并试图提问数据仓库相关),bagging和boost算法的一些关键点和主要区别,怎么预测和进行特征选择,然
常检测是一种机器学习任务,包括发现所谓的异常值。 “异常值是一种数据集中的观测值,似乎与该组数据的其余部分不一致。”-- Johnson 1992 “异常值是一种观测值,与其他观测值有很大差异,引起人们怀疑它是由不同的机制产生的。”-- Outlier/Anomaly Hawkins 1980 异常检测设定的类型 监督 AD 标签可用于正常和异常数据 类似于稀有类挖掘/不平衡分类 半监督 AD(新
特征提取 在这里,我们将讨论一个重要的机器学习:从数据中提取定量特征。 到本节结束时,你将 了解如何从现实世界数据中提取特征。 请参阅从文本数据中提取数值特征的示例 此外,我们将介绍 scikit-learn 中的几个基本工具,可用于完成上述任务。 特征是什么? 数值特征 回想一下 scikit-learn 中的数据应该是二维数组,大小为n_samples×n_features。 以前,我们查看了
聚类是根据一些预定义的相似性或距离(相异性)度量(例如欧氏距离),将样本收集到相似样本分组中的任务。 在本节中,我们将在一些人造和真实数据集上,探讨一些基本聚类任务。 以下是聚类算法的一些常见应用: 用于数据减少的压缩 将数据汇总为推荐系统的再处理步骤 相似性: 分组相关的网络新闻(例如 Google 新闻)和网络搜索结果 为投资组合管理分组相关股票报价 为市场分析建立客户档案 为无监督特征提取构
许多无监督学习的实例,例如降维,流形学习和特征提取,在没有任何额外输入的情况下找到输入数据的新表示。 (与监督学习相反,如之前的分类和回归示例,无监督算法不需要或考虑目标变量)。 一个非常基本的例子是我们的数据重缩放,这是许多机器学习算法的要求,因为它们不是规模不变的 - 重缩放属于数据预处理类别,几乎不能称为学习。 存在许多不同的重缩放技术,在下面的示例中,我们将看一个通常称为“标准化”的特定方