一面
手撕重排链表,k个最小元素
秒了,面试官后续引导我大根堆优化,没get到,说没关系前面的算我做出来了
论文环节,问的不细,大体问了下思路
SGD、AdaGrad、Adam的区别,各自适用场景
用过什么损失函数
实际用过什么attention: GAT,target attention和self attention
结束后马上电话约二面
二面
拷打论文15min,问的比较细
你对随机森林了解多少,XGB和随机森林区别,LightGBM和XGB区别,XGB相比gbdt的改进
SVM和LR区别和联系
讲讲自己GNN的学习过程,基本模型的大致原理
transformer架构,自注意力原理
优化器了解多少,讲讲adam原理
对搜推模型了解多少
多任务模型MMOE和PLE讲讲区别和联系
MMOE极化现象原因,怎么解决
序列模型讲讲DIN,延申的DIEN有了解吗
正则化方式用过什么
L1和L2的区别,以及各自使用的场景
dropout讲讲原理
你特征工程用了什么
word2vec了解不,怎么训练的,用的什么损失函数
回归和分类都知道什么指标
手撕平衡二叉树