发面经攒人品,用快手一个部门的面经求另一个部门的offer
一面
研究方向,论文的问题
深度学习相关
ReLU
ReLU,LeakyReLU
ReLU表达式,优缺点,为什么用,为什么不用
ReLU激活函数是如何解决梯度消失和梯度爆炸问题的?
什么是梯度消失和梯度爆炸?什么单元更容易出现梯度消失梯度爆炸的问题?ReLU如何解决梯度消失问题
ReLU之前常用的激活函数
Sigmoid
写一下sigmoid函数的表达式。sigmoid函数存在的问题
写一下逻辑回归的loss,
讲一下交叉熵损失函数,与KL散度的关系 ,在二分类和多分类问题中的区别
CNN
卷积神经网络中常见的层,
卷积层的参数计算,以及计算量计算
m*n的图像,卷积核为k*k,步长为1,最后生成的图像大小
m*n*3的图像输入进去,输出会有变化吗?
计算量计算,写数量级,结果中的每个像素点经过多少次计算
卷积核的k值的取值,为什么取这个值
卷积层中3×3的卷积核叠加它的实际感受野有多大?
ResNet中的Block,怎么用的
编程题
leetcode题 两个节点的最近公共祖先
二面
集中问项目,然后就挂了
#快手#