当前位置: 首页 > 面试经验 >

科大讯飞二面面经

优质
小牛编辑
90浏览
2023-03-28

科大讯飞二面面经

之前面的科大讯飞算法岗位,补上面经。。

1.自我介绍
2.深挖项目
3.CNN、RNN、LSTM和Transformer各自的优点
CNN优点:局部权值共享,平移不变性可以更好提取特征以及处理高维数据;缺点:网络过深时其梯度回传变化相对于输入往往很小,出现梯度消失或爆炸的情况;解释性一般 RNN优点:相比于CNN,RNN结合序列上的时序上下文来提取特征,但是在处理序列数据时没有进行信息的过滤,在稍长序列中就会出现梯度消失、爆炸的情况 LSTM优点:LSTM经过使用全连接层设计遗忘门、输出门、输入门来过滤信息,使得在长序列数据中表现较好。但是在时间跨度非常大的序列数据中,会出现计算复杂和耗时偏多的问题 Transformer优点:相比于RNN,可以直接并行计算序列数据,计算的Attention也更有解释性,可以为不同的头分配不同的任务。虽然全局信息可以捕捉,但是不如CNN捕捉局部信息来的好,而且其位置编码的语义问题也很困扰,最后在Transformer内部堆叠残差层和BN层过多时,顶部会出现梯度消失的问题
4.损失函数和激活函数的计算公式(问了下交叉熵做二分类和多分类的区别)
5.Dropout训练和测试的区别,Dropout的原理
Dropout原理:dropout训练减少了神经网络结点之间的共适应性,当隐藏层节点被随机删除后,是的网络具有了一定的稀疏性,从而有效的减轻了不同特征间的协同效应。也就是说,某些特征可能会依赖于固定关系的隐藏节点的共同作用,而通过dropout,迫使一个网络节点和随机挑选出来的其他节点共同工作,达到更好的网络泛化能力。
Dropout训练和测试的区别:训练时以一定的概率p(通常是50%)关闭隐藏层神经元的输出,也就是输出为0。这种策略可以从不同角度理解:首先这使得每次训练的模型并不是相同的结构,可以认为是原网络的子集,最终的输出是这些不同模型不同结构共同作用的结果(类似于集成学习中Bagging的策略);另外Dropout方法可以让神经元之间减小依赖性,因为随机的关闭可以使得神经元之间不会总是同时作用。
测试时,全部神经元都使用,但是他们的输出乘上了系数(1-p)。
6.点云转mesh,3dmm的原理
7.以后期望的技术路线

反问
1.分配的部门是哪些
2.月薪有多少
#讯飞##电子科大##科大讯飞#
 类似资料: