10.25 镁佳(北京)科技有限公司—一面14:00
1.Dropout机制
2.Self-attention中的计算方法
3.Kv/squr(t)为什么要除以squr(t)
4.为什么要有position embedding
5.如何解决decoder-attention中无法看到后面信息的问题:mask matrix
6.Bert主要用来干什么?Next sentence perdiction 和 Mask 位置填补
总体来说就是死扣transformer
编码题:
二分查找
用2个栈实现队列
10.25 镁佳(北京)科技有限公司—二面17:00
查看CPU使用情况:top(实时监控工具)
查看端口占用情况:netstat -tuln # -tuln:列出所有监听的 TCP 和 UDP 端口
显示系统内存的总量、已用量、空闲量以及缓存和缓冲区的使用情况:free -h
查看GPU使用情况:nvidia-smi
特别细致地提问上一段的经历,算法让我输入每一步骤的输入和输出
logistic回归:y=1/(1+e(wx+b) 其中y也可以表示成P(X<x)即F(x)
编码题:将列表中的0元素,其他按正常的顺序排列,提到列表前面
10.27 货拉拉——一面11:00
询问项目经历
聚类方法K means
支持向量机
对过拟合的理解,以及如何解决过拟合。
编码题:快速排序(找基准的那个排序方法)
感觉货拉拉的面试还是挺中规中矩的