本以为这个岗位会面大模型,没想到全是问传统NLP任务。
1. 深挖实习(解决了什么问题,如何解决,以及评估效果如何?)
2. 是否熟悉序列标注任务?能否举例说明NER任务的输入输出是什么?(坦诚告诉面试官之前没做过,但是面试官并没有放过我,在随后的时间里便围绕这个问题疯狂拷打我)
3. 如何从电商数据(关于手机的)中抽取品牌、颜色、内存等信息?请提供一个方案,解释数据标注、模型选型、模型训练和结果评估的过程(因为没做过NER所以回答的不好)
4. 如果一个实体被错误分词,会怎样影响到NER的识别?如何解决这个问题(已经跟面试过说了没做过NER,但依然不放过我
5. 解释一下word embedding是什么。为什么要引入这个?都了解过哪些embedding?介绍一下它们之间的优劣
6. word2vec中skip-gram和cbow的目标函数分别是什么?
7. 如果vocabulary size过大如何解决?(我回答了可以用hierachical softmax或negative sampling)
8. 面试官开始围绕hierachical softmax对我进行疯狂拷打,让我从0到1讲一下完整的思路,并问我如何用代码去实现,实现的时候需要注意哪些细节(没想到会问这么细,卒
9. 为什么transformer会比rnn, lstm这些网络更加有效?它有哪些优势?(我回答了长距离依赖,并行计算等)
10. transformer的并行计算主要得益于哪里?(我提到了attention,面试官说不对,应该是pe那一块
11. 都有哪些pe的方法?
12. 深挖论文(你参与的论文解决了什么问题?现有的方法是什么?你们的改进如何提高效果?如何证明你们的方法优于现有的方法?)
13. 无手撕代码
面完后体验不是很好,在一开始我就跟面试官说过了我是做大模型的,传统NLP任务虽有接触但不多,并也坦诚告知了面试官我没做过NER任务,但面试官没有放过我,就此问题拷打了我将近15分钟,最后还说要控制面试时间所以先不问这个了 包括一开始面试官还要求我单方面开摄像头,但我看面试官没开我就不是很想开,他说公司规定不开就要换一个面试时间,我不是很理解,于是反问你不用开摄像头吗?后来他好像也很无奈才开了。
在反问环节,面试过看我是做大模型的,并且传统NLP相关的问题没有回答好,就开始一个劲的向我灌输即使是LLM时代,传统NLP仍有一席之地,甚至可以占到50%,然后就开始叽里呱啦地说它的一堆好处。虽然但是这句话可能没毛病,但听起来总觉得有些不舒服