#如何判断面试是否凉了#职位是:【快Star】大模型应用算法工程师
8.13状态显示挂了。喜提秋招第一挂
但确实比较“喜”,因为这场不仅仅是拷打,更是鞭策。
首先叠甲:
我在llm这块确实是新手,积累确实不足,癞蛤蟆想吃天鹅肉。我对大厂不抱希望,不想抢各位爷的活干。看在这些以及我写的这么详细的份上,如果我显示出了菜,请友善讨论或者提意见,谢谢!
由于讲的时间长,讲了50min,所以无coding
1.让讲自己与大模型相关的项目,中间打断去询问
问得非常细也比较深,会从研究的idea,这一步做的好不好来评价和讨论
中间问了LoRA的原理,然后我说得不够精确,没有说低秩矩阵是理想中微调的权重差值的【估计】,
面试官听起来估计认为我说的是二者等价,就很拷打(实际上我明白这个,但就讲的时候省略了)。
其次面试官对lora时是否加入rag检索结果这个东西很感兴趣,我做的时候不加反而效果好,他认为很反直觉,不是很同意。
(实际上普通的lora对超长上下文确实搞不定,以及我们当时lora的功能更多的是让输出的格式规范,因为试过prompt的效果并不好,这个点我两个月一直没想起来。)
还有讲项目的时候任务的描述(输入输出)还是得尽量清晰,感觉得重新梳理一下我的项目
2.rag与幻觉相关的场景提问
首先问我项目里是否出现幻觉了。(我也没仔细看我的数据,因为全是医学专业英文名词,我也看不懂,只算指标了,罪过罪过)
实际上幻觉这块我真没怎么看过,罪过,这么重要的方向
其次,就是提问rag检索内容出现幻觉,或者检索内容错误or缺失,导致会生成幻觉,如何检测,至少做到拒绝回答。
面试官的意思是解决方案可以是“任何手段”:我的思路是检索后先不进大模型,用一个判别器(可以是bert,可以是其他方法)判断信息是否缺失,是否会有幻觉。面试官觉得这个方法取巧,且不够
所以要求方法“仅限模型”:我想了半天,最后快没时间了,补了一个在模型内可以加前缀或者标志的方法。
看我想不出来,推荐我去读一读幻觉和可信度rag方面的文章。
最后反问了一下技术跟进,他们要求大模型这块跟进最先进的,感觉还是挺有底气和信心的
以及团队规模,还是不小的。
总之,感谢这次机会,面试官很有水平,我在项目的介绍、打磨和解决问题的思路上都不足,回来继续沉淀了(我早上再也不练琴摸鱼了)
也对手子有一些好印象了
首挂,但极其有鞭策意义