#面经#背景
工作4年,长期从事深度学习相关工作。目前的主要方向是垂直领域大模型和RAG相关项目。
xdm本期要5个点赞!!有点赞继续分享
面试问题
1. LoRA原理,微调的哪些层,相关训练参数设置, epoch、learning_rate等等
2.RAG 切片怎么做的?
3. 微调中遇到了哪些问题,怎么解决?
4. embedding 召回优化
5. 原生模型复读不严重,为什么微调后复读严重? 感觉现在模型不咋重复了。。
6. 领域知识能不能通过LoRA微调得到
7. 如何解决大模型幻觉?或者说如何缓解吧
8. loss 除以 10 和学习率除以10 有区别没?主要考优化器
9. self-attention为什么要做qkv的线性变换?一开始听着这个题目,懵的
10.机器学习懂不懂?
11. self-attention 为什么 要做softmax?
给你两个字符串,比如s1=acdk, s2=ckad,
每次可以把s1的任意一个字母移动到末尾,问最少移动次数使s1=s2。如果不存在,则返回-1;
题目:没见过,做不来。很想开cursor给它秒了。。。#牛客创作赏金赛#
点赞给个鼓励吧~ 祝我们都拿到满意的offer!#ai智能作图#