1.自我介绍
2.拷打论文
围绕论文的一些问题
2.1有哪些常见的图卷积
2.2指标
2.3attention是怎么做的
3.拷打另一篇论文
围绕论文的一些问题,延展八股
transformer架构
layer norm和batch norm 区别
自注意力结构
T5架构和任务设计
Bert的最大长度限制
了解哪些attention方式
encoder和decoder区别
4.拷打项目
常见的微调方式
open性问题:你觉得llm和传统的nlp模型的区别在哪?
5.手撕代码:三数之和
#一面面经#