nlp-lang 文档地址:http://www.nlpcn.org/docs/7 部分演示:http://www.nlpcn.org/demo MAVEN <dependencies> <dependency> <groupId>org.nlpcn</groupId> <artifactId>nlp-lang</artifactId> <versi
A Hands-on Introduction to Natural Language Processing (NLP) About this course This course was created by Prof. Mohammad Ghassemi in Fall of 2020 as part of the CSE 842 class at Michigan State Univers
Tracking Progress in Natural Language Processing Table of contents English Automatic speech recognition CCG Common sense Constituency parsing Coreference resolution Data-to-Text Generation Dependency
项目介绍 此项目是机器学习、NLP面试中常考到的知识点和代码实现,也是作为一个算法工程师必会的理论基础知识。 既然是以面试为主要目的,亦不可以篇概全,请谅解,有问题可提出。 此项目以各个模块为切入点,让大家有一个清晰的知识体系。 此项目亦可拿来常读、常记以及面试时复习之用。 每一章里的问题都是面试时有可能问到的知识点,如有遗漏可联系我进行补充,结尾处都有算法的实战代码案例。 思维导图,请关注 AI
awesome-nlp A curated list of resources dedicated to Natural Language Processing Read this in English, Traditional Chinese Please read the contribution guidelines before contributing. Please add your
为中文自然语言处理领域发展贡献语料 贡献中文语料,请发送邮件: CLUEbenchmark@163.com *** update **** 中文任务基准测评,10大任务 & 9个模型一键运行、详细测评: Language Understanding Evaluation benchmark for Chinese(CLUE benchmark): run 10 tasks & 9 baseline
nlp-tutorial nlp-tutorial is a tutorial for who is studying NLP(Natural Language Processing) using Pytorch. Most of the models in NLP were implemented with less than 100 lines of code.(except comments
awesome-chinese-nlp A curated list of resources for NLP (Natural Language Processing) for Chinese 中文自然语言处理相关资料 图片来自复旦大学邱锡鹏教授 Contents 列表 1. Chinese NLP Toolkits 中文NLP工具 Toolkits 综合NLP工具包 Popular NLP T
python-nlpir是NLPIR的一个python封装。NLPIR是目前运用最为广泛的中文分词工具。目前该软件支持Windows和Linux。
问项目 问一个OCR项目有什么提升的空间 问自注意力 问Transformer 的 多头注意力机制 问BN层的作用,在推理中是怎么作用的 如何计算LLM占用的内存大小 举了一个详细业务场景,有关PPL优化#面经#
上上周offer被毁,无奈重新投简历,刚结束讯飞一面情况给大家分享。 总时长45min不到 上来先是常规自我介绍,之后问了下为什么选择转做nlp(之前的实习一个推荐广告,一个deepfake,一个vlm based 3d场景理解) 简单聊eccv论文,引申问题,llm如何处理长文本记忆功能(重点不是魔改网络或者long memory tranformer)。想到了sentence embeddin
感觉寄了()前后加上自我介绍一共31分钟,感觉完全是没什么兴趣,,当然这和本鼠简历一坨脱不了干系..随缘记一下吧,今年估计没有实习了,明年再整😅 开头:自我介绍,没什么可说的,随便问了下提的相关经历,问了下最长实习时间(感觉这一步已经可以埋了) 然后问了下项目,说是项目其实本鼠也就只有一个bert微调稍微沾点边,扯了半天才把项目说清楚,然后问了我大致流程,基本上算把bert架构讲了一下,不过现在
问的比较基础,有些拷打的挺深。估计还是没论文和竞赛,一面完第二天就挂了 1. 在任务对话系统中,大模型的成本较高,有没有自己微调或者调用接口?哪种合适? 2. Agent是什么概念?编排指的是什么? 3. 大模型中agent的主流框架? 4. 在RAG的知识库构建中,文本是什么格式的?PDF、WORD?设计OCR吗? 5. 有哪些工业界使用的OCR接口? 6. 用大模型做embedding,维度是
淘天二面 1.自我介绍 2.说是简单问几个基础题 BatchNorm 和 LayerNorm 的区别? BatchNorm 计算的均值方差的维度是什么?(给我的是一个图片处理的维度,他说虽然我是 NLP,但是应该也做过图片吧?我说没有做过,面试官说问都问了就问到底吧。。。我:啊?) LayerNorm 的计算的维度呢? 为什么 NLP 不用 BatchNorm?(重点是想听我回答样本长度不一样)
整体25分钟,综合面 1.自我介绍 2.问我获得十佳研究生是学校哪个部门评的、什么依据、我的优势是什么,还问了一些我国家奖学金之类的荣誉的评选细节,感觉这种所还是挺看成绩和荣誉的 3.问我比赛相关的,让我挑出来一个认为做的最好的比赛、然后问我在里面的角色、遇到的最大困难、如何统筹队伍、如何激励队员、如何分配奖励,这块还问的挺细的 4.问我为什么想来30所,我就说成都好、30所是比较好的选择等,问我