本文整理了我目前觉得还算不错的GitHub资源,分为NLP、深度学习和基本知识
nlp-tutorial(实现了NLP的一些模型的代码)
ML-NLP:
邱锡鹏老师推荐的NLP入门实战
NLP中文相关资料:
rumor推荐的NLP学习路线
NLP会议代码:
HanLP
CS-Notes
大厂面试LeetCode题:
力扣加加:
图解LeetCode:
Fucking algorithm(labuladong):
本书延续了前作的理念,但关注的应用领域不同:前作的内容以卷积神经网络和图像识别为主,而本书则侧重于循环神经网络和自然语言处理。本书详细介绍了单词向量、LSTM、seq2seq 和 Attention 等自然语言处理中重要的深度学习技术。
问题列表 《深度学习》 8.4 参数初始化策略 一般总是使用服从(截断)高斯或均匀分布的随机值,具体是高斯还是均匀分布影响不大,但是也没有详细的研究。 但是,初始值的大小会对优化结果和网络的泛化能力产生较大的影响。 一些启发式初始化策略通常是根据输入与输出的单元数来决定初始权重的大小,比如 Glorot and Bengio (2010) 中建议建议使用的标准初始化,其中 m 为输入数,n 为输出
主要内容 前言 课程列表 推荐学习路线 数学基础初级 程序语言能力 机器学习简介 自然语言学习初级 数学和机器学习知识补充 自然语言处理中级 自然语言处理专项领域学习 前言 我们要求把这些课程的所有Notes,Slides以及作者强烈推荐的论文看懂看明白,并完成所有的老师布置的习题,而推荐的书籍是不做要求的,如果有些书籍是需要看完的,我们会进行额外的说明。 课程列表 课程 机构 参考书 Notes
想向大家请教一个问题: 1. 为什么多轮对话和数值推理dpo的效果会比sft好? 2. 而哪些任务场景下sft比dpo效果好 有哪位佬可以点拨一下吗,我的回答被面试官说是从通用的角度(loss和sft的缺点)分析的,没用考虑数值推理这一特殊场景 #面经#
深圳 一面挂 基础知识: 1、transformer的位置编码了解吗,有什么位置编码? 2、注意力机制有哪些变种? 3、tranformer的改进。 4、对其他推理有没有了解? 场景题:给一个一千万的文档和一百万个词,在每个文档中匹配出存在的单词,怎么做? 对hadoop和mapreduce有了解吗? 手撕代码:递归二分查找 北京 一面 介绍transformer、我的论文聚类算法用的哪一种、有没
本书旨在介绍如何通过Python和NLTK实现自然语言处理。本书包括三个模块。模块1介绍文本挖掘/NLP任务中所需的所有预处理步骤,包括文本的整理和清洗、词性标注、对文本的结构进行语法分析、文本的分类等。 模块2讲述如何使用Python 3的NLTK 3进行文本处理,包括标记文本、替换和校正单词、创建自定义语料库、词性标注、提取组块、文本分类等。模块3讨论了如何通过Python掌握自然语言处理,包
知识图谱 接口: nlp_ownthink 目标地址: https://ownthink.com/ 描述: 获取思知-知识图谱的接口, 以此来查询知识图谱数据 限量: 单次返回查询的数据结果 输入参数 名称 类型 必选 描述 word str Y word="人工智能" indicator str Y indicator="entity"; Please refer Indicator Info
PyTorch 自然语言处理(Natural Language Processing with PyTorch 中文版)