本节部分知识点来自《计算机网络(第 7 版)》 计算机网络体系结构: 各层作用及协议 分层 作用 协议 物理层 通过媒介传输比特,确定机械及电气规范(比特 Bit) RJ45、CLOCK、IEEE802.3(中继器,集线器) 数据链路层 将比特组装成帧和点到点的传递(帧 Frame) PPP、FR、HDLC、VLAN、MAC(网桥,交换机) 网络层 负责数据包从源到宿的传递和网际互连(包 Pack
计算机网络.md
计算机进化是一款模拟计算机进化史的游戏,升级您的计算机,以安装更多应用程序和新的操作系统。
面试 上午八点半后候场,然后九点开始面试。 有很多个面试官,但是全程只有一个面试官提问。我是java技术栈,自我介绍说了两个学习过程中的小项目,然后面试官就追着这两个小项目提问。因为我的有一个项目涉及到并发访问,但是是低并发,面试官就问了如何处理高并发场景。最后面试官说我简历上写了那么多技术,最熟悉的是哪一个,我回答了数据结构和算法,就问了我两个问题:1.图的存储方式;2.最短路径算法。 整个面试
时间:7.23 时长:40分钟 1.自我介绍 2.项目难点 3.aop是什么 4.aop的应用场景 5.事务注解 6.aop底层的实现 7.list集合去重 8.arraylist和linkedlist的区别 9.arraylist扩容机制及初始化机制 10.jvm相关 内存模型有哪些 11.锁相关 synchronized 12.synchronized加在方法上和代码块上的区别,加锁对象是谁
一面 问实习+科研 车道线检测的正负样本匹配方法 车道线检测的anchor-based方法的baseline是怎么做的 (LineCNN:从最底下的点发射出去,寻找线的proposal,需要最底下点的坐标以及三个边界的值,相对于RCNN的滑动窗口要快和轻便很多) 小目标检测有什么自己的思考 车道线检测任务的nms跟传统检测的nms有什么区别 手撕:找到第k大的数字快排,返回第-k个优化:找到第k个
面了大概一个小时,我自己生病了挺不舒服的,面完就睡了,所以面经有些地方可能记得不太全 1.自我介绍,边介绍边问 tableau中如何反转矩阵(行列交换),问这个是因为我写了我会tableau 我在介绍AB test和因果推断的时候,面试官说我们用不上这些,我们主要是做模型和算法 对实习中的ETL开发任务问了一下,然后问了一下Hive SQL熟练度 实习中是如何处理大规模的稀疏矩阵的 实习项目中的评
岗位JD看起来不像是数据科学家,而像算法工程师 一面: 深挖项目 介绍一下Bert模型 树形模型是如何计算每个特征的重要性的 对项目里用到的遗传算法深挖,问我是如何改进遗传算法的 特征选择中,前向选择和反向选择实现起来有什么区别,哪个效果更好 如何构建多模态模型 在多模态任务中,如果视觉模型的输出张量比语言模型的输出张量短很多,该进行什么操作 介绍一下transformer transformer
腾讯-base未知-广告算法 做题: 1. 求两个列表的交集,时间复杂度尽可能低,不可以用map和set 2. 求一个数在一个列表中的最大数 ner模型除了gp还有哪些,gp相比普通ner的优点 ner中如何去解决预测错误的问题,比如宝马三系标签是BIBI中的三系 什么是线性可分,逻辑斯蒂是线性还是非线性的 常用的ctr模型 deepfm的fm结构是啥 如果输入特征只有一维,做二分类任务,这个特征
首先面试体验真的很好,面试官先开的摄像头,并且告诉我开不开都可以,怎么舒服怎么来 总共有三个面试官,一开始就是正常的自我介绍(我还担心要英语),然后就全程问简历上的东西,问的也不是很深,可能是我的项目和他们组的方向不一样,全程面试官都很友好,也会讲一讲面试以外的事,比如我说了未来的规划以后,他也会给我一些建议,总之感觉面试难度并不大,只要把自己简历上的东西准备好就可以了 许愿有后续!
#软件开发笔面经# 二面和一面相比更是抽象,感觉字节系的面试官都是不愿意说话,具体体现在面试中就是多余的一个字都不说,项目也不怎么问,导致我一度以为一面挂了,也许这就是字节风格吧 项目: 介绍完之后又是象征性地问了问之前自驾工程侧的开发内容,参考一面 面试官直接表示了对算法侧的东西不太感兴趣,表示工程是这样的,算法那边只要实现就完事了,但是工程要考虑的就很多了 手撕: “给你40分钟做下这个啊”
问题内容: 我显然需要提高我在Java领域的知识,否则我注定要生成“看起来相同但不完全相同”的代码。 我已经有了基地…但是我正在寻找仅针对此的培训/课程。 谢谢 问题答案: 由Java Generics的一位设计师Philip Wadler撰写的书
问题内容: 我正在尝试通过Nehe指南来学习OpenGL并提高我的C ++技能,但是所有示例均适用于Windows,而我目前使用的是Linux。我真的不知道如何使事情在Linux下工作,并且已经移植到Linux的网站上的代码中还有很多未解释的代码(到目前为止,我唯一要做的就是工作就是SDL示例:http : //nehe.gamedev.net/data/lessons/linuxsdl/less
本文向大家介绍深度学习中的Batch Normalization?相关面试题,主要包含被问及深度学习中的Batch Normalization?时的应答技巧和注意事项,需要的朋友参考一下 答:BN就是在神经网络的训练过程中对每层的输入数据加一个标准化处理 传统的神经网络,只是在将样本x输入输入层之前对x进行标准化处理(减均值,除标准差),以降低样本间的差异性。BN是在此基础上,不仅仅只对输入层
本文向大家介绍深度学习调参经验?相关面试题,主要包含被问及深度学习调参经验?时的应答技巧和注意事项,需要的朋友参考一下 参数初始化,uniform均匀分布初始化,normal高斯分布初始化 数据预处理,进行归一化,有几种常用方法 梯度归一,算出来的梯度除以minibatch size 还有梯度裁剪,限制梯度上限,dropout防过拟合,一般sgd,选择0.1的学习了,衰减型的,激活函数选择relu