1.自我介绍,总共20分钟吧 2.狂问基础八股,我太菜了😅感觉面试官不想面了 3.在线店铺点评项目做的目的是啥 4.中断触发条件 5.tcp 如何保证消息的可靠性传输 6.mysql 中sql 语句慢了怎么检查 7.redis 数据结构 8.leecode 刷了多少道?两数之和的解题思路 9.平衡二叉树和红黑树的区别 10.优先级队列哪些数据结构可以实现 11.kafka 的数据传输给谁接收?报
8.23投递 8.23测评(这个测评需要提前练习) 9.5笔试(笔试做的很差,当天晚上家里特别吵) 9.12一面(30min,第二天约二面) 9.15二面(16min) 一面: 小哥人很好,虽然我很菜好多答不上来,但还是很温柔引导我 主要还是问实习和项目, 重点会放在redis、kafka和mysql上,可以多准备下,基本没问我八股(也可能是我记不清了) 二面: 面试官态度很敷衍,哎 问了下了解k
求一个oc 1.自我介绍 2.为什么选择顺丰 3.关于跨考的问题 4.描述自己的性格 5.投了哪些公司 6.能接受的工作地点 7.期望薪资 8.反问
上次顺丰考试时间不太合适,就推迟到下一次了 岗位:计算机视觉工程师 笔试类型,30道选择题,2道编程题 选择题包含得内容都很杂,可能是选择岗位的问题(记得细分岗位选的是基础模型什么的),反而基本没考CV的知识。 中间系统崩了,有半个小时没动,恢复之后,居然不给我补时间。 编程题2道都算是easy难度。 1.第一道是搬砖,人手搬还有用车辅助搬,记录所需最短的时长。(中间可能是系统出错的问题,本来我觉
cv nlp两个岗都发了 一个时间段里自定时间做 30 + 2 算法题不难 n m 相乘 每三个输出 补前导零 判断函数命名法 驼峰转下划线 下划线直接出 都不是出给定字符串 ak了 #顺丰# #笔试# 唉 都十月了 才面两个 其他的都没消息 理想一面完也没发测评 也都没新的消息 唉 秋招 唉 菜b
事件,事件捕获 事件冒泡 事件委托 this指向问题 call apply bind区别以及原理 原型链 __proto__与prototype的区别 函数身上有__proto__吗 对象实例化的过程(new操作符的实现原理) 原型链继承怎么实现,有什么缺点 继承的方式有哪些 class继承 http1.1 http2.0的区别 做过的项目 如何封装一个组件,大致思路是怎样的(我有个组件库的项目)
1. 为啥学习golang语言 (好多人问,我真的不知道怎么说出我内心的答案) 2. 看过那些golang 底层实现? chan,提了一嘴 select 实现 接下来基本都是闲聊
主要按照简历来问,只问java相关 包括java基础,juc,jvm还有项目,中间件的知识,凉了。希望我后续加强基础知识害
使用Python 3.6在Amazon EMR集群(1个主节点,2个节点)上运行Spark 2.4.2 我正在Amazon s3中读取对象,将其压缩为拼花格式,并将其添加(附加)到现有的拼花数据存储中。当我在pyspark shell中运行代码时,我能够读取/压缩对象,并将新的拼花文件添加到现有的拼花文件中,当我对拼花数据运行查询时,它显示所有数据都在拼花文件夹中。但是,当我在EMR集群上的步骤中
我有一个c#应用程序,可以创建拼花地板文件并将其上载到远程HDFS。如果我使用scp将文件复制到安装了HDFS客户端的目标计算机上,然后将文件“HDFS放入”HDFS中,spark可以正确读取文件。 如果我使用curl针对webhdf服务从客户端应用程序直接将文件上传到HDFS,则在尝试读取拼花文件时会从Spark收到以下错误: df=sqlContext。阅读parquet(“/tmp/test
将现有应用程序从Spark 1.6移动到Spark 2.2*(最终)会导致错误“org.apache.spark.SparkExctive:任务不可序列化”。我过于简化了我的代码,以演示同样的错误。代码查询拼花文件以返回以下数据类型:“org.apache.spark.sql.数据集[org.apache.spark.sql.行]”我应用一个函数来提取字符串和整数,返回字符串。一个固有的问题与Sp
假设一个字符串的格式如下: 我想提取: 什么正则表达式可以用于这样的提取? 我被这个困住了:
问题内容: 假设两个类为ClassA和ClassB。假设ClassB依赖于ClassA。在配置文件中,如果将ClassA的范围定义为单例,将ClassB的范围定义为Prototype,那么每次创建ClassA的bean实例时,ClassB的实例会发生什么?每次返回ClassA实例时,将返回相同的ClassB实例还是创建新实例? 谢谢!!! 问题答案: 如果ClassB是原型,则始终创建ClassB
问题内容: 我正在使用logback库在spring boot项目中实现日志记录。我想根据我的spring配置文件(属性“ spring.pofiles.active”)加载不同的日志记录配置文件。我有3个文件:logback-dev.xml,logback- inte.xml和logback-prod.xml。我正在使用Spring Boot版本1.2.2.RELEASE。 如您在Spring
问题内容: 将@Autowired注释到属性或在设置器中进行注释有什么区别? 据我所知,它们都具有相同的结果,但是是否有任何理由要使用一个? 更新(更简洁) 两者之间有区别吗 还有这个 问题答案: 使用注释,您不需要设置方法。一旦您的bean的构造函数完成了分配/创建对象的工作,Spring便会扫描该注释并注入您注释过的对象实例。 如果您有setter且仍在使用xml config,则可以显式设置