一面面试官移动端,挺好的不问我不会的,问的都是一些通用的常规的八股。 1、自我介绍 2、高通平台冷启动流程,java阶段怎么启动。 3、为什么会有分页机制,解决了什么问题。 4、为什么会出现死锁问题,怎么解决死锁问题。 5、了解哪些网络协议。 6、应用层数据包是怎么一步一步往下传的。 7、怎么用udp实现可靠连接。 8、说一下websocket是干什么的。 9、说一下设计模式(说了两种单例模式)
问了大量vue2的相关知识以及原生js的知识,希望可以接到二面通知
自我介绍 介绍实习经历 这几段实习给你带来了什么成长? 如何平衡学业和实习? 实习中遇到的最大困难是什么?你是如何解决的? 你觉得为什么自己适合产品岗? 你的优缺点 反问 然后是测评和笔试,测评不用开摄像头#非技术面试记录#
1.自我介绍 2.介绍项目的逻辑,各个模块 3.项目难点,你是怎么解决的 4.讲讲永生永世土木人的心路历程,怎么跨到这里的,开始讲故事 5.那你压力很大的时候是如何解决的?我现在就压力很大,顺带讲讲爱好 6.对工作地点的看法 7.理想的工作状态是什么样子的? 8.父母怎么看你未来的规划? 9.反问 10.想起来还问如果你被挂了是什么原因?当然是我菜了。。那你为什么菜呢?菜在哪里? 顺丰的hr真的太
条款13: 初始化列表中成员列出的顺序和它们在类中声明的顺序相同 顽固的pascal和ada程序员会经常想念那种可以任意设定数组下标上下限的功能,即,数组下标的范围可以设为10到20,不一定要是0到10。资深的c程序员会坚持一定要从0开始计数,但想个办法来满足那些还在用begin/end的人的这个要求也很容易,这只需要定义一个自己的array类模板: template<class t> class
2022.09.15 15:30 30分钟 1.Java中常用的集合有哪些 2.list set map的区别 3.Java类的初始化过程 4.Java对象的wait方法,锁,说一说 5.垃圾回收介绍一下 6.双亲委派模型 7.spring的aop实现原理,有哪些应用场景 8.数据库的索引什么时候失效 9.如果一个数据库表中,是支付信息,已支付完成的信息不再改动,主要是查询操作。未支付完成的信息会
线下面试就比较轻松 二面技术面+hr面 隔了两三天收到资料审核 发面经攒人品希望能有offer 技术面问的很广但是不深,大概半个小时无手撕 黑盒测试 对测试的理解 docker原理 深度学习优化算法(虽然我简历里有提到,但是第一次被问,我是测开啊喂!!凭记忆说了两三个) JVM 遇到困难怎么处理 个人优点 觉得自己入职后最需要学习的是什么 了不了解企业文化怎么看待和理解 如何学习新知识多久能学好j
TL:8.2投递8.16素质9.2笔试9.9一面 还是可可爱爱的女面试官声音也很温柔人也很和善 自我介绍 然后问了一下怎么测试自己的项目,对项目本身并没有过问 然后遍历了八股 我们先来问问python吧:深拷贝浅拷贝,常用的库,进程和线程 我们再问问计算机网络吧:http和https的区别,1-5状态码 我们再来问几个数据结构:set和字典的区别,快排的过程 我们再来问几个数据库吧:问了四个joi
在此RDD上应用筛选器,并将相关行的范围移出:filter 在此RDD上应用筛选器,并将相关行的范围移出:filter 加入RDD:join 应用map阶段计算投资:map 应用GroupBy阶段根据所需视图对数据进行分组:GroupBy 应用map阶段来按照上述步骤中实现的分组聚合数据(例如跨时间段查看数据),并根据需要收集的resultset创建新对象:map 收集结果:收集 因此,如果用户想
我在Scala/Spark中有一个批处理作业,它根据一些输入动态创建Drools规则,然后评估规则。我还有一个与要插入到规则引擎的事实相对应的输入。 到目前为止,我正在一个接一个地插入事实,然后触发关于这个事实的所有规则。我正在使用执行此操作。 seqOp运算符的定义如下: 以下是生成的规则的示例: 对于同一RDD,该批次花了20分钟来评估3K规则,但花了10小时来评估10K规则! 我想知道根据事
利用JDK~6实现了一种阴基音检测算法 我想在没有javax的Android API 10上实现基音检测。声音YIN使用的样本包。API 10确实有RecordAudio,它可以通过读取(字节/短[]int pos,int size)传递字节或短字符。 什么可以优化性能?A) 将Android 1.5的RecordAudio扩展为A floats to YIN(我的首选方法),或B)从Record
Spark v2.4 <代码>火花。sql。调试。此处定义了MaxToString字段https://github.com/apache/spark/blob/master/sql/catalyst/src/main/scala/org/apache/spark/sql/internal/SQLConf.scala 不知何故,它变成了在https://github.com/apache/spark
我正在从一个消息应用程序收集数据,我目前正在使用Flume,它每天发送大约5000万条记录 我希望使用Kafka,使用Spark Streaming从Kafka消费并将其持久化到hadoop并使用impala进行查询 我尝试的每种方法都有问题。。 方法1-将RDD另存为parquet,将外部配置单元parquet表指向parquet目录 问题是finalParquet.saveAsParquetF
每次使用cassandra connector在spark中运行scala程序时都会出现此错误 这是我的程序
试图读取一个空的镶木地板目录,得到这个错误 无法指定拼花地板的架构。必须手动指定 我的代码 尝试处理scala尝试和定期检查空目录 任何想法