#秋招# #面经# #烽火星空# 时间:9.22 14:00 1、自我介绍 2、Java访问权限 3、Java数据类型 4、说一下HashMap 5、说一下线程安全的集合 6、说一下hashMap扩容机制 7、创建线程的几种方式 8、说一下sql注入,怎么解决 9、说一下mysql的外连接 10、介绍一下SpringMVC的执行过程 ……还有几个忘记了 11、项目相关 redis、nginx、li
1、自我介绍 2、选一个项目介绍下 3、订单的用户信息怎么存的(解释了半天还是没懂他到底要问的什么意思) 4、微服务是分开部署吗 5、跨域问题如何解决? 6、项目有没有跑通过 7、Spring IOC和DJ 8、多线程怎么实现,他们的区别 9、有没有用过多线程做过什么东西?循环打印 10、线程安全问题的原理 11、http和https的区别,优缺点
一面 2022.10.14 自我介绍 项目 进程与线程的区别 TCP超时重传 C++与C的区别 struct与class的区别 c++的设计模式 TCP3次握手 快排原理 vector 面完秒发二面通知 #秋招##校招##烽火星空#
安全共识创业公司,全程没有问网络,操作系统... 自我介绍的时候介绍到了自己的项目,展开项目进行追问. 1. 项目点赞功能设计 2. 项目接口设计 3. 数据库缓存一致性问题 4. 大量并发数据与一致性问题 5. CurrentMap问题 6. Go锁问题 7. redis分布式锁问题 口述算法题 1. 岛屿问题 2. 二叉树的层序遍历 HR问题 1. 对自我的评价 2. 怎么学习的 3. 自己的
烽火通信一面 自我介绍 为什么会选择武汉 软件测试的基本流程 黑白盒测试异同点 黑盒方法,白盒方法 Osi七层协议 网页请求涉及到的协议 自动化测试了解程度 加班和出差的考虑? 反问 岗位职责要求 二面 凉了 群面 群面真的对我来说难一些,听了大家的自我介绍感觉自己是个菜鸡,没自信了,群面持续了一个小时,是一位领导面试的 自我介绍 项目介绍 项目提问 对烽火的理解 对测试的理解 针对你的回答给出问
我在Scala/Spark中有一个批处理作业,它根据一些输入动态创建Drools规则,然后评估规则。我还有一个与要插入到规则引擎的事实相对应的输入。 到目前为止,我正在一个接一个地插入事实,然后触发关于这个事实的所有规则。我正在使用执行此操作。 seqOp运算符的定义如下: 以下是生成的规则的示例: 对于同一RDD,该批次花了20分钟来评估3K规则,但花了10小时来评估10K规则! 我想知道根据事
我用的是Phil Sturgeon的 KEYS如何工作?有一个名为KEYS的表定义如下: 在名为KEYS的类中有如下方法: 由于这个软件包并没有很好的文档记录,而且我是API新手,所以上面的工作原理是什么?例如,我是否生成一个密钥并将其永久插入数据库。为什么会有删除方法? 从我的阅读资料来看,这听起来像是我为应用程序生成了一个初始的X-API-KEY,然后当客户端使用资源时,我会使用KEYS类将X
//控制器 函数搜索($search=0){ } //模型函数search_employee($search ch雇员){$sql="选择清空代码,名称来自spmm_employee_info其中名称 '%" . $search ch雇员 . "%'"; $查询=$this- 当我尝试搜索并单击另一个页面时,它会显示表spmm_employee_info上的所有数据。所有我想要的是显示所有与搜索相
我正在从一个消息应用程序收集数据,我目前正在使用Flume,它每天发送大约5000万条记录 我希望使用Kafka,使用Spark Streaming从Kafka消费并将其持久化到hadoop并使用impala进行查询 我尝试的每种方法都有问题。。 方法1-将RDD另存为parquet,将外部配置单元parquet表指向parquet目录 问题是finalParquet.saveAsParquetF
每次使用cassandra connector在spark中运行scala程序时都会出现此错误 这是我的程序
想改进这个问题吗 通过编辑这篇文章,更新问题,以便用事实和引文来回答。 我们需要在代码中编写一些日志 日志是通过网络请求写入的,该请求会记录一些信息(记录器是Http API模块),但如果API中出现异常,我们不想中断整个流程。 我不想使用
试图读取一个空的镶木地板目录,得到这个错误 无法指定拼花地板的架构。必须手动指定 我的代码 尝试处理scala尝试和定期检查空目录 任何想法
我在运行下面我写的SPARK代码时出错了。我试图根据键找到所有向量的总和。每个输入行以键(整数)开始,然后是127个浮点数,这是一个具有127个维度的单个向量,即每一行以键和向量开始。
我遵循火花流水槽集成的指导。但我最终无法获得任何事件。(https://spark.apache.org/docs/latest/streaming-flume-integration.html)谁能帮我分析一下?在烟雾中,我创建了“avro_flume.conf”的文件,如下所示: 在文件中,123.57.54.113是本地主机的ip。 最后,根本没有任何事件。 怎么了?谢谢!
我正在尝试使用python库Tweepy来传输twitter数据。我设置了工作环境,谷歌了一下这些东西,但是我不知道它们是如何工作的。我想在python (tweepy)中使用spark streaming(DStream-Batch processing)。我至少经历了以下环节: < li >如何获取tweepy中某个位置的特定标签的推文? < Li > http://spark . Apach