个人情况: 普通985计算机大三,有一点竞赛和科研但都非常一般,工程项目几乎全是学校的Toy project(基本所有面试官都问我为什么会投这个岗)。没为找工做任何准备(3.12才临时决定要试试看,3.13就投了几百份简历了),没背八股(实在背不进去),全靠以前专业课还没忘光的知识硬答。 素质、智商、性格、图表测试全部乱选(10分钟填完120分钟的卷子),笔试上机除了腾讯一题完全没思路0分外全满分
这个笔试鼠人拖了两次了,这是第三次不得不做了。 考试时间2h,从晚上7点到9点,在牛客考试平台。 总分100分,题型 ,20道单选,40分,3道编程题,分值分别为15分,20分,25分。 单选题考察范围很广,操作系统,linux命令,sql语句,java基础,集合,多线程。鼠人好多只能蒙。 编程题1:判断两个正整数x和y,能否有两个正整数m,n满足x + m * n = y;比较简单,鼠人a出来了
有没有上海美团组捞捞我QAQ 更新4.18HR面,骑行base只有北京,而我只想去上海 顺带问问大佬,美团骑行base哪里?当时填志愿一股脑把地点都选上了QAQ想去上海 许愿美团offer 3.30一面: 1. 拷打项目 2. 你会如何学习java? 3. 进程和线程的区别 4. 进程如何通信 5. 进程之间的消息 6. 从输入baidu.com到得到网页的全过程? 7. Tcp和Udp区别 8.
5道算法题,考试平台用的赛码网,考试时长2h,可以用本地IDE。鼠人ac2题,2题通过率0.27,1题通过率0.18,应该寄了。 第一题:小美想要奖学金,小美总共修习了 n 门课程,每门课程都有一个学分 ai ,而这门课小美的成绩是 bi 。小美所在的学校对于奖学金的评定非常简单:只要所有课程的均分不低于一个给定的标准 X,而且没有任何课程挂科,就可以申请奖学金。均分是指所有课程的成绩按照学分加权
大概三月初投的,约的3/31一面,一面之后两到三天约了二面,4/10刚面完,接下来就是漫长的等待了(据说流程要走四到五周)。 由于是去年才刚成立的子公司所以信息真的非常少,自己准备的时候也像是雾里看花,所以发个面经攒人品好了,给后来的兄弟姐妹们点个灯。 一面: 面试时长写的是15分钟左右。有大概五位面试官,其中一人负责主考,一位应该属于纯人事,另外的一些可能是行政或者领导层来站场的。全程都是主考人
面试前在牛客没搜到新国都产品运营相关的面经,昨天刚面完通过了一面,给大家一个参考 整体还是常规问题,有一些根据简历来问的,业务面全程20分钟左右,和面试官越聊越开心 每条产品线都有一个团队来运营,团队由产品、运营、开发组成。不同面试官看重的点不一样,我遇到的比较注重方法论总结,还是应该多看看案例 一面问题(25min 业务面) 1.自我介绍 2.怎么理解产品运营 3.有没有研究过运营案例、方法论
如果不是去官网查了,还抱着一丝期望,知乎是真的狗,连个拒信都不发,面试官自己不开视频,还要让我开! 面的岗位是会员内容运营,盐选故事方面,自身第二段实习经历非常匹配,所以收到面试通知 一面问题(20min 业务面) 1.自我介绍 2.深挖第二段实习经历(比较对口) 3.自己会写sql吗 4.实习公司什么类型小说卖的好,书籍数据好的是哪一类书 5.你觉得这类型为什么火 6.你平时喜欢看什么类型的小说
我正在使用spark structured streaming(2.2.1)来消费来自Kafka(0.10)的主题。 我的检查点位置设置在外部HDFS目录上。在某些情况下,我希望重新启动流式应用程序,从一开始就消费数据。然而,即使我从HDFS目录中删除所有检查点数据并重新提交jar,Spark仍然能够找到我上次使用的偏移量并从那里恢复。偏移量还在哪里?我怀疑与Kafka消费者ID有关。但是,我无法
我正在运行一个spark作业,流上下文每60秒运行一次。问题是一批处理时间太长(由于计算和保存RDD和Parquet到云存储),一批无法在1分钟内完成。它结束于下一批继续进入并成为活动的(状态=处理)。过了一段时间,我有10个活动批处理,而第一个已经完成。结果,它明显减慢,没有一批能够完成。是否存在严格限制一次活动批处理的数量为1。 多谢了。
阅读 https://github.com/apache/spark/blob/master/mllib/src/main/scala/org/apache/spark/mllib/feature/Word2Vec.scala 这种实现的文字是谷歌Word2Vec的一个端口 https://code.google.com/archive/p/word2vec/ 这是“向量空间中单词表示的有效估计”
我在使用 Spark 流式处理示例时遇到问题:https://github.com/apache/spark/blob/master/examples/src/main/scala/org/apache/spark/streaming/examples/HdfsWordCount.scala 当我尝试使用 SBT 启动它时 我有这个例外 我确定该目录存在于Hadoop fs上,我甚至在那里复制了一
阅读akka-stream的留档,我不太清楚消息的顺序以及是否可以强制执行。让我用我为聊天服务器编写的一小段代码来设置我的问题的上下文。 为了让事情变得简单,我使用了这个流的形状和一个非常简单的源和汇。像这样的-- 现在,我的担忧来了。终端中打印的事件顺序根本不正常。我不知道该怎么解决。这是我得到的结果-- 输出中缺少第一条消息。消息似乎是在打印之前发送的。 我尝试通过使用(我在上面的代码中对此进
下面的相同代码显示了两个源函数-一个产生0-20的偶数,另一个产生1-20的奇数,连接在一起以输出所有两个流的并集并将它们打印出来。 示例代码: 输出 Q1. Flink应该将连接流中最先到达的项目发送到协处理函数。然而,我们在这里看到的是,数字“2”是以源函数的方式在数字“11”之前生成的,但数字“11”是在“2”之前发送给协处理函数的。为什么会这样? 第二季度。 连接流中无背压发生。源函数一直
脚本是一个命令一个命令顺序执行的。 Selenese 本身不支持条件语句(if - else, 等)或循环迭代(for, while, 等)。没有流程控制也可以制作很多有用的测试案例。然而,对于动态内容的功能测试,可能涉及到多个页面,编程逻辑通常是必要的。 如果必须使用流程控制,有以下三种解决方案: 使用 Selenium RC 运行脚本结合客户端库,如:Java 或 PHP 库,利用编程语言的流
🕒 岗位/面试时间 交行11.21 20分钟 👥 面试题目 1.知不知道交行存款有多少(难崩) 2.String,StringBuilder,StringBuffer区别 3.手撕反转字符串 4.项目亮点说说 5.springcloud有哪些组件 6.spring设计模式有哪些 7.代理模式是什么 8. 事务是什么 9. mysql怎么实现事务 10. 项目多少人 11.哪里人 12.反问,只