一面 40min 0906 没有任何八股,全程讨论抖音数仓架构。重点于日常业务与架构优化。 二面 30min 0915 没有任何八股,全程围绕一个问题展开:数仓未来出路。答较烂,最后答案大约是脱离数仓的固有边界,向上走往业务靠拢 吐槽一下这个答案。在一般的大厂,如果划定了公共层与应用两个组,那做公共层是不能也没法向业务方对接的,因为业务方是去找应用同学承接业务。如果公共层数仓同学去接业务,不仅没有
在智联招聘上搜索“数据”找的这个岗位,当时无脑直接投了,后面发了笔试测评,笔试一堆网络和linux题就觉得不对劲了,很快给了面试,才重新回去看岗位描述,发现是一个偏运维和售后的岗位,面试时间也不冲突,就面了一下。 一面 面试时间:30min 自我介绍 面试官介绍岗位,谈谈对技术支持岗位的理解? 知道公司的一些产品和业务吗? 大数据集群是自己搭建的吗?是用的云服务器还是虚拟机? 虚拟机装linux的
昨天面的,三个面试官。 开始就是自我介绍。 1、第一个面试官问了问我一个数学建模的题目。我自己提了一嘴lstm,问了一下三个门 2、问了个sql题目,id不一样,邮箱有重复,怎么选出来,说用pandas也可以,问我pandas,不过我确实不常用pandas就没答出来 3、场景题,有通讯时间、地点、上网记录,如何判断哪些人是学生。 第二个问我懂不懂kafka、Hbase这些,我说不懂,就结束了。 感
我有一个html页面和一个带有Thymeleaf模板引擎的java应用程序,我正在寻找一个教程,向服务器发出请求,并根据响应仅呈现页面的一部分。 此时,我有一些按钮具有相同页面的链接,带有不同的参数,我的div是基于属性文章列表创建的(我从服务器接收基于button_id) 超文本标记语言: Java: 我希望我的按钮处理我的索引控制器,只更改文章的div,而不是刷新整个页面。 我尝试过使用aja
给自己攒攒人品~ 个人背景:两段实习 其中一段小厂b端产品 一面:10.6下午电话面试 共用时26mins 1.自我介绍 2.怎么理解需求分析工程师这个岗位? 3.为什么会选择这个需求分析工程师岗位? 4.入职本公司,怎么规划自己的成长方向? 5.你了解cvte吗? 6.课余之外的学习 提升?(回答会去人人都是产品经理网站上看文章) 人人都是产品经理上看过的哪些文章比较深刻? 7.对哪些专业课感兴
详细介绍竞赛和项目,数模题目和思路。面试官对我的竞赛比较感兴趣,问了很多细节。 手撕:力扣179. 最大数。面试官将题目发到聊天里,自己粘贴到本地 idea,核心代码模式,自己写测试用例,说思路,不用提交到力扣。 大数据 + Java 八股:Spark、Flink、Kafka、GC、JUC 等。问一个技术你熟悉多少,然后自己阐述,中间面试官会根据你说的提出一些具体的问题。 结果:hr 马上通知一面
问题内容: 为什么以下代码无法编译 但是以下确实可以编译 在这两种情况下,我不只是将整数值分配给char吗? 问题答案: 可以将A 分配给不带强制转换的,因为这是扩大的转换。反之,将a 转换为a 需要转换,因为这是缩小的转换。 另请参见JLS。第5章。转换和升级。
本文向大家介绍C++中关于[]静态数组和new分配的动态数组的区别分析,包括了C++中关于[]静态数组和new分配的动态数组的区别分析的使用技巧和注意事项,需要的朋友参考一下 本文以实例分析了C++语言中关于[]静态数组和new分配的动态数组的区别,可以帮助大家加深对C++语言数组的理解。具体区别如下: 一、对静态数组名进行sizeof运算时,结果是整个数组占用空间的大小; 因此可以用sizeof
对于下面的代码:(1)“main”调用函数“f1”。(2)函数“f1”进行一些数字运算;使用malloc创建一个“char”数组,然后将数组的指针返回到main(无需取消分配-free-数组)。 我有3个与此案例相关的问题:(1)我假设,虽然函数“f1”已经终止,但分配的char数组仍然保持分配状态,直到主程序完全终止。也就是说,分配的内存仍然属于main,没有其他进程可以从外部访问(我的意思是干
我确实遵循了如何在Cosmos DB中查找逻辑分区计数和大小的答案,这导致我选择了“https://docs.microsoft.com/en-us/azure/cosmos-db/use-metrics#decision-the-aphultis-distributions”。然而,该报告不再出现在Azure Portal上。我得到的只是“通过贯穿和存储的顶级逻辑分区键”。我想要一个我的所有“逻
我有一个包含100个分区的df,在保存到HDFS之前,我想减少分区的数量,因为拼花文件太小了( 它可以工作,但将过程从每个文件 2-3 秒减慢到每个文件 10-20 秒。当我尝试重新分区时: 这个过程一点也不慢,每个文件2-3秒。 为什么?在减少分区数量时,合并不应该总是更快,因为它避免了完全洗牌吗? 背景: 我将文件从本地存储导入spark集群,并将生成的数据帧保存为拼花文件。每个文件大约100
神策数据3.7 上午11点,30分钟左右结束。 面试官是3年神策就职经验-数据智能部的小姐姐(好像是个组员) 🐡写在前面:是我收到的第一场面邀和参加的第一场面试,结果就是:惨败。虽然只过去了一周左右的时间,但经历了四场面试的我再回看第一场的头铁,有点搞笑还有点蠢,好在有勇气开始,我永远热爱行动力! 🧚♂️🧚♂️🧚♂️ 1.自我介绍---我没准备自我介绍这部分,简单说了本科+研究生院校
之前一直在牛客找面经,对自己帮助也很大,意向了也写一篇,感谢! 一面: 1、介绍项目 2、ODS和DWD怎么区分,分别存什么样的数据 4、跨数据域问题,怎么做的 5、有哪些宽表,对应什么指标和业务过程 6、留存率、漏斗分析等,是怎样的开发过程,后续使用 7、任务性能优化或代码方面的优化 8、hive on spark和spark区别,计算时间上有差异吗 9、kylin为什么快 10、两道SQL
我有一个大的csv文件,其中包含以下格式的数据。 CityId1,名称,地址,........., zip 城市2、姓名、地址等,。。。。。。。,拉链 CityId1,名称,地址,........., zip ......... 城市名称、姓名、地址等,。。。。。。。,拉链 我正在对上面的csv文件执行以下操作: > df1。groupBy($“cityId”)。agg(收集列表(结构(cols.
问题内容: 我有一个大小为300000的数组,我希望它将其分成2个相等的部分。这里有什么方法可以用来实现这个目标? 它会比for循环操作更快还是对性能没有影响? 问题答案: 您可以使用。