以为是做大数据分析早上起来看了半天项目,结果面试问得是机器学习和数据建模竞赛 1 自我介绍 2 介绍一下数学建模比赛(太早了我都忘了) 3 介绍用了什么算法 优化还是分类balabala 4 用什么语言写的 你在项目中的工作是什么 5 看你的描述你好像比较擅长机器学习 然后就给我看代码 让我说他这个是干啥的 没太看懂 说的很混乱 后面面试官都不想听了 然后就挂了估计 #数据人的面试交流地# #如何
自我介绍 项目介绍:(国模详细介绍、面对的困难) 实习介绍:实习中有没有做一些本职之外的有趣的事情。怎么样对数据预处理,有没有什么提炼的策略。 nlp介绍 用户画像怎么做的 sql窗口函数三个 反问:业务、实习时间 面试官是小姐姐,感觉还挺好的:) 等一个结果
1.自我介绍问项目细节。说亮点,没啥问的。 2.考察map、shuffle、reduce执行过程 3.考察sql 语句逻辑上执行过程,出个题引导。 4.问string常量池三个场景,串相加判断是否相等 5.最后只留10分钟给我做算法题,蛇形矩阵。。 就问了数据库Java几个概念。啥八股文也没问,项目随便问了下。KPI面吧。最后问了下只有4个hc。。。。。
1. 前言 在正式的小节学习之前,我们先来探讨一个问题,你究竟是否有必要使用类似于MongoDB这样的文档性数据库? 这些年,NoSQL以及NewSQL都刮起过一番浪潮,而SQL终究还是岿然不动,不仅没有被打垮,反而变得更加大。PostgreSQL号称世界上最先进的关系数据库,很早的时候便已经开始支持文档性数据类型了,而且在9.3以后的每一个版本,都提供了更多的新特性。 PostgreSQL 最重
大数据面临数据规模大、数据变化快、数据类型多、价值密度低4个挑战,而传统的数据可视化工具难以应对。传统的数据可视化工具仅仅将数据加以组合,通过不同的展现方式提供给用户,用于发现数据之间的关联信息。近年来,随着云和大数据时代的来临,数据可视化产品已经不再满足于使用传统的数据可视化工具来对数据仓库中的数据抽取、归纳并简单的展现。新型的数据可视化产品必须满足互联网爆发的大数据需求,必须快速的收集、筛选、
统计图表是最早的数据可视化形式之一,作为基本的可视化元素仍然被广泛的使用。对于很多复杂的大型可视化系统来说,这类图表更是作为基本的组成元素而不可或缺。同时,随着大数据可视化渲染技术的发展,涌现出很多优秀的开源图表库,例如ECharts、highcharts、LoongChart等,可制作更直观漂亮的图表。 表达内容 图表类型 描述 项目 柱状图/条形图(column/Bar) 表现多个类目数据的大
9.11 一面 35min: 1.自我介绍 2.专业介绍 3.Mysql索引 4.Mysql事务并发导致的问题 5.Mysql两种引擎的对比 6.Hadoop运行模式 7.job tracker 作用 8.Hdfs小文件问题 9.Hadoop调度器 10.Hadoop脑裂出现的原因 11.Kafka 怎样保证不丢数据 12.Flink task和subtask 的区别 13.并行度和slot的关系
面试官nice到想写第一次面经呜呜(可能被压力面pua惯了,第一次遇到鼓励型面试 1.自我介绍 2.介绍一个最相关的项目经历 3.项目经历深挖:用的技术和方法,最后得到的具体结果(感觉是想看是不是水的) 项目有用到文本聚类方法,问了具体的流程以及为什么用无监督不用有监督 还有在一些不太相关的项目当中的角色 4.怎么理解储能和电动汽车 5.对于数据运营岗位的认识 6.个人方面:对宁德的了解,对于公司
提前说下感受,整体感觉还行但是面试官不是我这个方向的,就导致全程问我的是开放性问题但是我全都不会 ( 打比方说 是你你会怎么完成这个项目, 1.首先自我介绍并介绍下项目(没细问 2.多模态有没有了解(我只了解一丢丢 3.简单问下论文(目前还没中 接下来都是我不会的问题 4.如果要你来可以参与到曹操出行,可以做哪些项目 (我是做NLP方向的 5.再问还可以做那些,我说订单的需求量预测之类的(还好前一
面试时间43分钟 一个很和善的女面试官,写代码还帮着debug 自我介绍 项目为什么用localstorage存储数据,和cookie的区别是什么 使用localstorage存不会导致验证安全问题吗 react函数组件和类组件的区别 hooks本身有没有什么优化方法 react router hashrouter和historyrouter的区别 改变this指向的方法 bind为什么永久改变了
个人信息 自我介绍 最大的优点 最大的缺点 核心竞争力 未来五年的职业规划 他人对你的评价 工作中遇到的最大困难 理想的上级类型 对公司和产品的了解 应聘该岗位的原因 能为公司带来的价值 最快入职时间 期望薪资有什么 反问
1h 面试官感觉是个大佬级别人物,battle了40min毕设,理解了项目的细节 sql20min,求某天每个城市所有来访者的人均浏览内容点击量 1.顺带问了timestamp定义细节 2.timestamp和date为什么需要同时存在 3.优化,本身机制优化 4.优化,谓词下推 5.优化,聚合函数结合律子查询下推 反问前辈对大数据的理解
模块化设计 根据业务场景,将业务抽离成独立模块,对外通过接口提供服务,减少系统复杂度和耦合度,实现可复用,易维护,易拓展 项目中实践例子: Before: 在返还购APP里有个【我的红包】的功能,用户的红包数据来自多个业务,如:邀请新用户注册领取100元红包,大促活动双倍红包,等各种活动红包,多个活动业务都实现了一套不同规则的红包领取和红包奖励发放的机制,导致红包不可管理,不能复用,难维护难拓展
之前一直在牛客找面经,对自己帮助也很大,意向了也写一篇,感谢! 一面: 1、介绍项目 2、ODS和DWD怎么区分,分别存什么样的数据 4、跨数据域问题,怎么做的 5、有哪些宽表,对应什么指标和业务过程 6、留存率、漏斗分析等,是怎样的开发过程,后续使用 7、任务性能优化或代码方面的优化 8、hive on spark和spark区别,计算时间上有差异吗 9、kylin为什么快 10、两道SQL
我正在使用hikari cp和spring boot应用程序,它有超过1000个并发用户。我已经设置了最大池大小- 当我使用 它显示的最大值为300,等于池大小。它永远不会增加超过最大池。这是故意的吗?我认为池大小意味着保持连接,以便在将来需要数据库请求时可以重用连接,但在需要时可以进行更多连接。 另外,当我删除max pool配置时,我会立即得到- HikariPool-0-连接不可用,请求在3