当前位置: 首页 > 面试题库 >

Hadoop的备份机制了解吧?请问怎么做到数据保持一致?

张锐藻
2023-03-14
本文向大家介绍Hadoop的备份机制了解吧?请问怎么做到数据保持一致?相关面试题,主要包含被问及Hadoop的备份机制了解吧?请问怎么做到数据保持一致?时的应答技巧和注意事项,需要的朋友参考一下

参考回答:

Hadoop备份机制:该方案利用Hadoop自身的Failover措施(通过配置dfs.name.dir),NameNode可以将元数据信息保存到多个目录。通常的做法,选择一个本地目录、一个远程目录(通过NFS进行共享),当NameNode发生故障时,可以启动备用机器的NameNode,加载远程目录中的元数据信息,提供服务。

Hadoop中有个重要的工具就是HDFS分布式文件系统,那么在这种分布式环境下的数据一致性是如何保证呢?

HDFS中,存储的文件将会被分成若干的大小一致的block(最后一个block的大小可能较小)分布式地存储在不同的机器上,那么就必须有一个角色来对这些数据进行管理,也就是NameNode节点,而存储这些block的结点我们称为DataNode,NameNode是用来管理这些元数据的。 下面讲一个例子,在客户端上传文件时,NameNode如何保证数据的一直性。客户端上传文件时,NameNode首先往edits log文件中记录元数据的操作日志。与此同时,NameNode将会在磁盘做一份持久化处理(fsimage文件):他跟内存中的数据是对应的,如何保证和内存中的数据的一致性呢?在edits logs满之前对内存和fsimage的数据做同步(实际上只需要合并edits logs和fsimage上的数据即可,然后edits logs上的数据即可清除) 而当edits logs满之后,文件的上传不能中断,所以将会往一个新的文件edits.new上写数据,而老的edits logs的合并操作将由secondNameNode来完成,即所谓的checkpoint操作。 那么什么时候checkpoint呢? 一般由两种限制,一个是edits logs的大小限制,即fs.checkpoint.size配置,一个是指定时间,即fs.checkpoint.period配置 当然根据规定,大小的限制是优先的,规定edits文件一旦超过阈值,则不管是否达到最大时间间隔,都会强制checkpoint。

 类似资料:
  • 本文向大家介绍hadoop 的 namenode 宕机,怎么解决相关面试题,主要包含被问及hadoop 的 namenode 宕机,怎么解决时的应答技巧和注意事项,需要的朋友参考一下 解答: 先分析宕机后的损失,宕机后直接导致client无法访问,内存中的元数据丢失,但是硬盘中的元数据应该还存在,如果只是节点挂了,重启即可,如果是机器挂了,重启机器后看节点是否能重启,不能重启就要找到原因修复了。但

  • 本文向大家介绍SSR解决了什么问题?有做过SSR吗?你是怎么做的?相关面试题,主要包含被问及SSR解决了什么问题?有做过SSR吗?你是怎么做的?时的应答技巧和注意事项,需要的朋友参考一下 "你是怎么做的?" 废话,能怎么做,看着文档指引去做,搭 webpack,nodejs

  • 如图,这个难道不能删除七牛云上传的备份文件吗? 如果能,那是我那里没设置对?

  • 数据备份到7牛云了,我从7牛云下载回数据,上传到那个目录还原

  • 1、淘汰缓存 数据如果为较为复杂的数据时,进行缓存的更新操作就会变得异常复杂,因此一般推荐选择淘汰缓存,而不是更新缓存。 2、选择先淘汰缓存,再更新数据库 假如先更新数据库,再淘汰缓存,如果淘汰缓存失败,那么后面的请求都会得到脏数据,直至缓存过期。 假如先淘汰缓存再更新数据库,如果更新数据库失败,只会产生一次缓存穿透,相比较而言,后者对业务则没有本质上的影响。 3、延时双删策略 如下场景:同时有一

  • 我遇到的问题是fopen()、fwrite()和fclose()函数。这是我收到的错误: 警告:fopen(/db-backup-salisbury_school-20121128-021138.sql)[function.fopen]:无法打开流:在C:\inetpub\wwwroot\omarejaz\sbyschool\q5中的权限被拒绝。php在线177 警告:fwrite()要求参数1为