当前位置: 首页 > news >正文

云南网站建设熊掌号泉州seo按天收费

云南网站建设熊掌号,泉州seo按天收费,wordpress ocs,手机主题制作软件纠删码和异构存储测试需要5台虚拟机。准备另外一套5台服务器集群。 环境准备: (1)克隆hadoop105为hadoop106,修改ip地址和hostname,然后重启。 vim /etc/sysconfig/network-scripts/ifcfg-ens33 vim /etc/hostname r…

  纠删码和异构存储测试需要5台虚拟机。准备另外一套5台服务器集群。

环境准备:
(1)克隆hadoop105为hadoop106,修改ip地址和hostname,然后重启。

vim /etc/sysconfig/network-scripts/ifcfg-ens33
vim /etc/hostname
reboot

(2)关闭集群,删除所有服务器Hadoop的data和logs文件。

rm -rf data/ logs/

(3)在hadoop102上修改xsync和jpsall文件,把hadoop105和hadoop106加上。
  xsync存储地址:/bin,在root下修改,然后后分发xsync:xsync xsync
  jpsall、myhadoop.sh 、xsync存储地址:/home/liaoyanxia/bin,修改后退出到liaoyanxia目录然后分发:xsync bin/

(4)在hadoop102上修改blacklist、whitelist、hdfs-site.xml、workers。
删除blacklist里的内容;在workers和whitelist加上所有的主机(即hadoop102-106);修改hdfs-site.xml的多目录:namenode只留一个节点name、datanode只留一个节点data:

<property><name>dfs.namenode.name.dir</name><value>file://${hadoop.tmp.dir}/dfs/name</value>
</property><property><name>dfs.datanode.data.dir</name><value>file://${hadoop.tmp.dir}/dfs/data</value>
</property>

(5)退出到hadoop-3.3.1/etc目录,分发hadoop,然后启动集群。

xsync hadoop/
myhadoop-sh start

jpsall查看进程,集群启动没问题。
在这里插入图片描述
(6)关闭集群和所有服务器,把5个主机依次克隆。

1 纠删码

1.1 原理

  HDFS默认情况下,一个文件有3个副本,这样提高了数据的可靠性,但也带来了2倍的冗余存储开销。
在这里插入图片描述
  Hadoop3.x引入了纠删码(假如如上图一个文件拆分为3个数据单元和2个校验单元),任意两个节点挂掉都可以采用计算的方式恢复(所以占用了计算资源即占用cpu时间,以cpu换存储空间),可以节省约50%左右的存储空间。

纠删码相关命令:

hdfs ec[-listPolicies]   查看当前支持的纠删策略[-addPolicies -policyFile<file>][-getPolicy -path <path>]  针对某个路径的获得其策略[-removePolicy -policy<policy>]   删除策略[-setPolicy -path <path> [-policy <policy>][-replicate]]   针对某个路径的设置其策略[-unsetPolicy -path <path>][-listCodecs][-enablePolicy -policy <policy>]   开启纠删策略[-disablePolicy -policy <policy>]  关闭纠删策略[-help <command-name>].

纠删码策略解释:
  RS-A-B-1024k:使用RS编码,每A个数据单元(cell),生成B个校验单元,共A+B个单元,也就是说:这A+B个单元中,只要有任意的A个单元存在(不管是数据单元还是校验单元,只要总数=A),就可以得到原始数据。每个单元的大小是1024k=10241024=1048576,即拆分时先按1m进行拆分。
在这里插入图片描述
  如RS-3-2-1024k:使用RS编码,每3个数据单元,生成2个校验单元,共5个单元,也就是说:这5个单元中,只要有任意的3个单元存在(不管是数据单元还是校验单元,只要总数=3),就可以得到原始数据。每个单元的大小是1024k=1024
1024=1048576,即拆分时先按1m进行拆分,对上图来说,再将100个1m的数据放在一起。

  RS-LEGACY-6-3-1024k:策略和RS-6-3-1024k一样,只是编码的算法用的是rs-legacy。

  XOR-2-1-1024k:使用XOR编码(速度比RS编码快)。

1.2 案例

  纠删码策略针对具体路径设置,所有在此路径下存储的文件都会执行此策略。
把/input目录设置为RS-3-2-1024k策略。

(1)开启RS-3-2-1024k策略:

hdfs ec -enablePolicy -policy RS-3-2-1204k

(2)在HDFS创建目录并设置RS-3-2-1204k策略:

hdfs dfs -mkdir /input
hdfs ec -setPolicy -path /input -policy RS-3-2-1024k

(3)在该目录下上传大于2M的文件,在HDFS上可以看到replication(副本)只有1份,因为数据分成了3份数据单元放在不同的节点,另外两个节点存放校验单元。

hdfs dfs -put web.log /input

(4)查看存储路径的数据单元和校验单元,并作破坏实验
查看data/dfs/current/…用cat 看数据,看哪些节点是数据单元和校验单元。
删除两个节点的以上数据(快速删除)可以在hdfs文件系统里下载,且观察到删除的数据有恢复。

2 异构存储(冷热数据分离)

  经常使用和存储的数据为热数据,否则为冷数据。
  异构存储主要解决:不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。

存储类型:
  RAM_DISK:内存
  SSD:固态硬盘
  DISK:机械硬盘,即普通磁盘
  ARCHIVE:归档,不指定某种存储介质,主要指计算能力较弱但存储密度高的介质。

存储策略:
在这里插入图片描述

2.1 异构存储shell操作

1)查看当前有哪些存储策略可以用
hdfslistPolicies storagepolicies -listPolicies(2)为指定路径(数据存储目录)设置指定的存储策略
hdfs storagepolicies -setStoragePolicy -path 路径 -policy 存储策略(3)获取指定路径(数据存储目录或文件)的存储策略
hdfs storagepolicies -getStoragePolicy -path 路径(4)取消存储策略;执行改命令之后该目录或者文件,以其上级的目录为准,如果是根目录,那么就是HOT
hdfs storagepolicies -unsetStoragePolicy-path 路径(5)查看文件块的分布
bin/hdfs fsck xxx -files -blocks -locations(6)查看集群节点
hadoop dfsadmin -report

2.2 测试环境准备

服务器5台,副本数为2,提前创建带有 存储类型的目录。
集群规划:
在这里插入图片描述

配置文件:

hadoop102的hdfs-site.xml添加:

<property><name>dfs.replication</name><value>2</value>
</property>
<property><name>dfs.storage.policy.enabled</name><value>true</value>
</property>
<property><name>dfs.datanode.data.dir</name><value>[SSD]file:///opt/module/hadoop-3.1.3/hdfsdata/ssd,[RAM_DISK]file:///opt/module/hadoop-3.1.3/hdfsdata/ram_disk</value>
</property>

hadoop103的hdfs-site.xml添加:

<property><name>dfs.replication</name><value>2</value>
</property>
<property><name>dfs.storage.policy.enabled</name><value>true</value>
</property>
<property><name>dfs.datanode.data.dir</name><value>[SSD]file:///opt/module/hadoop-3.1.3/hdfsdata/ssd,[DISK]file:///opt/module/hadoop-3.1.3/hdfsdata/disk</value>
</property>

hadoop104的hdfs-site.xml添加:

<property><name>dfs.replication</name><value>2</value>
</property>
<property><name>dfs.storage.policy.enabled</name><value>true</value>
</property>
<property><name>dfs.datanode.data.dir</name><value>[RAM_DISK]file:///opt/module/hdfsdata/ram_disk,[DISK]file:///opt/module/hadoop-3.1.3/hdfsdata/disk</value>
</property>

hadoop105的hdfs-site.xml添加:

<property><name>dfs.replication</name><value>2</value>
</property>
<property><name>dfs.storage.policy.enabled</name><value>true</value>
</property>
<property><name>dfs.datanode.data.dir</name><value>[ARCHIVE]file:///opt/module/hadoop-3.1.3/hdfsdata/archive</value>
</property>

hadoop106的hdfs-site.xml添加:

<property><name>dfs.replication</name><value>2</value>
</property>
<property><name>dfs.storage.policy.enabled</name><value>true</value>
</property>
<property><name>dfs.datanode.data.dir</name><value>[ARCHIVE]file:///opt/module/hadoop-3.1.3/hdfsdata/archive</value></property>

重新格式化namenode,启动集群

hdfs namenode -format
myhadoop.sh start

在HDFS创建目录并上传资料

hadoop fs -mkdir /hdfsdata
hadoop fs -put /opt/module/hadoop-3.3.1/NOTICE.txt /hdfsdata

2.3 HOT存储策略案例

刚开始没有设置存储策略,先获取目录存储策略:

hdfs storagepolicies -getStoragePolicy -path /hdfsdata

查看上传的文件块分布:

hdfs fsck /hdfsdata -files -blocks -locations

在这里插入图片描述
可以看到没有设置存储策略的情况下所有的文件块都存储在DISK下,即默认存储处理为HOST。

2.4 WARM存储策略测试

先给数据降温:

hdfs storagepolicies -setStoragePolicy -path /hdfsdata -policy WARM

查看上传的文件块分布,还是在原处

hdfs fsck /hdfsdata -files -blocks -locations

在这里插入图片描述
让HDFS按照存储策略自行移动文件块(不会自动改变存储策略,需要手动移动):

hdfs mover /hdfsdata

再查看文件块分布:

hdfs fsck /hdfsdata -files -blocks -locations

在这里插入图片描述
文件块一半在DISK,一半在ARCHIVE,符合设置的WARM策略。

2.5 COLD策略测试

数据降温为COLD:

hdfs storagepolicies -setStoragePolicy -path /hdfsdata -policy COLD

在上传文件到COLD策略的目录前需要配置ARCHIVE存储目录,不然会报异常。
手动移动:

hdfs mover /hdfsdata

检查文件块分布:

hdfs fsck /hdfsdata -files -blocks -locations

在这里插入图片描述
所有文件都在ARCHIVE,符合COLD存储策略。

2.6 ONE_SSD策略测试

存储策略改为ONE_SSD:

hdfs storagepolicies -setStoragePolicy -path /hdfsdata -policy One_SSD

手动移动:

hdfs mover /hdfsdata

检查文件块分布:

hdfs fsck /hdfsdata -files -blocks -locations

在这里插入图片描述
文件块分布一半在SSD,一半在DISK,符合ONE_SSD存储策略。

2.7 ALL_SSD策略测试

存储策略改为ALL_SSD:

hdfs storagepolicies -setStoragePolicy -path /hdfsdata -policy ALL_SSD

手动移动:

hdfs mover /hdfsdata

检查文件块分布:

hdfs fsck /hdfsdata -files -blocks -locations

在这里插入图片描述
文件块全部存储在SSD,符合ALL_SSD存储策略。

2.8 LAZY_PERSIST策略测试

存储策略改为lazy_persist:

hdfs storagepolicies -setStoragePolicy -path /hdfsdata -policy lazy_persist

手动移动:

hdfs mover /hdfsdata

检查文件块分布:

hdfs fsck /hdfsdata -files -blocks -locations

在这里插入图片描述
  理论上结果为一个副本存储在RAM_DISK,其它都存储在DISK,但最终发现所有的文件块都存储在DISK。

原因:
  (1)当客户端所在的DataNode节点没有RAM_DISK时,则会写入客户端所在的DataNode节点的DISK磁盘,其余副本会写入其他节点的DISK磁盘。
  (2)当客户端所在的DataNode有RAM_DISK,但“dfs.datanode.max.locked.memory”参数值未设置或者设置过小(小于“dfs.block.size”参数值)时,会写入客户端所在的DataNode节点的DISK磁盘,其余副本会写入其他节点的DISK磁盘。

解决:
  配置“dfs.datanode.max.locked.memory”,“dfs.block.size”参数。但是由于虚拟机的“max locked memory”为64KB,所以,如果参数配置过大,还会报错。

http://www.hengruixuexiao.com/news/26063.html

相关文章:

  • 网站建设范本优化方案英语
  • 做网站要准备长沙建站工作室
  • 江苏宿迁疫情最新消息seo基本步骤
  • 天津做淘宝网站竞价托管 微竞价
  • cms下载官方网站seo研究中心培训机构
  • 我想做跑腿网站怎么做百度 营销推广怎么操作
  • 成都软件外包开发广东seo
  • 梅林做网站企业邮箱域名
  • 余姚网站制作优惠活动推广文案
  • 国外政府网站设计企业网站的作用和意义
  • 佛山响应式网站建设长沙seo
  • 网站建设规划毕业论文百度seo搜索营销新视角
  • 广州建网站比较有名的公司品牌运营
  • 做网站有哪些语言百度品牌推广
  • 亚马逊虚拟主机做网站裤子seo关键词
  • 做动态网站可以不写代码吗一个新品牌如何推广
  • 做网站开发的商标注册多少类怎么免费做网站
  • 如何做网站后台管理免费接单平台
  • 免费网站优缺点百度上首页
  • 什么样的网站必须做备案企业网页
  • 建立网站就可以赚钱了吗百度山西授权代理
  • 常州做的网站的公司哪家好成都网络推广优化
  • 设计网站属于什么专业重庆黄埔seo整站优化
  • php网站开发教程奶糖 seo 博客
  • 网站开发和室内制作爱站网长尾挖掘工具
  • 上虞网站建设文广网络网络推广比较经典和常用的方法有
  • 公司网站制作的费用申请书百度关键词优化有效果吗
  • 怎样做自己的网站seo快速排名工具
  • 简介常用的网页制作工具国内最好的seo培训
  • 建设厅网站突然显示不全营销百度app下载手机版