当前位置: 首页 > news >正文

国家城乡建设部信访网站seo谷歌

国家城乡建设部信访网站,seo谷歌,怎么做网页 网站制作,专业设计笔记本电脑配置集群/分布式环境 1,修改文件workers 需要把所有节点数据节点的主机名写入该文件,每行一个,默认localhost(即把本机(namenode也作为数据节点),所以我们在伪分布式是没有配置该文件; 在进行分布式时需要删掉localhost(又可能文件中没有该配置,没有那就不用删了,配置一下数据…

在这里插入图片描述

配置集群/分布式环境

1,修改文件workers

需要把所有节点数据节点的主机名写入该文件,每行一个,默认localhost(即把本机(namenode也作为数据节点),所以我们在伪分布式是没有配置该文件;
在进行分布式时需要删掉localhost(又可能文件中没有该配置,没有那就不用删了,配置一下数据节点

在这里插入图片描述

在这里插入图片描述

如果没有找到workers文件,请使用whereis 命令查找,呵呵

2,修改core-site.xml

vi /usr/local/hadoop-3.3.4/etc/hadoop/core-site.xml

在这里插入图片描述

3,修改hdfs-site.xml文件

对于hadoop的分布式文件系统hdfs来讲,一般都是采用冗余存储的,冗余通常为3,也就是说,一份数据有三分副本,所以存1G的数据需要3G的容量;

在这里插入图片描述

4,修改marped-site.xml文件

将解压后的hadoop下的etc/hadoop/marped-site.xml 修改;
在这里插入图片描述

5,修改yarn-site.xml文件

在mapred-site.xml同文件夹下修改yarn-site.xml文件
修改后的文件内容如下
在这里插入图片描述

配置完毕之后,需要将master节点上的hadoop-3.3.4文件夹复制到各个节点之上;

注意:在这里要先删除之前运行hadoop生成的临时文件;

[root@master hadoop-3.3.4]# rm -rf tmp/
[root@master hadoop-3.3.4]# rm -rf logs/
[root@master hadoop-3.3.4]# cd ../ 
[root@master local]#rm -rf hadoophadoop-3.3.4.tar.gz

将文件压缩,方便传输

tar -zcf hadoop-3.3.4.tar.gz  ./

压缩时间还是挺长的
在这里插入图片描述将slave*节点上的临时文件也给删除掉

[hadoop@slave3 .ssh]$ su root
Password: 
[root@slave3 .ssh]# cd /usr/local/hadoop-3.3.4/
[root@slave3 hadoop-3.3.4]# rm -rf tmp
[root@slave3 hadoop-3.3.4]# rm -rf logs
[root@slave3 hadoop-3.3.4]# cd ../
[root@slave3 local]# rm -rf hadoop-3.3.4.tar.gz 
#这里hadoop-3.3.4文件夹也要删除,因为要用master节点配置好的
[root@slave3 local]# rm -rf hadoop-3.3.4.tar.gz 
[root@slave3 local]# rm -rf hadoop-3.3.4
[root@slave3 local]# ls

从master节点传输hadoop的压缩文件传输到各个节点上

[hadoop@master local]$ scp hadoop-3.3.4.tar.gz hadoop@slave1:/usr/local
scp: /usr/local/hadoop-3.3.4.tar.gz: Permission denied

被拒绝了…
我的猜测是文件的权限不够,
于是修改文件所属为hadoop,授予文件700权限,还是不可以;

这说名不是源端文件问题,只能是目标端权限问题;

/usr/local文件权限不能随便改,于是我在local下建了一个 临时文件夹,传输完成后,将文件夹移来;

在这里插入图片描述
master节点执行scp操作:
在这里插入图片描述
操作成功,其他节点也一样操作即可~略
在这里插入图片描述

下面在master节点上初始化namenode和datenode节点所需要的文件夹

hdfs namenode -format

注意:首次启动hadoop时需要格式化namenode和datanode

在这里插入图片描述

hadoop的启动

启动hdfs 系统

start-dfs.sh

正常启动如下:
在这里插入图片描述

启动yarn~管理工具

start-yarn.sh

启动了资源节点管理以及节点管理
在这里插入图片描述

启动守护进程

[hadoop@master hadoop]$ mr-jobhistory-daemon.sh start historyserver
WARNING: Use of this script to start the MR JobHistory daemon is deprecated.
WARNING: Attempting to execute replacement "mapred --daemon start" instead.

此处提示该命令被废弃了(这个跟hadoop版本有关,按照提示,使用mapred --daemon start 代替上述命令

[hadoop@master sbin]$ mapred --daemon start historyserver
[hadoop@master sbin]$ 

查看启动的进程:

jps

在这里插入图片描述

过一会守护进程就退出了

另一个我们看一下最新的mapred --daemon 的命令:

该命令后只能跟start stop status
在这里插入图片描述
浏览器输入master节点IP:配置的端口号

本次配置的地址如下:
http://192.168.8.135:9001/
页面展示如下
在这里插入图片描述

执行分布式实例

创建HDFS分布式文件系统的用户目录

执行如下命令:

hdfs dfs -mkdir -p /usr/hadoop

HDFS中创建一个input目录,并把 hadoop配置文件复制到input目录中(整个过程就如之前伪分布式操作的一样)

还是不一样的,首先得学习一下hdfs系统的命令
之前不是建立一个 /usr/hadoop文件夹了吗,

在这里插入图片描述明白这点之后,再去执行hadoop命令

额发生了点小故障,待我瞧瞧如何解决;
在这里插入图片描述

2023-03-08 05:29:42,288 INFO client.DefaultNoHARMFailoverProxyProvider: Connecting to ResourceManager at master/192.168.8.135:8032
2023-03-08 05:29:43,986 INFO ipc.Client: Retrying connect to server: master/192.168.8.135:8032. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)

说是链接8032端口超时,我们看一下哪里配置了8032端口(也许是该端口没有开放的缘故吧)

未完待续

http://www.hengruixuexiao.com/news/12194.html

相关文章:

  • 微机做网站的软件百度关键词流量查询
  • 哪个网站做攻略比较好全网营销课程
  • 学校风采网站建设需求微信营销推广公司
  • WordPress做漫画网站seo优化是做什么的
  • 做全屏轮播的网站有哪些站长统计幸福宝2022年排行榜
  • 58黄页厦门seo计费
  • 管理咨询是干嘛的seo sem优化
  • 临沂哪里有做网站的nba最新交易
  • 深圳网站建设在哪里找关键词查询工具有哪些
  • 常山做网站bt磁力狗
  • 大望路网站建设搜索引擎优化的简写是
  • 做网站费用怎么付疫情优化调整
  • 福州做网站设计外包搜索引擎排名规则
  • 农产品网站如何做地推百度人工服务
  • 到国外网站上做兼职翻译百度关键词排名点击器
  • 国外专门做图像增强的网站百度seo查询系统
  • 建设一个广告联盟的网站网络营销软件站
  • 海口网站建设流程谷歌推广公司
  • 可以做推广的网站电商网站订烟平台官网
  • 网站搬家 数据库惠州自动seo
  • 如何查看一个网站的浏览量百度指数查询
  • 深圳市昊客网络科技有限公司抖音优化排名
  • wordpress缓存稿网站优化公司
  • 太原自助建站新疆今日头条新闻
  • 关于旅行的网站怎样做网上销售哪些平台免费
  • 电子商务网站建设评估的工具网页免费制作网站
  • 长沙网站建设网站推广微信营销抖音seo是什么
  • 如何把怎己做的网页放到网站上介绍网络营销的短文
  • 新浪云应用 wordpress谷歌优化seo
  • 上哪个网站做forma和co下载百度安装到桌面