当前位置: 首页 > news >正文

做海外市场什么网站推广24小时最新国际新闻

做海外市场什么网站推广,24小时最新国际新闻,做lol直播网站,平台借钱哪个利息最低目录 前言 初了解spark Standalone模式 Yarn模式 前言 今天我们讲解Spark的安装配置,spark的部署分为两种,一种是Standalone模式,另一种就是on yarn 模式,我们这一节着重讲解on yarn 模式,因为符合生产活动&#…

目录

前言

初了解spark

Standalone模式

Yarn模式


前言

今天我们讲解Spark的安装配置,spark的部署分为两种,一种是Standalone模式,另一种就是on yarn 模式,我们这一节着重讲解on yarn 模式,因为符合生产活动,但也会提到Standalone模式

初了解spark

Spark是一个快速、通用、可扩展的集群计算引擎,它基于内存计算,提高了在大数据环境下数据处理的实时性,同时保证了高容错性和高伸缩性。Spark允许用户将其部署在大量廉价的硬件之上,形成集群。Spark诞生于2009年,最初由美国加州大学伯克利分校的AMP实验室开发,是一个基于内存计算的大数据并行计算框架,可用于构建大型的、低延迟的数据分析应用程序。

Spark的特点主要体现在以下几个方面:

Spark的主要组件包括SparkCore,它将分布式数据抽象为弹性分布式数据集(RDD),实现了应用任务调度、RPC、序列化和压缩,并为运行在其上的上层组件提供API。

总的来说,Spark作为一个强大而灵活的大数据处理工具,以处理各种类型的大数据任务和应用场景。

  1. 快速:Spark基于内存的运算速度比Hadoop的MapReduce快100倍,即使基于硬盘的运算也要快10倍以上。这得益于Spark实现了高效的DAG执行引擎,可以通过基于内存来高效处理数据流。
  2. 通用:Spark的设计容纳了其它分布式系统拥有的功能,包括批处理(类似Hadoop)、迭代式计算(机器学习)、交互查询(类似Hive)和流处理(类似Storm)等,这降低了维护成本。
  3. 易用性:Spark提供了Python、Java、Scala、SQL的API和丰富的内置库,使其与其他的大数据工具整合得很好,包括Hadoop、Kafka等。此外,Spark还支持超过80种高级算法,使用户可以快速构建不同的应用。

Standalone模式

Standalone模式是Spark自带的资源调动引擎,构建一个由Master + Slave构成的Spark集群,Spark运行在集群中。

这个要和Hadoop中的Standalone区别开来。这里的Standalone是指只用Spark来搭建一个集群,不需要借助其他的框架。是相对于Yarn和Mesos来说的。

解压:

tar -zxvf spark-3.0.3-bin-hadoop3.2.tgz -C /opt/module/

修改名字:

mv spark-3.0.3-bin-hadoop3.2/ spark-standalone

配置集群节点:

mv slaves.template slaves
vim slaves

添加内容:

bigdata1
bigdata2
bigdata3

修改spark-env.sh文件,添加bigdata1节点

mv spark-env.sh.template spark-env.sh
vim spark-env.sh

添加内容:

SPARK_MASTER_HOST=bigdata1
SPARK_MASTER_PORT=7077

向其他机器分发spark-standalone包

在其他机器创建spark-standalone目录。

scp -r /opt/module/spark-standalone/ bigdata2:/opt/module/spark-standalone/
scp -r /opt/module/spark-standalone/ bigdata3:/opt/module/spark-standalone/

启动spark集群官方求PI案例

bin/spark-submit \
> --class org.apache.spark.examples.SparkPi \
> --master spark://bigdata1:7077 \
> ./examples/jars/spark-examples_2.12-3.0.3.jar \
> 10

结果:
Pi is roughly 3.1408591408591406

------------------------------ 命令 ---------------------------------------
bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://bigdata1:7077 \
--executor-memory 2G \
--total-executor-cores 2 \
./examples/jars/spark-examples_2.12-3.0.3.jar \
10

Yarn模式

saprk客户端连接Yarn,不需要额外构建集群。

解压:

tar -zxvf spark-3.0.3-bin-hadoop3.2.tgz -C /opt/module/

配置环境变量:

#SPARK_HOME
export SPARK_HOME=/opt/module/spark-3.0.3-yarn
export PATH=$PATH:$SPARK_HOME/bin

修改配置文件:

修改hadoop配置文件/opt/module/hadoop-3.1.3/etc/hadoop/yarn-site.xml,添加如下内容:

<property><name>yarn.nodemanager.pmem-check-enabled</name><value>false</value>
</property>
​
<property><name>yarn.nodemanager.vmem-check-enabled</name><value>false</value>
</property>

分发配置文件:

scp -r /opt/module/hadoop-3.1.3/etc/hadoop/yarn-site.xml bigdata2:/opt/module/hadoop-3.1.3/etc/hadoop/
​
scp -r /opt/module/hadoop-3.1.3/etc/hadoop/yarn-site.xml bigdata3:/opt/module/hadoop-3.1.3/etc/hadoop/

修改spark-env.sh

mv spark-env.sh.template spark-env.sh
vim spark-env.sh

内容:

YARN_CONF_DIR=/opt/module/hadoop-3.1.3/etc/hadoop

重启Hadoop

start-all.sh
start-yarn.sh 

求PI

spark-submit --master yarn --class org.apache.spark.examples.SparkPi  $SPARK_HOME/examples/jars/spark-examples_2.12-3.0.3.jar

结果:
Pi is roughly 3.142211142211142

http://www.hengruixuexiao.com/news/22445.html

相关文章:

  • 那些网站做推广bt磁力在线种子搜索神器
  • 自己怎样做免费网站百度快照在哪里
  • 做网站pyton怎么建个网站
  • 广东英德网站建设全网优化哪家好
  • 公司网站封面怎么做防恶意点击软件
  • 网站制作哪些公司好创建一个网站
  • 建设网站的步骤知乎郑州seo顾问热狗
  • 网站后台管理员做链接上海搜索seo
  • 金融网站源码 asp线下推广渠道和方式
  • 海口网站建设兼职sem是什么?
  • 网络广告管理办法西安搜索引擎优化
  • 昆明网站建设.com网络seo啥意思
  • 在乐文网站做翻译靠谱吗网站推广方法有哪些
  • 国外做的好看的网站设计专业的郑州网站推广
  • 响应式模板苏州网站优化公司
  • 跑腿个人网站怎么做广州网站设计制作
  • 商城网站做推广方案怎么做自己的网站
  • 网站建设销售提成建设一个网站的具体步骤
  • 东莞网站制作网站线上营销平台有哪些
  • 先做网站还是先做appapp推广注册接单平台
  • 中国建设银行官网站e路护航快速排名程序
  • 手机就可以直接做设计的网站百度seo排名优化教程
  • 有没有做语文题的网站百度关键词搜索广告的优缺点
  • 知名购物网站有哪些百度seo排名优化公司哪家强
  • web前端开发工具有哪些惠州抖音seo策划
  • wordpress aj提交评论杭州seo博客
  • 天津微信网站中国搜索引擎份额排行
  • 公司官网怎么设计搜索引擎优化的五个方面
  • 创建网站赚钱百度网盘网页版登录
  • 室内设计是真的烂大街了吗快速优化排名公司推荐