当前位置: 首页 > news >正文

东莞做网站推广新网域名

东莞做网站推广,新网域名,深圳seo网络推广营销,大佬做的魔法少女网站一、环境准备 在搭建 Spark on YARN 集群之前,需要确保以下环境已经准备就绪: 操作系统:推荐使用 CentOS、Ubuntu 等 Linux 发行版。 Java 环境:确保安装了 JDK 1.8 或更高版本。 Hadoop 集群:已经搭建并运行的 Had…

一、环境准备

在搭建 Spark on YARN 集群之前,需要确保以下环境已经准备就绪:

  1. 操作系统:推荐使用 CentOS、Ubuntu 等 Linux 发行版。

  2. Java 环境:确保安装了 JDK 1.8 或更高版本。

  3. Hadoop 集群:已经搭建并运行的 Hadoop 集群,包括 HDFS 和 YARN。

二、安装 Spark

  1. 下载 Spark
    从 Apache Spark 官方网站下载适合您 Hadoop 版本的 Spark 安装包。例如,如果您使用的是 Hadoop 3.2,可以下载 spark-3.1.2-bin-hadoop3.2.tgz

  2. 解压并安装
    将下载的 Spark 安装包解压到指定目录,并创建符号链接以便管理。

    cd /opt/modules/
    tar -zxf spark-3.1.2-bin-hadoop3.2.tgz -C /opt/installs
    cd /opt/installs
    mv spark-3.1.2-bin-hadoop3.2 spark-yarn
    ln -s /opt/installs/spark-yarn /opt/installs/spark

三、配置 Spark

  1. 修改 spark-env.sh 配置文件。
    在 Spark 的 conf 目录中,将 spark-env.sh.template 文件重命名为 spark-env.sh,并编辑该文件。

    cd /opt/installs/spark/conf
    mv spark-env.sh.template spark-env.sh
    vim spark-env.sh

    在文件中添加以下内容:

    export JAVA_HOME=/opt/installs/jdk
    export HADOOP_CONF_DIR=/opt/installs/hadoop/etc/hadoop
    export YARN_CONF_DIR=/opt/installs/hadoop/etc/hadoop
    export SPARK_DAEMON_MEMORY=1g
    export SPARK_HISTORY_OPTS="-Dspark.history.fs.logDirectory=hdfs://bigdata01:9820/spark/eventLogs/ -Dspark.history.fs.cleaner.enabled=true"
  2. 修改 spark-defaults.conf 文件。
    spark-defaults.conf.template 文件重命名为 spark-defaults.conf,并编辑该文件:

    mv spark-defaults.conf.template spark-defaults.conf
    vim spark-defaults.conf

    添加以下内容:

    spark.eventLog.enabled           true
    spark.eventLog.dir               hdfs://bigdata01:9820/spark/eventLogs
    spark.eventLog.compress          true
    spark.yarn.historyServer.address bigdata01:18080
    spark.yarn.jars                  hdfs://bigdata01:9820/spark/jars/*
  3. 修改 YARN 配置文件
    编辑 Hadoop 的 yarn-site.xml 文件,确保以下配置项正确:

    <property><name>yarn.log-aggregation-enable</name><value>true</value>
    </property>
    <property><name>yarn.log-aggregation.retain-seconds</name><value>604800</value>
    </property>
    <property><name>yarn.log.server.url</name><value>http://bigdata01:19888/jobhistory/logs</value>
    </property>
    <property><name>yarn.nodemanager.pmem-check-enabled</name><value>false</value>
    </property>
    <property><name>yarn.nodemanager.vmem-check-enabled</name><value>false</value>
    </property>
  4. 分发配置文件
    使用工具(如 xsync.sh)将配置文件同步到所有集群节点:

    xsync.sh /opt/installs/spark
    xsync.sh /opt/installs/hadoop/etc/hadoop/yarn-site.xml

四、启动集群

  1. 启动 Hadoop 集群
    确保 HDFS 和 YARN 服务已经启动:

    start-dfs.sh
    start-yarn.sh
  2. 启动 Spark History Server
    启动 Spark 的历史服务器:

    /opt/installs/spark/sbin/start-history-server.sh

五、测试集群

  1. 提交测试作业
    使用 spark-submit 提交一个简单的 Spark 作业:

    spark-submit --master yarn --deploy-mode cluster examples/src/main/python/pi.py 1000
  2. 查看作业运行情况
    在 YARN 的 Web UI 页面(通常是 http://master:8088)中查看作业的运行情况

http://www.cadmedia.cn/news/11755.html

相关文章:

  • 青岛做网站皆赴青岛博采seo是什么岗位
  • 科技加盟网站建设推广游戏怎么拉人最快
  • 成都疫情今天咋样seo网站优化助理
  • oa协同办公系统平台广州seo和网络推广
  • 上海市建设安全协会网站国际时事新闻
  • 蜂蜜网站建设百度网盘app下载安装 官方下载
  • 海南疫情最新数据江北seo页面优化公司
  • 中太建设集团网站关键词搜索方法
  • 淘宝入驻网站建设优化网络的软件下载
  • 网站怎么做浏览量才会多女生做sem专员的工作难吗
  • 江西建设城乡网站查询头条关键词排名查询
  • 网站建设职业兴趣要求企业网络的组网方案
  • 金华市建设局网站windows优化大师是什么
  • 苏州知名网站建设免费注册网站有哪些
  • 网站建设需要缴纳印花税么百度我的订单app
  • 建设银行如何设置网站查询密码软文范例100字以内
  • 怎样建设相亲网站品牌策划推广方案
  • 电子商务网站规划与网页制作西安seo招聘
  • 网站建设丶金手指B排名15企业网站推广建议
  • 寻求网站建设技术小红书seo排名规则
  • 服务专业公司网站建设服务百度官网认证申请
  • 天河网站建设技术陕西网站设计
  • 小视频制作模板免费搜索引擎优化怎么做的
  • 辽宁鞍山网站建设全网搜索指数
  • 建设工程指数网站口碑营销案例
  • 木匠手做网站环球军事新闻最新消息
  • 建设网站群国外产品推广平台
  • 网站建设如何自学seo外包顾问
  • 宝安网站设计服务百度关键词价格
  • 常州企业建站系统模板福建网站建设制作