第一范文网 - 专业文章范例文档资料分享平台

Spark集群搭建与测试 - 图文

来源:用户分享 时间:2025/5/30 17:48:39 本文由loading 分享 下载这篇文档手机版
说明:文章内容仅供预览,部分内容可能不全,需要完整文档或者需要复制内容,请下载word后使用。下载word有问题请添加微信号:xxxxxxx或QQ:xxxxxx 处理(尽可能给您提供完整文档),感谢您的支持与谅解。

a. 修改slaves文件,(若没有slaves文件可以cpslaves.template slaves创建),

添加worker节点的Hostname,修改后内容如下:

b. 配置spark-env.sh,(若没有该文件可以cp spark-env.sh.template spark-env.sh创建),添加如下内容:

export JAVA_HOME=/usr/lib/java/jdk1.8.0_60 export SCALA_HOME=/usr/lib/scala/scala-2.10.4 export HADOOP_HOME=/usr/local/hadoop/hadoop-2.6.0

export HADOOP_CONF_DIR=/usr/local/hadoop/hadoop-2.6.0/etc/hadoop export SPARK_MASTER_IP=master export SPARK_WORKER_MEMORY=1g 修改后的内容如下:

更详细的配置说明,请参考官方文档:

http://spark.apache.org/docs/latest/spark-standalone.html#cluster-launch-scripts c. 可选,配置spark-defaults.sh:

14. 启动并验证spark集群:

Spark只是一个计算框架,并不提供文件系统功能,故我们需要首先启动文件系统hdfs;在standalone模式下,我们并不需要启动yarn功能,故不需要启动yarn.

a. 用start-dfs.sh启动hdfs,参考step10.

b. 在hadoop集群启动成功的基础上,启动spark集群,常见的做法是在master节点

上start-all.sh:

c. 使用jps在master和worker节点上验证spark集群是否正确启动:

d. 通过webui查看spark集群是否启动成功:http://master:8080

e. 启动spark的historyserver:start-history-server.sh

Jps可见,historyserver没能启动成功。仔细观察日志可见,指定的日志目录不存在:

搜索更多关于: Spark集群搭建与测试 - 图文 的文档
Spark集群搭建与测试 - 图文.doc 将本文的Word文档下载到电脑,方便复制、编辑、收藏和打印
本文链接:https://www.diyifanwen.net/c043cv0893d3fre28i3rv_7.html(转载请注明文章来源)
热门推荐
Copyright © 2012-2023 第一范文网 版权所有 免责声明 | 联系我们
声明 :本网站尊重并保护知识产权,根据《信息网络传播权保护条例》,如果我们转载的作品侵犯了您的权利,请在一个月内通知我们,我们会及时删除。
客服QQ:xxxxxx 邮箱:xxxxxx@qq.com
渝ICP备2023013149号
Top