首页 > 代码库 > Spark中的日志聚合的配置
Spark中的日志聚合的配置
1.介绍
Spark的日志聚合功能不是standalone模式独享的,是所有运行模式下都会存在的情况
默认情况下历史日志是保存到tmp文件夹中的
2.参考官网的知识点位置
3.修改spark-defaults.conf
4.修改env.sh
5.在HDFS上新建/spark-history
bin/hdfs dfs -mkdir /spark-history
6.启动历史服务
sbin/start-history-server.sh
7.测试
webUI: http://192.168.187.146:18080/
local模式:bin/spark-shell
standalone模式:bin/spark-shell --master spark://linux-hadoop3.ibeifeng.com:7070
8.local模式的测试
Spark中的日志聚合的配置
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。