首页 > 代码库 > <spark> error:启动spark后查看进程,进程中master和worker进程冲突
<spark> error:启动spark后查看进程,进程中master和worker进程冲突
启动hadoop再启动spark后jps,发现master进程和worker进程同时存在,调试了半天配置文件。
测试发现,当我关闭hadoop后 worker进程还是存在,
但是,当我再关闭spark之后再jps,发现worker进程依旧存在
于是想起了在~/spark/conf/slaves 中配置的slave1 slave2 上面还有个localhost,直接删去localhost,然后kill -s 9 worker进程。
初次测试这样解决了error,但是不知道是不是暂时的,如若有问题依旧没解决或者有更好解决办法,请告诉我。
<spark> error:启动spark后查看进程,进程中master和worker进程冲突
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。