首页 > 代码库 > 在Ubuntu下使用Eclispe连接hadoop时拒绝链接解决方式总结
在Ubuntu下使用Eclispe连接hadoop时拒绝链接解决方式总结
用eclipse连接集群查看文件信息提示9000port拒绝连接的错误
Cannot connect to the Map/Reduce location: hadoop1.0.3
Cannot connect to the Map/Reduce location: hadoop1.0.3
Call to ubuntu/192.168.1.111:9000 failed on connection exception: java.net.ConnectException: 拒绝连接
1.常见解决的方法:配置都非常正常,就是连接不了。
后来又一次配置hadoop location,把Map/Reduce Master 和 DFS Master中的Host由localhost改成了ip地址(192.168.1.111),然后问题就攻克了。
奇怪,localhost不就是本机嘛,而namenode主机(192.168.1.111)也是本机。
2.eclipse的hadoop插件与hadoop的版本不一致导致的。你最好使用下载的hadoop包解压后的contri文件里的eclipse插件
3.hadoop-site.xml文件配置错误
<property> <name>fs.default.name</name> <value>hdfs://你的username:9000</value> </property> <property> <name>mapred.job.tracker</name> <value>hdfs://username:9001</value> </property>
4.关闭hdfs权限:hdfs-site.xml中<property> <!-- 是否对DFS中的文件进行权限控制(測试中一般用false)--> <name>dfs.permissions</name> <value>false</value> </property> 5.检查eclipse插件是否设置了hadoop安装文件夹:将与linux下安装的hadoop同样版本号的hadoop解压到windows下一个文件夹,然后指定hadoop插件文件夹。插件文件夹在preferences的map/reduce的hadoop installation location 6.在windows的hosts文件里加入hadoop所有节点的ip和主机名 7.关闭linux系统防火墙 8.把hadoop三个配置文件里涉及到的主机名所有改成ip地址。master和salves文件也改成ip 9/etc/hosts出错10,补充一种最有意思也是最坑人的问题!或许你得hadoop根本就没有启动!!!
在Ubuntu下使用Eclispe连接hadoop时拒绝链接解决方式总结
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。