首页 > 代码库 > spark+hadoop+sqoop+hive平台bug解决方法
spark+hadoop+sqoop+hive平台bug解决方法
bug集锦
1. hadoop平台datanode无法启动:
原因:
由于多次hdfs namenode -format导致dfs/data/current/version中的cluserID与当前的cluserID不统一,通过查看hadoop/logs中的datanode日志文件查看到此错误。
解决方法:
1). 修改每台节点上的/dfs/current/version文件中的cluserID的值为当前的值(当前值可以通过hadoop/logs日志文件中的报错获得)。
2). 每次format dfs文件系统时,都加上clusterID参数:(此方法没有亲测)
hdfs namenode –format –clusterid YOURID
2. hive配置mysql为metastore时,用户权限问题:
问题描述:
在使用了grant all privileges on *.* to ‘username‘@‘%‘ with grant option;或者 update user set host=‘%‘ where user=‘username‘;命令后,仍然出现权限问题。
解决方法:
# service myqld stop /*停止mysql服务*/# usr/bin/mysqld_safe --skip-grant-tables /*启动mysql数据库安全模式*//*另开一个控制台*/# mysql> use mysql;> update user set password=password(‘newpassword‘) where user=‘YOURUSERNAME‘;/*可能还要查询一下user表,将一些含有空值的重复用户名记录删除*/
3. hive部署启动出错
问题描述:
提示:"enable ... autocreate ..."。
解决方法:
修改 hive-site.xml最后面的datanucleus.fixedDataStore属性为false。
4. hadoop无法启动nodemanager,可能是防火墙没有关闭。
5. sqoop 导数据时,连接连接数据库出错,oracle 11+默认对大小写敏感,而sqoop中要求用户名和密码要大写字母,所以可能需要关闭数据库的大小写敏感属性。
alter system set sec_case_sensitive_logon=false;
spark+hadoop+sqoop+hive平台bug解决方法