spark+hive运行时没有写权限

您所在的位置:网站首页 spark往hive写数据 spark+hive运行时没有写权限

spark+hive运行时没有写权限

2023-08-27 12:35| 来源: 网络整理| 查看: 265

当使用spark连接hive时,无论是通过spark-submit提交作业,还是使用spark-shell,spark-sql 都会报以下错误:

Exception in thread "main" java.lang.RuntimeException: java.lang.RuntimeException: The root scratch dir: /tmp/hive on HDFS should be writable. Current permissions are: rwx------

    at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:522)

    at org.apache.spark.sql.hive.thriftserver.SparkSQLCLIDriver$.main(SparkSQLCLIDriver.scala:116)

    at org.apache.spark.sql.hive.thriftserver.SparkSQLCLIDriver.main(SparkSQLCLIDriver.scala)

 

要从两方面考虑哦,

解决方法:

更改HDFS目录/tmp/hive的权限:hadoop fs -chmod 777 /tmp/hive同时删HDFS与本地的目录/tmp/hive:

hadoop fs -rm -r /tmp/hive;  

rm -rf /tmp/hive



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3