windows 10 安装 spark 环境(spark 2.2.1 + hadoop2.7) |
您所在的位置:网站首页 › 在windows上安装spark › windows 10 安装 spark 环境(spark 2.2.1 + hadoop2.7) |
windows 10 安装 spark 环境(spark 2.2.1 + hadoop2.7)
转载
mb5fca0cc9ee684 2017-12-19 23:55:00 文章标签 spark sql 新版本 hive hadoop 文章分类 Windows 系统/运维 安装步骤基本参考 Spark在Windows下的环境搭建。不过在安装新版本 spark2.2.1(基于 hadoop2.7)的配置时,略略有一些不同。 1. sqlContext => spark.sqlContext在启动日志中未出现,SQL context available as sqlContext.也不足为奇,因为在新版本的 spark 中 sqlContext 对象已封装进 Spark session,也即 spark-shell 中的 spark 下。 ![]() 为虚拟文件夹 /tmp/hive 修改权限时,应使用 winutils.exe 的绝对路径,如: D:\Program Files\hadoop\bin\winutils.exe chmod 777 /tmp/hive 赞 收藏 评论 分享 举报上一篇:windows cmd 命令行 —— 进程与服务 下一篇:windows 快捷调用 |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |