Pyspark,Python下安装Spark,无需安装Hadoop

您所在的位置:网站首页 pip安装环境依赖必须在c盘吗 Pyspark,Python下安装Spark,无需安装Hadoop

Pyspark,Python下安装Spark,无需安装Hadoop

2023-07-14 23:52| 来源: 网络整理| 查看: 265

又是装环境斗志斗勇的一天,苦笑

之前一直不想搭虚拟机/Hadoop/spark这些环境,后来python三千万行数据实在跑不动了,知道有pyspark这等好东西,以为conda install pyspark一下就可以了,发现并没有那么简单。找了很多资料,搜了很多也没找到合适的教程,正好记录一下,希望能帮到需要的同学。不用虚拟机不用Hadoop。

环境:anconda 3.0 win10 64位

1.下载 第一步conda install pyspark下载spark  http://spark.apache.org/downloads.html

       

       红框那个下载后解压即可,无需安装

       

下载jdk https://www.oracle.com/java/technologies/javase/javase-jdk8-downloads.html

         需要注册登陆一下,会发邮箱验证,其他信息随便填就行    

              

         按照默认路径安装最好

        

2.配置环境变量 用户变量 SPARK_HOME 

        值:压缩文件解压路径

     

系统变量 JAVA_HOME

      值:jdk安装路径

      

系统变量CLASSPATH

      

      系统变量PATH添加两个新变量

      %SPARK_HOME %\bin

      %JAVA_HOME %\bin

       

        

      还有这个

       

3.jyputer检验

安装完pyspark,这两行就是成功了的,但是继续写下去就会有层出不穷的问题

import pyspark from pyspark import SparkConf, SparkContext

我是看这个教程学习的https://www.it1352.com/OnLineTutorial/pyspark/pyspark_sparkcontext.html

README.md是spark文件夹自带的

于是爆了这个An error occurred while calling z:org.apache.spark.api.python.PythonRDD.collectAndServe. : org.apache.spark.SparkException: Job aborted due to stage failure: Task 0 in stage 1.0 failed 1 times, most recent failure: Lost task 0.0 in stage 1.0 (TID 1, localhost, executor driver): org.apache.spark.SparkException: Python worker failed to connect back.

有文章说需要绝对路径,仍然不行

遇到的问题

1.spark-env.sh文件,刚开始看到好几个人写这个了但是找不到在哪

原来的它后面有蓝色框,最下面填完三句把蓝色的后缀删了【忘了在哪看的了】

export PYSPARK_PYTHON=/C:/Users/10391/AppData/Local/Continuum/anaconda3 export PYSPARK_DRIVER_PYTHON=/C:/Users/10391/AppData/Local/Continuum/anaconda3 export PYSPARK_SUBMIT_ARGS='--master local[*]'

这条不知道有用没,如果环境变量填完重启还不管用可以试试,由于我这配的时候是交叉的步骤,最后成功了

2.刚开始这两句还是成功的,后来又有了这个问题,说是加两句 import findspark 

findspark.init(),我刚开始安装conda install findspark这个包也没成功

后来改下channels就可以了https://www.cnblogs.com/yikemogutou/p/11396045.html

5.胜利的时刻 import os import sys spark_home = os.environ.get('SPARK_HOME', None) if not spark_home: raise ValueError('SPARK_HOME environment variable is not set') sys.path.insert(0, os.path.join(spark_home, 'python')) sys.path.insert(0, os.path.join(spark_home, 'python/lib/py4j-0.10.4-src.zip')) comm=os.path.join(spark_home, 'python/lib/py4j-0.10.4-src.zip') print ('start spark....',comm) exec(open(os.path.join(spark_home, 'python/pyspark/shell.py')).read())

留下激动的泪水 

这一句也终于成功了,检验成不成功就是看.count(),之前一到这就有问题,爆那一大串问题

绝对路径还是相对路径都可以了

之前也想过是C盘要改成file才可以吗,那会真是怎么着都不行,现在怎么都行了,开心撒花

最最最感谢的文章https://www.cnblogs.com/jackchen-Net/p/6667205.html

环境变量配置完不行的话也可重启试试



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3