ungelöst
In der Docker-Datei
From jupyter/jupyter/pyspark-notebook:~~~~~~~~~
Laden von Pyspark als.
Python 3.7.6
pyspark 2.4.5
from pyspark.sql import SparkSession
/usr/local/spark/python/pyspark/__init__.py in <module>
49
50 from pyspark.conf import SparkConf
---> 51 from pyspark.context import SparkContext
52 from pyspark.rdd import RDD, RDDBarrier
53 from pyspark.files import SparkFiles
/usr/local/spark/python/pyspark/context.py in <module>
27 from tempfile import NamedTemporaryFile
28
---> 29 from py4j.protocol import Py4JError
30
31 from pyspark import accumulators
ModuleNotFoundError: No module named 'py4j'
Diesmal auf dem Jupyter-Notebook, da es Probleme verursachen wird
!pip install py4j
Korrespondiert mit Der folgende Fehler wird angezeigt, daher möchte ich ihn hinzufügen, sobald ich verstehe, wie ich fehlerfrei damit umgehen kann.
ERROR: pyspark 2.4.5 has requirement py4j==0.10.7, but you'll have py4j 0.10.9.1 which is incompatible.
Recommended Posts