Nur die "Spark Web UI" von Spark (localhost: 4040) konnte aus irgendeinem Grund keine Verbindung herstellen, daher habe ich verschiedene Dinge untersucht, aber es gibt keine Lösung, und wenn Sie nicht daran gewöhnt sind, Menschen mit denselben Problemen Ich dachte es gäbe, also werde ich es zum ersten Mal posten. Aufgrund eines Fehlers, der während der Arbeit aufgetreten ist, haben wir keinen Code usw. veröffentlicht. Vielen Dank für Ihr Verständnis.
Bridge Python Container und Spark Container (Verbindungs-Woker) mit Docker Die Umgebungen "Pyspark" und "Java" sind in beiden Umgebungen installiert.
Bis Sie einen Master und einen Worker of Spark mit Docker-Compose erziehen und pyspark ausführen https://qiita.com/hrkt/items/fe9b1162f7a08a07e812
Ich möchte in den Python Docker (Docker Exec ...) gehen, einen Spark-Submit durchführen und eine Verbindung zu localhost: 4040 herstellen, um die WebUI während der Verarbeitung zu überprüfen.
Nach dem Booten stellt localhost: 8080 eine Verbindung her, 4040 kann jedoch aus irgendeinem Grund keine Verbindung herstellen
Ich konnte es durch das Lesen von StackOverFlow usw. überhaupt nicht verstehen, aber als ich meine Senioren fragte, wurde es auf einen Schlag gelöst. Ich möchte in der Infrastruktur stärker sein.
Ich habe den Beispielcode in spark ausgeführt, aber als ich df.show ()
"Der erste Job hat keine Ressourcen akzeptiert. Überprüfen Sie die Benutzeroberfläche Ihres Clusters, um sicherzustellen, dass die Mitarbeiter registriert sind und über ausreichende Ressourcen verfügen." Ich habe die Speichereinstellungen geändert, weil ich nicht genügend Ressourcen hatte, aber ich konnte sie nicht lösen.
Ich habe den Beispielcode von hier ausgeliehen.
Behandeln Sie Argumente in PySpark-Skriptdateien https://blog.amedama.jp/entry/2018/03/17/113516
Referenzcode, auf den verwiesen wird
from pyspark import SparkConf
from pyspark import SparkContext
from pyspark.sql import SparkSession
def main():
conf = SparkConf()
conf.setAppName('example')
sc = SparkContext(conf=conf)
spark = SparkSession(sc)
df = spark.sql('SELECT "Hello, World!" AS message')
df.show()
Lösung
conf = SparkConf().setMaster('local')
Recommended Posts