Я создал кластер Amazon EMR с уже установленным Spark. Когда я запускаю pyspark с терминала, он переходит в терминал pyspark, когда я использую ssh в своем кластере.
Я загрузил файл с помощью scp, и когда я пытаюсь запустить его с помощью python FileName.py, я получаю сообщение об ошибке импорта:
from pyspark import SparkContext
ImportError: No module named pyspark
Как это исправить?