ModuleNotFoundError: нет модуля с именем «pyspark».Python

Программы на Python
Ответить
Anonymous
 ModuleNotFoundError: нет модуля с именем «pyspark».

Сообщение Anonymous »

Недавно я установил pyspark в Linux и получил ошибку при импорте pyspark:

Код: Выделить всё

ModuleNotFoundError: No module named 'pyspark'
Pyspark находится в моем «списке пакетов»
Я добавил следующие строки в свой .bashrc:

Код: Выделить всё

export SPARK_HOME=~/Spark/spark-3.0.1-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin
export PYTHONPATH=$SPARK_HOME/python/:$PYTHONPATH
export PYTHONPATH=$SPARK_HOME/python/lib/py4j-0.10.9-src.zip:$PYTHONPATH
export PYSPARK_PYTHON=python3
Если я наберу pyspark с терминала, он будет работать правильно:

Код: Выделить всё

      ____              __
/ __/__  ___ _____/ /__
_\ \/ _ \/ _ `/ __/  '_/
/__ / .__/\_,_/_/ /_/\_\   version 3.0.1
/_/
Using Python version 3.7.3 (default, Jul 25 2020 13:03:44)
SparkSession available as 'spark'.
В терминале я могу писать весь код, он просто не загружает импорт pyspark из скрипта Python. Похоже, с моими переменными среды все в порядке.
Затем я набрал:

Код: Выделить всё

import findspark
print(findspark.init())
И там написано:
ValueError: Не удалось найти Spark, убедитесь, что установлен env SPARK_HOME или Spark находится в ожидаемом месте (например, после установки homebrew)

Подробнее здесь: https://stackoverflow.com/questions/641 ... ed-pyspark
Ответить

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

Вернуться в «Python»