Как `pip install pyspark' устраняет необходимость настройки SPARK_HOMEPython

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Как `pip install pyspark' устраняет необходимость настройки SPARK_HOME

Сообщение Anonymous »

При установке PySpark с pypi.org

Код: Выделить всё

pip install pyspark==3.5.0
Похоже, что установка переменной среды SPARK_HOME не требуется.
Как это работает?
Напротив, если я скачаю Apache Spark с

Код: Выделить всё

https://www.apache.org/dyn/closer.lua/spark/spark-3.5.3/spark-3.5.3-bin-hadoop3.tgz
который содержит PySpark, необходимо выполнить следующие шаги Как `pip install pyspark' избавляет от необходимости настраивать SPARK_HOME ? Каков механизм?

Подробнее здесь: https://stackoverflow.com/questions/791 ... spark-home
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»