Привет, я установил Spark, Python и Jupyter Notebook в Amazon AWS EC2, но когда я запускаю «Jupyter Notebook» в командной строке, он просто предоставляет адрес для «Jupyter Notebook», когда я открываю Jupyter Notebook, я не могу запускать команды pyspark.. Я просто могу запускать команды Python. Я погуглил и нашел эти команды:
экспорт SPARK_HOME=/home/ubuntu/spark-3.0.1-bin-hadoop3.2
экспорт PATH=$SPARK_HOME/bin:$PATH
экспортировать PYTHONPATH=$SPARK_HOME/python:$PYTHONPATH
После их выполнения, когда я набрал «блокнот jupyter», я получаю доступ к «блокноту jupyter», который может поддерживать pyspark. Однако, когда я закрываю командную строку и вхожу в систему позже, мне приходится снова вводить вышеуказанные команды, чтобы иметь возможность иметь «pyspark» в «блокноте jupyter». Мой вопрос: как навсегда сохранить эти переменные в «PATH» переменной среды. И как увидеть все переменные среды, включая те, которые я ввел с помощью вышеуказанных команд.
Решение проблемы
Это может быть аналогичный случай для переменных среды и вашего локального терминала. Чтобы экспортировать некоторые дополнительные переменные, вам нужно сохранить эти команды экспорта в машинном .bashrc
файле EC2.
Более подробную информацию можно легко найти в Интернете, например здесь
Комментариев нет:
Отправить комментарий