GOOGLE ADS

суббота, 30 апреля 2022 г.

как экспортировать адреса в PATH для запуска pyspark в Amazon EC2

Привет, я установил Spark, Python и Jupyter Notebook в Amazon AWS EC2, но когда я запускаю «Jupyter Notebook» в командной строке, он просто предоставляет адрес для «Jupyter Notebook», когда я открываю Jupyter Notebook, я не могу запускать команды pyspark.. Я просто могу запускать команды Python. Я погуглил и нашел эти команды:

экспорт SPARK_HOME=/home/ubuntu/spark-3.0.1-bin-hadoop3.2

экспорт PATH=$SPARK_HOME/bin:$PATH

экспортировать PYTHONPATH=$SPARK_HOME/python:$PYTHONPATH

После их выполнения, когда я набрал «блокнот jupyter», я получаю доступ к «блокноту jupyter», который может поддерживать pyspark. Однако, когда я закрываю командную строку и вхожу в систему позже, мне приходится снова вводить вышеуказанные команды, чтобы иметь возможность иметь «pyspark» в «блокноте jupyter». Мой вопрос: как навсегда сохранить эти переменные в «PATH» переменной среды. И как увидеть все переменные среды, включая те, которые я ввел с помощью вышеуказанных команд.


Решение проблемы

Это может быть аналогичный случай для переменных среды и вашего локального терминала. Чтобы экспортировать некоторые дополнительные переменные, вам нужно сохранить эти команды экспорта в машинном .bashrcфайле EC2.

Более подробную информацию можно легко найти в Интернете, например здесь

Комментариев нет:

Отправить комментарий

Laravel Datatable addColumn returns ID of one record only

Я пытаюсь использовать Yajra Datatable для интеграции DataTable на свой веб-сайт. Я смог отобразить таблицу, но столкнулся с проблемой. В по...