Я использую Cloudera 5.14 Hadoop с PySpark в Hive. И мне было интересно, есть ли возможность иметь что-то вроде хранимой процедуры в Hadoop?
Чего я пытаюсь достичь? Есть ли способ настроить какое-то задание, которое будет выполняться, например. каждый день по утрам заходите в какую-нибудь таблицу Hive и пишите туда что-нибудь + отправляйте электронное письмо.
Что для этого потребуется - обратите внимание, что у меня нет прав администратора для кластера, однако я могу запускать сценарии оболочки через модуль подпроцесса Python. Кроме того, можно ли как-то отправить электронное письмо из скрипта PySpark?
Hadoop не может самостоятельно планировать задания. вы можете планировать задания с помощью Планировщик рабочего процесса Apache Oozie для Hadoop
Другой способ использовать простые задания cron
для выполнения файла сценария