Я только что узнал о GCP Composer и стараюсь переместить DAG из моего локального экземпляра воздушного потока в облако и задать пару вопросов о переходе.
В локальном экземпляре я использовал HiveOperator
для чтения данных из улья и создания таблиц и записи обратно в улей. Если бы мне пришлось сделать это в GCP, как это возможно? Должен ли я загружать свои данные в Google Bucket и работает ли HiveOperator в GCP?
У меня есть DAG, который использует sensor
чтобы проверить, завершена ли другая DAG, возможно ли это в Composer?
У композитора есть хранилище подключений. См. Меню Admin--> Соединение. Проверьте тип соединения.
Датчики доступны.
Да, Cloud Composer просто управляется Apache Airflow, поэтому вы можете это сделать.
Убедитесь, что вы используете ту же версию Airflow, которую вы использовали локально. Cloud Composer поддерживает Airflow 1.9.0 и 1.10.0 в настоящее время.