Создание групп DAG воздушного потока в GCP Composer

1

Я только что узнал о GCP Composer и стараюсь переместить DAG из моего локального экземпляра воздушного потока в облако и задать пару вопросов о переходе.

  1. В локальном экземпляре я использовал HiveOperator для чтения данных из улья и создания таблиц и записи обратно в улей. Если бы мне пришлось сделать это в GCP, как это возможно? Должен ли я загружать свои данные в Google Bucket и работает ли HiveOperator в GCP?

  2. У меня есть DAG, который использует sensor чтобы проверить, завершена ли другая DAG, возможно ли это в Composer?

Теги:
google-cloud-platform
airflow
google-cloud-composer

2 ответа

0

У композитора есть хранилище подключений. См. Меню Admin--> Соединение. Проверьте тип соединения.

Датчики доступны.

0

Да, Cloud Composer просто управляется Apache Airflow, поэтому вы можете это сделать.

Убедитесь, что вы используете ту же версию Airflow, которую вы использовали локально. Cloud Composer поддерживает Airflow 1.9.0 и 1.10.0 в настоящее время.

Ещё вопросы

Сообщество Overcoder
Наверх
Меню