พยายามสร้าง Subdag แบบไดนามิกจาก Dag หลักโดยใช้อาร์เรย์ของชื่อไฟล์


10

ฉันกำลังพยายามย้ายไฟล์ s3 จากที่เก็บข้อมูลที่ "ไม่ลบ" (หมายถึงฉันไม่สามารถลบไฟล์) ไปยัง GCS โดยใช้การไหลเวียนของอากาศ ฉันไม่สามารถรับประกันได้ว่าจะมีไฟล์ใหม่ทุกวัน แต่ฉันต้องตรวจสอบไฟล์ใหม่ทุกวัน

ปัญหาของฉันคือการสร้างแบบไดนามิกย่อย หากมีไฟล์อยู่ฉันต้องมีแท็กย่อย หากไม่มีไฟล์ฉันไม่ต้องการไฟล์ย่อย ปัญหาของฉันคือการตั้งค่าอัปสตรีม / ดาวน์สตรีม ในรหัสของฉันมันจะตรวจจับไฟล์ แต่ไม่ได้เปิดออกย่อย ๆ ตามที่ควรจะเป็น ฉันคิดถึงบางอย่าง

นี่คือรหัสของฉัน:

from airflow import models
from  airflow.utils.helpers import chain
from airflow.providers.amazon.aws.hooks.s3 import S3Hook
from airflow.operators.python_operator import PythonOperator, BranchPythonOperator
from airflow.operators.dummy_operator import DummyOperator
from airflow.operators.subdag_operator import SubDagOperator
from airflow.contrib.operators.s3_to_gcs_operator import S3ToGoogleCloudStorageOperator
from airflow.utils import dates
from airflow.models import Variable
import logging

args = {
    'owner': 'Airflow',
    'start_date': dates.days_ago(1),
    'email': ['sinistersparrow1701@gmail.com'],
    'email_on_failure': True,
    'email_on_success': True,
}

bucket = 'mybucket'
prefix = 'myprefix/'
LastBDEXDate = int(Variable.get("last_publish_date"))
maxdate = LastBDEXDate
files = []

parent_dag = models.DAG(
    dag_id='My_Ingestion',
    default_args=args,
    schedule_interval='@daily',
    catchup=False
)

def Check_For_Files(**kwargs):
    s3 = S3Hook(aws_conn_id='S3_BOX')
    s3.get_conn()
    bucket = bucket
    LastBDEXDate = int(Variable.get("last_publish_date"))
    maxdate = LastBDEXDate
    files = s3.list_keys(bucket_name=bucket, prefix='myprefix/file')
    for file in files:
        print(file)
        print(file.split("_")[-2])
        print(file.split("_")[-2][-8:])  ##proves I can see a date in the file name is ok.
        maxdate = maxdate if maxdate > int(file.split("_")[-2][-8:]) else int(file.split("_")[-2][-8:])
    if maxdate > LastBDEXDate:
        return 'Start_Process'
    return 'finished'

def create_subdag(dag_parent, dag_id_child_prefix, file_name):
    # dag params
    dag_id_child = '%s.%s' % (dag_parent.dag_id, dag_id_child_prefix)

    # dag
    subdag = models.DAG(dag_id=dag_id_child,
              default_args=args,
              schedule_interval=None)

    # operators
    s3_to_gcs_op = S3ToGoogleCloudStorageOperator(
        task_id=dag_id_child,
        bucket=bucket,
        prefix=file_name,
        dest_gcs_conn_id='GCP_Account',
        dest_gcs='gs://my_files/To_Process/',
        replace=False,
        gzip=True,
        dag=subdag)


    return subdag

def create_subdag_operator(dag_parent, filename, index):
    tid_subdag = 'file_{}'.format(index)
    subdag = create_subdag(dag_parent, tid_subdag, filename)
    sd_op = SubDagOperator(task_id=tid_subdag, dag=dag_parent, subdag=subdag)
    return sd_op

def create_subdag_operators(dag_parent, file_list):
    subdags = [create_subdag_operator(dag_parent, file, file_list.index(file)) for file in file_list]
    # chain subdag-operators together
    chain(*subdags)
    return subdags

check_for_files = BranchPythonOperator(
    task_id='Check_for_s3_Files',
    provide_context=True,
    python_callable=Check_For_Files,
    dag=parent_dag
)

finished = DummyOperator(
    task_id='finished',
    dag=parent_dag
)

decision_to_continue = DummyOperator(
    task_id='Start_Process',
    dag=parent_dag
)

if len(files) > 0:
    subdag_ops = create_subdag_operators(parent_dag, files)
    check_for_files >> decision_to_continue >> subdag_ops[0] >> subdag_ops[-1] >> finished


check_for_files >> finished

งานประเภทใดที่แบ็กเอนด์ของ DAGS เหล่านี้คือsparkงานเหล่านี้หรือpythonสคริปต์บางอย่างและคุณใช้อะไรในการรันเหมือนlivyหรือวิธีอื่น ๆ
ashwin agrawal

ฉันขอโทษฉันไม่เข้าใจคำถาม คุณช่วยกรุณาเล่าซ้ำได้ไหม?
arcee123

ฉันหมายความว่าคุณใช้สคริปต์หลามแบบง่าย ๆ เท่านั้นและไม่ได้ใช้งาน Spark ใด ๆ ใช่มั้ย
Ashwin agrawal

ใช่. ตัวดำเนินการอย่างง่ายที่เป็นค่าเริ่มต้นในการไหลของอากาศ ฉันต้องการเพิ่มโอเปอเรเตอร์ที่มีอยู่ในอัตราไดนามิกตามไฟล์ที่ตั้งค่าสถานะใน S3 ฉันต้องการนำเข้าสู่ GCS
arcee123

ทำไมfilesรายการที่ว่างเปล่า
Oluwafemi Sule

คำตอบ:


3

ด้านล่างนี้เป็นวิธีที่แนะนำในการสร้าง DAG แบบไดนามิกหรือ sub-DAG ในการไหลเวียนของอากาศแม้ว่าจะมีวิธีอื่นด้วยเช่นกัน แต่ฉันคิดว่าสิ่งนี้จะเหมาะสมกับปัญหาของคุณเป็นส่วนใหญ่

ก่อนอื่นให้สร้างไฟล์(yaml/csv)ซึ่งมีรายการs3ไฟล์และตำแหน่งทั้งหมดในกรณีที่คุณเขียนฟังก์ชั่นเพื่อเก็บไว้ในรายการฉันจะบอกว่าเก็บไว้ในyamlไฟล์แยกต่างหากและโหลดตอนรันไทม์ใน airflow env แล้วสร้าง DABs ความ

ด้านล่างเป็นyamlไฟล์ตัวอย่าง: dynamicDagConfigFile.yaml

job: dynamic-dag
bucket_name: 'bucket-name'
prefix: 'bucket-prefix'
S3Files:
    - File1: 'S3Loc1'
    - File2: 'S3Loc2'
    - File3: 'S3Loc3'

คุณสามารถแก้ไขCheck_For_Filesฟังก์ชั่นของคุณเพื่อจัดเก็บไว้ในyamlไฟล์

ตอนนี้เราสามารถไปยังการสร้าง dag แบบไดนามิก:

ขั้นแรกให้กำหนดสองงานโดยใช้ตัวดำเนินการจำลองเริ่มต้นและงานสิ้นสุด งานดังกล่าวเป็นงานที่เราจะสร้างขึ้นDAGโดยการสร้างงานระหว่างพวกเขาแบบไดนามิก:

start = DummyOperator(
    task_id='start',
    dag=dag
)

end = DummyOperator(
    task_id='end',
    dag=dag)

Dynamic DAG: เราจะใช้PythonOperatorsในการไหลเวียนของอากาศ ฟังก์ชั่นควรได้รับเป็นอาร์กิวเมนต์ ID งาน; ฟังก์ชั่นหลามที่จะดำเนินการคือ python_callable สำหรับผู้ประกอบการหลาม; และชุดของ args ที่จะใช้ระหว่างการดำเนินการ

task idมีอาร์กิวเมนต์ XCOMดังนั้นเราสามารถแลกเปลี่ยนข้อมูลระหว่างงานที่สร้างขึ้นในลักษณะแบบไดนามิกเช่นผ่านทาง

คุณสามารถระบุฟังก์ชั่นการทำงานของคุณได้ในแบบไดนามิกเช่นs3_to_gcs_opนี้

def createDynamicDAG(task_id, callableFunction, args):
    task = PythonOperator(
        task_id = task_id,
        provide_context=True,
        #Eval is used since the callableFunction var is of type string
        #while the python_callable argument for PythonOperators only receives objects of type callable not strings.
        python_callable = eval(callableFunction),
        op_kwargs = args,
        xcom_push = True,
        dag = dag,
    )
    return task

ในที่สุดก็ขึ้นอยู่กับตำแหน่งที่อยู่ในไฟล์ yaml คุณสามารถสร้างไดนามิกแดกอ่านyamlไฟล์ดังต่อไปนี้ก่อนและสร้างไดนามิกแดก:

with open('/usr/local/airflow/dags/config_files/dynamicDagConfigFile.yaml') as f:
    # use safe_load instead to load the YAML file
    configFile = yaml.safe_load(f)

    #Extract file list
    S3Files = configFile['S3Files']

    #In this loop tasks are created for each table defined in the YAML file
    for S3File in S3Files:
        for S3File, fieldName in S3File.items():

            #Remember task id is provided in order to exchange data among tasks generated in dynamic way.
            get_s3_files = createDynamicDAG('{}-getS3Data'.format(S3File), 
                                            'getS3Data', 
                                            {}) #your configs here.

            #Second step is upload S3 to GCS
            upload_s3_toGCS = createDynamicDAG('{}-uploadDataS3ToGCS'.format(S3File), 'uploadDataS3ToGCS', {'previous_task_id':'{}-'})

#write your configs again here like S3 bucket name prefix extra or read from yaml file, and other GCS config.

คำนิยาม DAG ขั้นสุดท้าย:

แนวคิดก็คือ

#once tasks are generated they should linked with the
#dummy operators generated in the start and end tasks. 
start >> get_s3_files
get_s3_files >> upload_s3_toGCS
upload_s3_toGCS >> end

รหัสการไหลเวียนของอากาศแบบเต็มตามลำดับ:

import yaml
import airflow
from airflow import DAG
from datetime import datetime, timedelta, time
from airflow.operators.python_operator import PythonOperator
from airflow.operators.dummy_operator import DummyOperator

start = DummyOperator(
    task_id='start',
    dag=dag
)


def createDynamicDAG(task_id, callableFunction, args):
    task = PythonOperator(
        task_id = task_id,
        provide_context=True,
        #Eval is used since the callableFunction var is of type string
        #while the python_callable argument for PythonOperators only receives objects of type callable not strings.
        python_callable = eval(callableFunction),
        op_kwargs = args,
        xcom_push = True,
        dag = dag,
    )
    return task


end = DummyOperator(
    task_id='end',
    dag=dag)



with open('/usr/local/airflow/dags/config_files/dynamicDagConfigFile.yaml') as f:
    configFile = yaml.safe_load(f)

    #Extract file list
    S3Files = configFile['S3Files']

    #In this loop tasks are created for each table defined in the YAML file
    for S3File in S3Files:
        for S3File, fieldName in S3File.items():

            #Remember task id is provided in order to exchange data among tasks generated in dynamic way.
            get_s3_files = createDynamicDAG('{}-getS3Data'.format(S3File), 
                                            'getS3Data', 
                                            {}) #your configs here.

            #Second step is upload S3 to GCS
            upload_s3_toGCS = createDynamicDAG('{}-uploadDataS3ToGCS'.format(S3File), 'uploadDataS3ToGCS', {'previous_task_id':'{}-'})

#write your configs again here like S3 bucket name prefix extra or read from yaml file, and other GCS config.


start >> get_s3_files
get_s3_files >> upload_s3_toGCS
upload_s3_toGCS >> end

ขอบคุณมาก. ดังนั้นหนึ่งในปัญหาที่ฉันมีคือจะเกิดอะไรขึ้นถ้าไม่มีไฟล์ใหม่? หนึ่งในปัญหาที่ฉันเผชิญคือจะมีไฟล์ในสถานที่นี้เสมอ แต่ไม่รับประกันว่าจะมีไฟล์ใหม่ที่จะดึงซึ่งหมายความว่าส่วนupload_s3_toGCSนั้นจะไม่มีอยู่และเกิดข้อผิดพลาดในการไหลเวียนของอากาศ
arcee123

คุณสามารถแก้ปัญหาได้โดยการลบไฟล์ออกจากyamlไฟล์เมื่อไฟล์เหล่านี้ทั้งหมดถูกอัปโหลดไปยัง GCS ด้วยวิธีนี้จะมีเฉพาะไฟล์ใหม่ในyamlไฟล์ และในกรณีที่ไม่มีไฟล์ใหม่ไฟล์yamlจะว่างเปล่าและจะไม่มีการสร้างไดนามิกส์ นี่คือเหตุผลที่yamlไฟล์เป็นตัวเลือกที่ดีกว่าเมื่อเทียบกับการจัดเก็บไฟล์ในรายการ
Ashwin agrawal

yamlไฟล์ยังจะช่วยในการรักษาเข้าสู่ระบบของไฟล์ s3 ในทางถ้าคิดว่าบางส่วนของไฟล์ s3 ล้มเหลวในการอัปโหลดไปยัง GCS แล้วคุณยังสามารถรักษาสถานะที่สอดคล้องกับแฟ้มที่แล้วลองอีกครั้งเหล่านี้ในระยะต่อไป DAG
Ashwin agrawal

และหากไม่มีไฟล์ใหม่คุณสามารถกำหนดifเงื่อนไขไว้ก่อนหน้า DAG ซึ่งจะตรวจสอบไฟล์ใหม่ในyamlไฟล์หากมีไฟล์ใหม่ที่เรียกใช้งานหรือข้ามไป
Ashwin agrawal

ปัญหาที่นี่คือว่า downstreams มีการตั้งค่า หากดาวน์สตรีมถูกตั้งค่าโดยไม่มีงานจริง (เพราะไม่มีไฟล์) มันจะเกิดข้อผิดพลาด
arcee123
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.