我正在使用云编写器来协调ETL,以获取到达BigCS的GCS中到达的文件.我有一个云函数,当文件到达时会触发dag,而云函数会将文件名/位置传递给DAG.在我的DAG中,我有2个任务:
1)使用Dataflow@L_404_0@Operator运行一个数据流作业,该作业从GCS中的文本读取数据并将其转换并将其输入到BQ中,以及2)根据该文件是失败还是成功将文件移动到失败/成功存储段.
每个文件都有一个文件ID,该文件ID是bigquery表中的一列.有时,文件将被编辑一次或两次(通常不是流媒体),而我希望能够首先删除该文件的现有记录.
我调查了其他气流运算符,但在运行数据流作业之前希望在DAG中有2个任务:
>根据文件名获取文件ID(现在,我有一个bigquery表映射文件名->文件ID,但我也可以引入一个用作地图的Json,我想这是否更容易)
>如果bigquery表(从数据流作业输出转换后的数据的表)中已经存在文件ID,请删除它,然后运行数据流作业,以便获得最新信息.我知道一种选择是仅添加一个时间戳记,并且仅使用最新记录,但是因为每个文件可能有100万条记录,这与我每天要删除100个文件(可能是1-2个顶部)不同看起来可能是混乱和混乱的.
在完成数据流作业之后,理想情况下,在将文件移至成功/失败文件夹之前,我想附加到一些“记录”表中,以表明此时已输入了该游戏.这将是我查看发生的所有插入的方式.
我尝试寻找不同的方法来进行此 *** 作,因为我是云作曲家的新手,所以我对10个小时的研究后如何工作尚不十分清楚,否则我会发布代码以供输入.
谢谢,我非常感谢大家的帮助,如果您不清楚您的意思,我们深表歉意.有关气流的文档非常强大,但是鉴于云作曲家和bigquery相对较新,因此很难彻底学习如何做一些GCP特定任务.
最佳答案听起来有点复杂.很高兴,几乎所有的GCP服务都有 *** 作符.另一件事是何时触发DAG执行.你知道了吗?您希望每次GCS存储桶中有新文件进入时触发Google Cloud Function运行.>触发您的DAG
要触发DAG,您需要使用依赖于Object Finalize或Metadata Update触发器的Google Cloud Function来调用它.
>将数据加载到Bigquery
如果您的文件已经是GCS格式,并且已经采用JsON或CSV格式,那么使用数据流作业就显得过头了.您可以使用GoogleCloudStorageToBigQueryOperator将文件加载到BQ.
>跟踪文件ID
计算文件ID的最好方法是使用Airflow的Bash或Python运算符.您可以直接从文件名中派生它吗?
如果是这样,那么您可以在GoogleCloudStorageObjectSensor上游使用一个Python运算符来检查文件是否在成功目录中.
如果是这样,则可以使用BigQueryOperator在BQ上运行删除查询.
之后,您运行GoogleCloudStoragetoBigqueryOperator.
>移动文件
如果要将文件从GCS移到GCS位置,则GoogleCloudStorageToGoogleCloudStorageOperator应该可以满足您的需要.如果您的BQ加载运算符失败,则移至失败的文件位置,如果成功,则移至成功的作业位置.
>记录任务日志
可能需要跟踪插入的所有 *** 作都是将任务信息记录到GCS.签出how to log task information to GCS
有帮助吗?
总结以上是内存溢出为你收集整理的python-气流DAG-如何首先检查BQ(如有必要,请删除),然后运行数据流作业? 全部内容,希望文章能够帮你解决python-气流DAG-如何首先检查BQ(如有必要,请删除),然后运行数据流作业? 所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)