成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

一個適合小公司用的開源數據管道工具

大數據
airbnb是我很喜歡的公司,他們有很多開源的工具,airflow我覺得是最實用的代表。airflow 是能進行數據pipeline的管理,甚至是可以當做更高級的cron job 來使用。

最近在Prettyyes一直想建立起非常專業的data pipeline系統,然后沒有很多時間,這幾個禮拜正好app上線,有時間開始建立自己的 data pipeline,能夠很好的做每天的數據導入,數據收集,以及數據分析。

什么是ETL

ETL 是常用的數據處理,在以前的公司里,ETL 差不多是數據處理的基礎,要求非常穩定,容錯率高,而且能夠很好的監控。ETL的全稱是 Extract,Transform,Load, 一般情況下是將亂七八糟的數據進行預處理,然后放到儲存空間上。可以是SQL的也可以是NOSQL的,還可以直接存成file的模式。

一開始我的設計思路是,用幾個cron job和celery來handle所有的處理,然后將我們的log文件存在hdfs,還有一些數據存在mysql,大概每天跑一次。核心是能夠scale,穩定,容錯,roll back。我們的data warehouse就放在云上,就簡單處理了。

有了自己的ETL系統我覺得就很安心了,以后能夠做數據處理和機器學習方面就相對方便一些。

問題來了

一開始我設計的思路和Uber一開始的ETL很像,因為我覺得很方便。但是我發覺一個很嚴重的問題,我一個人忙不過來。首先,要至少寫個前端UI來監控cron job,但是市面上的都很差。其次,容錯的autorestart寫起來很費勁,可能是我自己沒有找到一個好的處理方法。***部署的時候相當麻煩,如果要寫好這些東西,我一個人的話要至少一個月的時間,可能還不是特別robust。在嘗試寫了2兩天的一些碎片處理的腳本之后我發覺時間拖了實在太久了。

隆重推薦的工具

airbnb是我很喜歡的公司,他們有很多開源的工具,airflow我覺得是最實用的代表。airflow 是能進行數據pipeline的管理,甚至是可以當做更高級的cron job 來使用。現在一般的大廠都說自己的數據處理是ETL,美其名曰 data pipeline,可能跟google倡導的有關。airbnb的airflow是用python寫的,它能進行工作流的調度,提供更可靠的流程,而且它還有自帶的UI(可能是跟airbnb設計主導有關)。話不多說,先放兩張截圖:

 

 

 

什么是DAG

airflow里最重要的一個概念是DAG。

DAG是directed asyclic graph,在很多機器學習里有應用,也就是所謂的有向非循環。但是在airflow里你可以看做是一個小的工程,小的流程,因為每個小的工程里可以有很多“有向”的task,最終達到某種目的。在官網中的介紹里說dag的特點:

  • Scheduled: each job should run at a certain scheduled interval
  • Mission critical: if some of the jobs aren’t running, we are in trouble
  • Evolving: as the company and the data team matures, so does the data processing
  • Heterogenous: the stack for modern analytics is changing quickly, and most companies run multiple systems that need to be glued together
  • YEAH! It's awesome, right? After reading all of these, I found it's perfectly fit Prettyyes.

如何安裝

安裝airflow超級簡單,使用pip就可以,現在airflow的版本是1.6.1,但是有個小的bug,這個之后會告訴大家如何修改。pip install airflow

這里有個坑,因為airflow涉及到很到數據處理的包,所以會安裝pandas和numpy(這個Data Scientist應該都很熟悉)但是國內pip install 安裝非常慢,用douban的源也有一些小的問題。我的解決方案是,直接先用豆瓣的源安裝numpy 和 pandas,然后再安裝airflow,自動化部署的時候可以在requirements.txt 里調整順序就行了

如何運行

  1. pip install airflow 

摘自官方網站

  1. # airflow needs a home, ~/airflow is the default, 
  2. # but you can lay foundation somewhere else if you prefer 
  3. # (optional) 
  4. export AIRFLOW_HOME=~/airflow 
  5.  
  6. # install from pypi using pip 
  7. pip install airflow 
  8.  
  9. # initialize the database 
  10. airflow initdb 
  11.  
  12. # start the web server, default port is 8080 
  13. airflow webserver -p 8080 

然后你就可以上web ui查看所有的dags,來監控你的進程。

如何導入dag

一般***次運行之后,airflow會在默認文件夾下生成airflow文件夾,然后你只要在里面新建一個文件dag就可以了。我這邊部署在阿里云上的文件tree大概是這個樣子的。

以下是我自己寫的我們公司prettyyes里需要每天處理log的其中一個小的dag:

  1. from airflow import DAG 
  2. from airflow.operators import BashOperator 
  3. from datetime import datetime, timedelta 
  4. import ConfigParser 
  5.  
  6.  
  7. config = ConfigParser.ConfigParser() 
  8. config.read('/etc/conf.ini'
  9. WORK_DIR = config.get('dir_conf''work_dir'
  10. OUTPUT_DIR = config.get('dir_conf''log_output'
  11. PYTHON_ENV = config.get('dir_conf''python_env'
  12.  
  13. default_args = { 
  14.     'owner''airflow'
  15.     'depends_on_past': False, 
  16.     'start_date': datetime.today() - timedelta(days=1), 
  17.     'retries': 2, 
  18.     'retry_delay': timedelta(minutes=15), 
  19.  
  20. dag = DAG('daily_process', default_args=default_args, schedule_interval=timedelta(days=1)) 
  21.  
  22. templated_command = "echo 'single' | {python_env}/python {work_dir}/mr/LogMR.py"
  23.     .format(python_env=PYTHON_ENV, work_dir=WORK_DIR) + " --start_date {{ ds }}" 
  24.  
  25.  
  26. task = BashOperator( 
  27.     task_id='process_log'
  28.     bash_command=templated_command, 
  29.     dag=dag 

寫好之后,只要將這個dag放入之前建立好的dag文件夾,然后運行:

  1. python <dag_file> 

來確保沒有語法錯誤。在測試里你可以看到我的

  1. schedule_interval=timedelta(days=1) 

這樣我們的數據處理的任務就相當于每天跑一次。更重要的是,airflow還提供處理bash處理的接口外還有hadoop的很多接口。可以為以后連接hadoop系統提供便利。很多具體的功能可以看官方文檔。

其中的一個小的bug

airflow 1.6.1有一個網站的小的bug,安裝成功后,點擊dag里的log會出現以下頁面:

這個只要將

  1. airflow/www/utils.py  

文件替換成***的airflow github上的utils.py文件就行,具體的問題在這個:

fixes datetime issue when persisting logs

使用supervisord進行deamon

airflow本身沒有deamon模式,所以直接用supervisord就ok了,我們只要寫4行代碼。

  1. [program:airflow_web] 
  2. command=/home/kimi/env/athena/bin/airflow webserver -p 8080 
  3.  
  4. [program:airflow_scheduler] 
  5. command=/home/kimi/env/athena/bin/airflow scheduler 

我覺得airflow特別適合小的團隊,他的功能強大,而且真的部署方便。和hadoop,mrjob又可以無縫連接,對我們的業務有很大的提升。

 

責任編輯:Ophira 來源: segmentfault
相關推薦

2014-08-18 09:59:04

2012-04-10 15:09:21

云計算

2014-05-15 16:38:02

職業創業

2018-01-29 11:22:05

大數據SaaS數據

2011-08-22 10:20:17

研發

2019-02-18 09:12:36

數據科學家數據科學數據

2015-06-02 10:18:53

2010-06-30 09:36:43

思科統一計算

2019-07-22 09:02:49

工作公司開發

2012-05-28 14:20:32

Linux集群

2016-11-14 19:39:15

微軟辦公

2010-03-09 11:24:54

2013-12-23 15:11:34

創業客戶

2019-04-01 08:40:51

Offer面試互聯網

2018-06-14 09:59:48

程序員代碼大公司

2013-03-04 10:07:43

MWC2013移動互聯網

2011-04-13 09:46:35

應用開發移動應用

2011-04-28 14:45:53

用戶體驗一體機

2016-10-19 16:33:29

2016-01-13 13:13:29

運維監控工具
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 成人精品国产免费网站 | 免费一级网站 | 精品在线一区 | 国产a区 | 欧美一区二区三区四区视频 | 91亚洲精品国偷拍自产在线观看 | 日韩中文字幕免费在线观看 | 最新中文字幕 | 亚洲成人免费视频在线 | 91视频在线观看 | 国产精品99久久久精品免费观看 | 中文字幕综合 | 找个黄色片| 久久国产综合 | 精品视频一区二区三区 | 尤物视频在线免费观看 | 欧美视频精品 | 在线观看免费福利 | 国产91精品久久久久久久网曝门 | 视频一区二区中文字幕 | 欧美日韩国产精品一区 | 九九激情视频 | 精品一区二区久久久久久久网精 | 午夜婷婷激情 | 成人免费观看男女羞羞视频 | 999久久久久久久久6666 | 免费h视频 | 午夜影视大全 | 国产一区二区在线免费观看 | 一区二区三区观看视频 | 成人在线视频网址 | 久久中文网 | 亚洲欧美日韩中文在线 | 成人av资源在线 | 欧美日韩手机在线观看 | 国产农村一级国产农村 | 国产偷录视频叫床高潮对白 | 中文字幕国产 | 日本在线免费视频 | 欧美成人精品一区二区男人看 | 日本国产精品视频 |