成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

超詳細的分布式調度框架 Elastic-job 實踐詳解

開發 架構 分布式
如果需要運行的定時任務很少的話,使用 Quartz 不會有太大的問題,但是如果 現在有這么一個需求,例如理財產品,每天6點系統需要計算每個賬戶昨天的收益,假如這個理財產品,有幾個億的用戶,如果都在一個服務實例上跑,可能第二天都無法處理完這項任務!

[[378874]]

本文轉載自微信公眾號「Java極客技術」,作者鴨血粉絲 。轉載本文請聯系Java極客技術公眾號。  

一、介紹

在前幾篇文章中,我們詳細的介紹了 Quartz 的架構原理以及應用實踐,雖然 Quartz 也可以通過集群方式來保證服務高可用,但是它也有一個的弊端,那就是服務節點數量的增加,并不能提升任務的執行效率,即不能實現水平擴展!

之所以產生這樣的結果,是因為 Quartz 在分布式集群環境下是通過數據庫鎖方式來實現有且只有一個有效的服務節點來運行服務,從而保證服務在集群環境下定時任務不會被重復調用!

如果需要運行的定時任務很少的話,使用 Quartz 不會有太大的問題,但是如果 現在有這么一個需求,例如理財產品,每天6點系統需要計算每個賬戶昨天的收益,假如這個理財產品,有幾個億的用戶,如果都在一個服務實例上跑,可能第二天都無法處理完這項任務!

類似這樣場景還有很多很多,很顯然 Quartz 很難滿足我們這種大批量、任務執行周期長的任務調度!

因此短板,當當網基于 Quartz 開發了一套適合在分布式環境下能高效率的使用服務器資源的 Elastic-Job 定時任務框架!

Elastic-Job-Lite最大的亮點就是支持彈性擴容縮容,怎么實現的呢?

比如現在有個任務要執行,如果將任務進行分片成10個,那么可以同時在10個服務實例上并行執行,互相不影響,從而大大的提升了任務執行效率,并且充分的利用服務器資源!

對于上面的理財產品,如果這個任務需要處理1個億用戶,那么我們可以通過水平擴展,比如對任務進行分片為500,讓500個服務實例同時運行,每個服務實例處理20萬條數據,不出意外的話,1 - 2個小時可以全部跑完,如果時間還是很長,還可以繼續水平擴張,添加服務實例來運行!

2015 年,當當網將其開源,瞬間吸引了一大批程序員的關注,同時登頂開源中國第一名!

下面我們就一起來了解一下這款使用非常廣泛的分布式調度框架。

二、項目架構介紹

Elastic-Job 最開始只有一個 elastic-job-core 的項目,定位輕量級、無中心化,最核心的服務就是支持彈性擴容和數據分片!

從 2.X 版本以后,主要分為 Elastic-Job-Lite 和 Elastic-Job-Cloud 兩個子項目。

其中,Elastic-Job-Lite 定位為輕量級 無 中 心 化 解 決 方 案 , 使 用jar 包 的 形 式 提 供 分 布 式 任 務 的 協 調 服 務 。

而 Elastic-Job-Cloud 使用 Mesos + Docker 的解決方案,額外提供資源治理、應用分發以及進程隔離等服務(跟 Lite 的區別只是部署方式不同,他們使用相同的 API,只要開發一次)。

今天我們主要介紹的是Elastic-Job-Lite,最主要的功能特性如下:

  • 分布式調度協調:采用 zookeeper 實現注冊中心,進行統一調度。
  • 支持任務分片:將需要執行的任務進行分片,實現并行調度。
  • 支持彈性擴容縮容:將任務拆分為 n 個任務項后,各個服務器分別執行各自分配到的任務項。一旦有新的服務器加入集群,或現有服務器下線,elastic-job 將在保留本次任務執行不變的情況下,下次任務開始前觸發任務重分片。

當然,還有失效轉移、錯過執行作業重觸發等等功能,大家可以訪問官網文檔,以獲取更多詳細資料。

應用在各自的節點執行任務,通過 zookeeper 注冊中心協調。節點注冊、節點選舉、任務分片、監聽都在 E-Job 的代碼中完成。下圖是官網提供得架構圖。

 

啥也不用多說了,下面我們直接通過實踐介紹,更容易了解里面是怎么玩的!

三、應用實踐

3.1、zookeeper 安裝

elastic-job-lite,是直接依賴 zookeeper 的,因此在開發之前我們需要先準備好對應的 zookeeper 環境,關于 zookeeper 的安裝過程,就不多說了,非常簡單,網上都有教程!

3.2、elastic-job-lite-console 安裝

elastic-job-lite-console,主要是一個任務作業可視化界面管理系統。

可以單獨部署,與平臺不關,主要是通過配置注冊中心和數據源來抓取數據。

獲取的方式也很簡單,直接訪問https://github.com/apache/shardingsphere-elasticjob地址,然后切換到2.1.5的版本號,然后執行mvn clean install進行打包,獲取對應的安裝包將其解壓,進行bin文件夾啟動服務即可!

 

如果你的網速像蝸牛一樣的慢,還有一個辦法就是從這個地址https://gitee.com/elasticjob/elastic-job獲取對應的源碼!

啟動服務后,在瀏覽器訪問http://127.0.0.1:8899,輸入賬戶、密碼(都是root)即可進入控制臺頁面,類似如下界面!

 

進入之后,將上文所在的 zookeeper 注冊中心進行配置,包括數據庫 mysql 的數據源也可以配置一下!

3.3、創建工程

本文采用springboot來搭建工程為例,創建工程并添加elastic-job-lite依賴!

  1. <!-- 引入elastic-job-lite核心模塊 --> 
  2. <dependency> 
  3.     <groupId>com.dangdang</groupId> 
  4.     <artifactId>elastic-job-lite-core</artifactId> 
  5.     <version>2.1.5</version> 
  6. </dependency> 
  7.  
  8. <!-- 使用springframework自定義命名空間時引入 --> 
  9. <dependency> 
  10.     <groupId>com.dangdang</groupId> 
  11.     <artifactId>elastic-job-lite-spring</artifactId> 
  12.     <version>2.1.5</version> 
  13. </dependency> 

在配置文件application.properties中提前配置好 zookeeper 注冊中心相關信息!

  1. #zookeeper config 
  2. zookeeper.serverList=127.0.0.1:2181 
  3. zookeeper.namespace=example-elastic-job-test 

3.4、新建 ZookeeperConfig 配置類

  1. @Configuration 
  2. @ConditionalOnExpression("'${zookeeper.serverList}'.length() > 0"
  3. public class ZookeeperConfig { 
  4.  
  5.     /** 
  6.      * zookeeper 配置 
  7.      * @return 
  8.      */ 
  9.     @Bean(initMethod = "init"
  10.     public ZookeeperRegistryCenter zookeeperRegistryCenter(@Value("${zookeeper.serverList}") String serverList,  
  11.                                                            @Value("${zookeeper.namespace}") String namespace){ 
  12.         return new ZookeeperRegistryCenter(new ZookeeperConfiguration(serverList,namespace)); 
  13.     } 
  14.  

3.5、新建任務處理類

elastic-job支持三種類型的作業任務處理!

  • Simple 類型作業:Simple 類型用于一般任務的處理,只需實現SimpleJob接口。該接口僅提供單一方法用于覆蓋,此方法將定時執行,與Quartz原生接口相似。
  • Dataflow 類型作業:Dataflow 類型用于處理數據流,需實現DataflowJob接口。該接口提供2個方法可供覆蓋,分別用于抓取(fetchData)和處理(processData)數據。
  • Script類型作業:Script 類型作業意為腳本類型作業,支持 shell,python,perl等所有類型腳本。只需通過控制臺或代碼配置 scriptCommandLine 即可,無需編碼。執行腳本路徑可包含參數,參數傳遞完畢后,作業框架會自動追加最后一個參數為作業運行時信息。

3.6、新建 Simple 類型作業

編寫一個SimpleJob接口的實現類MySimpleJob,當前工作主要是打印一條日志。

  1. @Slf4j 
  2. public class MySimpleJob implements SimpleJob { 
  3.  
  4.     @Override 
  5.     public void execute(ShardingContext shardingContext) { 
  6.         log.info(String.format("Thread ID: %s, 作業分片總數: %s, " + 
  7.                         "當前分片項: %s.當前參數: %s," + 
  8.                         "作業名稱: %s.作業自定義參數: %s" 
  9.                 , 
  10.                 Thread.currentThread().getId(), 
  11.                 shardingContext.getShardingTotalCount(), 
  12.                 shardingContext.getShardingItem(), 
  13.                 shardingContext.getShardingParameter(), 
  14.                 shardingContext.getJobName(), 
  15.                 shardingContext.getJobParameter() 
  16.         )); 
  17.     } 

創建一個MyElasticJobListener任務監聽器,用于監聽MySimpleJob的任務執行情況。

  1. @Slf4j 
  2. public class MyElasticJobListener implements ElasticJobListener { 
  3.  
  4.     private long beginTime = 0; 
  5.  
  6.     @Override 
  7.     public void beforeJobExecuted(ShardingContexts shardingContexts) { 
  8.         beginTime = System.currentTimeMillis(); 
  9.         log.info("===>{} MyElasticJobListener BEGIN TIME: {} <===",shardingContexts.getJobName(),  DateFormatUtils.format(new Date(), "yyyy-MM-dd HH:mm:ss")); 
  10.     } 
  11.  
  12.     @Override 
  13.     public void afterJobExecuted(ShardingContexts shardingContexts) { 
  14.         long endTime = System.currentTimeMillis(); 
  15.         log.info("===>{} MyElasticJobListener END TIME: {},TOTAL CAST: {} <===",shardingContexts.getJobName(), DateFormatUtils.format(new Date(), "yyyy-MM-dd HH:mm:ss"), endTime - beginTime); 
  16.     } 
  17.  

創建一個MySimpleJobConfig類,將MySimpleJob其注入到zookeeper。

  1. @Configuration 
  2. public class MySimpleJobConfig { 
  3.  
  4.     /** 
  5.      * 任務名稱 
  6.      */ 
  7.     @Value("${simpleJob.mySimpleJob.name}"
  8.     private String mySimpleJobName; 
  9.  
  10.     /** 
  11.      * cron表達式 
  12.      */ 
  13.     @Value("${simpleJob.mySimpleJob.cron}"
  14.     private String mySimpleJobCron; 
  15.  
  16.     /** 
  17.      * 作業分片總數 
  18.      */ 
  19.     @Value("${simpleJob.mySimpleJob.shardingTotalCount}"
  20.     private int mySimpleJobShardingTotalCount; 
  21.  
  22.     /** 
  23.      * 作業分片參數 
  24.      */ 
  25.     @Value("${simpleJob.mySimpleJob.shardingItemParameters}"
  26.     private String mySimpleJobShardingItemParameters; 
  27.  
  28.     /** 
  29.      * 自定義參數 
  30.      */ 
  31.     @Value("${simpleJob.mySimpleJob.jobParameters}"
  32.     private String mySimpleJobParameters; 
  33.  
  34.     @Autowired 
  35.     private ZookeeperRegistryCenter registryCenter; 
  36.  
  37.     @Bean 
  38.     public MySimpleJob mySimpleJob() { 
  39.         return new MySimpleJob(); 
  40.     } 
  41.  
  42.     @Bean(initMethod = "init"
  43.     public JobScheduler simpleJobScheduler(final MySimpleJob mySimpleJob) { 
  44.   //配置任務監聽器 
  45.    MyElasticJobListener elasticJobListener = new MyElasticJobListener(); 
  46.         return new SpringJobScheduler(mySimpleJob, registryCenter, getLiteJobConfiguration(), elasticJobListener); 
  47.     } 
  48.  
  49.     private LiteJobConfiguration getLiteJobConfiguration() { 
  50.         // 定義作業核心配置 
  51.         JobCoreConfiguration simpleCoreConfig = JobCoreConfiguration.newBuilder(mySimpleJobName, mySimpleJobCron, mySimpleJobShardingTotalCount). 
  52.                 shardingItemParameters(mySimpleJobShardingItemParameters).jobParameter(mySimpleJobParameters).build(); 
  53.         // 定義SIMPLE類型配置 
  54.         SimpleJobConfiguration simpleJobConfig = new SimpleJobConfiguration(simpleCoreConfig, MySimpleJob.class.getCanonicalName()); 
  55.         // 定義Lite作業根配置 
  56.         LiteJobConfiguration simpleJobRootConfig = LiteJobConfiguration.newBuilder(simpleJobConfig).overwrite(true).build(); 
  57.         return simpleJobRootConfig; 
  58.  
  59.     } 

在配置文件application.properties中配置好對應的mySimpleJob參數!

  1. #elastic job 
  2. #simpleJob類型的job 
  3. simpleJob.mySimpleJob.name=mySimpleJob 
  4. simpleJob.mySimpleJob.cron=0/15 * * * * ? 
  5. simpleJob.mySimpleJob.shardingTotalCount=3 
  6. simpleJob.mySimpleJob.shardingItemParameters=0=a,1=b,2=c 
  7. simpleJob.mySimpleJob.jobParameters=helloWorld 

運行程序,看看效果如何?

 

在上圖demo中,配置的分片數為3,這個時候會有3個線程進行同時執行任務,因為都是在一臺機器上執行的,這個任務被執行來3次,下面修改一下端口配置,創建三個相同的服務實例,在看看效果如下:

 

很清晰的看到任務被執行一次!

3.7、新建 DataFlowJob 類型作業

DataFlowJob 類型的任務配置和SimpleJob類似,操作也很簡單!

創建一個DataflowJob類型的實現類MyDataFlowJob。

  1. @Slf4j 
  2. public class MyDataFlowJob implements DataflowJob<String> { 
  3.  
  4.     private boolean flag = false
  5.  
  6.     @Override 
  7.     public List<String> fetchData(ShardingContext shardingContext) { 
  8.         log.info("開始獲取數據"); 
  9.         if (flag) { 
  10.             return null
  11.         } 
  12.         return Arrays.asList("qingshan""jack""seven"); 
  13.     } 
  14.  
  15.     @Override 
  16.     public void processData(ShardingContext shardingContext, List<String> data) { 
  17.         for (String val : data) { 
  18.             // 處理完數據要移除掉,不然就會一直跑,處理可以在上面的方法里執行。這里采用 flag 
  19.             log.info("開始處理數據:" + val); 
  20.         } 
  21.         flag = true
  22.     } 

接著創建MyDataFlowJob的配置類,將其注入到zookeeper注冊中心。

  1. Configuration 
  2. public class MyDataFlowJobConfig { 
  3.  
  4.     /** 
  5.      * 任務名稱 
  6.      */ 
  7.     @Value("${dataflowJob.myDataflowJob.name}"
  8.     private String jobName; 
  9.  
  10.     /** 
  11.      * cron表達式 
  12.      */ 
  13.     @Value("${dataflowJob.myDataflowJob.cron}"
  14.     private String jobCron; 
  15.  
  16.     /** 
  17.      * 作業分片總數 
  18.      */ 
  19.     @Value("${dataflowJob.myDataflowJob.shardingTotalCount}"
  20.     private int jobShardingTotalCount; 
  21.  
  22.     /** 
  23.      * 作業分片參數 
  24.      */ 
  25.     @Value("${dataflowJob.myDataflowJob.shardingItemParameters}"
  26.     private String jobShardingItemParameters; 
  27.  
  28.     /** 
  29.      * 自定義參數 
  30.      */ 
  31.     @Value("${dataflowJob.myDataflowJob.jobParameters}"
  32.     private String jobParameters; 
  33.  
  34.     @Autowired 
  35.     private ZookeeperRegistryCenter registryCenter; 
  36.  
  37.  
  38.     @Bean 
  39.     public MyDataFlowJob myDataFlowJob() { 
  40.         return new MyDataFlowJob(); 
  41.     } 
  42.  
  43.     @Bean(initMethod = "init"
  44.     public JobScheduler dataFlowJobScheduler(final MyDataFlowJob myDataFlowJob) { 
  45.         MyElasticJobListener elasticJobListener = new MyElasticJobListener(); 
  46.         return new SpringJobScheduler(myDataFlowJob, registryCenter, getLiteJobConfiguration(), elasticJobListener); 
  47.     } 
  48.  
  49.     private LiteJobConfiguration getLiteJobConfiguration() { 
  50.         // 定義作業核心配置 
  51.         JobCoreConfiguration dataflowCoreConfig = JobCoreConfiguration.newBuilder(jobName, jobCron, jobShardingTotalCount). 
  52.                 shardingItemParameters(jobShardingItemParameters).jobParameter(jobParameters).build(); 
  53.         // 定義DATAFLOW類型配置 
  54.         DataflowJobConfiguration dataflowJobConfig = new DataflowJobConfiguration(dataflowCoreConfig, MyDataFlowJob.class.getCanonicalName(), false); 
  55.         // 定義Lite作業根配置 
  56.         LiteJobConfiguration dataflowJobRootConfig = LiteJobConfiguration.newBuilder(dataflowJobConfig).overwrite(true).build(); 
  57.         return dataflowJobRootConfig; 
  58.  
  59.     } 

最后,在配置文件application.properties中配置好對應的myDataflowJob參數!

  1. #dataflow類型的job 
  2. dataflowJob.myDataflowJob.name=myDataflowJob 
  3. dataflowJob.myDataflowJob.cron=0/15 * * * * ? 
  4. dataflowJob.myDataflowJob.shardingTotalCount=1 
  5. dataflowJob.myDataflowJob.shardingItemParameters=0=a,1=b,2=c 
  6. dataflowJob.myDataflowJob.jobParameters=myDataflowJobParamter 

運行程序,看看效果如何?

 

需要注意的地方是,如果配置的是流式處理類型,它會不停的拉取數據、處理數據,在拉取的時候,如果返回為空,就不會處理數據!

如果配置的是非流式處理類型,和上面介紹的simpleJob類型,處理一樣!

3.8、新建 ScriptJob 類型作業

ScriptJob 類型的任務配置和上面類似,主要是用于定時執行某個腳本,一般用的比較少!

因為目標是腳本,沒有執行的任務,所以無需編寫任務作業類型!

只需要編寫一個ScriptJob類型的配置類即可,命令是echo 'Hello World !內容!

  1. @Configuration 
  2. public class MyScriptJobConfig { 
  3.  
  4.     /** 
  5.      * 任務名稱 
  6.      */ 
  7.     @Value("${scriptJob.myScriptJob.name}"
  8.     private String jobName; 
  9.  
  10.     /** 
  11.      * cron表達式 
  12.      */ 
  13.     @Value("${scriptJob.myScriptJob.cron}"
  14.     private String jobCron; 
  15.  
  16.     /** 
  17.      * 作業分片總數 
  18.      */ 
  19.     @Value("${scriptJob.myScriptJob.shardingTotalCount}"
  20.     private int jobShardingTotalCount; 
  21.  
  22.     /** 
  23.      * 作業分片參數 
  24.      */ 
  25.     @Value("${scriptJob.myScriptJob.shardingItemParameters}"
  26.     private String jobShardingItemParameters; 
  27.  
  28.     /** 
  29.      * 自定義參數 
  30.      */ 
  31.     @Value("${scriptJob.myScriptJob.jobParameters}"
  32.     private String jobParameters; 
  33.  
  34.     @Autowired 
  35.     private ZookeeperRegistryCenter registryCenter; 
  36.  
  37.  
  38.     @Bean(initMethod = "init"
  39.     public JobScheduler scriptJobScheduler() { 
  40.         MyElasticJobListener elasticJobListener = new MyElasticJobListener(); 
  41.         return new JobScheduler(registryCenter, getLiteJobConfiguration(), elasticJobListener); 
  42.     } 
  43.  
  44.     private LiteJobConfiguration getLiteJobConfiguration() { 
  45.         // 定義作業核心配置 
  46.         JobCoreConfiguration scriptCoreConfig = JobCoreConfiguration.newBuilder(jobName, jobCron, jobShardingTotalCount). 
  47.                 shardingItemParameters(jobShardingItemParameters).jobParameter(jobParameters).build(); 
  48.         // 定義SCRIPT類型配置 
  49.         ScriptJobConfiguration scriptJobConfig = new ScriptJobConfiguration(scriptCoreConfig, "echo 'Hello World !'"); 
  50.         // 定義Lite作業根配置 
  51.         LiteJobConfiguration scriptJobRootConfig = LiteJobConfiguration.newBuilder(scriptJobConfig).overwrite(true).build(); 
  52.         return scriptJobRootConfig; 
  53.  
  54.     } 

在配置文件application.properties中配置好對應的myScriptJob參數!

  1. #script類型的job 
  2. scriptJob.myScriptJob.name=myScriptJob 
  3. scriptJob.myScriptJob.cron=0/15 * * * * ? 
  4. scriptJob.myScriptJob.shardingTotalCount=3 
  5. scriptJob.myScriptJob.shardingItemParameters=0=a,1=b,2=c 
  6. scriptJob.myScriptJob.jobParameters=myScriptJobParamter 

運行程序,看看效果如何?

 

3.9、將任務狀態持久化到數據庫

可能有的人會發出疑問,elastic-job是如何存儲數據的,用ZooInspector客戶端鏈接zookeeper注冊中心,你發現對應的任務配置被存儲到相應的樹根上!

 

而具體作業任務執行軌跡和狀態結果是不會存儲到zookeeper,需要我們在項目中通過數據源方式進行持久化!

將任務狀態持久化到數據庫配置過程也很簡單,只需要在對應的配置類上注入數據源即可,以MySimpleJobConfig為例,代碼如下:

  1. @Configuration 
  2. public class MySimpleJobConfig { 
  3.  
  4.     /** 
  5.      * 任務名稱 
  6.      */ 
  7.     @Value("${simpleJob.mySimpleJob.name}"
  8.     private String mySimpleJobName; 
  9.  
  10.     /** 
  11.      * cron表達式 
  12.      */ 
  13.     @Value("${simpleJob.mySimpleJob.cron}"
  14.     private String mySimpleJobCron; 
  15.  
  16.     /** 
  17.      * 作業分片總數 
  18.      */ 
  19.     @Value("${simpleJob.mySimpleJob.shardingTotalCount}"
  20.     private int mySimpleJobShardingTotalCount; 
  21.  
  22.     /** 
  23.      * 作業分片參數 
  24.      */ 
  25.     @Value("${simpleJob.mySimpleJob.shardingItemParameters}"
  26.     private String mySimpleJobShardingItemParameters; 
  27.  
  28.     /** 
  29.      * 自定義參數 
  30.      */ 
  31.     @Value("${simpleJob.mySimpleJob.jobParameters}"
  32.     private String mySimpleJobParameters; 
  33.  
  34.     @Autowired 
  35.     private ZookeeperRegistryCenter registryCenter; 
  36.  
  37.     @Autowired 
  38.     private DataSource dataSource;; 
  39.  
  40.  
  41.     @Bean 
  42.     public MySimpleJob stockJob() { 
  43.         return new MySimpleJob(); 
  44.     } 
  45.  
  46.     @Bean(initMethod = "init"
  47.     public JobScheduler simpleJobScheduler(final MySimpleJob mySimpleJob) { 
  48.         //添加事件數據源配置 
  49.         JobEventConfiguration jobEventConfig = new JobEventRdbConfiguration(dataSource); 
  50.         MyElasticJobListener elasticJobListener = new MyElasticJobListener(); 
  51.         return new SpringJobScheduler(mySimpleJob, registryCenter, getLiteJobConfiguration(), jobEventConfig, elasticJobListener); 
  52.     } 
  53.  
  54.     private LiteJobConfiguration getLiteJobConfiguration() { 
  55.         // 定義作業核心配置 
  56.         JobCoreConfiguration simpleCoreConfig = JobCoreConfiguration.newBuilder(mySimpleJobName, mySimpleJobCron, mySimpleJobShardingTotalCount). 
  57.                 shardingItemParameters(mySimpleJobShardingItemParameters).jobParameter(mySimpleJobParameters).build(); 
  58.         // 定義SIMPLE類型配置 
  59.         SimpleJobConfiguration simpleJobConfig = new SimpleJobConfiguration(simpleCoreConfig, MySimpleJob.class.getCanonicalName()); 
  60.         // 定義Lite作業根配置 
  61.         LiteJobConfiguration simpleJobRootConfig = LiteJobConfiguration.newBuilder(simpleJobConfig).overwrite(true).build(); 
  62.         return simpleJobRootConfig; 
  63.  
  64.     } 

同時,需要在配置文件application.properties中配置好對應的datasource參數!

  1. spring.datasource.url=jdbc:mysql://127.0.0.1:3306/example-elastic-job-test 
  2. spring.datasource.username=root 
  3. spring.datasource.password=root 
  4. spring.datasource.driver-class-name=com.mysql.jdbc.Driver 

運行程序,然后在elastic-job-lite-console控制臺配置對應的數據源!

 

最后,點擊【作業軌跡】即可查看對應作業執行情況!

 

四、小結

本文主要圍繞elasticjob的使用進行簡單介紹,希望大家有所收獲!

在分布式環境環境下,elastic-job-lite支持的彈性擴容、任務分片是最大的亮點,在實際使用的時候,任務分片總數盡可能大于服務實例個數,并且是倍數關系,這樣任務在分片的時候,會更加均勻!

如果想深入的了解elasticjob,大家可以訪問官方文檔,獲取更加詳細的使用教程!

五、參考1、elasticjob - 官方文檔

 

2、博客園 - 吳振照 - 任務調度之 Elastic Job

 

責任編輯:武曉燕 來源: Java極客技術
相關推薦

2025-01-06 08:53:37

2019-11-12 09:32:39

分布式elastic-job分片

2020-07-17 09:33:39

CPU內存調度

2023-06-26 00:14:28

Openjob分布式任務

2019-11-15 10:16:27

分布式任務框架

2024-01-05 07:28:50

分布式事務框架

2019-10-10 09:16:34

Zookeeper架構分布式

2015-11-05 10:51:35

當當分布式調度開源項目

2025-05-13 03:22:00

2017-08-22 11:10:44

大數據分布式調度

2023-04-19 16:51:54

分布式Primus開源

2022-12-29 08:32:50

xxl-job緩存Schedule

2022-01-27 08:44:58

調度系統開源

2020-09-29 19:20:05

鴻蒙

2019-07-19 15:51:11

框架選型分布式

2023-11-07 07:56:40

2021-10-30 19:30:23

分布式Celery隊列

2010-03-24 17:07:52

無線分布式系統

2024-08-12 16:20:27

2014-07-15 11:15:44

hadoop分布式部署
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产精品视频久久久 | 日本黄色影片在线观看 | 天天干国产 | 国产一区久久久 | 黄色av网站在线观看 | 欧美日韩亚| 亚洲成人一区 | 日本精品一区二区在线观看 | 91精品国产综合久久久动漫日韩 | 亚洲免费一区 | 欧美影院久久 | 国产成人精品久久二区二区 | 免费三级黄 | 一a级片 | 一区二区三区在线播放 | 欧美在线激情 | 国产在线视频一区 | 色综合99| 99pao成人国产永久免费视频 | 国产欧美精品在线 | 在线欧美激情 | 男女羞羞的网站 | 一级在线免费观看 | 精品一区在线看 | 国产亚洲精品久久午夜玫瑰园 | 天天综合久久 | 久久久91精品国产一区二区三区 | caoporon| 欧美一区二区三区高清视频 | 3p视频在线观看 | 91精品国产色综合久久不卡98 | 最新国产视频 | 日韩亚洲视频在线 | 黄视频网址 | 成人福利电影 | 999精品视频 | 99re99| 中文精品视频 | 黄网站在线观看 | 亚洲一区视频在线 | 成人国产网站 |