成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Spark刷爆磁盤與Java弱引用的關系

存儲 存儲設備 Spark
今天,給大家分享下。Java的引用在大數據框架下的引用案例。

 [[351561]]

 

一 引用基本概念

 

如下面,定義兩個變量num,str,存儲模型大致如下圖:

  1. int num = 6; 
  2. String str = “浪尖聊大數據”; 

 

變量num值直接從6修改為了8;變量str只是修改了其保存的地址,從0x88修改為0x86,對象 “浪尖聊大數據 ”本身還在內存中,并沒有被修改。只是內存中新增了對象 “浪尖是帥哥”。

二 值傳遞&引用傳遞

 

舉例說明引用傳遞和值傳遞:

  1. 第一個栗子:基本類型 
  2. void foo(int value) { 
  3.     value = 88; 
  4. foo(num); // num 沒有被改變 
  5.  
  6. 第二個栗子:沒有提供改變自身方法的引用類型 
  7. void foo(String text) { 
  8.     text = "mac"
  9. foo(str); // str 也沒有被改變 
  10.  
  11. 第三個栗子:提供了改變自身方法的引用類型 
  12. StringBuilder sb = new StringBuilder("vivo"); 
  13. void foo(StringBuilder builder) { 
  14.     builder.append("5"); 
  15. foo(sb); // sb 被改變了,變成了"vivo5"。 
  16.  
  17. 第四個栗子:提供了改變自身方法的引用類型,但是不使用,而是使用賦值運算符。 
  18. StringBuilder sb = new StringBuilder("oppo"); 
  19. void foo(StringBuilder builder) { 
  20.     builder = new StringBuilder("vivo"); 
  21. foo(sb); // sb 沒有被改變,還是 "oppo"。 

三 引用的類型

  1. 單純的申明一個軟引用,指向一個person對象 
  2. 1 SoftReference pSoftReference=new SoftReference(new Person(“張三”,12)); 
  3.  
  4. 聲明一個引用隊列 
  5. ReferenceQueue<Person> queue = new ReferenceQueue<>(); 
  6.  
  7. 聲明一個person對象,李四,obj是其強引用 
  8. Person obj = new Person(“李四”,13); 
  9.  
  10. 使軟引用softRef指向李四對應的對象,并且將該軟引用關聯到引用隊列 
  11. 2 SoftReference softRef = new SoftReference<Object>(obj,queue); 
  12.  
  13. 聲明一個person對象,名叫王酒,并保證其僅含軟引用,且將軟引用關聯到引用隊列queue 
  14. 3 SoftReference softRef = new SoftReference<Object>(new Person(“王酒”,15),queue); 
  15.  
  16. 使用很簡單softRef.get即可獲取對應的value。 

  1. WeakReference<Person> weakReference = new WeakReference<>(new Person(“浪尖”,18)); 
  2.  
  3. 聲明一個引用隊列 
  4. ReferenceQueue<Person> queue = new ReferenceQueue<>(); 
  5.  
  6. 聲明一個person對象,李四,obj是其強引用 
  7. Person obj = new Person(“李四”,13); 
  8.  
  9. 聲明一個弱引用,指向強引用obj所指向的對象,同時該引用綁定到引用隊列queue。 
  10. WeakReference weakRef = new WeakReference<Object>(obj,queue); 
  11.  
  12. 使用弱引用也很簡單,weakRef.get 

  1. 聲明引用隊列 
  2. ReferenceQueue queue = new ReferenceQueue(); 
  3.  
  4. 聲明一個虛引用 
  5. PhantomReference<Person> reference = new PhantomReference<Person>(new Person(“浪尖”,18), queue); 
  6.  
  7. 獲取虛引用的值,直接為null,因為無法通過虛引用獲取引用對象。 
  8. System.out.println(reference.get()); 

 

 

 


 

 

四 Threadlocal如何使用弱引用


 

 

五 spark如何使用弱引用進行數據清理

 

 


 

 

shuffle相關的引用,實際上是在ShuffleDependency內部實現了,shuffle狀態注冊到ContextCleaner過程:

  1. _rdd.sparkContext.cleaner.foreach(_.registerShuffleForCleanup(this)) 

然后,我們翻開registerShuffleForCleanup函數源碼可以看到,注釋的大致意思是注冊ShuffleDependency目的是在垃圾回收的時候清除掉它對應的數據:

  1. /** Register a ShuffleDependency for cleanup when it is garbage collected. */ 
  2.   def registerShuffleForCleanup(shuffleDependency: ShuffleDependency[_, _, _]): Unit = { 
  3.     registerForCleanup(shuffleDependency, CleanShuffle(shuffleDependency.shuffleId)) 
  4.   } 

其中,registerForCleanup函數如下:

  1. /** Register an object for cleanup. */ 
  2.   private def registerForCleanup(objectForCleanup: AnyRef, task: CleanupTask): Unit = { 
  3.     referenceBuffer.add(new CleanupTaskWeakReference(task, objectForCleanup, referenceQueue)) 
  4.   } 

referenceBuffer主要作用保存CleanupTaskWeakReference弱引用,確保在引用隊列沒處理前,弱引用不會被垃圾回收。

  1. /** 
  2.    * A buffer to ensure that `CleanupTaskWeakReference`s are not garbage collected as long as they 
  3.    * have not been handled by the reference queue. 
  4.    */ 
  5.   private val referenceBuffer = 
  6.     Collections.newSetFromMap[CleanupTaskWeakReference](new ConcurrentHashMap) 

ContextCleaner內部有一個線程,循環從引用隊列里取被垃圾回收的RDD等相關弱引用,然后完成對應的數據清除工作。

  1. private val cleaningThread = new Thread() { override def run(): Unit = keepCleaning() } 

其中,keepCleaning函數,如下:

  1. /** Keep cleaning RDD, shuffle, and broadcast state. */ 
  2.   private def keepCleaning(): Unit = Utils.tryOrStopSparkContext(sc) { 
  3.     while (!stopped) { 
  4.       try { 
  5.         val reference = Option(referenceQueue.remove(ContextCleaner.REF_QUEUE_POLL_TIMEOUT)) 
  6.           .map(_.asInstanceOf[CleanupTaskWeakReference]) 
  7.         // Synchronize here to avoid being interrupted on stop() 
  8.         synchronized { 
  9.           reference.foreach { ref => 
  10.             logDebug("Got cleaning task " + ref.task) 
  11.             referenceBuffer.remove(ref) 
  12.             ref.task match { 
  13.               case CleanRDD(rddId) => 
  14.                 doCleanupRDD(rddId, blocking = blockOnCleanupTasks) 
  15.               case CleanShuffle(shuffleId) => 
  16.                 doCleanupShuffle(shuffleId, blocking = blockOnShuffleCleanupTasks) 
  17.               case CleanBroadcast(broadcastId) => 
  18.                 doCleanupBroadcast(broadcastId, blocking = blockOnCleanupTasks) 
  19.               case CleanAccum(accId) => 
  20.                 doCleanupAccum(accId, blocking = blockOnCleanupTasks) 
  21.               case CleanCheckpoint(rddId) => 
  22.                 doCleanCheckpoint(rddId) 
  23.             } 
  24.           } 
  25.         } 
  26.       } catch { 
  27.         case ie: InterruptedException if stopped => // ignore 
  28.         case e: Exception => logError("Error in cleaning thread", e) 
  29.       } 
  30.     } 
  31.   } 

shuffle數據清除的函數是doCleanupShuffle,具體內容如下:

  1. /** Perform shuffle cleanup. */ 
  2.   def doCleanupShuffle(shuffleId: Int, blocking: Boolean): Unit = { 
  3.     try { 
  4.       logDebug("Cleaning shuffle " + shuffleId) 
  5.       mapOutputTrackerMaster.unregisterShuffle(shuffleId) 
  6.       shuffleDriverComponents.removeShuffle(shuffleId, blocking) 
  7.       listeners.asScala.foreach(_.shuffleCleaned(shuffleId)) 
  8.       logDebug("Cleaned shuffle " + shuffleId) 
  9.     } catch { 
  10.       case e: Exception => logError("Error cleaning shuffle " + shuffleId, e) 
  11.     } 
  12.   } 

細節就不細展開了。

 

ContextCleaner的start函數被調用后,實際上啟動了一個調度線程,每隔30min主動調用了一次System.gc(),來觸發垃圾回收。

  1. /** Start the cleaner. */ 
  2.   def start(): Unit = { 
  3.     cleaningThread.setDaemon(true
  4.     cleaningThread.setName("Spark Context Cleaner"
  5.     cleaningThread.start() 
  6.     periodicGCService.scheduleAtFixedRate(() => System.gc(), 
  7.       periodicGCInterval, periodicGCInterval, TimeUnit.SECONDS) 
  8.   } 

具體參數是:

  1. spark.cleaner.periodicGC.interval 

本文轉載自微信公眾號「浪尖聊大數據」,可以通過以下二維碼關注。轉載本文請聯系浪尖聊大數據公眾號。

 

 

責任編輯:武曉燕 來源: 浪尖聊大數據
相關推薦

2013-08-19 17:14:04

.Net強引用弱引用

2020-12-02 09:01:40

Java基礎

2015-11-02 17:20:00

Java弱引用

2009-06-16 11:26:22

弱引用內存泄露

2020-11-12 07:49:18

MySQL

2021-01-07 14:20:55

JavaGC

2024-05-20 08:58:13

Java引用類型垃圾回收器

2021-12-09 15:45:09

Python弱引用代碼

2017-10-13 10:36:33

SparkSpark-Strea關系

2009-06-19 16:19:23

Java對象引用

2021-10-08 21:00:52

數據弱引用對象

2013-06-09 13:24:00

程序員Bug

2022-01-02 06:55:08

Node.js ObjectWrapAddon

2021-11-25 07:42:11

命令Linux系統

2017-12-15 16:03:27

2013-09-16 16:48:50

Android優化軟引用

2020-12-28 11:13:24

比特幣數據匿名幣

2021-02-21 00:22:32

技術團隊工具

2021-10-18 15:50:49

Android強引用軟引用

2018-11-16 16:10:28

JavaOOM編程語言
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产精品久久久久久久久久 | 成人在线视频网 | 欧美精品一区在线 | 国产精品久久一区 | 精品国产91乱码一区二区三区 | 国产精品一区二区三区99 | 国产精品不卡视频 | 欧美日韩成人影院 | 欧美国产日韩在线观看 | 欧美精品在线一区 | 国产一区二区三区在线 | 国产一区二区 | 色久电影 | 亚洲精品国产第一综合99久久 | 美女黄网 | 国产高清精品一区二区三区 | 天天夜夜操 | 久久中文字幕一区 | 国产美女h视频 | 亚洲婷婷一区 | 色综合99| 一区二区视频在线 | 亚洲综合在线播放 | 免费国产视频在线观看 | 毛片网站在线观看 | 人人草人人干 | 亚洲成人精 | 久久99久久99久久 | 国产精品一区二区av | 午夜影视| 精品一区二区三区在线观看国产 | 一级免费毛片 | 国产精品一区二区三区四区 | www.蜜桃av | 99精品国产一区二区青青牛奶 | 欧美一区二区三区 | 很很干很很日 | 欧美精品网站 | 日韩精品一区二区三区久久 | 日本不卡一区二区三区 | 国产午夜精品久久久久免费视高清 |