成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

iOS多線程開發:幾個容易被忽略的細節

移動開發
一般情況下,iOS開發者只要會使用GCD、@synchronized、NSLock等幾個簡單的API,就可以應對大部分多線程開發了,不過這樣是否真正做到了多線程安全,又是否真正充分利用了多線程的效率優勢呢?看看以下幾個容易被忽略的細節。

一般情況下,iOS開發者只要會使用GCD、@synchronized、NSLock等幾個簡單的API,就可以應對大部分多線程開發了,不過這樣是否真正做到了多線程安全,又是否真正充分利用了多線程的效率優勢呢?看看以下幾個容易被忽略的細節。

讀者寫者問題(Readers-writers problem)

先看下讀者寫者問題的描述:

有讀者和寫者兩組并發線程,共享同一數據,當兩個或以上的讀線程同時訪問共享數據時不會產生副作用,但若某個寫線程和其他線程(讀線程或寫線程)同時訪問共享數據時則可能導致數據不一致的錯誤。因此要求:

  • 允許多個讀者可以同時對共享數據執行讀操作;
  • 只允許一個寫者寫共享數據;
  • 任一寫者在完成寫操作之前不允許其他讀者或寫者工作;
  • 寫者執行寫操作前,應讓已有的讀者和寫者全部退出。

從以上描述可以得知,所謂“讀者寫者問題”是指保證一個寫線程必須與其他線程互斥地訪問共享對象的同步問題,允許并發讀操作,但是寫操作必須和其他讀寫操作是互斥的。

大部分客戶端App做的事情無非就是從網絡拉取***數據、加工數據、展現列表,這個過程中既有拿到***數據后寫入本地的操作,也有上層業務對本地數據的讀取操作,因此會牽涉大量的多線程讀寫操作,很顯然,這些基本都屬于讀者寫者問題的范疇[1]。

然而筆者注意到,在遇到多線程讀寫問題時,多數iOS開發者都會立即想到加鎖,或者干脆避免使用多線程,但卻少有人會嘗試用讀者寫者問題的思路去進一步提升效率。

以下是實現一個簡單cache的示例代碼:

 

  1. //實現一個簡單的cache 
  2. - (void)setCache:(id)cacheObject forKey:(NSString *)key { 
  3.     if (key.length == 0) { 
  4.         return
  5.     } 
  6.     [_cacheLock lock]; 
  7.     self.cacheDic[key] = cacheObject; 
  8.     ... 
  9.     [_cacheLock unlock]; 
  10.  
  11. - (id)cacheForKey:(NSString *key) { 
  12.     if (key.length == 0) { 
  13.         return nil; 
  14.     } 
  15.     [_cacheLock lock]; 
  16.     id cacheObject = self.cacheDic[key]; 
  17.     ... 
  18.     [_cacheLock unlock]; 
  19.     return cacheObject; 

上述代碼用互斥鎖來實現多線程讀寫,做到了數據的安全讀寫,但是效率卻并不是***的,因為這種情況下,雖然寫操作和其他操作之間是互斥的,但同時讀操作之間卻也是互斥的,這會浪費cpu資源,如何改良呢?不難發現,這其實是個典型的讀者寫者問題。先看下解決讀者寫者問題的偽代碼:

 

  1. semaphore ReaderWriterMutex = 1;    //實現讀寫互斥 
  2. int Rcount = 0;             //讀者數量 
  3. semaphore CountMutex = 1;   //讀者修改計數互斥 
  4.  
  5. writer(){ 
  6.     while(true){ 
  7.         P(ReaderWriterMutex); 
  8.         write; 
  9.         V(ReaderWriterMutex);    
  10.     } 
  11.      
  12.  
  13. reader(){ 
  14.     while(true){ 
  15.         P(CountMutex); 
  16.         if(Rcount == 0)     //當***個讀者進來時,阻塞寫者 
  17.             P(ReaderWriterMutex); 
  18.         ++Rcount; 
  19.         V(CountMutex); 
  20.  
  21.         read
  22.  
  23.         P(CountMutex); 
  24.         --Rcount; 
  25.         if(Rcount == 0) 
  26.             V(ReaderWriterMutex);   //當***一個讀者離開后,釋放寫者 
  27.         V(CountMutex); 
  28.     } 

在iOS中,上述代碼中的PV原語可以替換成GCD中的信號量API,dispatch_semaphore_t來實現,但是需要額外維護一個readerCount以及實現readerCount互斥訪問的信號量,手動實現比較麻煩,封裝成統一接口有一定難度。不過好在iOS開發中可以找到現成的讀者寫者鎖:

pthread_rwlock_t

這是一個古老的C語言層面的函數,用法如下:

 

  1. // Initialization of lock, pthread_rwlock_t is a value type and must be declared as var in order to refer it later. Make sure not to copy it. 
  2. var lock = pthread_rwlock_t() 
  3. pthread_rwlock_init(&lock, nil) 
  4.  
  5. // Protecting read section
  6. pthread_rwlock_rdlock(&lock) 
  7. // Read shared resource 
  8. pthread_rwlock_unlock(&lock) 
  9.  
  10. // Protecting write section
  11. pthread_rwlock_wrlock(&lock) 
  12. // Write shared resource 
  13. pthread_rwlock_unlock(&lock) 
  14.  
  15. // Clean up 
  16. pthread_rwlock_destroy(&lock) 

接口簡潔但是卻不友好,需要注意pthread_rwlock_t是值類型,用=賦值會直接拷貝,不小心就會浪費內存,另外用完后還需要記得銷毀,容易出錯,有沒有更高級更易用的API呢?

GCD barrier

dispatch_barrier_async / dispatch_barrier_sync并不是專門用來解決讀者寫者問題的,barrier主要用于以下場景:當執行某一任務A時,需要該隊列上之前添加的所有操作都執行完,而之后添加進來的任務,需要等待任務A執行完畢才可以執行,從而達到將任務A隔離的目的,具體過程如下圖所示:

iOS多線程開發:幾個容易被忽略的細節

如果將barrier任務之前和之后的并發任務換為讀操作,barrier任務本身換為寫操作,就可以將dispatch_barrier_async / dispatch_barrier_sync當做讀者寫者鎖來使用了,下面把文初的使用普通鎖實現的cache代碼,用dispatch_barrier_async重寫,做下對比:

  1. //實現一個簡單的cache(使用普通鎖) 
  2. - (void)setCache:(id)cacheObject forKey:(NSString *)key { 
  3.     if (key.length == 0) { 
  4.         return
  5.     } 
  6.     [_cacheLock lock]; 
  7.     self.cacheDic[key] = cacheObject; 
  8.     ... 
  9.     [_cacheLock unlock]; 
  10.  
  11. - (id)cacheForKey:(NSString *key) { 
  12.     if (key.length == 0) { 
  13.         return nil; 
  14.     } 
  15.     [_cacheLock lock]; 
  16.     id cacheObject = self.cacheDic[key]; 
  17.     ... 
  18.     [_cacheLock unlock]; 
  19.     return cacheObject; 

 

  1. //實現一個簡單的cache(使用讀者寫者鎖) 
  2. static dispatch_queue_t queue = dispatch_queue_create("com.gfzq.testQueue", DISPATCH_QUEUE_CONCURRENT); 
  3.  
  4. - (void)setCache:(id)cacheObject forKey:(NSString *)key { 
  5.     if (key.length == 0) { 
  6.         return
  7.     } 
  8.     dispatch_barrier_async(queue, ^{ 
  9.         self.cacheDic[key] = cacheObject; 
  10.         ... 
  11.     }); 
  12.  
  13. - (id)cacheForKey:(NSString *key) { 
  14.     if (key.length == 0) { 
  15.         return nil; 
  16.     } 
  17.     __block id cacheObject = nil; 
  18.     dispatch_sync(queue, ^{ 
  19.         cacheObject = self.cacheDic[key]; 
  20.         ... 
  21.     }); 
  22.     return cacheObject; 

這樣實現的cache就可以并發執行讀操作,同時又有效地隔離了寫操作,兼顧了安全和效率。

對于聲明為atomic而且又自己手動實現getter或者setter的屬性,也可以用barrier來改進:

 

  1. @property (atomic, copy) NSString *someString; 
  2.  
  3. - (NSString *)someString { 
  4.     __block NSString *tempString; 
  5.     dispatch_sync(_syncQueue, ^{ 
  6.         tempString = _someString; 
  7.     }); 
  8.     return tempString; 
  9.  
  10. - (void)setSomeString :(NSString *)someString { 
  11.     dispatch_barrier_async(_syncQueue, ^{ 
  12.         _someString = someString 
  13.         ... 
  14.     } 

在做到atomic的同時,getter之間還可以并發執行,比直接把setter和getter都放到串行隊列或者加普通鎖要更高效。

讀者寫者鎖能提升多少效率?

使用讀者寫者鎖一定比所有讀寫都加鎖以及使用串行隊列要快,但是到底能快多少呢?Dmytro Anokhin在[3]中做了實驗對比,測出了分別使用NSLock、GCD barrier和pthread_rwlock時獲取鎖所需要的平均時間,實驗樣本數在100到1000之間,去掉***和***的10%,結果如下列圖表所示:

iOS多線程開發:幾個容易被忽略的細節
3 writers / 10 readers

iOS多線程開發:幾個容易被忽略的細節
1 writer / 10 readers

iOS多線程開發:幾個容易被忽略的細節
5 writers / 5 readers

iOS多線程開發:幾個容易被忽略的細節
10 writers / 1 reader

分析可知:

  1. 使用讀者寫者鎖(GCD barrier、pthread_rwlock),相比單純使用普通鎖(NSLock),效率有顯著提升;
  2. 讀者數量越多,寫者數量越少,使用讀者寫者鎖的效率優勢越明顯;
  3. 使用GCD barrier和使用pthread_rwlock的效率差異不大。

由于pthread_rwlock不易使用且容易出錯,而且GCD barrier和pthread_rwlock對比性能相當,建議使用GCD barrier來解決iOS開發中遇到的讀者寫者問題。另外,使用GCD還有個潛在優勢:GCD面向隊列而非線程,dispatch至某一隊列的任務,可能在任一線程上執行,這些對開發者是透明的,這樣設計的好處顯而易見,GCD可以根據實際情況從自己管理的線程池中挑選出開銷最小的線程來執行任務,***程度減小context切換次數。

iOS多線程開發:幾個容易被忽略的細節

何時使用讀者寫者鎖

需要注意的是,并非所有的多線程讀寫場景都一定是讀者寫者問題,使用時要注意辨別。例如以下YYCache的代碼:

  1. //讀cache 
  2. - (id)objectForKey:(id)key { 
  3.     if (!keyreturn nil; 
  4.     pthread_mutex_lock(&_lock); 
  5.     _YYLinkedMapNode *node = CFDictionaryGetValue(_lru->_dic, (__bridge const void *)(key)); 
  6.     if (node) { 
  7.         node->_time = CACurrentMediaTime(); 
  8.         [_lru bringNodeToHead:node]; 
  9.     } 
  10.     pthread_mutex_unlock(&_lock); 
  11.     return node ? node->_value : nil; 

 

  1. //寫cache 
  2. - (void)setObject:(id)object forKey:(id)key withCost:(NSUInteger)cost { 
  3.     if (!keyreturn
  4.     if (!object) { 
  5.         [self removeObjectForKey:key]; 
  6.         return
  7.     } 
  8.     pthread_mutex_lock(&_lock); 
  9.     _YYLinkedMapNode *node = CFDictionaryGetValue(_lru->_dic, (__bridge const void *)(key)); 
  10.     NSTimeInterval now = CACurrentMediaTime(); 
  11.     if (node) { 
  12.         _lru->_totalCost -= node->_cost; 
  13.         _lru->_totalCost += cost; 
  14.         node->_cost = cost; 
  15.         node->_time = now; 
  16.         node->_value = object; 
  17.         [_lru bringNodeToHead:node]; 
  18.     } else { 
  19.         node = [_YYLinkedMapNode new]; 
  20.         node->_cost = cost; 
  21.         node->_time = now; 
  22.         node->_key = key
  23.         node->_value = object; 
  24.         [_lru insertNodeAtHead:node]; 
  25.     } 
  26.     if (_lru->_totalCost > _costLimit) { 
  27.         dispatch_async(_queue, ^{ 
  28.             [self trimToCost:_costLimit]; 
  29.         }); 
  30.     } 
  31.     if (_lru->_totalCount > _countLimit) { 
  32.         _YYLinkedMapNode *node = [_lru removeTailNode]; 
  33.         if (_lru->_releaseAsynchronously) { 
  34.             dispatch_queue_t queue = _lru->_releaseOnMainThread ? dispatch_get_main_queue() : YYMemoryCacheGetReleaseQueue(); 
  35.             dispatch_async(queue, ^{ 
  36.                 [node class]; //hold and release in queue 
  37.             }); 
  38.         } else if (_lru->_releaseOnMainThread && !pthread_main_np()) { 
  39.             dispatch_async(dispatch_get_main_queue(), ^{ 
  40.                 [node class]; //hold and release in queue 
  41.             }); 
  42.         } 
  43.     } 
  44.     pthread_mutex_unlock(&_lock); 

這里的cache由于使用了LRU淘汰策略,每次在讀cache的同時,會將本次的cache放到數據結構的最前面,從而延緩最近使用的cache被淘汰的時機,因為每次讀操作的同時也會發生寫操作,所以這里直接使用pthread_mutex互斥鎖,而沒有使用讀者寫者鎖。

綜上所述,如果你所遇到的多線程讀寫場景符合:

  1. 存在單純的讀操作(即讀任務里沒有同時包含寫操作);
  2. 讀者數量較多,而寫者數量較少。

都應該考慮使用讀者寫者鎖來進一步提升并發率。

注意:

(1)讀者寫者問題包含“讀者優先”和“寫者優先”兩類:前者表示讀線程只要看到有其他讀線程正在訪問文件,就可以繼續作讀訪問,寫線程必須等待所有讀線程都不訪問時才能寫文件,即使寫線程可能比一些讀線程更早提出申請;而寫者優先表示寫線程只要提出申請,再后來的讀線程就必須等待該寫線程完成。GCD的barrier屬于寫者優先的實現。具體請參考文檔[2]。

(2)串行隊列上沒必要使用GCD barrier,應該使用dispatch_queue_create建立的并發隊列;dispatch_get_global_queue由于是全局共享隊列,使用barrier達不到隔離當前任務的效果,會自動降級為dispatch_sync / dispatch_async。[5]

鎖的粒度(Granularity)

首先看兩段代碼:

代碼段1

 

  1. @property (atomic, copy) NSString *atomicStr; 
  2.  
  3. //thread A 
  4. atomicSr = @"am on thread A"
  5. NSLog(@"%@", atomicStr); 
  6.  
  7. //thread B 
  8. atomicSr = @"am on thread B"
  9. NSLog(@"%@", atomicStr); 

代碼段2

 

  1. - (void)synchronizedAMethod { 
  2.     @synchronized (self) { 
  3.         ... 
  4.     } 
  5.  
  6. - (void)synchronizedBMethod { 
  7.     @synchronized (self) { 
  8.         ... 
  9.     } 
  10.  
  11. - (void)synchronizedCMethod { 
  12.     @synchronized (self) { 
  13.         ... 
  14.     } 

粒度過小

執行代碼段1,在線程A上打印出來的字符串卻可能是“am on thread B”,原因是雖然atomicStr是原子操作,但是取出atomicStr之后,在執行NSLog之前,atomicStr仍然可能會被線程B修改。因此atomic聲明的屬性,只能保證屬性的get和set是完整的,但是卻不能保證get和set完之后的關于該屬性的操作是多線程安全的,這就是aomic聲明的屬性不一定能保證多線程安全的原因。

同樣的,不僅僅是atomic聲明的屬性,在開發中自己加的鎖如果粒度太小,也不能保證線程安全,代碼段1其實和下面代碼效果一致:

 

  1. @property (nonatomic, strong) NSLock *lock; 
  2. @property (nonatomic, copy) NSString *atomicStr; 
  3.  
  4. //thread A 
  5. [_lock lock]; 
  6. atomicSr = @"am on thread A"
  7. [_lock unlock]; 
  8. NSLog(@"%@", atomicStr); 
  9.  
  10. //thread B 
  11. [_lock lock]; 
  12. atomicSr = @"am on thread B"
  13. [_lock unlock]; 
  14. NSLog(@"%@", atomicStr); 

如果想讓程序按照我們的初衷,設置完atomicStr后打印出來的就是設置的值,就需要加大鎖的范圍,將NSLog也包括在臨界區內:

 

  1. //thread A 
  2. [_lock lock]; 
  3. atomicSr = @"am on thread A"
  4. NSLog(@"%@", atomicStr); 
  5. [_lock unlock]; 
  6.  
  7. //thread B 
  8. [_lock lock]; 
  9. atomicSr = @"am on thread B"
  10. NSLog(@"%@", atomicStr); 
  11. [_lock unlock]; 

示例代碼很簡單,很容易看出問題所在,但是在實際開發中遇到更復雜些的代碼塊時,一不小心就可能踏入坑里。因此在設計多線程代碼時,要特別注意代碼之間的邏輯關系,若后續代碼依賴于加鎖部分的代碼,那這些后續代碼也應該一并加入鎖中。

粒度過大

@synchronized關鍵字會自動根據傳入對象創建一個與之關聯的鎖,在代碼塊開始時自動加鎖,并在代碼塊結束后自動解鎖,語法簡單明了,很方便使用,但是這也導致部分開發者過渡依賴于@synchronized關鍵字,濫用@synchronized(self)。如上述代碼段2中的寫法,在一整個類文件里,所有加鎖的地方用的都是@synchronized(self),這就可能會導致不相關的線程執行時都要互相等待,原本可以并發執行的任務不得不串行執行。另外使用@synchronized(self)還可能導致死鎖:

 

  1. //class A 
  2.  
  3. @synchronized (self) { 
  4.     [_sharedLock lock]; 
  5.     NSLog(@"code in class A"); 
  6.     [_sharedLock unlock]; 
  7.  
  8. //class B 
  9. [_sharedLock lock]; 
  10. @synchronized (objectA) { 
  11.     NSLog(@"code in class B"); 
  12. [_sharedLock unlock]; 

原因是因為self很可能會被外部對象訪問,被用作key來生成一鎖,類似上述代碼中的@synchronized (objectA)。兩個公共鎖交替使用的場景就容易出現死鎖。所以正確的做法是傳入一個類內部維護的NSObject對象,而且這個對象是對外不可見的[2]。

因此,不相關的多線程代碼,要設置不同的鎖,一個鎖只管一個臨界區。除此之外,還有種常見的錯誤做法會導致并發效率下降:

 

  1. //thread A 
  2. [_lock lock]; 
  3. atomicSr = @"am on thread A"
  4. NSLog(@"%@", atomicStr); 
  5. //do some other tasks which are none of business with atomicStr; 
  6. for (int i = 0; i < 100000; i ++) { 
  7.     sleep(5); 
  8. [_lock unlock]; 
  9.  
  10. //thread B 
  11. [_lock lock]; 
  12. atomicSr = @"am on thread B"
  13. NSLog(@"%@", atomicStr); 
  14. //do some other tasks which are none of business with atomicStr; 
  15. for (int i = 0; i < 100000; i ++) { 
  16.     sleep(5); 
  17. [_lock unlock]; 

即在臨界區內包含了與當前加鎖對象無關的任務,實際應用中,需要我們尤其注意臨界區內的每一個函數,因為其內部實現可能調用了耗時且無關的任務。

遞歸鎖(Recursive lock)

相比較上述提到的@synchronized(self),下面這種情形引起的死鎖更加常見:

 

  1. @property (nonatomic,strong) NSLock *lock; 
  2.  
  3. _lock = [[NSLock alloc] init]; 
  4.  
  5. - (void)synchronizedAMethod { 
  6.     [_lock lock]; 
  7.     //do some tasks 
  8.     [self synchronizedBMethod]; 
  9.     [_lock unlock]; 
  10.  
  11. - (void)synchronizedBMethod { 
  12.     [_lock lock]; 
  13.     //do some tasks 
  14.     [_lock unlock]; 

A方法已獲取鎖后,再調用B方法,就會觸發死鎖,B方法在等待A方法執行完成釋放鎖后才能繼續執行,而A方法執行完成的前提是執行完B方法。實際開發中,可能發生死鎖的情形往往隱蔽在方法的層層調用中。因此建議在不能確定是否會產生死鎖時,***使用遞歸鎖。更保守一點的做法是不論何時都使用遞歸鎖,因為很難保證以后的代碼會不會在同一線程上多次加鎖。

遞歸鎖允許同一個線程在未釋放其擁有的鎖時反復對該鎖進行加鎖操作,內部通過一個計數器來實現。除了NSRecursiveLock,也可以使用性能更佳的pthread_mutex_lock,初始化時參數設置為PTHREAD_MUTEX_RECURSIVE即可:

 

  1. pthread_mutexattr_t attr; 
  2. pthread_mutexattr_init (&attr); 
  3. pthread_mutexattr_settype (&attr, PTHREAD_MUTEX_RECURSIVE); 
  4. pthread_mutex_init (&_lock, &attr); 
  5. pthread_mutexattr_destroy (&attr); 

值得注意的是,@synchronized內部使用的也是遞歸鎖:

 

  1. // Begin synchronizing on 'obj'.  
  2. // Allocates recursive mutex associated with 'obj' if needed. 
  3. // Returns OBJC_SYNC_SUCCESS once lock is acquired.   
  4. int objc_sync_enter(id obj) 
  5.     int result = OBJC_SYNC_SUCCESS; 
  6.  
  7.     if (obj) { 
  8.         SyncData* data = id2data(obj, ACQUIRE); 
  9.         assert(data); 
  10.         data->mutex.lock(); 
  11.     } else { 
  12.         // @synchronized(nil) does nothing 
  13.         if (DebugNilSync) { 
  14.             _objc_inform("NIL SYNC DEBUG: @synchronized(nil); set a breakpoint on objc_sync_nil to debug"); 
  15.         } 
  16.         objc_sync_nil(); 
  17.     } 
  18.  
  19.     return result; 

總結

想寫出高效、安全的多線程代碼,只是熟悉GCD、@synchronized、NSLock這幾個API是不夠的,還需要了解更多API背后的知識,深刻理解臨界區的概念、理清各個任務之間的時序關系是必要條件。

責任編輯:未麗燕 來源: 簡書
相關推薦

2017-01-15 01:12:40

碼農簡歷專業名詞

2013-11-14 10:06:10

2014-06-03 09:53:21

WWDC2014iOS 8亮點

2020-03-03 10:17:00

云計算公共云

2013-09-17 13:24:07

Unix操作系統

2012-04-23 15:49:04

2015-07-22 09:39:38

IOS多線程同步

2015-07-22 09:51:51

iOS開發線程

2022-03-31 11:56:34

Android 12智能手機功能

2017-06-01 11:55:45

混合云連接云計算

2025-03-04 08:40:00

開發varJavaScrip

2011-08-18 17:07:23

IOS開發多線程NSInvocatio

2010-05-17 09:50:24

PHP

2025-05-09 00:22:00

2024-04-26 00:10:23

Python代碼開發

2014-07-10 09:40:19

iOSmain函數

2019-01-16 08:05:56

2011-11-22 10:27:39

2023-09-07 07:24:19

2013-07-16 10:12:14

iOS多線程多線程概念多線程入門
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 日韩在线资源 | 中国大陆高清aⅴ毛片 | 精品久久久久国产 | 亚洲综合色丁香婷婷六月图片 | 色综合99 | 在线2区 | 成人黄色av | 91视频观看 | 国产乱码精品一区二区三区中文 | 国产色网站 | 在线观看成人av | 免费视频久久久久 | 波多野结衣电影一区 | 黄色成人国产 | 99热在这里只有精品 | 久久免费小视频 | 国产电影一区二区在线观看 | 日韩www| 黄网免费 | 国产午夜精品久久久 | 亚洲高清免费视频 | 全部免费毛片在线播放网站 | 免费视频一区二区 | 亚洲精品一区二区 | 色资源在线观看 | 欧美成人一区二区 | 色久伊人 | 91婷婷韩国欧美一区二区 | 在线观看欧美一区 | 久久这里只有精品首页 | 国产自产21区 | 久草综合在线 | 精品一区欧美 | 久久中文字幕一区 | 天天射影院 | 亚洲一级视频在线 | 成人精品 | 国产精品免费看 | 在线一区 | 天天色官网| 国产精品久久久久永久免费观看 |