成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

從Linux源碼看Socket(TCP)的Bind

系統 Linux
今天筆者就來從Linux源碼的角度看下Server端的Socket在進行bind的時候到底做了哪些事情(基于Linux 3.10內核)。

[[345250]]

前言

筆者一直覺得如果能知道從應用到框架再到操作系統的每一處代碼,是一件Exciting的事情。今天筆者就來從Linux源碼的角度看下Server端的Socket在進行bind的時候到底做了哪些事情(基于Linux 3.10內核)。

一個最簡單的Server端例子

眾所周知,一個Server端Socket的建立,需要socket、bind、listen、accept四個步驟。

 

代碼如下:

  1. void start_server(){ 
  2.     // server fd 
  3.     int sockfd_server; 
  4.     // accept fd 
  5.     int sockfd; 
  6.     int call_err; 
  7.     struct sockaddr_in sock_addr; 
  8.  
  9.     sockfd_server = socket(AF_INET,SOCK_STREAM,0); 
  10.     memset(&sock_addr,0,sizeof(sock_addr)); 
  11.     sock_addr.sin_family = AF_INET; 
  12.     sock_addr.sin_addr.s_addr = htonl(INADDR_ANY); 
  13.     sock_addr.sin_port = htons(SERVER_PORT); 
  14.     // 這邊就是我們今天的聚焦點bind 
  15.     call_err=bind(sockfd_server,(struct sockaddr*)(&sock_addr),sizeof(sock_addr)); 
  16.     if(call_err == -1){ 
  17.         fprintf(stdout,"bind error!\n"); 
  18.         exit(1); 
  19.     } 
  20.     // listen 
  21.     call_err=listen(sockfd_server,MAX_BACK_LOG); 
  22.     if(call_err == -1){ 
  23.         fprintf(stdout,"listen error!\n"); 
  24.         exit(1); 
  25.     } 

首先我們通過socket系統調用創建了一個socket,其中指定了SOCK_STREAM,而且最后一個參數為0,也就是建立了一個通常所有的TCP Socket。在這里,我們直接給出TCP Socket所對應的ops也就是操作函數。

bind系統調用

bind將一個本地協議地址(protocol:ip:port)賦予一個套接字。例如32位的ipv4地址或128位的ipv6地址+16位的TCP或UDP端口號。

  1. #include <sys/socket.h> 
  2. // 返回,若成功則為0,若出錯則為-1 
  3. int bind(int sockfd, const struct sockaddr *myaddr, socklen_t addrlen); 

好了,我們直接進入Linux源碼調用棧吧。

 

  1. bind 
  2.     // 這邊由系統調用的返回值會被glibc的INLINE_SYSCALL包一層 
  3.     // 若有錯誤,則設置返回值為-1,同時將系統調用的返回值的絕對值設置給errno 
  4.     |->INLINE_SYSCALL (bind......); 
  5.         |->SYSCALL_DEFINE3(bind......); 
  6.             /* 檢測對應的描述符fd是否存在,不存在,返回-BADF 
  7.             |->sockfd_lookup_light 
  8.             |->sock->ops->bind(inet_stream_ops) 
  9.                 |->inet_bind 
  10.                     |->AF_INET兼容性檢查 
  11.                     |-><1024端口權限檢查 
  12.                     /* bind端口號校驗or選擇(在bind為0的時候) 
  13.                     |->sk->sk_prot->get_port(inet_csk_get_port) 

inet_bind

inet_bind這個函數主要做了兩個操作,一是檢測是否允許bind,而是獲取可用的端口號。這邊值得注意的是。如果我們設置需要bind的端口號為0,那么Kernel會幫我們隨機選擇一個可用的端口號來進行bind!

  1. // 讓系統隨機選擇可用端口號 
  2. sock_addr.sin_port = 0; 
  3. call_err=bind(sockfd_server,(struct sockaddr*)(&sock_addr),sizeof(sock_addr)); 

讓我們看下inet_bind的流程

 

值得注意的是,由于對于<1024的端口號需要CAP_NET_BIND_SERVICE,我們在監聽80端口號(例如啟動nginx時候),需要使用root用戶或者賦予這個可執行文件CAP_NET_BIND_SERVICE權限。

  1. use root 
  2.  or 
  3. setcap cap_net_bind_service=+eip ./nginx 

我們的bind允許綁定到0.0.0.0即INADDR_ANY這個地址上(一般都用這個),它意味著內核去選擇IP地址。對我們最直接的影響如下圖所示:

 


 

 

然后,我們看下一個比較復雜的函數,即可用端口號的選擇過程inet_csk_get_port

(sk->sk_prot->get_port)

inet_csk_get_port

第一段,如果bind port為0,隨機搜索可用端口號

直接上源碼,第一段代碼為端口號為0的搜索過程

  1. // 這邊如果snum指定為0,則隨機選擇端口 
  2. int inet_csk_get_port(struct sock *sk, unsigned short snum) 
  3.     ...... 
  4.     // 這邊net_random()采用prandom_u32,是偽(pseudo)隨機數 
  5.     smallest_rover = rover = net_random() % remaining + low; 
  6.     smallest_size = -1; 
  7.     // snum=0,隨機選擇端口的分支 
  8.     if(!sum){ 
  9.         // 獲取內核設置的端口號范圍,對應內核參數/proc/sys/net/ipv4/ip_local_port_range 
  10.         inet_get_local_port_range(&low,&high); 
  11.         ...... 
  12.         do{ 
  13.             if(inet_is_reserved_local_port(rover) 
  14.                 goto next_nonlock; // 不選擇保留端口號 
  15.             ...... 
  16.             inet_bind_bucket_for_each(tb, &head->chain) 
  17.                 // 在同一個網絡命名空間下存在和當前希望選擇的port rover一樣的port 
  18.                 if (net_eq(ib_net(tb), net) && tb->port == rover) { 
  19.                     // 已經存在的sock和當前新sock都開啟了SO_REUSEADDR,且當前sock狀態不為listen 
  20.                     // 或者 
  21.                     // 已經存在的sock和當前新sock都開啟了SO_REUSEPORT,而且兩者都是同一個用戶 
  22.                     if (((tb->fastreuse > 0 && 
  23.                           sk->sk_reuse && 
  24.                           sk->sk_state != TCP_LISTEN) || 
  25.                          (tb->fastreuseport > 0 && 
  26.                           sk->sk_reuseport && 
  27.                           uid_eq(tb->fastuid, uid))) && 
  28.                         (tb->num_owners < smallest_size || smallest_size == -1)) { 
  29.                        // 這邊是選擇一個最小的num_owners的port,即同時bind或者listen最小個數的port 
  30.                        // 因為一個端口號(port)在開啟了so_reuseaddr/so_reuseport之后,是可以多個進程同時使用的 
  31.                         smallest_size = tb->num_owners; 
  32.                         smallest_rover = rover; 
  33.                         if (atomic_read(&hashinfo->bsockets) > (high - low) + 1 && 
  34.                             !inet_csk(sk)->icsk_af_ops->bind_conflict(sk, tb, false)) { 
  35.                             // 進入這個分支,表明可用端口號已經不夠了,同時綁定當前端口號和之前已經使用此port的不沖突,則我們選擇這個端口號(最小的) 
  36.                             snum = smallest_rover; 
  37.                             goto tb_found; 
  38.                         } 
  39.                     } 
  40.                     // 若端口號不沖突,則選擇這個端口 
  41.                     if (!inet_csk(sk)->icsk_af_ops->bind_conflict(sk, tb, false)) { 
  42.                         snum = rover; 
  43.                         goto tb_found; 
  44.                     } 
  45.                     goto next
  46.                 } 
  47.             break; 
  48.             // 直至遍歷完所有的可用port 
  49.         } while (--remaining > 0); 
  50.     } 
  51.     ....... 

由于,我們在使用bind的時候很少隨機端口號(在TCP服務器來說尤其如此),這段代碼筆者就注釋一下。一般只有一些特殊的遠程過程調用(RPC)中會使用隨機Server端隨機端口號。

第二段,找到端口號或已經指定

  1. have_snum: 
  2.     inet_bind_bucket_for_each(tb, &head->chain) 
  3.             if (net_eq(ib_net(tb), net) && tb->port == snum) 
  4.                 goto tb_found; 
  5.     } 
  6.     tb = NULL
  7.     goto tb_not_found 
  8. tb_found: 
  9.     // 如果此port已被bind 
  10.     if (!hlist_empty(&tb->owners)) { 
  11.         // 如果設置為強制重用,則直接成功 
  12.         if (sk->sk_reuse == SK_FORCE_REUSE) 
  13.             goto success; 
  14.     } 
  15.     if (((tb->fastreuse > 0 && 
  16.               sk->sk_reuse && sk->sk_state != TCP_LISTEN) || 
  17.              (tb->fastreuseport > 0 && 
  18.               sk->sk_reuseport && uid_eq(tb->fastuid, uid))) && 
  19.             smallest_size == -1) { 
  20.             // 這個分支表明之前bind的port和當前sock都設置了reuse同時當前sock狀態不為listen 
  21.             // 或者同時設置了reuseport而且是同一個uid(注意,設置了reuseport后,可以同時listen同一個port了) 
  22.             goto success; 
  23.     } else { 
  24.             ret = 1; 
  25.             // 檢查端口是否沖突 
  26.             if (inet_csk(sk)->icsk_af_ops->bind_conflict(sk, tb, true)) { 
  27.                 if (((sk->sk_reuse && sk->sk_state != TCP_LISTEN) || 
  28.                      (tb->fastreuseport > 0 && 
  29.                       sk->sk_reuseport && uid_eq(tb->fastuid, uid))) && 
  30.                     smallest_size != -1 && --attempts >= 0) { 
  31.                     // 若沖突,但是設置了reuse非listen狀態或者設置了reuseport且出在同一個用戶下 
  32.                     // 則可以進行重試 
  33.                     spin_unlock(&head->lock); 
  34.                     goto again; 
  35.                 } 
  36.  
  37.                 goto fail_unlock; 
  38.             } 
  39.             // 不沖突,走下面的邏輯 
  40.         } 
  41. tb_not_found: 
  42.     if (!tb && (tb = inet_bind_bucket_create(hashinfo->bind_bucket_cachep, 
  43.                     net, head, snum)) == NULL
  44.             goto fail_unlock; 
  45.     // 設置fastreuse 
  46.     // 設置fastreuseport 
  47. success: 
  48.     ...... 
  49.     // 將當前sock鏈入tb->owner,同時tb->num_owners++ 
  50.     inet_bind_hash(sk, tb, snum); 
  51.     ret = 0; 
  52.     // 返回bind(綁定)成功 
  53.     return ret; 

判斷端口號是否沖突

在上述源碼中,判斷端口號時否沖突的代碼為

  1. inet_csk(sk)->icsk_af_ops->bind_conflict 也即 inet_csk_bind_conflict 
  2. int inet_csk_bind_conflict(const struct sock *sk, 
  3.                const struct inet_bind_bucket *tb, bool relax){ 
  4.     ...... 
  5.     sk_for_each_bound(sk2, &tb->owners) { 
  6.             // 這邊判斷表明,必須同一個接口(dev_if)才進入下內部分支,也就是說不在同一個接口端口的不沖突 
  7.             if (sk != sk2 && 
  8.             !inet_v6_ipv6only(sk2) && 
  9.             (!sk->sk_bound_dev_if || 
  10.              !sk2->sk_bound_dev_if || 
  11.              sk->sk_bound_dev_if == sk2->sk_bound_dev_if)) 
  12.              { 
  13.                  if ((!reuse || !sk2->sk_reuse || 
  14.                 sk2->sk_state == TCP_LISTEN) && 
  15.                 (!reuseport || !sk2->sk_reuseport || 
  16.                 (sk2->sk_state != TCP_TIME_WAIT && 
  17.                  !uid_eq(uid, sock_i_uid(sk2))))) { 
  18.                // 在有一方沒設置reuse且sock2狀態為listen 同時 
  19.                // 有一方沒設置reuseport且sock2狀態不為time_wait同時兩者的uid不一樣的時候 
  20.                 const __be32 sk2_rcv_saddr = sk_rcv_saddr(sk2); 
  21.                 if (!sk2_rcv_saddr || !sk_rcv_saddr(sk) || 
  22.                       // ip地址一樣,才算沖突 
  23.                     sk2_rcv_saddr == sk_rcv_saddr(sk)) 
  24.                     break; 
  25.             } 
  26.             // 非放松模式,ip地址一樣,才算沖突 
  27.             ...... 
  28.               return sk2 != NULL
  29.     } 
  30.     ...... 

上面代碼的邏輯如下圖所示:

 


 

 

SO_REUSEADDR和SO_REUSEPORT

上面的代碼有點繞,筆者就講一下,對于我們日常開發要關心什么。

我們在上面的bind里面經常見到sk_reuse和sk_reuseport這兩個socket的Flag。這兩個Flag能夠決定是否能夠bind(綁定)成功。這兩個Flag的設置在C語言里面如下代碼所示:

  1. setsockopt(sockfd_server, SOL_SOCKET, SO_REUSEADDR, &(int){ 1 }, sizeof(int)); 
  2. setsockopt(sockfd_server, SOL_SOCKET, SO_REUSEPORT, &(int){ 1 }, sizeof(int)); 

在原生JAVA中

  1. // java8中,原生的socket并不支持so_reuseport 
  2.  ServerSocket server = new ServerSocket(port); 
  3.  server.setReuseAddress(true); 

在Netty(Netty版本 >= 4.0.16且Linux內核版本>=3.9以上)中,可以使用SO_REUSEPORT。

SO_REUSEADDR

在之前的源碼里面,我們看到判斷bind是否沖突的時候,有這么一個分支

  1. (!reuse || !sk2->sk_reuse || 
  2.                 sk2->sk_state == TCP_LISTEN) /* 暫忽略reuseport */){ 
  3.     // 即有一方沒有設置 

如果sk2(即已bind的socket)是TCP_LISTEN狀態或者,sk2和新sk兩者都沒有設置_REUSEADDR的時候,可以判斷為沖突。

我們可以得出,如果原sock和新sock都設置了SO_REUSEADDR的時候,只要原sock不是Listen狀態,都可以綁定成功,甚至ESTABLISHED狀態也可以!

 

 


 

 

這個在我們平常工作中,最常見的就是原sock處于TIME_WAIT狀態,這通常在我們關閉Server的時候出現,如果不設置SO_REUSEADDR,則會綁定失敗,進而啟動不來服務。而設置了SO_REUSEADDR,由于不是TCP_LISTEN,所以可以成功。

 

這個特性在緊急重啟以及線下調試的非常有用,建議開啟。

SO_REUSEPORT

SO_REUSEPORT是Linux在3.9版本引入的新功能。

1.在海量高并發連接的創建時候,由于正常的模型是單線程listener分發,無法利用多核優勢,這就會成為瓶頸。

2.CPU緩存行丟失

我們看下一般的Reactor線程模型,

 


 

 

明顯的其單線程listen/accept會存在瓶頸(如果采用多線程epoll accept,則會驚群,加WQ_FLAG_EXCLUSIVE可以解決一部分),尤其是在采用短鏈接的情況下。

鑒于此,Linux增加了SO_REUSEPORT,而之前bind中判斷是否沖突的下面代碼也是為這個參數而添加的邏輯:

  1. if(!reuseport || !sk2->sk_reuseport || 
  2.                 (sk2->sk_state != TCP_TIME_WAIT && 
  3.                  !uid_eq(uid, sock_i_uid(sk2)) 

這段代碼讓我們在多次bind的時候,如果設置了SO_REUSEPORT的時候不會報錯,也就是讓我們有個多線程(進程)bind/listen的能力。如下圖所示:

 

而開啟了SO_REUSEPORT后,代碼棧如下:

  1. tcp_v4_rcv 
  2.     |->__inet_lookup_skb 
  3.         |->__inet_lookup 
  4.             |->__inet_lookup_listener 
  5.  /* 用打分和偽隨機數等挑選出一個listen的sock */ 
  6. struct sock *__inet_lookup_listener(......) 
  7.     ...... 
  8.     if (score > hiscore) { 
  9.             result = sk; 
  10.             hiscore = score; 
  11.             reuseport = sk->sk_reuseport; 
  12.             if (reuseport) { 
  13.                 phash = inet_ehashfn(net, daddr, hnum, 
  14.                              saddr, sport); 
  15.                 matches = 1; 
  16.             } 
  17.         } else if (score == hiscore && reuseport) { 
  18.             matches++; 
  19.             if (((u64)phash * matches) >> 32 == 0) 
  20.                 result = sk; 
  21.             phash = next_pseudo_random32(phash); 
  22.         } 
  23.     ...... 

直接在內核層面做負載均衡,將accept的任務分散到不同的線程的不同socket上(Sharding),毫無疑問可以多核能力,大幅提升連接成功后的socket分發能力。

Nginx已經采用SO_REUSEPORT

Nginx在1.9.1版本的時候引入了SO_REUSEPORT,配置如下:

  1. http { 
  2.      server { 
  3.           listen 80 reuseport; 
  4.           server_name  localhost; 
  5.           # ... 
  6.      } 
  7.  
  8. stream { 
  9.      server { 
  10.           listen 12345 reuseport; 
  11.           # ... 
  12.      } 

 

 


 

總結

Linux內核源碼博大精深,一個看起來簡單的bind系統調用竟然牽涉這么多,在里面可以挖掘出各種細節。在此分享出來,希望對讀者有所幫助。

本文轉載自微信公眾號「解Bug之路」,可以通過以下二維碼關注。轉載本文請聯系解Bug之路公眾號。

【編輯推薦】

【責任編輯:武曉燕 TEL:(010)68476606】

 

責任編輯:武曉燕 來源: 解Bug之路
相關推薦

2021-06-10 09:52:33

LinuxTCPAccept

2020-10-14 14:31:37

LinuxTCP連接

2021-07-15 14:27:47

LinuxSocketClose

2021-07-14 09:48:15

Linux源碼Epoll

2010-01-21 11:19:44

TCP Socketlinux

2021-03-10 08:20:54

設計模式OkHttp

2017-04-05 20:00:32

ChromeObjectJS代碼

2015-05-28 10:34:16

TCPsocket

2018-02-02 15:48:47

ChromeDNS解析

2012-03-19 11:41:30

JavaSocket

2017-02-09 15:15:54

Chrome瀏覽器

2020-09-23 12:32:18

網絡IOMySQL

2009-08-28 14:15:19

SocketVisual C#.N

2022-03-08 11:29:06

Linux進程系統

2021-05-06 14:46:18

LinuxIcmpudp

2020-09-07 14:30:37

JUC源碼CAS

2011-01-18 13:42:18

Linuxsocket性能

2019-02-17 10:05:24

TCPSocket網絡編程

2023-03-13 07:43:51

PHP類型轉換

2017-02-28 10:05:56

Chrome源碼
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 黄色毛片黄色毛片 | 91一区二区三区在线观看 | 国产一区二区影院 | 亚洲欧美综合精品另类天天更新 | 日韩欧美在线一区二区 | 久久综合伊人 | 国产精品久久久久久久久免费樱桃 | 国产精品18久久久久久久 | 国产美女福利在线观看 | 最新国产精品 | 欧美一级片在线 | 在线播放国产一区二区三区 | japanhd成人| 中文字幕成人在线 | 久久久久久久久久久高潮一区二区 | 免费一区二区三区 | 精品久久久久久 | 国产成人亚洲精品自产在线 | 欧美电影免费观看 | 久色网| 91天堂| 久草热线 | 日韩美女一区二区三区在线观看 | 欧美日韩综合 | 欧美激情精品久久久久久变态 | 精品一区av | 五月天婷婷丁香 | 精品自拍视频在线观看 | 情侣黄网站免费看 | 黄色毛片黄色毛片 | 亚洲一区免费视频 | 在线中文字幕亚洲 | 黄a网站| 亚洲精品黑人 | 最新中文字幕在线 | 亚洲一区二区三区在线视频 | 欧美国产日韩成人 | 日日骚av| 成人精品网 | 999免费观看视频 | 精品久久久久久久久久久久久久 |