成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Linux大文件重定向和管道的效率對比

系統 Linux
大家先看一下二個命令,假如huge_dump.sql文件很大,然后猜測一下哪種導入方式效率會更高一些?

[[315910]]

  1. # 命令1,管道導入 
  2. shell> cat huge_dump.sql | mysql -uroot; 
  1. # 命令2,重定向導入 
  2. shell> mysql -uroot < huge_dump.sql

大家先看一下上面二個命令,假如huge_dump.sql文件很大,然后猜測一下哪種導入方式效率會更高一些?

這個問題挺有意思的,我的第一反應是:沒比較過,應該是一樣的,一個是cat負責打開文件,一個是bash

這種場景在MySQL運維操作里面應該比較多,所以就花了點時間做了個比較和原理上的分析:

我們先構造場景:

首先準備一個程序b.out來模擬mysql對數據的消耗:

  1. int main(int argc, char *argv[]) 
  2.   while(fread(buf, sizeof(buf), 1, stdin) > 0); 
  3.     return 0; 
  4.  
  5. $  gcc  -o b.out b.c 
  6. $ ls|./b.out 

再來寫個systemtap腳本用來方便觀察程序的行為。

  1. $ cat test.stp 
  2. function should_log(){ 
  3.   return (execname() == "cat" || 
  4.       execname() == "b.out" || 
  5.       execname() == "bash") ; 
  6. probe syscall.open, 
  7.       syscall.close, 
  8.       syscall.read, 
  9.       syscall.write, 
  10.       syscall.pipe, 
  11.       syscall.fork, 
  12.       syscall.execve, 
  13.       syscall.dup, 
  14.       syscall.wait4 
  15.   if (!should_log()) next; 
  16.   printf("%s -> %s\n", thread_indent(0), probefunc()); 
  17.   
  18. probe kernel.function("pipe_read"), 
  19.       kernel.function("pipe_readv"), 
  20.       kernel.function("pipe_write"), 
  21.       kernel.function("pipe_writev") 
  22.   if (!should_log()) next; 
  23.   printf("%s -> %s: file ino %d\n",  thread_indent(0), probefunc(), __file_ino($filp)); 
  24. probe begin { println(":~") } 

這個腳本重點觀察幾個系統調用的順序和pipe的讀寫情況,然后再準備個419M的大文件huge_dump.sql,在我們幾十G內存的機器很容易在內存里放下:

  1. $ sudo dd if=/dev/urandom of=huge_dump.sql bs=4096 count=102400 
  2. 102400+0 records in 
  3. 102400+0 records out 
  4. 419430400 bytes (419 MB) copied, 63.9886 seconds, 6.6 MB/s 

因為這個文件是用bufferio寫的,所以它的內容都cache在pagecahce內存里面,不會涉及到磁盤。

好了,場景齊全了,我們接著來比較下二種情況下的速度,第一種管道:

  1. # 第一種管道方式 
  2. $ time (cat huge_dump.sql|./b.out) 
  3.   
  4. real    0m0.596s 
  5. user    0m0.001s 
  6. sys     0m0.919s 
  7.   
  8. # 第二種重定向方式 
  9. $ time (./b.out <huge_dump.sql
  10.   
  11. real    0m0.151s 
  12. user    0m0.000s 
  13. sys     0m0.147s 

從執行時間數看出來速度有3倍左右的差別了,第二種明顯快很多。

是不是有點奇怪?好吧我們來從原來上面分析下,還是繼續用數據說話:

這次準備個很小的數據文件,方便觀察然后在一個窗口運行stap

  1. $ echo hello > huge_dump.sql 
  2. $ sudo stap test.stp 
  3. :~ 
  4.      0 bash(26570): -> sys_read 
  5.      0 bash(26570): -> sys_read 
  6.      0 bash(26570): -> sys_write 
  7.      0 bash(26570): -> sys_read 
  8.      0 bash(26570): -> sys_write 
  9.      0 bash(26570): -> sys_close 
  10.      0 bash(26570): -> sys_pipe 
  11.      0 bash(26570): -> sys_pipe 
  12.      0 bash(26570): -> do_fork 
  13.      0 bash(26570): -> sys_close 
  14.      0 bash(26570): -> sys_close 
  15.      0 bash(26570): -> do_fork 
  16.      0 bash(13775): -> sys_close 
  17.      0 bash(13775): -> sys_read 
  18.      0 bash(13775): -> pipe_read: file ino 20906911 
  19.      0 bash(13775): -> pipe_readv: file ino 20906911 
  20.      0 bash(13776): -> sys_close 
  21.      0 bash(13776): -> sys_close 
  22.      0 bash(13776): -> sys_close 
  23.      0 bash(13776): -> do_execve 
  24.      0 bash(26570): -> sys_close 
  25.      0 bash(26570): -> sys_close 
  26.      0 bash(26570): -> sys_close 
  27.      0 bash(13775): -> sys_close 
  28.      0 bash(26570): -> sys_wait4 
  29.      0 bash(13775): -> sys_close 
  30.      0 bash(13775): -> sys_close 
  31.      0 b.out(13776): -> sys_close 
  32.      0 b.out(13776): -> sys_close 
  33.      0 bash(13775): -> do_execve 
  34.      0 b.out(13776): -> sys_open 
  35.      0 b.out(13776): -> sys_close 
  36.      0 b.out(13776): -> sys_open 
  37.      0 b.out(13776): -> sys_read 
  38.      0 b.out(13776): -> sys_close 
  39.      0 cat(13775): -> sys_close 
  40.      0 cat(13775): -> sys_close 
  41.      0 b.out(13776): -> sys_read 
  42.      0 b.out(13776): -> pipe_read: file ino 20906910 
  43.      0 b.out(13776): -> pipe_readv: file ino 20906910 
  44.      0 cat(13775): -> sys_open 
  45.      0 cat(13775): -> sys_close 
  46.      0 cat(13775): -> sys_open 
  47.      0 cat(13775): -> sys_read 
  48.      0 cat(13775): -> sys_close 
  49.      0 cat(13775): -> sys_open 
  50.      0 cat(13775): -> sys_close 
  51.      0 cat(13775): -> sys_open 
  52.      0 cat(13775): -> sys_read 
  53.      0 cat(13775): -> sys_write 
  54.      0 cat(13775): -> pipe_write: file ino 20906910 
  55.      0 cat(13775): -> pipe_writev: file ino 20906910 
  56.      0 cat(13775): -> sys_read 
  57.      0 b.out(13776): -> sys_read 
  58.      0 b.out(13776): -> pipe_read: file ino 20906910 
  59.      0 b.out(13776): -> pipe_readv: file ino 20906910 
  60.      0 cat(13775): -> sys_close 
  61.      0 cat(13775): -> sys_close 
  62.      0 bash(26570): -> sys_wait4 
  63.      0 bash(26570): -> sys_close 
  64.      0 bash(26570): -> sys_wait4 
  65.      0 bash(26570): -> sys_write 

stap在收集數據了,我們在另外一個窗口運行管道的情況:

  1. $ cat huge_dump.sql|./b.out 

我們從systemtap的日志可以看出:

  • bash fork了2個進程。
  • 然后execve分別運行cat 和 b.out進程, 這二個進程用pipe通信。
  • 數據從由cat從 huge_dump.sql讀出,寫到pipe,然后b.out從pipe讀出處理。

那么再看下命令2重定向的情況:

  1. $ ./b.out < huge_dump.sql 
  2.   
  3. stap輸出: 
  4.       0 bash(26570): -> sys_read 
  5.      0 bash(26570): -> sys_read 
  6.      0 bash(26570): -> sys_write 
  7.      0 bash(26570): -> sys_read 
  8.      0 bash(26570): -> sys_write 
  9.      0 bash(26570): -> sys_close 
  10.      0 bash(26570): -> sys_pipe 
  11.      0 bash(26570): -> do_fork 
  12.      0 bash(28926): -> sys_close 
  13.      0 bash(28926): -> sys_read 
  14.      0 bash(28926): -> pipe_read: file ino 20920902 
  15.      0 bash(28926): -> pipe_readv: file ino 20920902 
  16.      0 bash(26570): -> sys_close 
  17.      0 bash(26570): -> sys_close 
  18.      0 bash(26570): -> sys_wait4 
  19.      0 bash(28926): -> sys_close 
  20.      0 bash(28926): -> sys_open 
  21.      0 bash(28926): -> sys_close 
  22.      0 bash(28926): -> do_execve 
  23.      0 b.out(28926): -> sys_close 
  24.      0 b.out(28926): -> sys_close 
  25.      0 b.out(28926): -> sys_open 
  26.      0 b.out(28926): -> sys_close 
  27.      0 b.out(28926): -> sys_open 
  28.      0 b.out(28926): -> sys_read 
  29.      0 b.out(28926): -> sys_close 
  30.      0 b.out(28926): -> sys_read 
  31.      0 b.out(28926): -> sys_read 
  32.      0 bash(26570): -> sys_wait4 
  33.      0 bash(26570): -> sys_write 
  34.      0 bash(26570): -> sys_read 
  • bash fork了一個進程,打開數據文件。
  • 然后把文件句柄搞到0句柄上,這個進程execve運行b.out。
  • 然后b.out直接讀取數據。

現在就非常清楚為什么二種場景速度有3倍的差別:

  • 命令1,管道方式: 讀二次,寫一次,外加一個進程上下文切換。
  • 命令2,重定向方式:只讀一次。

結論:Linux下大文件重定向效率更高。

責任編輯:趙寧寧 來源: Linux云計算網絡
相關推薦

2020-12-09 11:10:12

shellLinux管道

2022-11-14 15:07:09

Linux管道

2009-06-17 17:13:40

UNIX

2009-06-17 09:11:24

Unix管道重定向

2010-03-01 14:45:07

Linux文件重定向

2022-11-10 15:08:44

Linux輸入輸出

2010-12-14 15:07:15

ICMP路由重定向

2017-01-19 19:14:20

Linux重定向命令

2010-03-09 16:11:59

Linux重定向

2010-07-13 14:10:44

ICMP協議

2020-07-27 07:41:23

Linux重定向數據流

2014-08-07 10:23:24

linux重定向

2010-12-31 13:35:25

文件夾重定向

2010-06-23 16:14:52

Linux Bash

2018-09-10 08:45:04

Linux管道命令

2021-02-20 20:36:56

Linux無名管道

2014-09-04 11:39:43

Linux

2017-01-19 19:24:29

Linux重定向

2011-04-20 10:15:02

Linuxconsole口

2009-06-25 14:54:22

Servlet轉發Servlet重定向
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲男人的天堂网站 | www.久久精品 | 亚洲视频在线看 | 九色国产 | 久久区二区 | 极品一区| 欧美性影院 | 欧美国产日韩精品 | 欧美一区二区激情三区 | 粉嫩av久久一区二区三区 | h视频在线观看免费 | 在线欧美| 亚洲精品一区二区 | 国产精品免费在线 | 中文字幕在线观看一区 | 一级片免费视频 | 精品美女 | 免费三级黄 | 天天综合网天天综合 | 午夜国产一级 | 一级黄a视频 | 国产成人一区二区 | 成人欧美 | 久久久精品一区 | 国产91综合一区在线观看 | 久久久久久久国产 | 国产精品久久久久久久久免费软件 | 欧美黄色免费网站 | 狠狠干狠狠操 | 91精品中文字幕一区二区三区 | 免费视频一区二区 | 黄色一级免费 | 一区二区视频 | 国产精品a免费一区久久电影 | 成人黄色av | 精品国产精品三级精品av网址 | 丝袜久久| 亚洲精品黄色 | av在线成人 | 一区二区久久电影 | 高清免费在线 |