成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Linux技巧:多核下綁定硬件/進程到不同CPU

系統 Linux
現在的服務器上動不動就是多 CPU 多核、多網卡、多硬盤,如果能讓一個硬件單獨占用一個CPU,將能夠大大減輕單一CPU的負擔。本文介紹如何在多核CPU情況下將硬件以及進程綁定到不同的CPU。

硬件中斷發生頻繁,是件很消耗 CPU 資源的事情,在多核 CPU 條件下如果有辦法把大量硬件中斷分配給不同的 CPU (core) 處理顯然能很好的平衡性能。現在的服務器上動不動就是多 CPU 多核、多網卡、多硬盤,如果能讓網卡中斷獨占1個 CPU (core)、磁盤 IO 中斷獨占1個 CPU 的話將會大大減輕單一 CPU 的負擔、提高整體處理效率。我前天收到一位網友的郵件提到了 SMP IRQ Affinity,引發了今天的話題。以下操作在 SUN FIre X2100 M2 服務器+ 64位版本 CentOS 5.5 + Linux 2.6.18-194.3.1.el5 上執行。

什么是中斷

中文教材上對 “中斷” 的定義太生硬了,簡單的說就是,每個硬件設備(如:硬盤、網卡等)都需要和 CPU 有某種形式的通信以便 CPU 及時知道發生了什么事情,這樣 CPU 可能就會放下手中的事情去處理應急事件,硬件設備主動打擾 CPU 的現象就可稱為硬件中斷,就像你正在工作的時候受到 QQ 干擾一樣,一次 QQ 搖頭就可以被稱為中斷。

中斷是一種比較好的 CPU 和硬件溝通的方式,還有一種方式叫做輪詢(polling),就是讓 CPU 定時對硬件狀態進行查詢然后做相應處理,就好像你每隔5分鐘去檢查一下 QQ 看看有沒有人找你一樣,這種方式是不是很浪費你(CPU)的時間?所以中斷是硬件主動的方式,比輪詢(CPU 主動)更有效一些。

好了,這里又有了一個問題,每個硬件設備都中斷,那么如何區分不同硬件呢?不同設備同時中斷如何知道哪個中斷是來自硬盤、哪個來自網卡呢?這個很容易,不是每個 QQ 號碼都不相同嗎?同樣的,系統上的每個硬件設備都會被分配一個 IRQ 號,通過這個唯一的 IRQ 號就能區別張三和李四了。

在計算機里,中斷是一種電信號,由硬件產生,并直接送到中斷控制器(如 8259A)上,然后再由中斷控制器向 CPU 發送信號,CPU 檢測到該信號后,就中斷當前的工作轉而去處理中斷。然后,處理器會通知操作系統已經產生中斷,這樣操作系統就會對這個中斷進行適當的處理。現在來看一下中斷控制器,常見的中斷控制器有兩種:可編程中斷控制器 8259A 和高級可編程中斷控制器(APIC),中斷控制器應該在大學的硬件接口和計算機體系結構的相關課程中都學過。傳統的 8259A 只適合單 CPU 的情況,現在都是多 CPU 多核的 SMP 體系,所以為了充分利用 SMP 體系結構、把中斷傳遞給系統上的每個 CPU 以便更好實現并行和提高性能,Intel 引入了高級可編程中斷控制器(APIC)。

光有高級可編程中斷控制器的硬件支持還不夠,Linux 內核還必須能利用到這些硬件特質,所以只有 kernel 2.4 以后的版本才支持把不同的硬件中斷請求(IRQs)分配到特定的 CPU 上,這個綁定技術被稱為 SMP IRQ Affinity. 更多介紹請參看 Linux 內核源代碼自帶的文檔:linux-2.6.31.8/Documentation/IRQ-affinity.txt

如何使用

先看看系統上的中斷是怎么分配在 CPU 上的,很顯然 CPU0 上處理的中斷多一些:

# cat /proc/interrupts
           CPU0       CPU1
  0:  918926335          0    IO-APIC-edge  timer
  1:          2          0    IO-APIC-edge  i8042
  8:          0          0    IO-APIC-edge  rtc
  9:          0          0   IO-APIC-level  acpi
 12:          4          0    IO-APIC-edge  i8042
 14:    8248017          0    IO-APIC-edge  ide0
 50:        194          0   IO-APIC-level  ohci_hcd:usb2
 58:      31673          0   IO-APIC-level  sata_nv
 90:    1070374          0         PCI-MSI  eth0
233:         10          0   IO-APIC-level  ehci_hcd:usb1
NMI:       5077       2032
LOC:  918809969  918809894
ERR:          0
MIS:          0

為了不讓 CPU0 很累怎么把部分中斷轉移到 CPU1 上呢?或者說如何把 eth0 網卡的中斷轉到 CPU1 上呢?先查看一下 IRQ 90 中斷的 smp affinity,看看當前中斷是怎么分配在不同 CPU 上的(ffffffff 意味著分配在所有可用 CPU 上):

# cat /proc/irq/90/smp_affinity
7fffffff,ffffffff,ffffffff,ffffffff,ffffffff,ffffffff,ffffffff,ffffffff

在進一步動手之前我們需要先停掉 IRQ 自動調節的服務進程,這樣才能手動綁定 IRQ 到不同 CPU,否則自己手動綁定做的更改將會被自動調節進程給覆蓋掉。如果想修改 IRQ 90 的中斷處理,綁定到第2個 CPU(CPU1):

# /etc/init.d/irqbalance stop
# echo "2" > /proc/irq/90/smp_affinity

過段時間在看 /proc/interrupts,是不是 90:eth0 在 CPU1 上的中斷增加了(145)、在 CPU0 上的中斷沒變?不斷打印 /proc/interrupts 就會發現 eth0 在 CPU0 上的中斷數始終保持不變,而在 CPU1 上的中斷數是持續增加的,這正是我們想要的結果:

# cat /proc/interrupts
           CPU0       CPU1
  0:  922506515          0    IO-APIC-edge  timer
  1:          2          0    IO-APIC-edge  i8042
  8:          0          0    IO-APIC-edge  rtc
  9:          0          0   IO-APIC-level  acpi
 12:          4          0    IO-APIC-edge  i8042
 14:    8280147          0    IO-APIC-edge  ide0
 50:        194          0   IO-APIC-level  ohci_hcd:usb2
 58:      31907          0   IO-APIC-level  sata_nv
 90:    1073399        145         PCI-MSI  eth0
233:         10          0   IO-APIC-level  ehci_hcd:usb1
NMI:       5093       2043
LOC:  922389696  922389621
ERR:          0
MIS:          0

有什么用

在網絡非常 heavy 的情況下,對于文件服務器、高流量 Web 服務器這樣的應用來說,把不同的網卡 IRQ 均衡綁定到不同的 CPU 上將會減輕某個 CPU 的負擔,提高多個 CPU 整體處理中斷的能力;對于數據庫服務器這樣的應用來說,把磁盤控制器綁到一個 CPU、把網卡綁定到另一個 CPU 將會提高數據庫的響應時間、優化性能。合理的根據自己的生產環境和應用的特點來平衡 IRQ 中斷有助于提高系統的整體吞吐能力和性能。

本人經常收到網友來信問到如何優化 Linux、優化 VPS、這個問題不太好回答,要記住的是性能優化是一個過程而不是結果,不是看了些文檔改了改參數就叫優化了,后面還需要大量的測試、監測以及持續的觀察和改進。

#p#

綁定進程到不同CPU

介紹了在 Linux 多核下如何綁定硬件中斷到不同 CPU,其實也可以用類似的做法把進程手動分配到特定的 CPU 上,平時在 Linux 上運行的各種進程都是由 Linux 內核統一分配和管理的,由進程調度算法來決定哪個進程可以開始使用 CPU、哪個進程需要睡眠或等待、哪個進程運行在哪個 CPU 上等。如果你對操作系統的內核和進程調度程序感興趣的話,不妨看看那本經典的 Operating Systems Design and Implementation(Linus Torvalds 就是看了這本書受到啟發寫出了 Linux),從簡單的 Minix 入手,hack 內核是件很有意思的事情,本人以前修改過 Minix 內核的進程調度,學到了內核方面的很多東西。另外推薦一本課外讀物:Just for Fun,Linus Torvalds 寫的一本自傳。

Linux 給我們提供了方便的工具用來手動分配進程到不同的 CPU 上(CPU Affinity),這樣我們可以按照服務器和應用的特性來安排特定的進程到特定的 CPU 上,比如 Oracle 要消耗大量 CPU 和 I/O 資源,如果我們能分配 Oracle 進程到某個或多個 CPU 上并由這些 CPU 專門處理 Oracle 的話會毫無疑問的提高應用程序的響應和性能。還有一些特殊情況是必須綁定應用程序到某個 CPU 上的,比如某個軟件的授權是單 CPU 的,如果想運行在多 CPU 機器上的話就必須限制這個軟件到某一個 CPU 上。

安裝 schedutils

在 CentOS/Fedora 下安裝 schedutils:

# yum install schedutils

在 Debian/Ubuntu 下安裝 schedutils:

# apt-get install schedutils

如果正在使用 CentOS/Fedora/Debian/Ubuntu 的最新版本的話,schedutils/util-linux 這個軟件包可能已經裝上了。

計算 CPU Affinity 和計算 SMP IRQ Affinity 差不多:

0x00000001    (CPU0)
0x00000002    (CPU1)
0x00000003    (CPU0+CPU1)
0x00000004    (CPU2)
...

使用 schedutils

如果想設置進程號(PID)為 12212 的進程到 CPU0 上的話:

# taskset 0x00000001 -p 12212

【編輯推薦】

  1. Linux定時執行任務命令概述:at和crontab
  2. Linux系統管理員:不要害怕升級內核
  3. 超實用的Linux/Unix快捷鍵大匯總(開發、管理)
責任編輯:yangsai 來源: vpsee.com
相關推薦

2021-07-07 10:05:38

進程CPULinux

2009-12-30 10:15:57

Silverlight

2021-06-15 08:02:55

Linux 進程管理

2020-11-17 10:50:37

Python

2013-10-30 09:37:19

LinuxLinux命令

2022-09-15 08:38:39

WebCPU數量

2023-04-12 15:37:31

Linux系統CPU

2009-06-03 15:27:07

CPU網絡優化網康

2010-07-28 13:11:13

Flex數據綁定

2021-10-17 19:49:52

CPURedis緩存

2009-12-14 13:48:01

龍芯65納米

2009-12-14 14:43:50

Linux內核

2009-07-02 13:40:45

面試

2010-07-30 09:08:21

Flex數據綁定

2010-08-12 11:34:15

Flex數據綁定

2015-09-29 09:34:53

LinuxCPU內核

2015-08-13 13:44:21

優化多核

2009-06-03 18:38:07

多核CPU網絡

2012-05-04 09:10:50

多核CPUwindows

2020-03-06 15:00:18

CPU硬件虛擬化
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产精品美女久久久免费 | 国产精品视频一区二区三区 | 欧美成人a| 日本免费黄色 | 亚洲视频在线免费观看 | a级黄色网 | 国产99久久 | 久久久久久久久久久久久9999 | 91久久精品国产免费一区 | 国产精品成人在线 | 我爱操| 亚洲男人网| 日本不卡一区二区三区在线观看 | 久久视频免费观看 | 亚洲一区二区免费 | 日韩欧美不卡 | 视频一区在线播放 | 在线观看国产h | 久久99久久99精品免视看婷婷 | 日韩一级二级片 | 毛片网站在线观看视频 | 水蜜桃久久夜色精品一区 | 欧洲一区在线观看 | a视频在线观看 | 成人国产在线观看 | h视频在线观看免费 | 久久毛片 | 国产精品久久久久久中文字 | 国产精品视频免费看 | 91.色| 国产一区中文 | www精品美女久久久tv | 中文字幕精品一区二区三区精品 | 手机看片在线播放 | 亚洲精品久久久 | 亚洲一区二区三区在线免费观看 | 91综合网| 九九精品视频在线 | 91中文字幕在线 | 日韩欧美国产精品一区二区三区 | 亚洲3p|