成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Linux服務器超級實用的Shell腳本,建議收藏!

系統 Linux
無論是系統管理、數據處理、任務自動化還是快速原型開發,Shell 腳本都是一種重要的編程工具。下面分享幾個超級實用的 Shell 腳本。

Shell 腳本是一種強大的工具,可以在各種領域中用于提高工作效率、簡化任務和自動化常見工作流程。無論是系統管理、數據處理、任務自動化還是快速原型開發,Shell 腳本都是一種重要的編程工具。下面分享幾個超級實用的 Shell 腳本。

1.使用INOTIFY+RSYNC自動實時同步數據

代碼執行:bash inotify_rsyncs.sh

inotify_rsyncs.sh腳本內容如下:

#!/bin/bash
# Author: Harry
# chkconfig: - 85 15
# description: It is used to serve
# 監測/data路徑下的文件變化,排除Temp目錄
INOTIFY_CMD="inotifywait -mrq -e modify,create,move,delete /data/ --exclude=Temp"
# 同步數據
RSYNC_CMD1="rsync -avz /data/ --exclude-from=/etc/rc.d/init.d/exclude.txt harry@10.14.2.102:/data/ --delete"
RSYNC_CMD2="rsync -avz /data/ --exclude-from=/etc/rc.d/init.d/exclude.txt harry@10.14.2.103:/data/ --delete"
$INOTIFY_CMD | while read DIRECTORY EVENT FILE
do
    if [ $(pgrep rsync | wc -l) -le 0 ] ; then
        $RSYNC_CMD1&&$RSYNC_CMD2 >> rsync.log
    fi
done

2.MYSQL自動備份以及刪除備份腳本

代碼執行:bash db_backup.sh

db_backup.sh腳本內容如下:

#!/bin/bash
# Author: Harry
# Description: Database backup script
dbback(){
# 定義變量
db_user="ma_prd"
db_passwd="<password>"
db_path="/data/bakmysql"
db_file="backuprecord"
db_date=`date +%Y%m%d_%H:%M:%S`
# 判斷路徑是否存在
[ -d $db_path ] || exit 2
# 使用mysqldump備份數據,并用gzip進行壓縮
mysqldump -u$db_user  -p$db_passwd --single-transaction ma  | gzip > $db_path/${db_date}_ma.sql.gz
REVAL=$?
if [ $REVAL -eq 0 ]
    then
        echo "$db_date ma db is backups successful" >>$db_path/$db_file
    else
        echo "$db_date ma db is backups failed" >>$db_path/$db_file
fi
}

#刪除超過7天的備份數據
delbak(){
local db_path="/data/bakmysql"
find $db_path -type f -name "*ma*.gz" -mtime +7 -exec rm -rf {} \;
}
dbback
delbak

3.使用curl檢測網站可用性腳本

代碼執行:web_check_with_curl.sh

web_check_with_curl腳本內容如下:

#!/usr/bin/env bash 

# Author: Harry
# Version:1.1
# Description: Web check with curl

#定義顏色
red='\e[0;31m'
RED='\e[1;31m'
green='\e[0;32m'
GREEN='\e[1;32m'
blue='\e[0;34m'
BLUE='\e[1;34m'
cyan='\e[0;36m'
CYAN='\e[1;36m'
NC='\e[0m'
date=`date +%Y-%m-%d' '%H:%M:%S` 
# 定義User Agent
ua="Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.9 Safari/537.36"
pass_count=0
fail_count=0
# 需要檢測的url
urls=(
    "http://www.xxx.com"
)

function request(){
    status=$(curl -sk -o /dev/null --retry 1 --connect-timeout 1 -w '%{http_code}' --user-agent "$ua" $1)
    if [ $status -eq '200' -o $status -eq '301' \
                           -o $status -eq '302' ]; then
        echo -e "[${GREEN} Passed ${NC}] => $1"
  ((pass_count ++))
    else
        echo -e "[${RED} Failed ${NC}] => $1"
  ((fail_count ++))
    fi
}

function main(){
    echo "Start checking ..."
    for((i=0;i<${#urls[*]};i++)) 
        do 
        request ${urls[i]};
        done
    # 輸出檢測通過和失敗的記錄
    echo -e "======================== Summary ======================== "
    echo -e "Total: ${cyan} $((pass_count + fail_count))${NC}  Passed: ${green}${pass_count}${NC}  Failed: ${red}${fail_count}${NC} Time: $date"
       
}

main $*

4.檢測并封禁異常IP地址的腳本

代碼執行:bash ban_ip.sh

ban_ip.sh腳本內容如下:

#!/bin/bash

# 獲取當前日期和時間的格式化字符串
DATE=$(date +%d/%b/%Y:%H:%M)

# 日志文件路徑和封禁記錄文件路徑
LOG_FILE="/usr/local/nginx/logs/access.log"
BANNED_IP_LOG="/usr/local/nginx/logs/banned_ip.log"

# 獲取異常IP地址,使用tail命令讀取日志文件的最后10000行,并使用grep命令篩選出包含當前日期和時間的日志記錄
ABNORMAL_IP=$(tail -n 10000 "$LOG_FILE" | grep "$DATE" | awk '{a[$1]++}END{for(i in a) if(a[i]>10) print i}')

# 封禁異常IP地址
declare -a IP_LIST
for IP in $ABNORMAL_IP; do
    if ! iptables -vnL | grep -q "$IP"; then
        iptables -I INPUT -s "$IP" -j DROP
        echo "$(date +'%F_%T') $IP" >> "$BANNED_IP_LOG"
        IP_LIST+=("$IP")
    fi
done

# 打印被封禁的IP地址
if [ ${#IP_LIST[@]} -gt 0 ]; then
    echo "以下IP地址已被封禁:"
    printf "%s\n" "${IP_LIST[@]}"
else
    echo "沒有需要封禁的IP地址。"
fi

5.查看網卡實時流量腳本

代碼執行:bash interface_moniter.sh eth0

interface_moniter.sh腳本內容如下:

#!/bin/bash
# 如果沒有傳遞參數,默認使用 lo 作為網絡接口
NIC=${1:-lo}
echo -e " In ------ Out"
while true; do
    # 使用awk命令從/proc/net/dev文件中提取指定網絡接口的接收字節數和發送字節數,并保存到變量OLD_IN和OLD_OUT中
    OLD_IN=$(awk  '$0~"'$NIC'"{print $2}' /proc/net/dev)
    OLD_OUT=$(awk '$0~"'$NIC'"{print $10}' /proc/net/dev)
    # 等待1秒鐘
    sleep 1
    # 再次使用awk命令提取最新的接收字節數和發送字節數,并保存到變量NEW_IN和NEW_OUT中。
    NEW_IN=$(awk  '$0~"'$NIC'"{print $2}' /proc/net/dev)
    NEW_OUT=$(awk '$0~"'$NIC'"{print $10}' /proc/net/dev)
    # 計算接收速率和發送速率,單位為KB/s,并保存到變量IN和OUT中
    IN=$(printf "%.1f%s" "$((($NEW_IN-$OLD_IN)/1024))" "KB/s")
    OUT=$(printf "%.1f%s" "$((($NEW_OUT-$OLD_OUT)/1024))" "KB/s")
    # 使用echo命令輸出接收速率和發送速率
    echo "$IN $OUT"
    sleep 1
done

6.訪問日志分析腳本代碼執行:bash

log_analyze.sh access.log

log_analyze.sh腳本內容如下:

#!/bin/bash
# 日志格式: $remote_addr - $remote_user [$time_local] "$request" $status $body_bytes_sent "$http_referer" "$http_user_agent" "$http_x_forwarded_for"
LOG_FILE=$1

echo "統計訪問最多的10個IP"
awk '{a[$1]++}END{print "UV:",length(a);for(v in a)print v,a[v]}' $LOG_FILE | sort -k2 -nr | head -10
echo "----------------------"

echo "統計時間段訪問最多的IP"
awk '$4>="[01/Dec/2018:13:20:25" && $4<="[27/Nov/2018:16:20:49"{a[$1]++}END{for(v in a)print v,a[v]}' $LOG_FILE | sort -k2 -nr | head -10
echo "----------------------"

echo "統計訪問最多的10個頁面"
awk '{a[$7]++}END{print "PV:",length(a);for(v in a){if(a[v]>10)print v,a[v]}}' $LOG_FILE | sort -k2 -nr
echo "----------------------"

echo "統計訪問頁面狀態碼數量"
awk '{a[$7" "$9]++}END{for(v in a){if(a[v]>5)print v,a[v]}}' $LOG_FILE
責任編輯:趙寧寧 來源: IT人家
相關推薦

2021-05-18 10:50:48

Linux服務器安全設置

2011-07-06 14:16:25

Linux服務器Shell腳本

2018-08-15 08:45:38

2019-10-31 08:22:39

shell腳本Linux

2025-04-02 09:10:00

LinuxShell腳本

2010-10-09 09:18:59

Shell腳本

2010-06-23 15:55:36

Linux Bash

2011-12-05 10:37:53

Linux服務器Shell腳本

2022-04-07 09:04:09

Chrome瀏覽器Chrome 擴展

2012-07-05 10:25:46

2022-03-29 09:33:34

LinuxShell命令

2013-03-26 09:21:40

Linux服務器故障排查

2013-03-25 09:19:10

Linux服務器故障排查

2021-04-22 10:28:52

開發技能代碼

2018-08-28 16:02:59

LinuxShellBash

2021-12-19 22:44:16

Linux安全服務器

2019-10-09 16:08:21

PythonPython教程Python 開發

2009-12-09 10:01:41

ibmdwShell刀片服務器

2020-07-17 08:02:16

網站科技技術

2016-09-26 14:16:18

shell腳本bash
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 91玖玖| 亚洲免费一区 | 中文字幕在线一区二区三区 | 91精品国产91久久综合桃花 | 在线视频日韩 | 久久人人爽人人爽人人片av免费 | 国产一区二区不卡 | 视频一区二区三区中文字幕 | 欧美精品成人 | 在线看91| 91精品欧美久久久久久久 | 激情欧美日韩一区二区 | 国产欧美日韩在线一区 | 99国产精品久久久 | 国产精品一区二区av | 日韩电影一区二区三区 | 国产一区二区三区四区三区四 | 免费在线观看av片 | 精久久 | 黄免费观看视频 | 日韩在线精品 | 综合久久99| 一区二区三区观看视频 | 亚洲欧美日本在线 | 精品九九九 | 亭亭五月激情 | 国产99久久久国产精品下药 | 色欧美日韩 | 日韩av第一页 | 欧美性生活网 | 国产一区三区视频 | 狠狠插狠狠操 | 成人欧美一区二区三区在线播放 | 国产精品1区2区 | 日韩欧美国产精品一区二区 | 亚洲人人舔人人 | 中文字幕一区在线观看视频 | 国产精品久久久久久久久 | 9久久 | 亚洲精品第一页 | 国产精品无码久久久久 |