成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

替代ELK:ClickHouse+Kafka+FlieBeat才是最絕的

開發 前端
單服務器日志寫入量在 50MB 到 200MB/s,每秒寫入超過 60w 記錄數,是 ES 的 5 倍以上。在 ES 中比較常見的寫 Rejected 導致數據丟失、寫入延遲等問題,在 ClickHouse 中不容易發生。

saas 服務未來會面臨數據安全、合規等問題。公司的業務需要沉淀一套私有化部署能力,幫助業務提升行業競爭力。

為了完善平臺系統能力、我們需要沉淀一套數據體系幫助運營分析活動效果、提升運營能力。

然而在實際的開發過程中,如果直接部署一套大數據體系,對于使用者來說將是一筆比較大的服務器開銷。為此我們選用折中方案完善數據分析能力。

Elasticsearch vs ClickHouse

ClickHouse 是一款高性能列式分布式數據庫管理系統,我們對 ClickHouse 進行了測試,發現有下列優勢:

ClickHouse 寫入吞吐量大

單服務器日志寫入量在 50MB 到 200MB/s,每秒寫入超過 60w 記錄數,是 ES 的 5 倍以上。

在 ES 中比較常見的寫 Rejected 導致數據丟失、寫入延遲等問題,在 ClickHouse 中不容易發生。

查詢速度快

官方宣稱數據在 pagecache 中,單服務器查詢速率大約在 2-30GB/s;沒在 pagecache 的情況下,查詢速度取決于磁盤的讀取速率和數據的壓縮率。經測試 ClickHouse 的查詢速度比 ES 快 5-30 倍以上。

ClickHouse 比 ES 服務器成本更低

一方面 ClickHouse 的數據壓縮比比 ES 高,相同數據占用的磁盤空間只有 ES 的 1/3 到 1/30,節省了磁盤空間的同時,也能有效的減少磁盤 IO,這也是ClickHouse查詢效率更高的原因之一。

圖片圖片

另一方面 ClickHouse 比 ES 占用更少的內存,消耗更少的 CPU 資源。我們預估用 ClickHouse 處理日志可以將服務器成本降低一半。

圖片圖片

成本分析

在沒有任何折扣的情況下,基于 aliyun 分析。

圖片圖片

環境部署

1、zookeeper 集群部署

圖片圖片

yum install java-1.8.0-openjdk-devel.x86_64
/etc/profile 配置環境變量
更新系統時間
yum install  ntpdate
ntpdate asia.pool.ntp.org

mkdir zookeeper
mkdir ./zookeeper/data
mkdir ./zookeeper/logs
wget  --no-check-certificate https://mirrors.tuna.tsinghua.edu.cn/apache/zookeeper/zookeeper-3.7.1/apache-zookeeper-3.7.1-bin.tar.gz
tar -zvxf apache-zookeeper-3.7.1-bin.tar.gz -C /usr/zookeeper

export ZOOKEEPER_HOME=/usr/zookeeper/apache-zookeeper-3.7.1-bin
export PATH=$ZOOKEEPER_HOME/bin:$PATH

進入ZooKeeper配置目錄
cd $ZOOKEEPER_HOME/conf

新建配置文件
vi zoo.cfg

tickTime=2000
initLimit=10
syncLimit=5
dataDir=/usr/zookeeper/data
dataLogDir=/usr/zookeeper/logs
clientPort=2181
server.1=zk1:2888:3888
server.2=zk2:2888:3888
server.3=zk3:2888:3888

在每臺服務器上執行,給zookeeper創建myid
echo "1" > /usr/zookeeper/data/myid
echo "2" > /usr/zookeeper/data/myid
echo "3" > /usr/zookeeper/data/myid

進入ZooKeeper bin目錄
cd $ZOOKEEPER_HOME/bin
sh zkServer.sh start

2、Kafka 集群部署

mkdir -p /usr/kafka
chmod 777 -R /usr/kafka
wget  --no-check-certificate https://mirrors.tuna.tsinghua.edu.cn/apache/kafka/3.2.0/kafka_2.12-3.2.0.tgz
tar -zvxf kafka_2.12-3.2.0.tgz -C /usr/kafka

不同的broker Id 設置不一樣,比如 1,2,3
broker.id=1
listeners=PLAINTEXT://ip:9092
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dir=/usr/kafka/logs
num.partitinotallow=5
num.recovery.threads.per.data.dir=3
offsets.topic.replication.factor=2
transaction.state.log.replication.factor=3
transaction.state.log.min.isr=3
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
zookeeper.cnotallow=zk1:2181,zk2:2181,zk3:2181
zookeeper.connection.timeout.ms=30000
group.initial.rebalance.delay.ms=0

后臺常駐進程啟動kafka
nohup /usr/kafka/kafka_2.12-3.2.0/bin/kafka-server-start.sh /usr/kafka/kafka_2.12-3.2.0/config/server.properties   >/usr/kafka/logs/kafka.log >&1 &

/usr/kafka/kafka_2.12-3.2.0/bin/kafka-server-stop.sh

$KAFKA_HOME/bin/kafka-topics.sh --list --bootstrap-server  ip:9092

$KAFKA_HOME/bin/kafka-console-consumer.sh --bootstrap-server ip:9092 --topic test --from-beginning

$KAFKA_HOME/bin/kafka-topics.sh  --create --bootstrap-server  ip:9092  --replication-factor 2 --partitions 3 --topic xxx_data

3、FileBeat 部署

sudo rpm --import https://packages.elastic.co/GPG-KEY-elasticsearch
Create a file with a .repo extension (for example, elastic.repo) in your /etc/yum.repos.d/ directory and add the following lines:
在/etc/yum.repos.d/ 目錄下創建elastic.repo

[elastic-8.x]
name=Elastic repository for 8.x packages
baseurl=https://artifacts.elastic.co/packages/8.x/yum
gpgcheck=1
gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
enabled=1
autorefresh=1
type=rpm-md

yum install filebeat
systemctl enable filebeat
chkconfig --add filebeat

FileBeat 配置文件說明,坑點 1(需設置 keys_under_root: true)。如果不設置kafka 的消息字段如下:

圖片圖片

文件目錄:/etc/filebeat/filebeat.yml

filebeat.inputs:
- type: log
  enabled: true
  paths:
    - /root/logs/xxx/inner/*.log
  json:  
如果不設置該索性,所有的數據都存儲在message里面,這樣設置以后數據會平鋪。
       keys_under_root: true 
output.kafka:
  hosts: ["kafka1:9092", "kafka2:9092", "kafka3:9092"]
  topic: 'xxx_data_clickhouse'
  partition.round_robin:
            reachable_only: false
            required_acks: 1
            compression: gzip
processors: 
剔除filebeat 無效的字段數據
    - drop_fields:  
        fields: ["input", "agent", "ecs", "log", "metadata", "timestamp"]
        ignore_missing: false

nohup ./filebeat -e -c /etc/filebeat/filebeat.yml > /user/filebeat/filebeat.log & 
輸出到filebeat.log文件中,方便排查

4、clickhouse 部署

圖片圖片

檢查當前CPU是否支持SSE 4.2,如果不支持,需要通過源代碼編譯構建
grep -q sse4_2 /proc/cpuinfo && echo "SSE 4.2 supported" || echo "SSE 4.2 not supported"
返回 "SSE 4.2 supported" 表示支持,返回 "SSE 4.2 not supported" 表示不支持

創建數據保存目錄,將它創建到大容量磁盤掛載的路徑
mkdir -p /data/clickhouse
修改/etc/hosts文件,添加clickhouse節點
舉例:
10.190.85.92 bigdata-clickhouse-01
10.190.85.93 bigdata-clickhouse-02

服務器性能參數設置:
cpu頻率調節,將CPU頻率固定工作在其支持的最高運行頻率上,而不動態調節,性能最好
echo 'performance' | tee /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor

內存調節,不要禁用 overcommit
echo 0 | tee /proc/sys/vm/overcommit_memory

始終禁用透明大頁(transparent huge pages)。它會干擾內存分配器,從而導致顯著的性能下降
echo 'never' | tee /sys/kernel/mm/transparent_hugepage/enabled

首先,需要添加官方存儲庫:
yum install yum-utils
rpm --import <https://repo.clickhouse.tech/CLICKHOUSE-KEY.GPG>
yum-config-manager --add-repo <https://repo.clickhouse.tech/rpm/stable/x86_64>
查看clickhouse可安裝的版本:
yum list | grep clickhouse
運行安裝命令:
yum -y install clickhouse-server clickhouse-client

修改/etc/clickhouse-server/config.xml配置文件,修改日志級別為information,默認是trace
<level>information</level>
執行日志所在目錄:

正常日志
/var/log/clickhouse-server/clickhouse-server.log
異常錯誤日志
/var/log/clickhouse-server/clickhouse-server.err.log

查看安裝的clickhouse版本:
clickhouse-server --version
clickhouse-client --password

sudo clickhouse stop
sudo clickhouse tart
sudo clickhouse start

圖片圖片

clickhouse 部署過程中遇到的一些問題如下:

1)clickhouse 創建 kafka 引擎表

CREATE TABLE default.kafka_clickhouse_inner_log ON CLUSTER clickhouse_cluster (
    log_uuid   String ,
    date_partition   UInt32 ,
    event_name   String ,
    activity_name   String ,
    activity_type   String ,
    activity_id   UInt16 
) ENGINE = Kafka SETTINGS
    kafka_broker_list = 'kafka1:9092,kafka2:9092,kafka3:9092',
    kafka_topic_list = 'data_clickhouse',
    kafka_group_name = 'clickhouse_xxx',
    kafka_format = 'JSONEachRow',
    kafka_row_delimiter = '\n',
    kafka_num_consumers = 1;

問題 1:clikhouse 客戶端無法查詢 kafka 引擎表

Direct select is not allowed. To enable use setting stream_like_engine_allow_direct_select.(QUERY_NOT_ALLOWED) (version 22.5.2.53 (official build))

圖片圖片

解決方案:

需要在clickhouse client 創建加上 --stream_like_engine_allow_direct_select 1

clickhouse-client --stream_like_engine_allow_direct_select 1 --password xxxxx

圖片圖片

2)clickhouse 創建本地節點表

問題 2:無法開啟本地表 macro

Code: 62. DB::Exception: There was an error on [10.74.244.57:9000]: Code: 62. DB::Exception: No macro 'shard' in config while processing substitutions in '/clickhouse/tables/default/bi_inner_log_local/{shard}' at '50' or macro is not supported here. (SYNTAX_ERROR) (version 22.5.2.53 (official build)). (SYNTAX_ERROR) (version 22.5.2.53 (official build))
創建本地表(使用復制去重表引擎)
create table default.bi_inner_log_local ON CLUSTER clickhouse_cluster (
    log_uuid   String ,
    date_partition   UInt32 ,
    event_name   String ,
    activity_name   String ,
    credits_bring   Int16 ,
    activity_type   String ,
    activity_id   UInt16 
) ENGINE = ReplicatedReplacingMergeTree('/clickhouse/tables/default/bi_inner_log_local/{shard}','{replica}')
  PARTITION BY date_partition
  ORDER BY (event_name,date_partition,log_uuid)
   SETTINGS index_granularity = 8192;

解決方案:在不同的 clickhouse 節點上配置不同的 shard,每一個節點的 shard 名稱不能一致。關注公眾號:碼猿技術專欄,回復關鍵詞:1111 獲取阿里內部的Java性能調優手冊

<macros>
    <shard>01</shard>
    <replica>example01-01-1</replica>
</macros>

圖片圖片

圖片圖片

問題 3:clickhouse 中節點數據已經存在

Code: 253. DB::Exception: There was an error on : Code: 253. DB::Exception: Replica /clickhouse/tables/default/bi_inner_log_local/01/replicas/example01-01-1 already exists. (REPLICA_IS_ALREADY_EXIST) (version 22.5.2.53 (official build)). (REPLICA_IS_ALREADY_EXIST) (version 22.5.2.53 (official build))

解決方案:進入 zookeeper 客戶端刪除相關節點,然后再重新創建 ReplicatedReplacingMergeTree 表。這樣可以保障每一個 clickhouse 節點都會去消費 kafka partition 的數據。

3)clickhouse 創建集群表

創建分布式表(根據 log_uuid 對數據進行分發,相同的 log_uuid 會發送到同一個 shard 分片上,用于后續合并時的數據去重):

CREATE TABLE default.bi_inner_log_all ON CLUSTER clickhouse_cluster AS default.bi_inner_log_local
ENGINE = Distributed(clickhouse_cluster, default, bi_inner_log_local, xxHash32(log_uuid));

問題 4:分布式集群表無法查詢

Code: 516. DB::Exception: Received from 10.74.244.57:9000. DB::Exception: default: Authentication failed: password is incorrect or there is no user with such name. (AUTHENTICATION_FAILED) (version 22.5.2.53 (official build))

解決方案:

<!--分布式表配置-->
<remote_servers>
       <clickhouse_cluster><!--集群名稱, 可以自定義, 后面在新建庫、表的時候需要用到集群名稱-->
     <shard>
    <!--內部復制(默認false), 開啟后, 在分布式表引擎下, 數據寫入時-->
                        <!--每個分片只會去尋找一個節點寫, 并不是每個都寫-->
                        <internal_replication>true</internal_replication>
                        <replica>
                            <host>ip1</host>
                            <port>9000</port>
                                    <user>default</user>
                                    <password>xxxx</password>
                        </replica>
                    </shard>
                    <shard>
                        <internal_replication>true</internal_replication>
                        <replica>
                            <host>ip2</host>
                            <port>9000</port>
                                    <user>default</user>
                                    <password>xxxx</password>
                        </replica>
                    </shard>
                </clickhouse_cluster>
</remote_servers>

4)clickhouse 創建物化視圖

創建物化視圖,把 Kafka 消費表消費的數據同步到 ClickHouse 分布式表。

CREATE MATERIALIZED VIEW default.view_bi_inner_log ON CLUSTER clickhouse_cluster TO default.bi_inner_log_all AS 
SELECT 
    log_uuid ,
date_partition ,
event_name ,
activity_name ,
credits_bring ,
activity_type ,
activity_id 
FROM default.kafka_clickhouse_inner_log;

功夫不負有心人,解決完以上所有的問題。數據流轉通了!本文所有組件都是比較新的版本,所以過程中問題的解決基本都是官方文檔或操作手冊一步一步的解決。關注公眾號:碼猿技術專欄,回復關鍵詞:1111 獲取阿里內部的Java性能調優手冊

圖片圖片

總結一句話:遇到問題去官方文檔或--help 去嘗試解決,慢慢的你就會升華。

責任編輯:武曉燕 來源: 碼猿技術專欄
相關推薦

2022-08-31 10:27:58

開發數據管理

2023-01-03 08:52:36

ELKKafka

2019-05-05 09:24:09

KafkaTopicPartition

2021-10-19 09:00:00

KubeMQKubernetes工具

2021-10-14 15:42:53

消息隊列KubeMQKafka

2023-01-18 10:44:15

RedpandaKafkaAPI

2018-02-27 14:22:38

ETLKakfa數據集

2021-10-09 00:00:40

Sentr 監控架構

2022-07-05 11:13:27

技術架構

2023-02-22 09:47:40

查詢計算

2022-11-23 08:51:32

2013-11-28 14:34:30

微軟WP

2012-03-16 13:57:06

蘋果Android專利案

2021-02-22 10:54:28

AI 數據人工智能

2013-12-13 10:47:02

移動游戲Ingress電子新我

2024-10-16 08:36:03

2012-10-08 09:15:57

JavaScriptJSTypeScript

2010-07-15 10:00:40

2020-05-28 10:45:31

Git分支合并
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 啪啪毛片 | 欧美专区日韩 | a精品视频| 欧美日韩看片 | 人人干人人玩 | se婷婷| www,黄色,com | 欧美片网站免费 | 亚洲顶级毛片 | 99热热热热 | 成人精品一区二区三区 | 久久久久国产 | 91在线观看 | 成人一区二区三区在线观看 | 国产人久久人人人人爽 | 午夜视频在线 | 午夜av一区二区 | 综合久久av | 欧美日韩久久精品 | 夜夜操操操 | 不卡的av在线 | 国产不卡在线播放 | 国产精品美女久久久 | 能看的av | 免费看一区二区三区 | a天堂在线 | 欧美成人综合 | 黄色国产在线视频 | 日韩靠逼 | 国产综合久久久久久鬼色 | 天天干在线播放 | 亚洲品质自拍视频网站 | 国产精品成人一区二区 | 日韩一区二区三区精品 | 99久久精品免费看国产免费软件 | 欧美成人精品一区二区三区 | 精品伦精品一区二区三区视频 | 国产日韩欧美中文 | 久久99精品久久久 | 一区二区三区亚洲视频 | 国产午夜精品久久久 |