微服務從代碼到K8s部署應有盡有
從本篇文章開始,我們用一個系列來講解從需求到上線、從代碼到k8s部署、從日志到監控等各個方面的微服務完整實踐。
實戰項目地址:https://github.com/Mikaelemmmm/go-zero-looklook
一、項目簡介
整個項目使用了go-zero開發的微服務,基本包含了go-zero以及相關go-zero作者開發的一些中間件,所用到的技術棧基本是go-zero項目組的自研組件,基本是go-zero全家桶了。
項目目錄結構如下:
- app:所有業務代碼包含api、rpc以及mq(消息隊列、延遲隊列、定時任務)
- common:通用組件 error、middleware、interceptor、tool、ctxdata等
- data:該項目包含該目錄依賴所有中間件(mysql、es、redis、grafana等)產生的數據,此目錄下的所有內容應該在git忽略文件中,不需要提交。
- deploy:
- gencode:生成api、rpc,以及創建kafka語句,復制粘貼使用
- mysql:生成model的sh工具
- filebeat: docker部署filebeat配置
- go-stash:go-stash配置
- nginx: nginx網關配置
- prometheus :prometheus配置
- script:
- goctl: 該項目goctl的template,goctl生成自定義代碼模版,template用法可參考go-zero文檔,復制到home目錄下.goctl即可, 該項目用到goctl版本是v1.3.0
- doc : 該項目系列文檔
二、用到技術棧go-zero
- nginx網關
- filebeat
- kafka
- go-stash
- elasticsearch
- kibana
- prometheus
- grafana
- jaeger
- go-queue
- asynq
- asynqmon
- dtm
- docker
- docker-compose
- mysql
- redis
三、項目架構圖
四、業務架構圖
五、項目環境搭建
本項目采用air熱加載功即時修改代碼及時生效,并且不需要每次都要重啟,改了代碼自動就在容器中重新加載了,本地不需要啟動服務,本地安裝的sdk就是寫代碼自動提示使用的,實際運行是以來容器中cosmtrek/air的golang環境。所以使用goland、vscode都一樣
1、clone代碼&更新依賴
$ git clone git@github.com:Mikaelemmmm/go-zero-looklook.git
$ go mod tidy
2、啟動項目所依賴的環境
$ docker-compose -f docker-compose-env.yml up -d
jaeger: http://127.0.0.1:16686/search
asynq (延時、定時消息隊列): http://127.0.0.1:8980/
kibana: http://127.0.0.1:5601/
Elastic search: http://127.0.0.1:9200/
Prometheus: http://127.0.0.1:9090/
Grafana: http://127.0.0.1:3001/, 默認賬號、密碼都是admin
Mysql: 自行客戶端工具(Navicat、Sequel Pro)查看
- host : 127.0.0.1
- port : 33069
- username : root
- pwd : PXDN93VRKUm8TeE7
Redis: 自行工具(redisManager)查看
- host : 127.0.0.1
- port : 63799
- pwd : G62m50oigInC30sf
Kafka: 自行客戶端工具查看
- host : 127.0.0.1
- port : 9092
3、拉取項目依賴鏡像
因為本項目是用air熱加載的,所以是在air+golang鏡像中運行,直接docker-compose也可以,但是考慮依賴可能會比較大,會影響啟動項目,所以最好先把這個鏡像拉取下來再去啟動項目,拉取air+golang項目依賴的鏡像命令如下
$ docker pull cosmtrek/air:latest
4、導入mysql數據
創建數據庫looklook_order && 導入deploy/sql/looklook_order.sql數據
創建數據庫looklook_payment && 導入deploy/sql/looklook_payment.sql數據
創建數據庫looklook_travel && 導入deploy/sql/looklook_travel.sql數據
創建數據庫looklook_usercenter && 導入looklook_usercenter.sql數據
5、啟動項目
$ docker-compose up -d
【注】依賴的是項目根目錄下的docker-compose.yml配置
6、查看項目運行情況
訪問 http://127.0.0.1:9090/ , 點擊上面菜單“Status”,再點擊Targets , 藍色的就是啟動成了,紅色就是沒啟動成功
【注】如果是第一次拉取項目,每個項目容器第一次構建拉取依賴,這個看網絡情況,可能會比較慢有的服務,所以會導致項目啟動失敗或者被依賴的服務啟動失敗自己也啟動失敗了,這個很正常,如果碰到項目啟動不起來的情況,比如order-api ,這時候我們去看下日志就可以
$ docker logs -f order-api
很明顯是因為order-rpc啟動時間太久了,而order-api一直等他啟動,order-rpc一定時間內沒有啟動成功,order-api沒耐心了(超時了),就算后面order-rpc啟動起來,它也不管了,這時候再去重啟一次order-api就可以了,這個只是第一次創建容器會這樣,之后只要不銷毀容器就不會,我們去到項目根目錄下重啟一下
$ docker-compose restart order-api
【注意】一定要去到項目根目錄下重啟 ,因為docker-compose.yml在項目根目錄
然后我們再看一下,這里我們使用docker logs 看了
__ _ ___
/ /\ | | | |_)
/_/--\ |_| |_| \_ , built with Go 1.17.6
mkdir /go/src/github.com/looklook/app/order/cmd/api/tmp
watching .
watching desc
watching desc/order
watching etc
watching internal
watching internal/config
watching internal/handler
watching internal/handler/homestayOrder
watching internal/logic
watching internal/logic/homestayOrder
watching internal/svc
watching internal/types
!exclude tmp
building...
running...
可以看到order-api已經成功了 ,再去prometheus看一下
可以看到prometheus也顯示成功了,同理把其他的也排查一次,啟動成功就可以了
7、訪問項目
由于我們使用nginx做的網關,nginx網關配置在docker-compose中,也是配置在docker-compose中,nignx對外暴露端口是8888,所以我們通過8888端口訪問
$ curl -X POST "http://127.0.0.1:8888/usercenter/v1/user/register" -H "Content-Type: application/json" -d "{\"mobile\":\"18888888888\",\"password\":\"123456\"}"
返回:
{"code":200,"msg":"OK","data":{"accessToken":"eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJleHAiOjE2NzM5NjY0MjUsImlhdCI6MTY0MjQzMDQyNSwiand0VXNlcklkIjo1fQ.E5-yMF0OvNpBcfr0WyDxuTq1SRWGC3yZb9_Xpxtzlyw","accessExpire":1673966425,"refreshAfter":1658198425}}
【注】 如果是訪問nginx失敗,訪問成功可以忽略,可能是nginx依賴后端服務,之前因為后端服務沒啟動起來,nginx這里沒啟動起來,重啟一次nginx即可,項目根目錄下重啟
$ docker-compose restart nginx
六、日志收集
將項目日志收集到es(filebeat收集日志->kafka -> go-stash消費kafka日志->輸出到es中, kibana查看es數據)
所以我們要提前在kafka中創建日志的topic
進入kafka容器
$ docker exec -it kafka /bin/sh
創建log的topic
$ cd /opt/kafka/bin
$ ./kafka-topics.sh --create --zookeeper zookeeper:2181 --replication-factor 1 -partitions 1 --topic looklook-log
訪問kibana http://127.0.0.1:5601/ , 創建日志索引
點擊左上角菜單(三個橫線那個東東),找到Analytics - > 點擊discover
然后在當前頁面,Create index pattern->輸入looklook-* -> Next Step ->選擇@timestamp->Create index pattern
然后點擊左上角菜單,找到Analytics->點擊discover ,日志都顯示了 (如果不顯示,就去排查filebeat、go-stash,使用docker logs -f filebeat查看)
七、本項目鏡像介紹
所有服務啟動成功,應該是如下這些,自行對比
- nginx : 網關 (nginx->api->rpc)
- cosmtrek/air : 我們業務代碼開發依賴的環境鏡像,之所以用這個是因為air熱加載,寫代碼實時編譯太方便了,這個鏡像是air+golang,實際上我們啟我們自己的業務服務后,我們的業務服務是運行在此鏡像中的
- wurstmeister/kafka :業務使用的kafka
- wurstmeister/zookeeper :kafka依賴的zookeeper
- redis:業務使用的redis
- mysql: 業務使用的數據庫
- prom/prometheus:監控業務
- grafana/grafana :prometheus的ui很難看,用來顯示prometheus收集來的數據
- elastic/filebeat :收集日志到kafka
- go-stash : 消費kafka中日志,脫敏、過濾然后輸出到es
- docker.elastic.co/elasticsearch/elasticsearch :存儲收集的日志
- docker.elastic.co/kibana/kibana :顯示elasticsearch
- jaegertracing/jaeger-query 、jaegertracing/jaeger-collector、jaegertracing/jaeger-agent:鏈路追蹤
- go-stash : filebeat收集日志到kafka后,go-stash去消費kafka進行數據脫敏、過濾日志中內容,最后輸出到es中
八、項目開發建議
- app下放所有業務服務代碼
- common放所有服務的公共基礎庫
- data項目依賴中間件產生的數據,實際開發中應該在git中忽略此目錄以及此目錄下產生的數據
- 生成api、rpc代碼:
一般我們在生成api,rpc代碼時候手動去敲goctl的命令比較長,也記不住,所以我們直接去deploy/script/gencode/gen.sh中復制代碼即可。比如我在usercenter服務中新增加了一個業務,修改密碼,寫完api文件之后,進入到usercenter/cmd目錄下,直接復制deploy/script/gencode/gen.sh中的生成api命令運行即可
$ goctl api go -api ./api/desc/*.api -dir ./api -style=goZero
生成rpc也一樣,在寫完proto文件后,直接粘貼復制deploy/script/gencode/gen.sh中的生成rpc命令運行即可
$ goctl rpc proto -src rpc/pb/*.proto -dir ./rpc -style=goZero
$ sed -i 's/,omitempty//g' ./rpc/pb/*.pb.go
【注】建議在生成rpc文件時候,再多執行一次下面那個命令,把protobuf生成的omitempty給刪除掉,不然字段為nil就不返回了
- 生成kafka代碼:
因為本項目使用了go-queue的kq做消息隊列,kq又依賴的kafka,實際就是使用了kafka做消息隊列,但是kq默認是需要我們提前把topic建好的,不許默認自動生成,所以命令也準備好了,直接復制deploy/script/gencode/gen.sh中的創建kafka的topic代碼即可
kafka-topics.sh --create --zookeeper zookeeper:2181 --replication-factor 1 -partitions 1 --topic {topic}
- 生成model代碼,直接運行deploy/script/mysql/genModel.sh 參數
- api項目中的.api文件我們做了拆分,統一放到每個api的desc文件夾下,因為如果所有內容都寫在api中可能不便于查看,所以做了拆分,把所有方法寫到一個api中,其他的實體以及req、rep統一放到一個文件夾單獨定義比較清晰
- 生成model、錯誤處理時候使用了template重新定義,該項目用到的自定義的goctl的模版在項目data/goctl下
九、后續
由于項目中由于涉及到的技術棧稍微有點多,將分章節一步一步講解,敬請關注。
項目地址https://github.com/zeromicro/go-zero
歡迎使用 go-zero 并 star 支持我們!