サーキットブレーキング
このタスクでは、接続、リクエスト、および外れ値検出に対してサーキットブレーキングを構成する方法を示します。
サーキットブレーキングは、回復力のあるマイクロサービスアプリケーションを作成するための重要なパターンです。サーキットブレーキングを使用すると、障害、レイテンシスパイク、およびネットワークの特異性のその他の望ましくない影響を制限するアプリケーションを作成できます。
このタスクでは、サーキットブレーキングルールを構成し、意図的にサーキットブレーカーを「トリップ」させることで構成をテストします。
始める前に
- インストールガイドの指示に従ってIstioをセットアップします。
httpbinサンプルを起動します。
もし自動サイドカーインジェクションを有効にしている場合は、
httpbin
サービスをデプロイしてください。$ kubectl apply -f @samples/httpbin/httpbin.yaml@
そうでない場合は、
httpbin
アプリケーションをデプロイする前に、手動でサイドカーをインジェクションする必要があります。$ kubectl apply -f <(istioctl kube-inject -f @samples/httpbin/httpbin.yaml@)
このタスクでは、httpbin
アプリケーションがバックエンドサービスとして機能します。
サーキットブレーカーの構成
httpbin
サービスを呼び出す際にサーキットブレーカーの設定を適用するために、デスティネーションルールを作成します。$ kubectl apply -f - <<EOF apiVersion: networking.istio.io/v1 kind: DestinationRule metadata: name: httpbin spec: host: httpbin trafficPolicy: connectionPool: tcp: maxConnections: 1 http: http1MaxPendingRequests: 1 maxRequestsPerConnection: 1 outlierDetection: consecutive5xxErrors: 1 interval: 1s baseEjectionTime: 3m maxEjectionPercent: 100 EOF
デスティネーションルールが正しく作成されたことを確認します。
$ kubectl get destinationrule httpbin -o yaml apiVersion: networking.istio.io/v1 kind: DestinationRule ... spec: host: httpbin trafficPolicy: connectionPool: http: http1MaxPendingRequests: 1 maxRequestsPerConnection: 1 tcp: maxConnections: 1 outlierDetection: baseEjectionTime: 3m consecutive5xxErrors: 1 interval: 1s maxEjectionPercent: 100
クライアントの追加
httpbin
サービスにトラフィックを送信するクライアントを作成します。このクライアントは、fortioというシンプルなロードテスティングクライアントです。Fortioを使用すると、発信HTTP呼び出しの接続数、並行性、遅延を制御できます。このクライアントを使用して、DestinationRule
で設定したサーキットブレーカーポリシーを「トリップ」させます。
ネットワークインタラクションがIstioによって制御されるように、Istioサイドカープロキシをクライアントにインジェクションします。
もし自動サイドカーインジェクションを有効にしている場合は、
fortio
サービスをデプロイしてください。$ kubectl apply -f @samples/httpbin/sample-client/fortio-deploy.yaml@
そうでない場合は、
fortio
アプリケーションをデプロイする前に、手動でサイドカーをインジェクションする必要があります。$ kubectl apply -f <(istioctl kube-inject -f @samples/httpbin/sample-client/fortio-deploy.yaml@)
クライアントポッドにログインし、fortioツールを使用して
httpbin
を呼び出します。1回だけ呼び出したいことを示すために、curl
を渡します。$ export FORTIO_POD=$(kubectl get pods -l app=fortio -o 'jsonpath={.items[0].metadata.name}') $ kubectl exec "$FORTIO_POD" -c fortio -- /usr/bin/fortio curl -quiet http://httpbin:8000/get HTTP/1.1 200 OK server: envoy date: Tue, 25 Feb 2020 20:25:52 GMT content-type: application/json content-length: 586 access-control-allow-origin: * access-control-allow-credentials: true x-envoy-upstream-service-time: 36 { "args": {}, "headers": { "Content-Length": "0", "Host": "httpbin:8000", "User-Agent": "fortio.org/fortio-1.3.1", "X-B3-Parentspanid": "8fc453fb1dec2c22", "X-B3-Sampled": "1", "X-B3-Spanid": "071d7f06bc94943c", "X-B3-Traceid": "86a929a0e76cda378fc453fb1dec2c22", "X-Forwarded-Client-Cert": "By=spiffe://cluster.local/ns/default/sa/httpbin;Hash=68bbaedefe01ef4cb99e17358ff63e92d04a4ce831a35ab9a31d3c8e06adb038;Subject=\"\";URI=spiffe://cluster.local/ns/default/sa/default" }, "origin": "127.0.0.1", "url": "http://httpbin:8000/get" }
リクエストが成功したことがわかります!さあ、何かを壊す時です。
サーキットブレーカーのトリップ
DestinationRule
設定では、maxConnections: 1
とhttp1MaxPendingRequests: 1
を指定しました。これらのルールは、1つ以上の接続とリクエストが同時に発生した場合、istio-proxy
がそれ以降のリクエストと接続に対してサーキットを開くと、いくつかのエラーが発生することを示しています。
2つの並行接続 (
-c 2
) でサービスを呼び出し、20のリクエスト (-n 20
) を送信します。$ kubectl exec "$FORTIO_POD" -c fortio -- /usr/bin/fortio load -c 2 -qps 0 -n 20 -loglevel Warning http://httpbin:8000/get 20:33:46 I logger.go:97> Log level is now 3 Warning (was 2 Info) Fortio 1.3.1 running at 0 queries per second, 6->6 procs, for 20 calls: http://httpbin:8000/get Starting at max qps with 2 thread(s) [gomax 6] for exactly 20 calls (10 per thread + 0) 20:33:46 W http_client.go:679> Parsed non ok code 503 (HTTP/1.1 503) 20:33:47 W http_client.go:679> Parsed non ok code 503 (HTTP/1.1 503) 20:33:47 W http_client.go:679> Parsed non ok code 503 (HTTP/1.1 503) Ended after 59.8524ms : 20 calls. qps=334.16 Aggregated Function Time : count 20 avg 0.0056869 +/- 0.003869 min 0.000499 max 0.0144329 sum 0.113738 # range, mid point, percentile, count >= 0.000499 <= 0.001 , 0.0007495 , 10.00, 2 > 0.001 <= 0.002 , 0.0015 , 15.00, 1 > 0.003 <= 0.004 , 0.0035 , 45.00, 6 > 0.004 <= 0.005 , 0.0045 , 55.00, 2 > 0.005 <= 0.006 , 0.0055 , 60.00, 1 > 0.006 <= 0.007 , 0.0065 , 70.00, 2 > 0.007 <= 0.008 , 0.0075 , 80.00, 2 > 0.008 <= 0.009 , 0.0085 , 85.00, 1 > 0.011 <= 0.012 , 0.0115 , 90.00, 1 > 0.012 <= 0.014 , 0.013 , 95.00, 1 > 0.014 <= 0.0144329 , 0.0142165 , 100.00, 1 # target 50% 0.0045 # target 75% 0.0075 # target 90% 0.012 # target 99% 0.0143463 # target 99.9% 0.0144242 Sockets used: 4 (for perfect keepalive, would be 2) Code 200 : 17 (85.0 %) Code 503 : 3 (15.0 %) Response Header Sizes : count 20 avg 195.65 +/- 82.19 min 0 max 231 sum 3913 Response Body/Total Sizes : count 20 avg 729.9 +/- 205.4 min 241 max 817 sum 14598 All done 20 calls (plus 0 warmup) 5.687 ms avg, 334.2 qps
ほとんどすべてのリクエストが成功したことがわかります!
istio-proxy
は多少の余裕を許容しています。Code 200 : 17 (85.0 %) Code 503 : 3 (15.0 %)
並行接続数を3に増やします。
$ kubectl exec "$FORTIO_POD" -c fortio -- /usr/bin/fortio load -c 3 -qps 0 -n 30 -loglevel Warning http://httpbin:8000/get 20:32:30 I logger.go:97> Log level is now 3 Warning (was 2 Info) Fortio 1.3.1 running at 0 queries per second, 6->6 procs, for 30 calls: http://httpbin:8000/get Starting at max qps with 3 thread(s) [gomax 6] for exactly 30 calls (10 per thread + 0) 20:32:30 W http_client.go:679> Parsed non ok code 503 (HTTP/1.1 503) 20:32:30 W http_client.go:679> Parsed non ok code 503 (HTTP/1.1 503) 20:32:30 W http_client.go:679> Parsed non ok code 503 (HTTP/1.1 503) 20:32:30 W http_client.go:679> Parsed non ok code 503 (HTTP/1.1 503) 20:32:30 W http_client.go:679> Parsed non ok code 503 (HTTP/1.1 503) 20:32:30 W http_client.go:679> Parsed non ok code 503 (HTTP/1.1 503) 20:32:30 W http_client.go:679> Parsed non ok code 503 (HTTP/1.1 503) 20:32:30 W http_client.go:679> Parsed non ok code 503 (HTTP/1.1 503) 20:32:30 W http_client.go:679> Parsed non ok code 503 (HTTP/1.1 503) 20:32:30 W http_client.go:679> Parsed non ok code 503 (HTTP/1.1 503) 20:32:30 W http_client.go:679> Parsed non ok code 503 (HTTP/1.1 503) 20:32:30 W http_client.go:679> Parsed non ok code 503 (HTTP/1.1 503) 20:32:30 W http_client.go:679> Parsed non ok code 503 (HTTP/1.1 503) 20:32:30 W http_client.go:679> Parsed non ok code 503 (HTTP/1.1 503) 20:32:30 W http_client.go:679> Parsed non ok code 503 (HTTP/1.1 503) 20:32:30 W http_client.go:679> Parsed non ok code 503 (HTTP/1.1 503) 20:32:30 W http_client.go:679> Parsed non ok code 503 (HTTP/1.1 503) 20:32:30 W http_client.go:679> Parsed non ok code 503 (HTTP/1.1 503) 20:32:30 W http_client.go:679> Parsed non ok code 503 (HTTP/1.1 503) Ended after 51.9946ms : 30 calls. qps=576.98 Aggregated Function Time : count 30 avg 0.0040001633 +/- 0.003447 min 0.0004298 max 0.015943 sum 0.1200049 # range, mid point, percentile, count >= 0.0004298 <= 0.001 , 0.0007149 , 16.67, 5 > 0.001 <= 0.002 , 0.0015 , 36.67, 6 > 0.002 <= 0.003 , 0.0025 , 50.00, 4 > 0.003 <= 0.004 , 0.0035 , 60.00, 3 > 0.004 <= 0.005 , 0.0045 , 66.67, 2 > 0.005 <= 0.006 , 0.0055 , 76.67, 3 > 0.006 <= 0.007 , 0.0065 , 83.33, 2 > 0.007 <= 0.008 , 0.0075 , 86.67, 1 > 0.008 <= 0.009 , 0.0085 , 90.00, 1 > 0.009 <= 0.01 , 0.0095 , 96.67, 2 > 0.014 <= 0.015943 , 0.0149715 , 100.00, 1 # target 50% 0.003 # target 75% 0.00583333 # target 90% 0.009 # target 99% 0.0153601 # target 99.9% 0.0158847 Sockets used: 20 (for perfect keepalive, would be 3) Code 200 : 11 (36.7 %) Code 503 : 19 (63.3 %) Response Header Sizes : count 30 avg 84.366667 +/- 110.9 min 0 max 231 sum 2531 Response Body/Total Sizes : count 30 avg 451.86667 +/- 277.1 min 241 max 817 sum 13556 All done 30 calls (plus 0 warmup) 4.000 ms avg, 577.0 qps
ここで、期待されるサーキットブレーキングの動作が見え始めます。リクエストの36.7%のみが成功し、残りはサーキットブレーキングによってトラップされました。
Code 200 : 11 (36.7 %) Code 503 : 19 (63.3 %)
istio-proxy
の統計を照会して詳細を確認します。$ kubectl exec "$FORTIO_POD" -c istio-proxy -- pilot-agent request GET stats | grep httpbin | grep pending cluster.outbound|8000||httpbin.default.svc.cluster.local;.circuit_breakers.default.remaining_pending: 1 cluster.outbound|8000||httpbin.default.svc.cluster.local;.circuit_breakers.default.rq_pending_open: 0 cluster.outbound|8000||httpbin.default.svc.cluster.local;.circuit_breakers.high.rq_pending_open: 0 cluster.outbound|8000||httpbin.default.svc.cluster.local;.upstream_rq_pending_active: 0 cluster.outbound|8000||httpbin.default.svc.cluster.local;.upstream_rq_pending_failure_eject: 0 cluster.outbound|8000||httpbin.default.svc.cluster.local;.upstream_rq_pending_overflow: 21 cluster.outbound|8000||httpbin.default.svc.cluster.local;.upstream_rq_pending_total: 29
upstream_rq_pending_overflow
の値が21
であることがわかります。これは、これまでに21
回の呼び出しがサーキットブレーキングの対象としてフラグ付けされたことを意味します。
クリーンアップ
ルールを削除します。
$ kubectl delete destinationrule httpbin
httpbinサービスとクライアントをシャットダウンします。
$ kubectl delete -f @samples/httpbin/sample-client/fortio-deploy.yaml@ $ kubectl delete -f @samples/httpbin/httpbin.yaml@