11 月初,KubeSphere 发布了 3.2.0 版本,新版本为项目网关增配了整套监控及管理页面,同时引入了集群网关来提供集群层面全局的 Ingress 网关能力。
为了让用户更了解如何在新版 KubeSphere 中部署使用第三方 Ingress Controller,本文将以 Apache APISIX Ingress Controller 为例,为大家展示通过 KubeSphere 快速为 Kubernetes 集群使用不同类型的网关并进行状态监控。
准备工作
安装 KubeSphere
安装 KubeSphere 有两种方法:
KubeSphere 最小化安装版本已经包含了监控模块,因此不需要额外启用,可以通过「系统组件」页面中的「监控」标签页确认安装状态。
部署 httpbin 演示应用
由于需要演示网关的访问控制能力,我们必须要先有一个可以访问的应用作为网关的后台服务。这里我们使用 httpbin.org 提供的 kennethreitz/httpbin 容器应用作为演示应用。
在 KubeSphere 中,我们可以先创建新的项目或使用已有的项目,进入项目页面后,选择「应用负载」下的「服务」直接创建无状态工作负载并生成配套服务。
使用 kennethreitz/httpbin 容器默认的 80
端口作为服务端口,创建完成后确保在「工作负载」和「服务」页面下都可以看到 httpbin
的对应条目,如下图所示。
项目网关细节补充
项目网关是 KubeSphere 3.0 之后上线的功能。KubeSphere 项目中的网关是一个 NGINX Ingress 控制器。KubeSphere 内置用于 HTTP 负载均衡的机制称为应用路由,它定义了从外部到集群服务的连接规则。如需允许从外部访问服务,用户可创建路由资源来定义 URI 路径、后端服务名称等信息。
承接上文中已部署的 httpbin
服务项目,在「项目设置」中打开「网关设置」页面,然后执行「开启网关」操作。方便起见,直接选择 NodePort
作为「访问方式」即可。
确定后回到网关页面,稍等片刻后刷新页面,可以得到如下图显示的部署完成状态,在这里可以看到 NodePort 默认被赋予了两个节点端口。接招我们通过右上角的「管理」按钮「查看详情」。
此时我们看到的便是 3.2.0 版本关于项目/集群网关的新监控页面。下面我们就需要为 httpbin 服务创建应用路由。
从「应用负载」进入「应用路由」页面,开始「创建」路由。为路由取名为 httpbin
后,我们指定一个方便测试的域名,并设置「路径」为 /
, 选择「服务」httpbin
和「端口」80
。
直接下一步跳过高级设置后完成路由创建,可以得到如下图所示的 httpbin 应用路由项。
接下来我们就可以通过项目网关的 NodePort 地址及指定域名(如这里是 http://httpbin.ui:32516) 来访问 httpbin 应用服务,随意刷新或操作一下页面的请求生成功能,再进入网关的详情页面,便可以看到在「监控」面板上已经出现了网关的一些内置的监控指标展示。
指定 NodePort 节点端口
对于公有云环境,如果使用 NodePort 方式向外暴露访问能力,开放端口通常是有限且受控的,因此对于网关所使用的 NodePort 我们需要对它进行修改。
由于网关是被 KubeSphere 统一管理的,要修改网关服务的 NodePort 需要具备访问 kubesphere-controls-system
的项目权限。进入该项目后,通过「应用负载」的「服务」页面即可找到命名为 kubesphere-router-<project-namespace>
形式且外部访问已开放 NodePort 的网关服务。NodePort 服务端口需要通过「编辑 YAML」来直接修改。
开始使用集群网关
KubeSphere 3.2.0 开始支持集群级别的全局网关,所有项目可共用同一个网关,之前已创建的项目网关也不会受到集群网关的影响。也可以统一纳管所有项目的网关,对其进行集中管理和配置,管理员用户再也不需要切换到不同的企业空间中去配置网关了。
如果您使用的是是 KubeSphere 3.2.0 版本,我们更推荐大家使用集群网关的功能来统一整个集群的应用路由。要启用集群网关也非常简单:使用具备集群管理权限的账号,进入其可管理的某个集群(如我们这里以 default
集群为例),在「集群设置」的「网关设置」中即可「开启网关」,同时查看「项目网关」。
集群网关开启的方式以及对齐 NodePort 访问端口的修改和之前项目网关的操作基本完全一致,这里就不多赘述了。
但有一点需要特别注意:集群网关开启后,已经开启的项目网关还会保留;但尚未创建网关的项目是无法再创建单独的网关的,会直接使用集群网关。
下图展示了已创建网关的项目,在同时拥有项目及集群网关后,在「网关设置」页面所呈现的所有网关概览。
快速使用 Apache APISIX Ingress Controller
Apache APISIX 是一款开源的高性能、动态云原生网关,由深圳支流科技有限公司于 2019 年捐赠给 Apache 基金会,目前已成为 Apache 基金会的顶级开源项目,也是 GitHub 上最活跃的网关项目。Apache APISIX 目前已覆盖 API 网关、LB、Kubernetes Ingress、Service Mesh 等多种场景。
如何部署
首先添加 Apache APISIX Helm Chart 仓库。之后选定一个企业空间,通过「应用管理」下的「应用仓库」来添加如下一个 Apache APISIX 的仓库。
接下来创建一个名为 apisix-system
的项目。进入项目页面后,选择在「应用负载」中创建「应用」的方式来部署 Apache APISIX,并选择 apisix
应用模版开始进行部署。
为何是直接部署 Apache APISIX 应用的 Helm Chart,而不是直接部署 Apache APISIX Ingress Controller?
这是因为 Apache APISIX Ingress Controller 目前和 Apache APISIX 网关是强关联的(如下图所示),且目前通过 Apache APISIX Helm Charts 同时部署 Apache APISIX Gateway + Dashboard + Ingress Controller 是最方便的,因此本文推荐直接使用 Apache APISIX 的 Helm Chart 进行整套组件的部署。
将应用命名为 apisix
以避免多个组件(Gateway, Dashboard, Ingress Controller)的工作负载及服务名称产生不匹配的情况;在安装步骤中编辑的「应用设置」的部分,请参照以下配置进行填写(请特别注意带有【注意】标记的注释部分的说明,其余可以按需自行编辑修改)。
1global:
2 imagePullSecrets: []
3
4apisix:
5 enabled: true
6 customLuaSharedDicts: []
7 image:
8 repository: apache/apisix
9 pullPolicy: IfNotPresent
10 tag: 2.10.1-alpine
11 replicaCount: 1
12 podAnnotations: {}
13 podSecurityContext: {}
14 securityContext: {}
15 resources: {}
16 nodeSelector: {}
17 tolerations: []
18 affinity: {}
19 podAntiAffinity:
20 enabled: false
21
22nameOverride: ''
23fullnameOverride: ''
24
25gateway:
26 type: NodePort
27 externalTrafficPolicy: Cluster
28 http:
29 enabled: true
30 servicePort: 80
31 containerPort: 9080
32 tls:
33 enabled: false
34 servicePort: 443
35 containerPort: 9443
36 existingCASecret: ''
37 certCAFilename: ''
38 http2:
39 enabled: true
40 stream:
41 enabled: false
42 only: false
43 tcp: []
44 udp: []
45 ingress:
46 enabled: false
47 annotations: {}
48 hosts:
49 - host: apisix.local
50 paths: []
51 tls: []
52
53admin:
54 enabled: true
55 type: ClusterIP
56 externalIPs: []
57 port: 9180
58 servicePort: 9180
59 cors: true
60 credentials:
61 admin: edd1c9f034335f136f87ad84b625c8f1
62 viewer: 4054f7cf07e344346cd3f287985e76a2
63 allow:
64 ipList:
65 - 0.0.0.0/0
66
67plugins:
68 - api-breaker
69 - authz-keycloak
70 - basic-auth
71 - batch-requests
72 - consumer-restriction
73 - cors
74 - echo
75 - fault-injection
76 - grpc-transcode
77 - hmac-auth
78 - http-logger
79 - ip-restriction
80 - ua-restriction
81 - jwt-auth
82 - kafka-logger
83 - key-auth
84 - limit-conn
85 - limit-count
86 - limit-req
87 - node-status
88 - openid-connect
89 - authz-casbin
90 - prometheus
91 - proxy-cache
92 - proxy-mirror
93 - proxy-rewrite
94 - redirect
95 - referer-restriction
96 - request-id
97 - request-validation
98 - response-rewrite
99 - serverless-post-function
100 - serverless-pre-function
101 - sls-logger
102 - syslog
103 - tcp-logger
104 - udp-logger
105 - uri-blocker
106 - wolf-rbac
107 - zipkin
108 - traffic-split
109 - gzip
110 - real-ip
111 #【注意】添加此插件以配合 Dashboard 展示服务信息
112 - server-info
113
114stream_plugins:
115 - mqtt-proxy
116 - ip-restriction
117 - limit-conn
118
119customPlugins:
120 enabled: true
121 luaPath: /opts/custom_plugins/?.lua
122 #【注意】如下配置保障 Prometheus 插件可对外暴露指标
123 plugins:
124 - name: prometheus
125 attrs:
126 export_addr:
127 ip: 0.0.0.0
128 port: 9091
129 configMap:
130 name: prometheus
131 mounts: []
132
133dns:
134 resolvers:
135 - 127.0.0.1
136 - 172.20.0.10
137 - 114.114.114.114
138 - 223.5.5.5
139 - 1.1.1.1
140 - 8.8.8.8
141 validity: 30
142 timeout: 5
143
144autoscaling:
145 enabled: false
146 minReplicas: 1
147 maxReplicas: 100
148 targetCPUUtilizationPercentage: 80
149 targetMemoryUtilizationPercentage: 80
150
151configurationSnippet:
152 main: ''
153 httpStart: ''
154 httpEnd: ''
155 httpSrv: ''
156 httpAdmin: ''
157 stream: ''
158
159etcd:
160 enabled: true
161 host:
162 - 'http://etcd.host:2379'
163 prefix: /apisix
164 timeout: 30
165 auth:
166 rbac:
167 enabled: false
168 user: ''
169 password: ''
170 tls:
171 enabled: false
172 existingSecret: ''
173 certFilename: ''
174 certKeyFilename: ''
175 verify: true
176 service:
177 port: 2379
178 replicaCount: 3
179
180dashboard:
181 enabled: true
182 #【注意】为 Dashboard 开启 NodePort 方便后续使用
183 service:
184 type: NodePort
185
186ingress-controller:
187 enabled: true
188 config:
189 apisix:
190 #【注意】一定要设置 gateway 所在的 namespace
191 serviceNamespace: apisix-system
192 serviceMonitor:
193 enabled: true
194 namespace: 'apisix-system'
195 interval: 15s
部署成功后,点击应用名称进入详情页面,可以在「资源状态」标签页下看到如下的服务部署和工作状态运行状态展示。
Apache APISIX 项目另有的两个 Helm Chart 对应的默认配置参数可以分别参考:Dashboard 和 Ingress Controller 的 values.yaml。
Dashboard 妙用
Apache APISIX 应用部署完成后,可通过 Apache APISIX Dashboard 来检验一下 Apache APISIX 网关的当前状态。
从应用负载-服务页面可以找到 apisix-dashboard
服务,由于我们在应用配置中已为 Dashboard 开启了 NodePort,所以这里可以直接通过 NodePort 端口来访问 Dashboard。
使用默认用户名及密码 admin
登录 Apache APISIX Dashboard,可以进入「系统信息」页面查看到当前连接管理的「Apache APISIX 节点」信息。
如何使用
接下来让我们回到「应用路由」页面,再新建一个路由(如 apisix-httpbin
),设置路径为 /*
httpbin
80
并为其添加 kubernetes.io/ingress.class
: apisix
的键值。
验证应用路由生效
回到 Apache APISIX Dashboard 进入「路由」页面,可以看到新建的应用路由已被 Apache APISIX Ingress Controller 识别后自动添加到了 Apache APISIX 网关中,在「上游」页面也可以看到自动创建的一个上游条目。
接下来回到 apisix-system
项目「服务」页面,找到 apisix-gateway
服务对应的端口,由此访问 <apisix-httpbin 应用路由指定的域名>:<apisix-gateway 外部访问端口>
(例如此处为 httpbin.ui:30408
)即可访问到 apisix-httpbin
应用路由所关联的后台服务。
自定义监控 Apache APISIX 网关
使用 Apache APISIX 网关时可通过 Prometheus 插件以及 KubeSphere 自带的自定义监控能力来进行监控能力的加持。
暴露相关 Prometheus 监控指标
由于我们在前边部署 Apache APISIX 应用时已经开启了 Prometheus 插件,所以接下来只需要把 Prometheus 监控指标的接口暴露出来即可。
进入 apisix-system
项目,在「工作负载」页面找到 apisix 并进入部署详情页面,随后在左侧操作面板的「更多操作」中选择「编辑设置」。
在弹出的面板中,进入到 apisix
容器编辑界面,找到「端口设置」,添加一个新的名为 prom
的端口映射到容器的 9091
端口,保存后 apisix
工作负载会重启。
为监控指标创建 ServiceMonitor
接下来我们需要将已暴露的指标接口接入到 KubeSphere 自带的 Prometheus 中使之可被访问(被抓取指标数据)。
由于 KubeSphere 是通过 Prometheus Operator 来维护内部 Prometheus 系统,所以最快捷的方式自然是直接创建 ServiceMonitor 资源来实现指标接口的接入。
1apiVersion: monitoring.coreos.com/v1
2kind: ServiceMonitor
3metadata:
4 name: apisix
5 namespace: apisix-system
6spec:
7 endpoints:
8 - scheme: http
9 #【注意】使用上一步中工作负载暴露的容器端口名称
10 targetPort: prom
11 #【注意】需要正确绑定 apisix 对应的指标接口路径
12 path: /apisix/prometheus/metrics
13 interval: 15s
14 namespaceSelector:
15 matchNames:
16 - apisix-system
17 selector:
18 matchLabels:
19 app.kubernetes.io/name: apisix
20 app.kubernetes.io/version: 2.10.0
21 helm.sh/chart: apisix-0.7.2
使用 kubectl apply -f your_service_monitor.yaml
创建 ServiceMonitor 资源。创建成功后,如果有集群管理权限,也可以在集群的 CRD 管理页面中搜索查看 ServiceMonitor 资源并找到名为 apisix
的自定义资源,也可以在这里做后续的 YAML 修改。
指标接入自定义监控面板
在项目左侧菜单列表中找到「监控告警」中的「自定义监控」,开始「创建」自定义监控面板。
在弹出窗口中填入「名称」,选择「自定义」监控模版,并进入「下一步」的监控面板创建。
进入编辑页面后现在左侧点击 +
区域,在右侧的「数据」区域进行 Prometheus 监控指标的配置。例如这里我们可以用 sum(apisix_nginx_http_current_connections)
来统计 Apache APISIX 网关实时的连接总数。
保存后在页面右下角找到「+ 添加监控项」,并选择「折线图」创建 Nginx connection state
指标:使用 sum(apisix_nginx_http_current_connections) by (state)
作为指标、{{state}}
用作图例名称、「图例类型」为堆叠图,即可得到类似下图的结果。保存模版后即可得到第一个自定义监控面板!
Apache APISIX 网关目前提供的 Prometheus 指标可以参见官方文档的可有的指标部分。
由于指标配置过程比较麻烦,推荐在集群层面的「自定义监控」中直接导入 Apache APISIX Grafana 模版(下载 JSON 并通过「本地上传」进行导入)。
创建完成后可直接呈现出非常丰富的 Apache APISIX 网关监控面板。KubeSphere 也同时在积极推进将 Grafana 模版导入的功能引入到项目的自定义监控能力中去,敬请期待!
总结
通过本文非常详细的步骤介绍,大家可充分了解并跟随上手体验到如何「将 Apache APISIX Ingress 网关介入 KubeSphere 并进行自定义监控」。希望通过阅读本文,可以加深各位对 Apache APISIX Ingress Controller 与 Apache APISIX 应用理解。
作者张海立,驭势科技云平台研发总监。开源爱好者,云原生社区上海站 PMC 成员,KubeSphere Ambassador。