如何基于 Knative 开发 自定义controller
1. 为什么要开发 自定义 controller?
开源版本的 Knative 提供了扩缩容及事件驱动的架构,对于大部分场景的 Serverless 已经满足了,不过对于商业版本的 Serverless 平台来说,免不了要添加一些增强特性。
通常情况下,In-Tree 形式的增强不推荐,而且这种方式也会因开源版本升级带来不小的适配工作量。
Out-Of-Tree 形式的 自定义 controller 是一种很好特性增强方式,而且社区本身对于周边组件的解耦也是通过 controller 来对接的。比如:
net-contour : 对接 Contour 七层负载的网络插件
net-kourier : 对接 Kourier 七层负载的网络插件
net-istio : 对接 Istio 七层负载的网络插件
上述提到的几个网络插件都是通过 自定义
Controller结合Kingress这个CRD资源来实现

2. How?
对于 有过 Kubernetes operator 开发经验的同学来说,可能对 Kubebuilder 更熟悉一些,其实 Knative 自定义 控制器的开发更简单,下面一步一步介绍怎么开始
2.1 Fork 社区 Template
社区 项目地址在 https://github.com/knative-sandbox/sample-controller,直接 fork 到个人仓库。
2.2 sample-controller介绍
代码下载到本地,目录如下,如下(此处省略掉不重要的文件):
目录介绍:
cmd: 包含
controller和webhook的入口main函数,以及生成 crd 的 schema 工具(这也是笔者的社区贡献之一)config: controller 和webhook 的部署文件(本文只关注 controller)
hack:是 程序自动生成代码的脚本,其中的
update-codegen.sh最常用,是生成informer,clientset,injection,lister的工具pkg/apis: 此处是 CRD 定义的 types 文件
pkg/client: 这里是 执行
hack/update-codegen.sh后自动生成的,包含 clienset,informers, injection(常用的是其中的 reconfiler 框架,框架中 lister 和 informer 可以从 context 中获取,这也是 injection 的含义) ,lister。pkg/reconciler: 这里是控制器的主要逻辑,包括控制器主入口
controller.go和对应的reconciler逻辑
2.3 CRD 资源定义
1. 确定 GKV,即资源的 Group、Kind、Version
GKV,即资源的 Group、Kind、Version 此处实例中,有两个 crd 资源,本文主要以 AddressableService 为例讲解。
Group 为
samples.knative.dev,Kind 为
AddressableService(实例中有两个类型,取一个介绍),Version 为
v1alpha1
2.编写 CRD types 文件
目录按照 /pkg/apis/<kind 一般取 groupname 第一个逗号前的单词>/<version>
Group 和 Version及其注册
在 addKnownTypes 中将 Kind 注册
为 CRD types 编写对应的 spec 和 status, 注意其中的注解,这是 hack/update-codegen.sh 执行生成 clientset 和 reconciler 的关键
3 CRD 资源的 配置
可以看到,对于每个 CRD 资源,除了 xxxtypes.go 外,还有以下几个文件
xxx_validation.go: 用于
webhook校验xxx_lifecycle.go: 用于
status状态的设置xxx_defaults.go: 用于 默认值的设置
可在 xxx_types 文件中 声明如下,校验是否实现了对应的接口
4. hack/update-codegen.sh 文件配置
5. 编写完毕,执行 bash hack/update-codegen.sh
bash hack/update-codegen.sh执行完毕没出错的话,就可以进行下一步编写控制器主逻辑了
如果是 mac 用户,这里一定要升级 bash 版本到 v4(执行 bash --version 查看),不然会出现如下问题,升级方法请自行百度
2.4 控制器逻辑介绍
controller 入口文件
sharedmain.Main 函数传入 controller 的初始化方法,该方法会返回一个 controller 的实现 controller.impl ,impl 的定义如下
sharedmain.Main 会执行以下事情:
启动各种
informer,启动 所有controller,knative.dev/pkg/injection/sharedmain/main.go#238执行工作流
processNextWorkItem,knative.dev/pkg/injection/sharedmain/main.go#468调用
Reconciler接口的Reconcile(ctx context.Context,key string) err函数Reconcile(ctx context.Context,key string) err函数调用 具体的 Reconciler 的实现接口 (这里就是用户自己实现的代码了)sample-controller/pkg/client/injection/reconciler/samples/v1alpha1/addressableservice/reconciler.go#181FinalizeKind(ctx context.Context, o v1alpha1.AddressableService) reconciler.EventFinalizeKind(ctx context.Context, o v1alpha1.AddressableService) reconciler.Event
5. 接下来就是上述第 4点说的自己实现的代码了
2.5 控制器逻辑编写
代码主要在 如下两个文件:
sample-controller/pkg/reconciler/addressableservice/addressableservice.go
sample-controller/pkg/reconciler/addressableservice/controller.go
addressableservice.go 实现 AddressableService 的 ReconcileKind 接口,如果删除 CR 资源时要做清理动作,可以实现 Finalizer 的 FinalizeKind 接口,可通过以下声明 确保接口的实现(IDE 一键生成函数框架)
controller 中 代码如下
handler函数
为 informer 添加 函数除了实例中的 Informer().AddEventHandler,还可以 通过 Informer().AddEventHandlerWithResyncPeriod 确保除了 watch 之外,周期性将 CR 全量加入 工作队列中处理。
filter 函数 还可以添加如下 filter 函数,过滤进入 工作队列的 资源,(在资源数量巨大时能优化性能)
2.6 Reconciler 逻辑编写
参考 sample-controller/pkg/reconciler/addressableservice/addressableservice.go 文件即可,其中注意
status 在 reconciler 中调用 xxx_lifecycle.go 中的 状态设置函数可以,controller 框架会在 reconcile 流程结束后将 CR 资源的状态 通过 kube-apiserver 更新到 etcd 中
2.7 调试
1. 生成 CRD 描述文件 并 apply 到集群
在
sample-controller/cmd/schema/main.go中注册,如下:
2. 执行命令
将生成的 yaml 粘贴到 sample-controller/config/300-addressableservice.yaml 中的
spec.versions.schema.openAPIV3Schema 下
3. apply crd yaml,在 k8s 集群中执行