原创 精选
作者: 字节跳动技术团队 2022-05-02 15:11:15
云计算
云原生 本文分享的是 Bytedoc 3.0 关于集群交付方面的内容以及一些云原生的实践:如何将 Bytedoc 3.0 与云原生的能力结合起来,交付用户一个开箱即用的集群,与软件层的能力相匹配,最大化展示 Bytedoc 3.0 具备的“弹性”能力。
网站设计制作、成都网站制作介绍好的网站是理念、设计和技术的结合。创新互联拥有的网站设计理念、多方位的设计风格、经验丰富的设计团队。提供PC端+手机端网站建设,用营销思维进行网站设计、采用先进技术开源代码、注重用户体验与SEO基础,将技术与创意整合到网站之中,以契合客户的方式做到创意性的视觉化效果。
作者 | 李家俊
本文分享的是 Bytedoc 3.0 关于集群交付方面的内容以及一些云原生的实践:如何将 Bytedoc 3.0 与云原生的能力结合起来,交付用户一个开箱即用的集群,与软件层的能力相匹配,最大化展示 Bytedoc 3.0 具备的“弹性”能力。
数据库服务的使用者有两方:用户(业务)和 DBA(运维),运维能力不断增强,才能给用户更好的服务体验。
为了解决上述问题,Bytedoc 3.0 软件层已经实现了相关的能力,我们需要在交付层提供类似的能力,以匹配整体的“弹性”能力:
目标 1:数据库能快速扩展/恢复从库,秒级扩展数据库的读能力。扩容从库实例自动化程度要高,扩容速度尽可能快;
目标 2:计算资源能够按需扩展。对计算密集型业务,能快速扩展计算资源,而且能分配更多的资源供用户使用,匹配实际负载;
目标 3:提升计算/存储资源利用率,降低业务使用成本。
目标 4:更标准的交付能力与更高的交付质量,给用户提供更好的数据库服务。
我们通过“Kubernetes 云原生”化来实现我们的目标:
Kubernetes 是业界通用的,用于自动部署,扩展和管理容器化应用程序的开源编排系统。简单地说,它能够系统化地打包、运行、管理你的服务,在这里是 Bytedoc 数据库服务。这使得我们能够结合已有的运维经验和业界通用服务交付/管理解决方案,提供更好的、更高质量的数据库服务,以发挥 Bytedoc 3.0 十足的"弹性"能力
在 ByteDoc 1.0 时期,大多数数据库服务实例是直接部署到虚拟机上的,资源的分配受限于虚拟机规格的划分,无法灵活地、按需要分配机器资源,导致大部分的机器资源空闲出来,无法得到有效利用;同时,因为计算与存储的资源绑定,在 1.0 的自研部署平台中,实现容器化部署十分困难,虚拟机部署的方案就一直保留下来。
直到 ByteDoc 3.0 的出现,将数据下沉存储层,交付服务时,更多关注计算层方面的资源分配,使得容器化部署模式可行。结合 Kubernetes 对容器部署与管理的解决方案,我们将容器大部分自动化管理操作交由给 Kubernetes 控制器管理,专注于 ByteDoc 3.0 服务编排过程,如集群部署、从库扩容等,以充分发挥 3.0 的"弹性"能力。
服务云原生化,实际上是一个“迁移”的过程,将原有服务打包、运行、管理能力,以 Kubernetes 提供的解决方案为标准,重现出来。
在 Kubernetes 中,我们把 ByteDoc 3.0 集群定义为一种定制资源(CustomResource)。提供数据库服务,实际上就是创建了一种资源;和 K8s 内置的工作负载资源一样,定制资源也需要一个控制器来进行管理,通常把这类控制器称作 Operator。
所以,ByteDoc 3.0 云原生实践的关键是构建 ByteDoc Operator。
前面说到,Kubernetes 是一个容器编排系统,主要的职责是管理容器生命周期,所以实际的应用程序应该提前打包成一个容器镜像,以便于交付给 K8s 来使用。
https://kubernetes.io/zh/docs/concepts/workloads/pods/
我们打包好的容器最后会运行在 Pod 中,由 Pod 管理起来。
Pod 是 K8s 中内置的最基本的资源之一,也是最小部署的计算单元,可以类比于一些共享机器资源的容器组。
如果一个 Pod (内的容器)因异常导致退出,通常情况下,这个 Pod 会被删除销毁,高级 workload 会新建一个全新的 Pod 来代替它,而不是“重启”该 Pod。
通常情况下,我们构建的 Operator 不会去直接创建 Pod;而是使用 K8s 提供的高级 workload 资源,他们会帮我们把 Pod 创建出来,并提供一些基本的资源管理能力。
Deployment:
维护一组给定数量的、完全相同的 Pod,通常用于无状态服务。
StatefulSet:
同样维护一组 Pod,特别的是,每个 Pod 都有稳定的网络标示;在此情景下,如果一个 Pod 被销毁重建,在外部使用者看来,该 Pod 是进行“重启”了,所以通常用于有状态的服务。
Kubernetes 控制面的核心是 API 服务器。API 服务器负责提供 HTTP API,以供用户、集群中的不同部分和集群外部组件相互通信。
一般而言,我们与 K8s 交互是通过“声明式”,而非“动作命令式”。
# sample.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx-deployment
spec:
selector:
matchLabels:
app: nginx
minReadySeconds: 6
template:
metadata:
labels:
app: nginx
spec:
containers:
- name: nginx
image: nginx:1.14.2
ports:
- containerPort: 80
(ByteDoc 经典架构,由三部分组成)
mongos:
config server:
shard:
对于 mongo 的复制集,复制集成员需要用一个网络标示(host、dns、服务发现、headless service 等)注册进配置中,才能与其他复制集成员进行通信;所以在这里,我们使用 StatefulSet 提供的稳定的网络标示作为成员名称,保证数据库实例(对应的 pod)故障恢复后,以同样的身份加入到复制集中,正常地提供服务。
实际上,上述 ByteDoc 3.0 集群是在单机房下的架构,在线上生产环境中,还要考虑多机房容灾的场景;在多机房场景下,我们希望一个 3 副本的集群,每个计算实例是分别部署在不同的机房,但是这些副本又是需要在同一个复制集中的,在参考了几种跨 K8s 方案后,我们采取了下面的多机房架构:
1、社区提供的 Federation V1 方案(deprecated,后续改进为 V2 方案)
2、云原生 SRE 团队提供的通用 operator 方案
...
spec:
charts:
- name: nginx
chart: charts/nginx
values: '"replicaCount": "{{ .replica_count | default 1 }}"'
cluster:
- placement:
- names:
- cluster-sample
execJobs:
- name: ls
command:
- ls
- "-l"
mustBefore:
- chart.nginx
var:
replica_count: '2'
3、MongoDB 官方提供的跨 K8s 方案
我们当前的方案实际上和社区的 Federation 方案比较相似,通过以下的能力搭建完整的 ByteDoc 3.0 集群:
因此,我们选择这种 Meta Operator 的方案,通过 worker K8s 创建资源,后续 Operator 完成集群的搭建工作。
spec:
global:
chartVersion: "1.0.0.0"
bytedocVersion: "3.0"
image: "example_image"
mongos:
replicaCount: 2
resources:
limits:
cpu: "4"
memory: 2Gi
requests:
cpu: "1"
memory: 1Gi
shard:
shardsCount: 1
replicaCount: 4
...
config:
replicaCount: 3
...
placement:
- name: vdc1
vdc: "vdc1"
那么 ByteDoc Operator 到底执行了什么逻辑呢?Operator 其实也满足 K8s 控制器的设计理念,也就是,每个资源对象有一个期望状态,operator 需要把资源对象调整至期望状态,这个调整过程称为 Reconcile。
再仔细探究一下,ByteDoc 集群分为 3 个组件,只要 Mongos、config server、shard 三个组件都达到期望状态,最后将组件“连接”起来,整个集群也达到期望状态了;
所以我们可以将整个集群的 Reconcile,分解为对若干个模块 Reconcile,当每个小的模块都达到期望状态,整个集群也达到了期望状态,bytedoc operator 大致是基于这样的设计理念。
所以,我们的 operator 大致流程如下:
https://kubernetes.io/zh/docs/concepts/overview/working-with-objects/kubernetes-objects/#object-spec-and-status
Status 顾名思义就是用来存储一个资源对象当前状态的,可以充当状态机或小型存储使用。可以用来实现:
status:
replica_set:
ll2022-shard-0:
inline:
added_as_shard: true
initialized: true
read_only_ready: true
ready: 3
size: 3
status: ready
placement:
vdc1:
ready: 3
size: 3
status: ready
vdc: vdc1
...
上面说到,ByteDoc 每个组件实际上用了 K8s 内置的资源来管理的,一般情况下,我们不需要从头编写整个 CR 的 yaml 文件,更多的是调整一个固定模板里的动态参数,比如 mongos 的实例数,CPU、Mem 资源限制等。
从此出发,工程实现上就有两种方向:
我们采用的是第二种方法的一个较为优雅的版本,用 Helm (code)管理内置资源文件的渲染和发布 在 operator 镜像中,我们按照 helm 的标准,维护了一系列 charts 文件。
在创建资源时,利用 helm sdk,将参数渲染到 charts 模板中,生成实际的资源 yaml,接着发布到 worker K8s 集群中,operator 只需要等待资源完全 ready 就可以继续执行变更了。
另一个优雅的地方在于,此方案可以存放不同版本的 charts 模板,按版本划分为不同的目录;
当我们需要发布一个新版本的 charts 模板时,旧版本的服务并不会受到影响;而新创建的服务可以使用新版本的 charts 模板。
引入 K8s 帮助我们交付/管理集群有很多便利之处,但实际上也是一把双刃剑,可以不经意地误操作多数集群,导致数据库服务可用性受损。
可能的场景包括:
Finalizers
https://kubernetes.io/zh/docs/concepts/overview/working-with-objects/finalizers/
这是一个 K8s 防止误删除原生的解决方案,它是一个标示位,任何涉及删除的操作,都需要检查是否存在 finalizers。
这是一个很简单的方案,在接收到 CR 缩容变更时,检查其数量是否 > 0,不接受 = 0 的缩容,避免极端情况下,无可用实例的情况。
分享名称:ByteDoc3.0:MongoDB云原生实践
分享网址:http://www.gawzjz.com/qtweb/news23/169773.html
网站建设、网络推广公司-创新互联,是专注品牌与效果的网站制作,网络营销seo公司;服务项目有等
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联