在回答这个问题之前,让我们一起先了解下 web 应用部署方式的演化过程。
成都创新互联是一家专注于成都网站建设、成都网站设计与策划设计,环县网站建设哪家好?成都创新互联做网站,专注于网站建设十多年,网设计领域的专业建站公司;建站业务涵盖:环县等地区。环县做网站价格咨询:18982081108
在我刚接触软件开发的时候,人们部署应用的方式通常是这样的:
首先需要一台服务器,然后在服务器上安装 Web Server (例如:Nginx 或者 Apache Server)。接着,根据应用的运行时要求,安装对应的软件包(例如:如果代码是用 Node.js 编写,就需要安装 Node.js 运行时环境)。最后,根据应用的其他功能,安装对应的软件,如数据库之类的。
应用部署的同时,宿主机上也多了各种软件程序。此时,这个 web 应用提供的服务如下图所示:
随着 web 应用的日趋复杂,这种部署方式的弊端逐渐出现了。
现代服务器性能非常强悍,如果一台主机上仅运行几个程序,就可能造成机器资源利用率偏低。而且,由于程序是直接运行在宿主机上的,程序之间存在资源竞争关系,会互相影响。如果某个程序造成宿主机卡顿或挂掉,那么其他程序也无法正常工作了。
在 2013 年出现 Docker 容器技术之后,这种部署方式逐渐被淘汰了。
容器技术有多种实现方式,比较主流的是 Docker。
其 logo 很好的体现了“容器”的特点——程序就像一个个集装箱,彼此隔离的运行在宿主机上。
区别于传统的宿主机部署模式,容器化技术提供了一个隔离环境。程序之间既不会互相影响,也不会影响宿主机的稳定。
Docker 方式运行的容器,可以理解为一个虚拟机(但和虚拟机还是有区别的,虚拟机是对硬件的虚拟化;Docker 是操作系统层的虚拟化)。它包含了运行程序所需的运行时环境和程序代码,启动后能够以端口映射的方式,将容器自身的服务暴露给宿主机和外部用户。
容器之间除了彼此隔离之外,也能够通过 Docker 引擎实现互联。容器之间的访问通常是以内部 IP 的方式进行的。
随着 web 应用规模的继续扩大,单主机不再能满足性能要求。现在的部署是基于多主机、多容器进行的。那么,如何对这些主机资源和应用容器进行管理?这个问题的答案指向了本文的主角—— K8S。
开源的容器管理平台
K8S 的全称是Kubernetes,因为在首字母k和尾字母s中间有8个字母,因此被简写为 K8S(类似的还有i18n等)。它是由谷歌开源的,主流的容器管理平台。
它的 logo 也很有意思,K8S 就像一个舵一样,让用户能够在茫茫大海中将满载集装箱的大船驶向成功的彼岸。
借助 K8S 提供的能力,运维人员——甚至是前端开发人员——能够很容易地在集群环境中部署和管理容器。并且,对于以下功能,K8S 也能够很好地支持:
K8S 环境需要先被安装和运行起来。由于这部分的操作需要服务器支持,这里就不做介绍了。下文的全部内容都基于读者能够连接到任一 K8S 系统这个前提之上。
在 K8S 中,所有资源都是通过声明式配置进行管理的,它们被称作 K8S 对象。以 namespace 为例:
apiVersion: v1
kind: Namespace
metadata:
name: demo-space
spec:
finalizers:
- kubernetes
status:
phase: Active
不同类型的对象所需的配置不完全相同,但他们都应有如下几个基础配置:
常见的 K8S 对象包括 Namespace、Ingress、Sevice、Development、Pod。其中,Namespace 是一个虚拟的概念,用来对集群划分不同的命名空间。通常,同一个 Namespace 中的资源,其命名应该是唯一的。其他几种类型的资源的关系如下图所示:
通常一个集群会包含数台物理主机,它们都是集群的节点,这些节点需要一个统一的 IP 进行访问。Ingress 提供了这项能力,它是整个集群的流量入口。
Ingress 控制器有多种实现,比较常见的是基于 Nginx 实现的。
流量从 Ingress 进入集群之后,应该被分配给不同的容器处理。但通常来说,容器的 IP 不是固定的,这是因为在 K8S 中,可以随时增减容器的数量,此时容器 IP 就是动态的。
Service 是一个抽象概念,它的作用是在 Ingress 和 Pod 之间解藕它们二者的关联。它会动态获取可用的 Pod 的信息,传递给 Ingress,以保证进行正确的负载均衡。
不论是正常的增减容器数量(扩缩容)还是容器自身因为意外重启,流量总会被分配到可用的容器上。
Development 是用于管理副本集和容器配置的。K8S 不建议用户直接操作副本集配置,所以 Development 通常是用户所需要接触的最基础的配置。
通过 Development,可以实现如下功能:
Pod 是 K8S 中最小的部署单元,它包含了一组容器(可以是一个或多个)。同一个 Pod 中的不同容器之间可以通过localhost:
以下是多容器配合的一个实例:
上图中的 Web Server 容器可以对外提供资源访问的服务,同时,File Puller 作为一个 sidecar 容器,可以同时将远端的内容更新到本地存储中,以保证 Web Server 提供的内容是最新的。
kubectl 是 K8S 提供的命令行工具,使得用户可以在本地对 K8S 集群发送操作指令。
安装完成后,创建配置文件:
touch $HOME/.kube/config
然后在文件中加入集群配置:
apiVersion: v1
# 集群配置,可以是多个;集群必须包含 server 字段
clusters:
- cluster:
server: https://dami.net
name: dami-c3
# 上下文配置,可以是多个,每个上下文必须包含集群名称、namespace 名称、用户名
contexts:
- context:
cluster: dami-c3
namespace: demo-space
user: manooog
name: c3-demo-space-context
# 当前默认的上下文配置,所有 kubectl 命令,都会默认使用这个上下文
current-context: c3-demo-space-context
kind: Config
# 用户信息,包含用户名和对应的权限信息,可能是 token
users:
- name: manooog
user:
token:
保存好配置之后,就可以是使用 kubectl 命令对集群进行操作了。eg:
kubectl get ingress # 获取当前 context 中对应的 namespace 中的 Ingress 配置
kubectl 功能比较多,根据使用习惯的不同,同一个功能也有不同的使用方式。下面列举一些我使用得比较多的命令。
kubectl get service/-o yaml
以上命令的含义是,获取名称为xxx的 service 对应的配置文件,并且以 yaml 格式输出。对于不同的资源,通常是以<类型>/<名称>进行区分的。
上面提到过,K8S 中一切资源都可以从声明式配置中得到。当我们想创建一个资源的时候,可以先创建对应的配置文件。然后使用以下命令使配置生效:
kubectl create -f service.yaml
kubectl apply -f service.yaml
以上命令都可以应用配置文件,区别就在在于,create 通常用于第一次创建,apply则用于修改已存在的配置文件。我更倾向于使用 apply 命令。
kubectl logs
获取 Pod 中对应的容器的输出信息。如果 Pod 中只有一个容器,container-name 可以省略。
在容器运行过程中,可能会出现异常情况,这个时候需要进入容器内部进行检查。这个时候可以使用以下命令:
kubectl exec -it demo-5b7846d65b-nvnnm -- sh
如果 Pod 包含多个容器,同样需要使用 -c参数,指定需要进入的容器名称。
这个 demo 的目标是启动一个 3 实例的 Node.js 后端程序,并实现以下效果:
curl demo-20211215.io/20211215
// -> Hello World
http://demo-20211215.io 域名指向的是集群 Ip,当请求/20211215这个路径的时候,期望能收到 Node.js 后端返回的字符串:Hello World。
由于这个示例域名是不存在的,因此我们这里利用 Hosts 进行配置。在本地 Hosts 增加一条记录,将域名直接绑定到测试集群的 Ingress IP上:
demo-20211215.io
现在执行测试命令,将会得到下面的提示:
$ curl -v demo-20211215.io/2021215
* Trying...
* TCP_NODELAY set
* Connected to demo-20211215.io () port 80 (#0)
> GET /2021215 HTTP/1.1
> Host: demo-20211215.io
> User-Agent: curl/7.64.1
> Accept: */*
>
< HTTP/1.1 404 Not Found
< Server: nginx/1.19.2
< Date: Tue, 14 Dec 2021 07:10:59 GMT
< Content-Type: text/plain; charset=utf-8
< Content-Length: 21
< Connection: keep-alive
目前集群还不能响应对于 /20211215 这个 path 的请求。接下来,让我们一起试着将这个服务部署起来。
首先,我们需要创建一条 Ingress 规则,并保存为ingress.yml:
apiVersion: extensions/v1beta1
kind: Ingress
metadata:
name: demo-20211215
annotations:
nginx.ingress.kubernetes.io/ssl-redirect: "false"
spec:
rules:
- host: demo-20211215.io
http:
paths:
- path: /20211215
backend:
serviceName: demo-service-20211215
servicePort: 80
执行创建命令:
kubectl apply -f ingress.yaml
接着再执行:
kubectl get ingress
NAME HOSTS ADDRESS PORTS AGE
demo-20211215 demo-20211215.io 10.136.3.47,10.136.3.48,10.136.32.44,10.136.32.45,10.136.35.53,10.136.37.54 80 2m13s
就可以看到刚才创建的那条 ingress 规则了。这个时候,再尝试访问demo-20211215.io/20211215,返回结果已经有了变化:
$ curl demo-20211215.io/20211215
< HTTP/1.1 503 Service Temporarily Unavailable
< Server: nginx/1.19.2
< Date: Tue, 14 Dec 2021 07:20:28 GMT
< Content-Type: text/html
< Content-Length: 197
< Connection: keep-alive
目前服务仍不可访问,但配置已生效。
配置解析:
metadata.name // 这条 ingress 的规则名称,同一个 namespace 中,name 字段是唯一的。
metadata.annotations // 这个是对 ingress 控制器的配置,视具体情况而定
spec.rules // 匹配规则
在这个配置中,有一条规则。即:响应对 http://demo-20211215.io/20211215 这个 URL 的请求,并且将请求转发给名为 demo-service-20211215的这个 service 的 80 端口。
注意,这个时候尚未创建对应的 Service,但 K8S 并没有提示创建 ingress 失败。这是因为K8S提供的服务发现的能力,如果后期对应的服务被创建了,那么自然会被 ingress 识别,并分配流量过去。
创建service.yaml并贴入以下内容:
apiVersion: v1
kind: Service
metadata:
name: demo-service-20211215
spec:
selector:
app: demo-app-20211215
ports:
- protocol: TCP
port: 80
targetPort: 3000
执行创建命令:
kubectl apply -f service.yaml
创建好之后通过以下命令查看:
kubectl get service/demo-service-20211215
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
demo-service-20211215 ClusterIP 10.254.40.16880/TCP 51s
配置解析:
metadata.name // service 的名称,在同一个 namespace 中,该字段是唯一的
spec.selector.app // 这是一个选择器,可以选择 labels 中包含 app=demo-app-20211215 的 pod 加入这个 service 中
将下面的配置内容保存为deployment.yaml:
apiVersion: apps/v1
kind: Deployment
metadata:
name: demo-deployment-20211215
spec:
replicas: 3
selector:
matchLabels:
app: demo-app-20211215
template:
metadata:
labels:
app: demo-app-20211215
spec:
containers:
- name: demo-20211215
image: rxh1212/demo-20211215
ports:
- containerPort: 3000
创建以及查看的命令就不再举例了。
配置解析:
metadata.name // deployment 的名称,也是 namespace 中必须要唯一的
spec.replicas // pod 的实例个数,这里是 3,表示将会部署三个应用实例
spec.selector.matchLabels // 应该与 spec.template.metadata.labels 相同,表示的是 pod 的 labels。
spec.template.spec.containers // 是一个数组,表示这个 deployment 所使用的容器。
在这里我使用了名为 rxh1212/demo-20211215 镜像,它是我单独编译的,包含一个 Node.js 应用。代码如下:
"use strict"
const express = require("express")
// Constants
const PORT = 3000
const HOST = "0.0.0.0"
// App
const app = express()
app.get("/20211215", (req, res) => {
res.send("Hello World")
})
app.listen(PORT, HOST)
console.log(`Running on http://${HOST}:${PORT}`)
镜像启动之后,会在 3000 端口提供一个 Http 服务。如果访问 /20211215,会收到Hello World的响应。
言归正传,deployment 创建好之后,再对demo-20211215.io/20211215进行访问,即可得到以下响应:
$ curl demo-20211215.io/20211215
< HTTP/1.1 200 OK
< Server: nginx/1.19.2
< Date: Tue, 14 Dec 2021 07:25:54 GMT
< Content-Type: text/html; charset=utf-8
< Content-Length: 11
< Connection: keep-alive
< X-Powered-By: Express
< ETag: W/"b-Ck1VqNd45QIvq3AZd8XYQLvEhtA"
<
* Connection #0 to host demo-20211215.io left intact
Hello World* Closing connection 0
至此,我们完成了一个简单的 K8S 部署流程。
以上 Demo 使用的配置代码,已上传至 github 中:https://github.com/manooog/K8S-demo-20211215
本文题目:写给前端的 K8S 上手指南
分享网址:http://www.gawzjz.com/qtweb/news41/182641.html
网站建设、网络推广公司-创新互联,是专注品牌与效果的网站制作,网络营销seo公司;服务项目有等
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联