企业级服务网格架构之路解读—Service Mesh在会话层解耦

本文是宋净超(Jimmy Song)对Lee Calcote的The Enterprise path to Service Mesh Architectures一书的解读。追本溯源,Service Mesh实际上是一种SDN,等同于OSI模型中的会话层。

作者 宋净超 发表于 2018年8月20日

追本溯源,Service Mesh实际上是一种SDN,等同于OSI模型中的会话层。 每一次技术变革,必然要导致生产力和生产关系的变革,我们看到这种趋势正在加速。本书中给出了企业上Service Mesh的路径,可供广大技术和管理人员参考。

本文转载自:https://jimmysong.io/posts/the-enterprise-path-to-service-mesh-architectures/

这是一本由Nginx赞助,O’Reilly出版社出品的关于服务网格的书籍,本书标题是 The Enterprise Path to Service Mesh ,还有个副标题 Decoupling at Layer 5 ,第一版发行于2018年8月8日。这本书一共61页,本文是我对该书的一些解读,读者可以在Nginx的网站上免费下载阅读完整内容。

关于作者

本书作者是Lee Calcote,先后在Cisco、Seagate、Solarwind任职负责技术战略决策,参与DMTF(Distributed Management Task Foundation)、CIS(Center for Internet Security),还是CNCF Ambassador、Docker Captain。

The Enterprise Path to Service Mesh Architectures

图书封面

下面看下本书目录,大体了解下本书讲了哪些内容。

目录

第1章 Service Mesh基础

  • 管控多个服务
  • 什么是Service Mesh
  • 为什么需要Service Mesh
  • 结论

第2章 技术对比

  • 不同的服务网格(还有Gateway)
  • 容器编排
  • API Gateway
  • 客户端库
  • 总结

第3章 采纳和演进

  • 渐渐式采纳
  • 采纳步骤
  • 改造部署
  • 架构演进
  • 总结

第4章 定制和集成

  • 可定制Sidecar
  • 可扩展适配器
  • 总结

第5章 总结

  • 用还是不用?

下面将对每章解读。

第1章 Service Mesh基础

微服务将原先的单体架构中的应用内通信,转变为基于RPC的远程通信,虽然这样提高了研发效率,提高了开发语言选择的多样性,但是随着单体应用的解体,原先的巨石散落为石块变得四处都是,如何管理这些微服务就成了难题。当微服务的个数少的时候还可以通过人工配置的方式去管理,但随着业务规模的增大,微服务的数量也可能呈指数级增长,如何协调管理成百上千的服务,这就需要有一套设计良好的框架。

一直以来都存在一个谬误,那就是在分布式系统中网络是可靠的。实际上网络是不可靠的,而且也是不安全的,如何保证应用调用和事务的安全性与可靠性,保护微服务的一个专门的基础设施层Service Mesh就应运而生。

Service Mesh是建立在物理或者虚拟网络层之上的,基于策略的微服务的流量控制,与一般的网络协议不同的是它有以下几个特点:

  • 开发者驱动
  • 可配置策略
  • 服务优先的网络配置而不是协议

本章主要介绍Service Mesh的定义和组成,为什么要使用Service Mesh,它可以带来哪些好处。

Service Mesh与传统网络的区别就是硬件或者虚拟网络软件定义网络(SDN)的区别,我们从上图中可以看到物理和虚拟网络中比起SDN还多了管理平面

硬件网络中控制平面与数据平面紧耦合,也就是说是与供应商绑定的,管理平面是独立出来的。而SDN却给了我们很多自由度,可以通过软件的形式自定义网络,例如Kubernetes中的CNI

物理网络有很多种拓扑类型,如星形拓扑、总线拓扑、环形拓扑、树型拓扑、网状拓扑等,大家可以去搜索拓扑网络。不论是那种拓扑结构,总有一条路径可以从一个节点路由到另一个节点,只是不同的拓扑类型效率不同,管理的复杂度不一样罢了。

下图是网状拓扑,所谓网状拓扑就是每个节点都可以跟所有其他节点直接互联,这样而这也是链接数最多一种拓扑,如果有n个节点的话,链接数就是n(n-1)。

Service Mesh架构

下图是Conduit Service Mesh(现在已合并到Linkerd2中了)的架构图,这是Service Mesh的一种典型的架构。

Service Mesh中分为控制平面数据平面,当前流行的两款开源的Service Mesh Istio和Linkerd实际上都是这种构造,只不过Istio的划分更清晰,而且部署更零散,很多组件都被拆分,控制平面中包括Mixer、Pilot、Citadel,数据平面默认是用Envoy;而Linkerd中只分为linkerd做数据平面,namerd作为控制平面。

控制平面

控制平面的特点:

  • 不直接解析数据包
  • 与控制平面中的代理通信,下发策略和配置
  • 负责网络行为的可视化
  • 通常提供API或者命令行工具可用于配置版本化管理,便于持续集成和部署

数据平面

数据平面的特点:

  • 通常是按照无状态目标设计的,但实际上为了提高流量转发性能,需要缓存一些数据,因此无状态也是有争议的
  • 直接处理入站和出站数据包,转发、路由、健康检查、负载均衡、认证、鉴权、产生监控数据等
  • 对应用来说透明,即可以做到无感知部署

Service Mesh的价值所在

Service Mesh中服务是一等公民,它提供L5的网络流量管理,并提供以下功能:

可观察性

还是拿Istio做例子,Mixer通过适配器将应用的遥测数据发送给后端监控、日志、认证和份额管理系统。

从上图可以看到Mixer适配器可以对接多种监控和日志后端。

流量控制

文中给出的例子是超时、重试、截止时间和速率限制。

安全性

下图是Istio中安全通信路径的示意图。

一般的安全性都是通过证书的方式实现的。Sidecar代理负责证书生命周期的管理,包括证书的生成、分发、刷新和注销。从图中还可以看到,在Pod内部sidecar会与应用容器之间建立本地TCP连接,其中使用mTLS(双向传输层加密)。这一点是非常重要的,因为一个节点上甚至一个Pod内都不一定运行一个容器,容器可能会被暴露到外部访问,保证传输层的双向加密,可以保证流量传输的安全。

延迟和故障注入

这个功能对于荣宰容灾和故障演练特别有用。通过人为的向系统中注入故障,如HTTP 500错误,通过分析分布式应用的行为,检验系统的健壮性。

在L5解耦

这是本书最有重要的一个观点,重要到要放到副标题,熟悉OSI模型的人都知道L5是什么。

OSI模型(图片来自CSDN

Service Mesh是在开发和运维之间植入的一个基础设施层。它将服务通信的关注点分离出来,在TCP/IP层之上抽象出一层通用功能。Service Mesh的引入直接导致生产关系的改变进而提高生产效率。具体表现在:

  • 运维人员在修改服务重试超时时间之前无需再知会开发人员
  • 客户成功部门在撤销客户的访问权限前无需再知会运维
  • 产品Owner可以针对特定服务,根据用户选择的套餐执行配额管理。
  • 开发人员可随时将新版本功能重定向到beta版本,不需要运维人员干涉。

这种职责的解耦大大加速了软件的迭代速度,总之你可以把Service Mesh作为OSI模型中的会话层。

第2章 技术对比

这一章主要讲解Service Mesh技术之间的区别,Service Mesh与其他相关技术之间的区别,读者可以直接浏览该网站来查看对比:http://layer5.io/service-meshes/

为什么有了如Kubernetes这样的容器编排我们还需要Service Mesh呢,下表是对容器编排调度器的核心功能和缺少的服务级别能力对比。

核心能力 缺少的服务级别能力
集群管理 熔断
调度 L7细粒度的流量控制
编排器和主机维护 混沌测试
服务发现 金丝雀部署
网络和负载均衡 超时、重试、 budget和deadline
有状态服务 按请求路由
多租户、多region 策略
简单的应用监控检查和性能监控 传输层安全(加密)
应用部署 身份和访问控制
配置和秘钥管理 配额管理
/ 协议转换(REST、gRPC)

以上是容器编排中缺少的服务级别的能力,当让类似Kubernetes这样的容器编排系统中也有服务管理的能力,如Ingress Controller,但是它仅仅负责集群内的服务对外暴露的反向代理,每个Ingress Controller的能力受限于Kubernetes的编程模型。对服务进行管理还可以通过例如Kong、基于云的负载均衡器、API Gateway和API管理来实现,在没有Service Mesh的时候还需要如FinagleHystrixRibbon客户端库的加持。

下图是一个使用客户端库将应用与服务治理紧耦合的示意图。

从图中我们可以看到,应用程序代码与客户端度库紧耦合在一起,不同的服务团队需要一起协调超时和重试机制等。容器编排更适用于分布式应用,API Gateway通常只需要部署在系统边缘即可,不需要在每个应用中都部署,而Service Mesh却需要在每个服务或者说节点中部署。

第3章 采纳和演进

没有人会一下子采纳Service Mesh架构的所有组件,或者一次性将所有的应用都改造成Service Mesh的,都是渐渐式采纳,从非核心系统开始改造。采纳Service Mesh就两种路径:

  • 全盘采纳:通常对于新应用来说才会这样做,也叫做Greenfiled项目
  • 渐进式采纳:旧系统改造,也叫做Brownfiled项目

通过价值驱动、开发人员的接受程度、自底向上的选择你最急切需要的功能,可能是可观察性或RPC的负载均衡等等,先采纳部分功能,然后通过渐渐式的方式来演进。

架构演进

我们在前面看到了通过客户端库来治理服务的架构图,那是我们在改造成Service Mesh架构前使用微服务架构通常的形式,下图是使用Service Mesh架构的最终形式。

当然在达到这一最终形态之前我们需要将架构一步步演进,下面给出的是参考的演进路线。

Ingress或边缘代理

如果你使用的是Kubernetes做容器编排调度,那么在进化到Service Mesh架构之前,通常会使用Ingress Controller,做集群内外流量的反向代理,如使用Traefik或Nginx Ingress Controller。

这样只要利用Kubernetes的原有能力,当你的应用微服务化并容器化需要开放外部访问且只需要L7代理的话这种改造十分简单,但问题是无法管理服务间流量。

路由器网格

Ingress或者边缘代理可以处理进出集群的流量,为了应对集群内的服务间流量管理,我们可以在集群内加一个Router层,即路由器层,让集群内所有服务间的流量都通过该路由器。

这个架构无需对原有的单体应用和新的微服务应用做什么改造,可以很轻易的迁移进来,但是当服务多了管理起来就很麻烦。

Proxy per Node

这种架构是在每个节点上都部署一个代理,如果使用Kubernetes来部署的话就是使用DaemonSet对象,Linkerd第一代就是使用这种方式部署的,一代的Linkerd使用Scala开发,基于JVM比较消耗资源,二代的Linkerd使用Go开发。

这种架构有个好处是每个节点只需要部署一个代理即可,比起在每个应用中都注入一个sidecar的方式更节省资源,而且更适合基于物理机/虚拟机的大型单体应用,但是也有一些副作用,比如粒度还是不够细,如果一个节点出问题,该节点上的所有服务就都会无法访问,对于服务来说不是完全透明的。

Sidecar代理/Fabric模型

这个一般不会成为典型部署类型,当企业的服务网格架构演进到这一步时通常只会持续很短时间,然后就会增加控制平面。跟前几个阶段最大的不同就是,应用程序和代理被放在了同一个部署单元里,可以对应用程序的流量做更细粒度的控制。

这已经是最接近Service Mesh架构的一种形态了,唯一缺的就是控制平面了。所有的sidecar都支持热加载,配置的变更可以很容易的在流量控制中反应出来,但是如何操作这么多sidecar就需要一个统一的控制平面了。

Sidecar代理/控制平面

下面的示意图是目前大多数Service Mesh的架构图,也可以说是整个Service Mesh架构演进的最终形态。

这种架构将代理作为整个服务网格中的一部分,使用Kubernetes部署的话,可以通过以sidecar的形式注入,减轻了部署的负担,可以对每个服务的做细粒度权限与流量控制。但有一点不好就是为每个服务都注入一个代理会占用很多资源,因此要想方设法降低每个代理的资源消耗。

多集群部署和扩展

以上都是单个服务网格集群的架构,所有的服务都位于同一个集群中,服务网格管理进出集群和集群内部的流量,当我们需要管理多个集群或者是引入外部的服务时就需要网格扩展多集群配置

第4章 定制和集成

例如Istio这样的Service Mesh中有很多地方可以给大家定制,例如作为数据平面的sidecar,虽然默认使用的是Envoy,但是你可以开发自己的sidecar代理;还有Mixer中的各种adpater,你也可以开发自己的adapter来扩展遥测和鉴权功能,Consul Connect就是个例子。

当前可选择的开源的代理可以在landscape里找到,例如使用nginMesh替代Envoy作为数据平面。下图是使用nginMesh作为sidecar的架构图。

nginMesh

通过扩展Istio Mixer adapter来对接不同的监控后端。

SOFAMosn

还有蚂蚁金服开源的Go语言版的数据平面SOFAMosn,这是也兼容Istio的SOFAMesh的一部分,也可以单独作为代理使用,详见:SOFAMesh & SOFA MOSN—基于Istio构建的用于应对大规模流量的Service Mesh解决方案

SOFAMesh

SOFAMosn的模块架构图。

SOFAMosn模块架构图

在未来我们会看到更多定制的数据平面和Mixer适配器出现。

总结

最后一章是对全书的总结,2018年必然是一场服务网格或者说Proxy的战争。

用还是不用

既然Service Mesh这么好,那到底用还是不用,如果用的话应该什么时候用,应该怎么用?这取决于您的公司的云原生技术的成熟度曲线的位置,服务的规模,业务核心和底层基础设施管理是否适应等。

技术总是在不断向前发展,容器出现后,解决的软件环境和分发的问题;但是如何管理分布式的应用呢,又出现了容器编排软件;容器编排软件解决的微服务的部署问题,但是对于微服务的治理的功能太弱,这才出现了Service Mesh,当然Service Mesh也不是万能的,下一步会走向何方呢?会是Serverless吗?我们拭目以待。

Service Mesh还有一些遗留的问题没有解决或者说比较薄弱的功能:

  • 分布式应用的调试,可以参考squash
  • 服务拓扑和状态图,可以参考kialivistio
  • 多租户和多集群的支持
  • 白盒监控、支持APM
  • 加强负载测试工具slow_cooker、fortio、lago等
  • 更高级的fallback路径支持
  • 可拔插的证书授权组建,支持外部的CA

下面是采纳Service Mesh之前需要考虑的因素。

因素 可以考虑使用Service Mesh 强烈建议使用Service Mesh
服务通信 基本无需跨服务间的通讯 十分要求服务间通讯
可观察性 只关注边缘的指标即可 内部服务和边缘指标都要考虑以更好的了解服务的行为
客户关注 主要关注外部API的体验,内外用户是隔离的 内部外部用户没有区别体验一致
API的界限 API主要是作为客户端为客户提供,内部的API与外部是分离的 API即产品,API就是你的产品能力
安全模型 通过边缘、防火墙可信内部网络的方式控制安全 所有的服务都需要认证和鉴权、服务间要加密、zero-trust安全观念

在考虑完上述因素后,尽量选择开源的平台和解决方案,还要想好开源软件的边界在哪里,哪些能力将是企业版才会提供的。