视频访谈: 蚂蚁金服:关于Service Mesh 和Kubernetes的最前沿思考

栏目: 服务器 · 发布时间: 5年前

44:43

个人简介 杨冰:蚂蚁金服资深技术专家。2009加入支付宝,9 年多来一直专注于分布式基础中间件的设计和研发,担任蚂蚁分布式平台 SOFA 的架构师。目前担任蚂蚁金服中间件团队的技术 Leader,负责微服务平台、数据中间件、搜索平台、消息队列、传输计算平台、应用容器和开发框架等技术产品的研发和演进。 曾彬:花名典韦,2007-2010年在支付宝参与SOFA基础架构工作,阿里巴巴高级技术专家,目前是UC基础架构组负责人,目前超过UC国际&国内50%的业务跑在基于K8s的自研PaaS。 敖小剑:蚂蚁金服高级技术专家,微服务专家,Service Mesh布道师。目前在中间件团队负责Service Mesh产品开发。 毛小云:花名: 辺客,蚂蚁金服高级技术专家,蚂蚁金服-平台数据技术部-系统部。曾就职于阿里云,虚拟化和网络专家。目前就职蚂蚁金服系统部,负责蚂蚁基础资源调度系统的研发。

视频访谈: 蚂蚁金服:关于Service Mesh 和Kubernetes的最前沿思考 ArchSummit全球架构师峰会是InfoQ中国团队推出的重点面向高端技术管理者、架构师的技术会议,50%参会者拥有8年以上工作经验。 ArchSummit聚焦业界强大的技术成果,秉承“实践第一、案例为主”的原则,展示先进技术在行业中的最佳实践,以及技术在企业转型、发展中的推动作用。旨在帮助技术管理者、CTO、架构师做好技术选型、技术团队组建与管理,并确立技术对于产品和业务的关键作用。

杨冰: 蚂蚁金服资深技术专家。2009加入支付宝,9 年多来一直专注于分布式基础中间件的设计和研发,担任蚂蚁分布式平台 SOFA 的架构师,主导并参与了历次双十一技术改造,推进蚂蚁技术架构从服务化平台到异地多活弹性云平台的演进。目前担任蚂蚁金服中间件团队的技术 Leader,负责微服务平台、数据中间件、搜索平台、消息队列、传输计算平台、应用容器和开发框架等技术产品的研发和演进。

曾彬: 花名典韦,2007-2010年在支付宝参与SOFA基础架构工作,阿里巴巴高级技术专家,目前是UC基础架构组负责人,专注K8S,云原生及ServiceMesh的内部落地,目前超过UC国际&国内50%的业务跑在基于K8s的自研PaaS。

敖小剑: 蚂蚁金服高级技术专家,微服务专家,Service Mesh布道师。曾经在亚信,爱立信,唯品会等公司工作,目前在中间件团队负责Service Mesh产品开发。

毛小云: 花名: 辺客(取自 Docker 的谐音),蚂蚁金服高级技术专家,蚂蚁金服-平台数据技术部-系统部。曾就职于阿里云,虚拟化和网络专家。Docker资深玩家,K8s的深度实践者,专注于大规模集群调度、成本优化。目前就职蚂蚁金服系统部,负责蚂蚁基础资源调度系统的研发。

在采访之前,介绍一下在场嘉宾组成的背景:蚂蚁金服中间件团队和阿里大文娱UC基础部,在云原生/k8s/Service Mesh等多个共同领域都有长期探索和深度积累,在双方的共同推动下,在基于Kubernetes的PaaS及周边基础设施、Service Mesh大规模落地实践、中间件和应用云原生探索方向上展开合作共建。因此本次采访的嘉宾分别来自两家兄弟公司。

杨冰: 首先,蚂蚁金服内部的服务化从2007年就开始建设了。蚂蚁金服经历了四代架构:第一代相对来说是单体化的Monolithic的架构;到2007年开始做微服务架构,经过四代演进到现在已经变为一个相对比较成熟的云平台架构。但到了现在这个阶段,也遇到了一些问题。比如为了支撑业务的快速发展,整个基础设施需要快速演进。但在实际上,基础架构的演进、升级、迭代速度都非常慢,往往以年为周期的,每一年大促往前推进一代。因为系统规模很大,架构复杂度也很高,大量的工作被消耗在客户端升级和基础设施灰度验证上。所以我们认为支撑全局架构的一些逻辑应该往下沉,编程基础设施,尽可能与业务系统解耦,这样才能使我们的推进交付的速度更快。

第二个是整个基础设施的发展趋势也是不断下沉和标准化的过程,从 Linux 开始到K8s,现在再到ServiceMesh 或者是 Serverless,这是一个大的趋势,所以我们也在跟进这些方向。

第三个是蚂蚁技术的开放过程中遇到的新问题。在技术开放的过程当中,我们遇到了很多传统IT系统,这些系统仍然发挥着重要作用,我们的客户或者合作伙伴,一方面期望进行整体服务化改造,一方面又期望保留或者是复用现有的 IT 资产,但希望能够整体跟微服务的体系进行对接,这时候我们发现ServiceMesh是一个很好的解决方案。

第四,我们内部虽然大部分是 Java 系统,内部也有一个统一的开发框架叫SOFA,大部分系统是在同一套架构上的。但随着业务的发展,还是存在很多异构的体系,比如 Web 开发的繁荣引入了Nodejs体系,还有AI 的遍地开花引入了 C++ 和 Python 的体系,还有很多用 C/C++ 开发的基础设施。现在我们正在将这些多元的体系整体用 ServiceMesh 对接起来,让他们不再需要重复实现融入到异地多活单元化架构体系的逻辑。在运维层面,我们也在探索落地方向和更多技术红利,注入增强精细化流量控制的能力,透明的植入服务访问控制能力等。

敖小剑: ServiceMesh是最近引入的一个新名词。它的官方定义是这样的:ServiceMesh是一个基础设施层,负责服务间通讯,主要目标是保证请求的正确传递。它在部署时表现为轻量级的网络代理,通常是跟应用一起部署,但是它对应用程序是透明的。

4. ServiceMesh落地最大挑战是什么?目前进展如何?

敖小剑: 目前我们的Service Mesh落地的一个基本条件是要在蚂蚁金服主站这样一个规模场景下落地。所以我们的关注点可能就会跟开源社区不太一样:必须要考虑到在这样的规模下,我们能够真真切切地落地下来。最大的挑战在性能方面。目前,ServiceMesh(比如像典型的Istio)的性能表现不是特别理想。如果直接落到蚂蚁金服上的话,在性能上很难承受我们这样的规模。然后,涉及到另外的实际场景,比如我们内部现有的一些非常成熟而且基本上已经铺开的框架,比如SOFARPC。这些框架在迁移到ServiceMesh的过程中,就会有平滑过渡的要求。因为我们必须要保证我们这些海量应用,它们的迁移过程在业务上必须是平滑的,而且期间的工作量、改动量最好不要太大。这对我们是一个比较大的挑战。

另外还会涉及到平台的问题。比如说现在的Istio,其实它比较关注的是K8S这样一个比较理想化的平台,确实K8S的支持会让Istio的很多事情变得比较轻松。但是落地的实际情况是, 蚂蚁金服目前在K8S上还没有完全普及,还有一部分应用暂时还在非K8S的环境中运行。在这种情况下,需要在往Service Mesh技术的迁移过程中,可以提供对非K8S环境的支持,以便完成过渡。

再有就是私有协议支持,比如我们的SOFARPC,这个已经在内部大规模使用,那么我们需要在标准的ServiceMesh解决方案里加入这些协议的支持。

这是目前几个比较大的挑战。

大家可能比较关心现在内部的进度。目前我们Mesh最基本的Proxy部分基本上已经开发完成,我们会用它来替换原有的一些多语言客户端,比如说C++的客服端、nodejs的客户端。这样,我们会先完成最基本的对多语言的支持。

在这个基础上,我们目前正在实现对Envoy的XDS API的支持,为后面对接Istio做准备,这个工作正在开发过程中。后面我们也正在做一些私有协议的支持,包括特殊场景的支持。比如说我们对Pilot的改造,这些目前都正在开发当中。

曾彬: 我来补充一下,其实集团现在在ServiceMesh有挺多团队,都是在一个探索的过程。UC的特点就是K8S做的相对早一些,所以K8S落地相对比较完整,应用往上迁移的程度也是比较高的。然后在成本或在效率上拿到了一些红利,也从社区、CNCF、项目里看到了未来我们可能的一些方向。所以我们很看好ServiceMesh这个方向,这算是一个背景吧。

曾彬: 首先,先从复杂度层面来说,我觉得ServiceMesh由于有Sidecar的引入,肯定会带来运维上的复杂度。K8S的Pod作为一种基础设施,里面可以天然地支持多个Container,来支持这种Sidecar技术,对运维是非常大的帮助。然后再加上它对资源细粒度的控制,比如说CPU、内存资源的控制,以及像权限控制RBAC方面的一些功能,我们觉得这些都对简化复杂度有很大的帮助。

第二点就比较通用一点,原来的应用程序如果没有跑在K8S的话,它的元数据信息对整个外部系统是不可见的。如果把这个程序放到Pod里面之后,因为Pod是在K8S上运行,本身是带有元数据的,比如说label,如果我们把这些元数据对外部可见,让它开放了,这样不仅对于ServiceMesh,而是面向整个上层的K8S生态开放了,应用本身能拿到更多的红利,这是我的两点看法。

敖小剑: 我稍微补充一下,昨天晚上我们夜话活动的时候,讨论到ServiceMesh,当时有很多同学也谈到这个问题,就是说:上ServiceMesh之前,是不是一定要先上K8S?这个话题当时有过讨论,大家的一致想法是:从技术上讲是不限制的,因为ServiceMesh从理论上讲,底下可以不是K8S。但是从长期的发展上说,K8S可以给ServiceMesh提供非常大的支持。所以,从远景上说,K8S跟ServiceMesh未来长期的发展路线是必然结合着使用的。

6. 那K8S在落地的过程中,有什么问题和挑战吗?

毛小云: 这个我来回答一下,刚刚小剑和曾彬也提到了,K8S是支持ServiceMesh比较理想的方案。但是落地K8S会有比较多的问题跟挑战,我就分享一下蚂蚁在这方面的一些经验。

要落地K8S,比如说蚂蚁在Docker化之前,其实蚂蚁内部的虚拟化技术基本上可以分成两种。一种是基于VM的或者是基于LXC这种形式的,然后基于这种LXC和VM的形式,我们也建立了一整套相应的运维体系。我们面临的一个比较明显的挑战是,我们原有的这些运维体系,如何比较平滑地迁移到这种容器化的体系上来。在迁移到容器化体系的过程中,我们会遇到各种各样的问题,比如像类似于镜像的问题。还有比如一些有状态的应用,Dockerfile的问题,Dockerfile的运维模式,其实跟我们原有的运维模式是相冲突的。蚂蚁金服在这方面,比如镜像方面,做了蛮多的工作。比如说有一些P2P的加速方案,以及有一些做了镜像云化的这种能力,去加速镜像。在这个Dockerfile的运维上面,我们也做了一些适配,能够降低研发成本的复杂度,这是第一个阶段的挑战,相当于是容器化的挑战。

第二个挑战是我们要真正把K8S在蚂蚁落地,还会面临各种各样的具体落地上面的一些问题。比如像集群部署、网络或者是存储方面的问题。如果说到集群部署,蚂蚁可能跟其它公司要面临的集群环境更加复杂。比如说它是跨IDC的,甚至跨国的,还有是这种多云的环境,那么怎么管理这些集群,怎么样去解决刚刚说的这几种复杂场景里面的运维和发布,其实这些都是挑战。在网络层面上,其实整个K8S社区的网络插件生态还是比较丰富的。比如说产品化做得较好的weave或者是提供overlay的flannel,或者是BGP的calico,这些方案都是在社区里面比较有影响力的,但是在蚂蚁的场景中这些方案都有自己的局限性。所以我们蚂蚁自己也研发了相对来说比较多的网络技术方案,以适用于蚂蚁自己的这些场景。这些方案包括了网络加速方案,或者SRIOV的加速方案。

最后提一下存储,K8S的存储这一块相对于K8S的其它模块进化是相对比较慢的,所以我们在落地存储方案时会经历一些方案上的变化,或者是痛点。比如说像我们之前有一些DataContainer的方案,迁移到K8S上面去之后,其实这些方案都会给我们带来比较多的工作量。第二块是指真正落地K8S的具体挑战,针对蚂蚁的场景,我们有一些可能是特有的场景。比如说蚂蚁集群的规模都比较大。K8S官方提供的集群能力是5000个节点,但可能推荐的节点是1000个节点,而蚂蚁的核心集群基本上都是超过这个数量的。其实这个瓶颈主要还是在ETCD上面,官方其实也给了一些推荐方案,比如可以用多ETCD集群的管理方式来管理K8S的资源。那蚂蚁可能会从另外的角度,比如说做数据分片这样的方式,去解决这样的问题。另外除了ETCD这个方面的问题,蚂蚁在应用的数量上其实也有相当大的规模,那这些应用之间的调度的亲和关系以及规则,事实上已经远远超出了目前K8s的能力。在蚂蚁的另外一个场景里面,做得比较超前的事情,比如在线和离线混布、提高CPU的利用率,目前来说K8S里面是相对来说cover比较少的,我们也需要投入更多的研发精力在里面,为了支持我们的大促双11这种场景。最后一个就是蚂蚁金服其实是金融属性比较强一点,所以我们会特别关注安全问题,容器的安全或者是说容器里面的数据的安全、网络的安全,怎么给用户的应用提供一个比较安全的应用运行环境,对我们来说是非常重要的。所以在内核,或者是在一些更加高级的基础上,比如说像研究安全容器这方面,我们也做了一些深入的研究。最后就是在网络安全方面,刚刚也提到了K8S是ServiceMesh落地比较好的一个选择,结合ServiceMesh,其实K8S在网络安全上可以做更多的事情。

曾彬: 刚刚蚂蚁那边提到了K8S落地的问题,UC这边历史包袱方面可能相对简单一些,但是有一些相对通用的问题。比如UC这边在K8S落地上,首先要解决网络的问题,包括容器IP段规划,先解决容器之间网络互通的问题,以及基础运维,包括装机、集群搭建,还有要跟四层负载、七层负载,甚至DNS,这些系统都要打通。以及后面的业务运维方式其实也发生了挺大的变化,甚至整个Devops流程的变化,因为后面镜像作为载体了,用户需要一个熟悉的过程。其实昨天张磊(K8S的维护者),他也提到了一个观点,大家认为K8s复杂,但他认为其实K8s的API本来就不是面向最终用户的,应该是面向开发者的。所以在K8S之上,我们应该再分装一个PaaS平台出来,让这个PaaS平台去面向最终用户,我们觉得这是落地上非常重要的一点。要让用户去接受这个东西,他要能够非常低成本地使用整个这个平台。参考UC这边的经验,我们新做了一套完全以K8S为基座的PaaS平台,可以理解成是比较薄的一层,但是承载了很多业务需求在上面。比如说像刚才提到的网络相关的、还有四、七层负载相关的、DNS相关的,应用所有者在这个PaaS平台上可以自助提交变更,经过业务运维审核后就可能完成一些工作,面向应用的整体过程是很高效的。还有一点,其实现在K8S的主体功能已经相对稳固,它的一个发展趋势是朝着SDK化、插件化、可拔插化这个方向在发展。举个例子,它之前推出了自定义资源、CRD和Operator这种模式,以及张磊提到的Scheduler后续完全可拔插化的设计,都能体现出SDK化这一点。对于我们,特别是做基础架构的技术团队,带来了不少思考,因为我们有K8S这个底座,那我们在做这些基础中间件产品的时候思路就会有所转变,或者说挑战,就是如何把这些基础架构组件或者产品,往CRD/Operator的方式去做。比如说我们上线了Kafka Operator,Kafka的运维其实挺复杂的,我们把这些复杂性封装在Operator之内。比如说容灾、伸缩等等。对应的还有一些KV存储服务,现在也是朝这个方向在做。从用户角度看,他能通过我们刚才提到的前端PaaS平台,以自助的方式去实现资源申请,甚至完成一些运维的工作,这也是我们看到的收益和变化。

杨冰: 简单补充一下,其实刚才典韦提到的那个点,蚂蚁这边也在实践。尤其是模型标准化这件事情,我们还是非常认同这个方向的。就好比K8s这层体给我们开发PaaS 以及 PaaS上面的一些基础软件,提供了一个很好的编程模型。另外,因为中间件相比应用来说,会有更多的状态,而且也有不同的系统角色,在处理不同角色的扩容或是宕机恢复的时候,也需要考虑更多状态信息。以前每个中间件基本上是自己要在 PaaS 上去定制这部分的逻辑,复杂度和差异性会比较大。但现在可以由统一的一套模型去做,比方说巡检,启动以后的检查、校验等,或者是自动的一些Self-Healing和扩缩容等等机制,我们可以写成通用的模板,这块对于我们来说还是有很大帮助的。

敖小剑: 关于我们ServiceMesh产品的技术选型方案,在这里面我主要讲几个重点。第一个重点,我们的技术选型相对来说是比较慎重的,在这之前我们调研了目前市面上几个主流的ServiceMesh产品,也包括国内国外一些做前期探索的同行的实际方案,尤其对性能和架构的权衡。我这里简单说一下,主要的技术选型方案是这样的。我们整体上会follow Istio的架构和设计,在数据平面上,我们选择的方式比较特殊,我们会用Golang重新开发一个新的Sidecar,然后在API上去兼容目前Istio和Envoy的标准API,可以做到最终和Istio兼容,这是一个比较大的动作。

然后在控制平面上,我们现在会选择跟随整个Istio社区,实际上就是刚才说的,我们会兼容Istio的整个控制平面。我们有些特殊的诉求,比如说性能方面的,比如我们需要应用程序做平滑的过渡。出于这些方面的考虑,我们会在控制平面上做一些扩展和增强。举例说,比如说在Pilot的这个模块上,接下来我们会让Pilot支持除K8S之外的一些其它的注册方案。比如我们内部支持超大容量的服务注册方案,SOFA Registry。因为我们应用服务的数量比一般的公司数量级上会大一两个等级。典型的Istio的注册方案,比如说它有一个全量拉取过程,对我们来说,肯定是不可取的。类似的,像在Mixer里头,我们会做比较大的改动,就是因为Mixer对性能的影响特别大。所以我们会考虑把它合并进我们的Sidecar来达到性能提升的目标。在Auth模块上,我们会尽可能去遵循目前Istio的做法,但是在落地的时候,因为金融行业相对来说在安全性上的考虑会更多一些,所以我们会在这方面做比较多的扩展,这是目前主要的选型过程。

细节我们就不详说了,但是在这里可能需要额外指出一点:我们技术选型是在现有社区的开源方案上,跟随整个社区,一起去做演进。所以我们的方案最终选择就是:我们在Istio兼容的模式上去做各种增强。一个产品如果要获得持续发展,需要有社区的支持,然后跟随整个社区一起前进。这也是我们做技术选型一个非常重要的考量。

8. 采用ServiceMesh会有什么收益?大家可以谈一下感受。

杨冰: 这个其实刚才各位同事也都有提到,就从比较近期来看,蚂蚁是奔着几个方向去的。第一个就是多语言,确实以前是统一的,但是到现在,其实就很难有这样一个大的把控。因为业务的复杂度,还有人员的复杂度,其实小公司也是,可能一开始能招到什么人,就用什么样的语言。第二个,我们内部可能还好一些,但是在外部,确实有不少遗留系统,那我们不期望大家一听到很好的概念,就推翻重来,还是期望能保留已有的资产,复用原有的基础设施,那就可以用ServiceMesh 把这些系统给接进来。其实传统机构很多用到了ESB,我听到很多人提到分布式ESB或者是分布式网关等概念,本质上其实跟Mesh这条路是殊途同归的。第三个就是我刚才提到的,可能像蚂蚁这样的公司会比较看中,就是整个基础设施迭代演化的速度。当然,从长远来看,其实任何一家公司,应该都可以从中受益。至于Mesh、Istio等等跟整个生态结合的一些好处,其实也是有挺多想象空间的,这一块就不展开说了。

9. 各位老师可以展望一下K8S的发展吗?

曾彬: 首先短期来看,我们还是要解决性能和稳定性这方面的问题,还有落地的问题。如果长远来看,就是生态这个点。我们畅想一下,后面Sidecar在整个生态里面的位置。我们现在对它期望很大,希望它承载很多东西。首先,自底向上看的话,硬件层面,我们希望通过软硬件结合来解决性能问题,比如说利用硬件的offload,比如说智能网卡/FPGA,去把一些工作量offload到硬件上面去,实现一部分加速。然后再往上面看,在内核这一层,现阶段的Mesh技术,在包拦截、包过滤、协议处理上面,都还有提升的空间。举个例子,包拦截和过滤目前大多是通过Iptables实现,是否可以通过eBPF的方式,以及使用用户态协议栈绕过内核TCP/IP栈,都可以做一些探索。再往上面看,在容器这个层面,如何更好地把Sidecar和周边的生态,比如说metrics采集/计算/应用,运维/PaaS系统与Sidecar的控制交互等。再往上面看,刚刚提到的多协议/RPC协议,是很常见的需求,如何通过Mesh来支持,可能还有更多的场景需要更多协议,Mesh的扩展机制如何去支持。最后从应用场景来看,运维/PaaS需要和Mesh生态更好地结合起来,比如说蓝绿/灰度发布。

敖小剑: 补充一个小点,这一点是昨天晚上我们在现场讨论过程当中比较关注的一点,刚才曾彬也聊到了,就是转发的性能。从架构的角度上说,ServiceMesh这样一个技术,实际上是对性能和架构平衡点的选择:我们牺牲了远程调用的开销,来换取架构上巨大的发挥空间。在Service Mesh后续的发展过程当中,我们能看到两个大的方向,有舍有得:一个方向在“得”这一边,我们会把控制平面的各种创新做起来,尽可能在收益方面做一些事情;另外一个方向就是舍,远程调用的开销在技术层面上还有一些改进空间,我们可以尽量将我们损失的这部分性能,通过一些技术手段尽量减少。最终实现用更小的开销去换取更大的收益。

杨冰: 这块我也想补充一下,之前多次提到过多语言这个事情,其实我们发现,在基础架构的演进过程当中,每种语言都要去支持同样的功能做N遍,比如说熔断、路由、限流、故障注入等等。这些东西如果往下沉的话,其实对于大家来说是一件好事。但是对于Mesh这个架构来说,它跟K8s一样要具备极强的可扩展性,方便大家针对架构差异去扩展和定制,我觉得这跟K8s这个框架是一样的。它需要往这个方向去发展。甚至在这个过程当中,是不是可以把各家所长集成在一起,变成一种标准,这个也是我们希望去做的事情。

敖小剑: 最早在2017年QCon上海的时候,当时我讲ServiceMesh,举了一个例子,几十年前的TCP技术栈的发展过程。最终IP/TCP这个技术栈变成了一个非常非常标准的东西,直接进入到操作系统内核,也许若干年之后,Mesh这样的技术,在它足够成熟并且标准化之后,可能也会以某种技术栈的方式沉淀下来。应该说,如果Mesh技术持续这样发展,是有可能的。

杨冰: 我简单说一下,这个其实跟整个蚂蚁业务的开放是一脉相承的。我们最早开放的是更偏体验层的一些技术,随着业务更加开放,整个服务端技术也逐步往外走。我们在4月份的时候启动SOFA开源,这是我们微服务体系的一套框架。开放的另外一个原因,是我们觉得 ServiceMesh这个技术虽然提出来的概念很好,但是蚂蚁金服已经在微服务领域趟了N多年的坑了,而且在这个方向上,在不同的规模下,包括在带着金融属性这样的一些要求下迭代了 N 多版本。我们也期望这些东西可以分享出来给大家,而且这些已经是越来越标准化的技术。另外一方面,虽然我们在内部折腾了这么多,但是在业务跟技术开放的过程中,我们发现很多合作伙伴和客户那里有很多我们没遇到过的场景,其实我们内部的场景还远远不够丰富,有很多需要大家来去补充的部分,所以这也是开源的另外一个初衷,就是期望更多的人参与共建。所以我们期望跟大家以开放的形式去探讨,说得再美好一点,我们希望在标准化上能有所建树,为社区做一些贡献。

敖小剑: 这里我稍微补充一下,因为我们在上周的时候,刚刚放出消息,我们准备在Mesh这个领域,尽量开源,跟大家共建。过去这一周,我们也得到了一些反馈,很多同学非常的开心:至少大家看到了,有人愿意在这个领域拉起旗帜说,我们一起来做一些合作。有一部分同学,他们也有力量可以贡献出来,这个也是我们非常期望的。我们开源的一个出发点,就是尽可能地汇集大家的力量,然后共同去把一个优秀的产品做出来,最后让ServiceMesh技术的水准更高一些,而不是大家分散开在低水平上做重复的事情。

敖小剑: 因为Service Mesh技术相对来说还是比较前沿,在整个技术社区,了解这个技术的人也不是特别多。这方面的资料、书籍非常少,而且大部分停留在相对比较浅一点、早期一点。介绍性的资料会比较多,真的深入学习的资料,目前还是比较难找的。我们在学习调研的过程中,也遇到了一些问题。所以我们后面做了一些事情,比如说我们目前组建了一个Service Mesh垂直领域的技术社区(地址: http://servicemesher.com ),尽可能汇集国内对ServiceMesh比较感兴趣的同学。我们通过社区的方式,将大家汇总起来,然后收集、汇总这个领域一些比较好的文章,鼓励大家去做一些原创性的工作,包括翻译工作。

说到翻译的话,其实我们这个社区最近也组织了一个翻译组,大概有70多位同学,因为国外的资料会更新一些,我们主要的目标是将他们的博客、文章,也包括像Istio的官方文档等资料翻译成中文,然后给到大家,这样在学习的时候,可能你能得到的资料会比较齐全,阅读方面也会比较通畅,大家可以关注。

另外,为了方便大家日常交流,以及知识的获取,我们有微信交流群,大家可以平时做一些即时交流。另外我们也有一个微信公众号,会比较及时地推送一些目前业界比较新的知识。这样的话,大家可以保持一个知识的相对比较新的知识刷新程度。

还有一个比较重要的点就是,最近我们社区也在组织ServiceMesh领域线下的meetup,欢迎大家关注。因为整个话题都是围绕Service Mesh领域,而且也都会是目前国内已经在这个领域上做了一些探索的同学,拿出来讲的会相对偏实践一些。

最后做一个小广告,因为在Service Mesh领域我个人探索的时间会相对长一些,我也比较喜欢写东西,所以推荐我自己的个人技术博客(地址: https://skyao.io ),大家如果对ServiceMesh有兴趣的话,这里有一些早期的介绍性的知识,以及最近关于各种选型的思考,这些文章会有一些参考价值。

InfoQ: 这样的社区非常有价值,谢谢四位专家接受我们的采访,采访就到这里,谢谢。


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

黑客秘笈

黑客秘笈

[美]彼得·基姆 / 徐文博、成明遥 / 人民邮电出版社 / 2015-7-1 / 45.00

所谓的渗透测试,就是借助各种漏洞扫描工具,通过模拟黑客的攻击方法,来对网络安全进行评估。 本书采用大量真实案例和集邮帮助的建议讲解了在渗透测试期间会面临的一些障碍,以及相应的解决方法。本书共分为10章,其内容涵盖了本书所涉的攻击机器/工具的安装配置,网络扫描,漏洞利用,人工地查找和搜索Web应用程序的漏洞,攻陷系统后如何获取更重要的信息,社工方面的技巧,物理访问攻击,规避杀毒软件的方法,破解......一起来看看 《黑客秘笈》 这本书的介绍吧!

Base64 编码/解码
Base64 编码/解码

Base64 编码/解码

MD5 加密
MD5 加密

MD5 加密工具

HEX CMYK 转换工具
HEX CMYK 转换工具

HEX CMYK 互转工具