我首先自我介绍一下我是来自阿里云的王喜宁今天跟大家分享的主题是We're all service mesh新的优化相关的主题今天跟我一起分享的也是来自Docloud的同事刘其军我们经常成的微卷柯比但是一听这个要做优化其实是说一定是经过一些实战的经验得出来的就是说今天之所以要分享这个主题也是因为过去我们在阿里云做Service mesh产品差不多有四年多的时间也是服务了如果刚刚客户这客户在实际实用过程中也是遇到很多问题那么在这最接下来的内容我们主要是从过去服务客户的这个过程中得到一些经验意义跟大家分享一些为了更好的讲明白怎么去做优化我们首先了解一下就是Service mesh这种产品或者技术大概在技术架构是什么样子我们正是在这个架构里面看到了哪些点是可以能够做优化的Service mesh它也是原生里面一个非常重要的新型技术它整个的技术架构其实也是遵循了Kubernetes KMS的一个架构有控制面有数据面控制面和数据面的刚才看到前面的介绍都是有交互的完了之后在数据面其实也是多种多样就是数据面这些工作负责它是可以运行在不同的形态里面即可以跑在不同的比如说逊逆机的规格都不一样不一样的这些形态都可能决定我们可以利用它那些特性做一些优化好 那这个架构我就不去做太多的介绍了这都是大部分Service mesh产品都是这种架构我们的运营同学让我非要加一个这个信息其实右边刚才提到今天只所以能够去讲优化其实也是有考证的就是我们也是获得了可信云包括新村院的一些新闻评测分数还是非常不错的这是结论的结果那么但是背景是什么就是说我们为什么能打到这个效果是因为我们的确是从不同的维度不同的从面都做了一些新闻优化那今天我就想重点从这六个方面跟大家去介绍一下我们是如何去做这个新闻优化的第一个方面第一个方面就是刚才提到了整个技术架构是有控制面有数据面有交互那第一个优化点就是说我怎么去把这个控制面到数据面的配置推送做一些新闻提升那就是说利用了服务发现收敛服务发现这个范围就是让这个控制面和获取的服务的内容尽可能的多到对手就是说能够满足需求的情况下多到对手这些来说就是要实现这个性能或者是实现这个效果之后能打到一个什么目标就是说这目标大概是总结了三个方面第一个就是能够有效地去降低控制面组建的一些CPU包括内存的一些消耗以及比如说我们这个产品是托管模式就是说控制面它是跑在阿里云这一侧数据面是在用户的自己的机群里面就是说控制面和数据面它是有一个交互的而目前我们是通过一个工作负担来做交互这个交互过程中其实也是占用一定的贷款资源所以我们可以看到通过优化之后无论是CPU内存贷款资源都可以在一定程度上去降低那么这里面的话其实有这么几个概念可以帮助去做优化第一个就是这颗是社区里面的概念也是基于Instituted Disguise Letter简单介绍一下因为这是一个社区里面也就比较成熟的这个技术点就是它本身都是基于NIMSPACE秘密空间去做一些筛选跟社区不同的一点就是说目前的社区也是做白名单方式就是说用户去选择这个秘密空间只有选择了这个选择的秘密空间之后才会去发现这个秘密空间下的服务就是一个白名单模式但实际就已经过程中我们也是对着只支持白名单后来在一个客户案例里面出问题了就是为什么就是客户说我配了能不能发现结果它的新的一个运营同学来了之后忘了把这个应该加入进去的秘密空间加进去它就就导致这个整个链路不同没有达到期望值所以我没有支持一个黑名单方式能够让用户默认把一些新增的秘密空间都要自动加到Mesh里面去如果它不需要再去移除所以这里边可能也是跟大家参考的一个经验教训就是说除了白名单方式可以考虑一些黑名单方式来去帮助多一些秘密空间一些筛选这里边也能看到有说你定义好了收敛范围之后它整个在控制面比如说SUD它所真正能够做服务发现的范围变得就收敛这样的话它往下推送的数据就会少很多这里面其实我们也是在一些案例里面也可以有实际一些数据测读能够看到它的服务整个对我们的托管测的资源消耗降了很多有一个客户大概比例更加的80%的一个比例好 那做服务发现收敛还有两个概念 这两个概念其实简单介绍一下这个是跟社区保持一致就是说一个是叫Expo2一个是Walk Close LetterExpo2它是用于控制整个规则的像What is Service 单纯入Suppose Entry它一些可见性就是它能够去描述这些规则到底是在本命空间级别还有说全局可见能够在一定程度上去做收敛默认的话都是全局不见得是最好的像Walk Close Letter的话它还是说能够针对每一个配置这些规则这些规则配置它能够去定义它到底适合哪些workload它这样的话在一定程度上也会去让这些规则的范围也会缩小所以的话我们产品层面的话当然就做了一些优化机制包括支持优化去做全局配置如何去做明明空间级别的或者是更加细腻度的基于有功德复杂等等去做一些收敛这是第一点那么第二点呢去做一个优化其实这里边就是一个重要概念就是Sandaka的资源对象这个Sandaka的资源对象是社区AZQ里面本身有的但如果用过的话可能知道就是通过它的能够去限定一定的代理所包含的一些服务配置的范围那我们做的工作是什么呢就是说因为写这个CNR还是有点麻烦的就是写不好就容易出故障所以我们做了一定的工作V2这个是因为做了一定的工作是能够基于Oxlog访问日志进行一定的分析能够去自动生成一个推荐的这个资源对象出来那么这个Sandaka对象有了之后其实就能够对于所生效的这个代理它的资源消耗能够有所降低OK为了讲明白这个点的话大概是贴了一页就是背景介绍因为刚才那个技术架构里面讲的比较粗其实这里边补充一个信息就是说在控制面和数据面之间它是有交互的它是这个你可以讲的认为它是有弱干的符合XDS协议的一些数据经验推送这里边可以看到XDS X是包含多种协议像Listner Root等等包括服务的一些信息这里边就是XDS这个数据量的大小它是跟规模正相关的你可能少量的规模看不出效果了但是我们在过去在这个服务尤其对老师在内部服务的一些像一些电商平台的时候就会发现它还是这个量大小之后是需要优化的完了之后的话默认的XDS推送它是一个权量下方就是从控制面到数据面它要推这个东西都是权量的那实际中你会发现就是说它每一个代理每一个工作负责代理它需要的这些信息不见得是都需要尤其在大规模的场景下它有可能有些服务它就经济是需要跟它相关的它跟某一个具体的工作负责相关的服务它数量不见得那么多并不需要权量所以这里边就是说利用Sanarkis资源对象去帮助定义每一个代理所需要的配置约束关系这就是要解决的问题就是要怎么定义好Sanarkis资源对象OK 那我们做的事情其实就是说怎么能够帮助用户能写出或定义出Sanarkis资源对象来那这里边的话就是利用日制分析工作原理其实也比较普通对吧它就是分析了产生的网络代理产生的Oxalog通过分析Oxalog能够看到这些服务之间调用的依赖关系对吧然后利用这依赖关系去自动生成这些Sanarkis资源Sanarkis看的这个资源对象那这里边你会看到有说做服务企业及客户一定要小心就是这个东西写错了会引起这个访问不可用对吧所以我们也是为什么叫推荐推荐就是说我们生的东西只是第一步是做的推荐就是让用户一方面就是说可以许多二次确认完了之后的话也可以在这个生成的资源右边这个图里面能看到这个资源对象能够就做一个定制修改就是什么意思呢就是说它是有局限性的你就是我要这样写了就是它这个实用场景的一些限定这个限定是什么呢就是说因为你要分析日制那首先就把这个你请求的网稿代理那个日制要采集下来去做分析完了之后你的日制的内容就得完整才行它不完整可能分析的结果就是不对的那么这是它的局限性但是在实际上是一定是有它的应用场景的这个场景往往发生的一些就是已经用了这个ServiceMesh完了之后跑一段时间之后功能上都OK但是发现代理的资源消耗也比较多整个资源比期望值还是高很多的情况下我要做优化的情况下这个时候呢因为本身产生的森拉格都是完整的对吧它的业务变化也不大的情况下它可以去利用这个方式去做一次性的分析这是一次性的工作能够去分析一些日制得出它们之间的这个依赖关系然后把这个依赖关系竟然去生存这些三二哈的资源对象完了之后的话生存之后把它三三哈的资源对象映射到网稿里面就可以去改善它的一些性能这也是我们过去也是服务几个客户里面它也是有一个客户大概是每个代理一开始能占到三百多兆每个代理有三百多兆的资源信号最后是减少到一个五十兆左右了这能够看到一个大规模常见一下就效果非常明显既然刚才提到它的局限性就是我们也是想一个方式去做了一个自适应的能力这个第三个这个优化手段就是说我特别适合一些刚开始从没有使用Mesh的技术逐渐去过渡的这种场景它就逐渐在上Mesh的过程中这个时候它就不可能就利用前面这个方式去做一次性的日子分析得出依赖关系对吧 因为它日子还没上的它的日子自然是不全的所以就希望有另外一种方式能够逐渐去让它在上Mesh的过程中而且能够做到一定优化就是这里边我们叫adaptive-try-dance就是能够做一些自适应的Page-try送用能力我想用这个图来描述一下这个效果就是说可以看到就是刚才提到的Mesh它是有控制面和数据面 对吧那么没有启用这个能力之前这些应用服务之间的调用就是大家知道的比如Ace2VD它是通过注入了一个SanaCard代理 对吧它是通过这个代理拦截进行交互的就是以往的话就是说没有使用这个能力之前每一个应用服务在互相调用的过程中都是先经过这个代理两个代理 比如说图里面会看到Oplication它是经过这个跟这个Oplication在一起的ParserParser再去调用另外一个目标服务的代理去做了这么一个终转去做调用的那么在使用这个功能的时候会有这么一些变化就是我们为了能够获取服务调用历关系就在数据里面就开启了一个组件就是我们这个自适应的WTWXDS的一个出口的一个网关就在图里面的中间位置会有一个网关这个网关的作用是什么它是能够去做一定的流量的拦截能够必须把原来的服务A调B对吧 这个时候有了它之后先让A第一次调用先让A去经过这个网关然后再去调B那这个目的就是说能够把A调B的关系能够在我这个网关里面对实际调用来说它可能是无感还是看起来是A调B但中间是有这么一步走到这个网关那么这个网关经过这个网关的时候就会产生这么几个效果第一 在这个网关的Occasin Log里面就会能够分析出来A调B就是它的调用关系是通过日治能够记录到就是能够记录到这个网关这个泡的日治里面那么当然它为什么能够起这个作用就是会看到这个图里面这个组件它周边还有一个配置信息包括用了IWAL Filters用了一些Boosttrap Config这些都是辅助信息这些辅助信息能够让这个组件起到刚才我说的这个效果 这个作用那么这个组件一旦产生这些日治信息之后它就可以去上报给我们一个组件去做分析就是也会看到就是它跟空中面是有交互的就是这个组件的日治能够上报给我们那个空中面有一个拓管的组件就是一个叫Oxialog Service那么简称叫ARS就是它能够去收集这个泡的所包含的一些日治信息这个日治信息有了之后就可以去做一些分析工作它本质源里还是去能够分析这个日治能够让这个在日治里面发现这些服务的调用关系对那这个一旦这个调用关系有了之后它就会自动去生成刚才说的这个三代卡的资源对象同时这个资源对象能够硬实直接就反应到这个网站里面去有了这个信息之后刚才提到这个服务A掉B它就不带走这个网关了而是直接跟正常的这个一样就说直接去A掉B了这个时候就会看到就说通过I'm All Fertile一些配置信息能够让这个服务之间调用关系能够最后再第一次的时候会去走这个组建产生这个日治那用于我们去做分析一旦有了这个依赖关系之后也生成了三代卡的资源对象这个时候就不影响你这个原来的调用了所以会看到我们也之所以称之为这叫自适应也是看到它有个特性的暗虚推送也是能够自动的去暗虚推送完了之后的话当然这里面要配套有一些组件的比如说你这些下发到数据面的这些组件它怎么管理它生命周期怎么管理都是在这个图里面控制面有一个组件叫Odv.Tail.Chantel.S.Controller它能够去维护下发到这些机群里面的组件以及它的一些配置信息这里面是能看到就是它看前面这种方式想比较的话它好处就说我不需要说你整个系统都必须搬到曼时之后我才能做优化对吧它是一个组件过程它是组件过程随着你的服务组件接入到曼时我们可以组件去把你的整对每一个工作负载去做一个优化因为刚才提到就说它是根据服务A和A调避的实际的调用流量拦截产生的日治如果你还没有去接入曼时它不会有影响就是说在这个山海对象里面它如果没有定义这些依赖关系它仍然是可以去走这个往官去拦截然后去做调用这也是描述了一个客户场景就是我们一个实际的客户是做SARS的一个平台的它的客户场景里面我们客户案例在官网上可以查到就是说它的三大块资源内存优化就从400兆坚持到50兆也是通过这个方式之后对90%的接生能够看到说因为它泡的数量是规模很大的你算上它这个资源减少还是非常可观的再一个方面就是软硬结合的一个性能优化这儿的话刚才提到就是说数据面它的形态是多样的对吧就是每一个泡的可能底下跑的这个资源环境不一样就是说它比如说有的是跑在这个比如说261C有7代有8代有6代对吧等等但是每一代机器机型是底下的这些硬件条件是不一样的那这个功能的话这个功能的话就是说我怎么去挖掘你这个工作负载所依赖的这个所运行的这个环境的一些特征另一个特征如何去做一些优化所以这里边就会看到说第一有一个重要的一个功能是说我怎么去探测这工作负载所运行的这个环境就接点对吧接点上的一些特征信息比如说它想去挖掘挖掘这个硬件里面的比如说CPU的指令级它的一些这个是否开启的比如说刚刚讲的包括EBPF就是它是否是符合条件就是硬件硬件特征里面的一些信息我来给你这个信息我是能够决定将你的工作负载的某些特征是否启用那么这是首先一个点你刚刚讲的探测这个接点的硬件信息完了有了这个硬件信息之后我们去能够做准备两件事情第一就是我肯定是優先把你这个工作负载部署到这个有这个条件的这个接点上面对吧就是调度的时候我们重新利用这个调度特性能够把这个工作负载部署到最佳的一个接点上面这样能够重新发挥这个接点的一些硬件信息能够让它起作用如果是说我环境里面就没有我们也不至于让它crush掉对吧我们能够去做一些自身的能力能够怕你即时掉上去就哪怕用户请了这功能我们去做一些兼容的能力能够说一看这个本身硬件特征是不具备的这个功能也是不能生效我们去做一些所谓的回退机制能够去兼容这个特性那么这儿的话贴了一个一个实际结果图能够看到我们这个图我们也是跟intel合作intel的一个机型上面对应的Aluminum ECS第七代七代以上都有这个能力能够看到有这个能力之后它的KPS包括Latency都是有比较大的一个改善这个图里面能看到的一个对比结果那么这个特能力也是写得了技术白皮书对所以整个实现机制我想用这个图来介绍一下就是这个图里面提到的就是我们利用了intel的CPU里面有一套AVX指定级利用这个指定级能够去加速服务之间TLS加解密的一个能力这也是服务了很多客户也是跟intel一起写到它的一个技术白皮书里面整个实现的方式有三个点也是控制面数据面都有然后第一个点说我们能够让用户去配置是否启用这个能力就是说方式无非就是写一个CRD或者是做一些全局的一些配置能够去定义就是全局的明明空间级别的或者是工作负载级别的从不同的维度可以针对不同的这些工作负责去决定是否启用这个能力定义好之后这些信息就跟前面讲的CRD S配置一样它能够下发到数据面里面去数据面代理里面说到这个信息之后它会去决定是否启用当然在里面的话我们会在在社区一般的技术之上做这些改善增强比如说刚才提到的回退机制不能就说用户不太懂它可能是定义要启用这个功能这个你进行是没有的那可能就不 work导致整个代理是垮掉的那肯定不行所以这时候你会判断说这个阶点这个代理所在的阶点是否具备这个能力比如判断它的这个指定级是否包含了对吧如果没包含是不能启用这个功能的哪怕用户定义了你也不能让它启用对吧因为这时候又可能会导致起不来会导致生产故障所以说这里边会有一些这个容错机制能够判断你是否这个能力真正可用在数据面里面是否可用当然第三点就是下面这个资源池里面就是说刚才提到的一点就是说我们通过调度机制能够优先把这个工作负责调度到符合条件的进行上面去如果没有或者是调度不满足这个时候我们能够做到兼容回退机制这些都是在实际的生产过程中比较关键的点因为对的我们没有做回退机制发现这个效果不好对吧本来是起到这个性能优化结果把这个系统都搞挂了对吧这个客户是非常担忧的OK这是能够看到是在软硬结合的方面能够做一些优化同时一定要注意说这里面因为一来一去硬件特征一定要去做一些硬件特征的一些判断是否真正能够支持这个能力再一点那就是自愿超卖模式下的支持这里边的话就是可能首先要介绍一下什么是超卖对吧就是大家知道在KBS系统里面每一个工作负担炮的我们是可以给它定义CPU或者内存的RequestLimit对吧同时CPUMemory的定义它是跟它的KBS服务质量是密写相关的比如说你的KBS是Granted类型的那在这个时候一般Request是要等于Limit大家可能对这已经比较熟悉那么这个超卖是指着说我为这个工作负担申请了一定的比如说CPU或者是内存我们尤其在实际业务之外为了保险这个申请的比较大一点所以保险在保底所以大一点但实际运行你会发现它申请的资源并不见得都真正是需要那么多其实有这个图里边可以看到就是说它是有所谓的就是在这个长时间运行之后你会分析会发现有一部分这个内存和CPU其实都是一直申请的没用没有用到非常浪费尤其在这个比如我们原来内部集团内部是有几百万盒的这个环境你想几百万盒的规模一下如果是有一部分哪怕百分之五没用到对吧也是一个很大的数字所以会看到在我们的服务一些客户里面也是遇到这种问题它的规模一旦大起来之后就发现有一部分资源是浪费的我们能够去多一些超卖就是说把这些实际有环境中申请的没有用到这些资源以超卖的方式去让服务别的工作负载当然大家会想到会不会有一些风险问题所以这里面其实这里面也提到有说我们通常给这些工作负载就是使用这个能力的工作负载往往就是叫什么低级的相对于是坦白说是可能会潜在如果你的业务是核心业务比如说金融交易那肯定不建议用这套超卖对吧一定是保证它的CPU members哪怕是有这个富裕度标减对吧因为你用那种跟钱像金融相关的业务一定要保证它的稳定性远远达为它的成本对吧那就是这种业务是不建议用但是对于别的一些业务说白了解说它有可能真正的输入到KPS类似输入到影响也不建得那么致命的这种业务我们还是在稳定性在成本方面都可以做一些推到off分析对吧我们在一定程度上是可以在成本上面去做考虑利用这个超卖模式能够把成本降下来所以这个方式也是有一定的使用场景阿里云原生他也是开了工具coordinator他能够去帮助用户在KMS系统里面对这些工作负载调度的时候能够去用超卖模式那么我们SourceMesh模式线也是引入了超卖模式的能力也是因为刚才提到每一个散弹卡它是有资源消耗的我们能够如何更好地去让代理能够满足超卖OK接下来的话一部分其实是阿里云EBF前面讲过EBF就是SourceMesh也是依赖于EBF的一些新的优化那么我们过去也是探索了很多这个方面工作后来发现的就是在CNCF里面有一个很好的项目叫Moverage后来我们就联系到Moverage作者一起在探索如何在SourceMesh下去做基于EBF的优化那接下来的时间我就邀请柯碧去讲一些这部分内容大家好那个我先自我介绍一下我是来自Dark Cloud那个主要是做辅网格方向的一个然后主要是Moverage项目的一个发起人然后因为刚刚前面其实张晓辉老师已经介绍得比较详细了其实主要其实他也提到的比如说像在辅网格场景下比如说我们基于一项EBF特别是比如说在SOC的处理方面以及内核协议站这一块的一些处理流程包括SKPE的一些东西其实都有一些介绍那我这边可能也就沾张晓辉老师的光那可能我就不过都介绍了那我今天其实主要我们的一个前提呢其实也是我们因为那个Moverage呢其实也比较早的跟阿林云这边的团队我们一直在聊就是看能不能就是在因为阿林云可能像目前网格方向呢其实有很多一些比较多的一些客户也有比较多的一些案例那我们希望能够把像Moverage这种项目的能够带到一些真实的一些环境当中所以说我们一直在聊这个事情那先不多说我再先给大家介绍一下MoverageMoverage它主要是这个东西呢它其实就是一个刚才张晓辉老师说的一样就是基于EBPF去做辅网格加速因为我们大家都知道其实辅网格它要做一些流量的一些难解的一些操作那这个事情呢而且它还有塞德卡就是这个性能其实是有些损耗的就是要用户胎内核胎用户胎这样平凡地去切嘛那Moverage的出现呢就是说我们就是在Port里面比如说我们接触EBPF这样的技术然后可以将两个比如说容器之间就是业务容器和塞德卡之间的SoC的进行就是当然这个技术因为时间关系我可能不能讲太细就是刚才张晓辉老师也接受了不少那其实我们主要就是这么去做就是用EBPF这一块通过维尤斯达的一些Moverage可以让比如说业务容器发出的流量能够更加快速地到塞德卡然后呢这比如说是在跨节点通信的时候我们可能外面出去的时候还要经过网络协议站那如果说我们是同节点呢那其实我们可以让它更简单就是同节点两个Port之间呢他们的比如说塞德卡之间那也可以用这一套技术去做那这个东西就是Moverage这个项目呢它除了做加速这一块它还有一个能力呢就是可以直接去代替IP Labels去做流量拦截那这个其实前面有讲到嘛我就不再想到说它是集成了这一套东西然后去做了就是它基于这种TDP的Redirect啊各种能力然后呢它目前呢就是Moverage目前是一个Sense-Safe Sandbox的一个项目所以说目前之间比较多然后如何加速这一块呢其实我就大家可以简单过过因为其实前面讲的比较详细它其实这个核心原理就是在通过在发起连接的时候呢我们去记录一些就是两个进程其实对内核来说可能就是两个进程两个进程之间的一个连接关系然后通过维护他们的那个连接关系表然后让它保存在比如说内核就是EBPF专门在内核里面有一个叫Socket MapSocket HaHaCa或者Socket Map的这种Map专门用来存它可以存出那个你的那个Socket的一些关系信息然后我们去调用加速的时候其实我们也可以做得比较简单就是内核提供了一个RedRack HaHaCa或者之类的一些方法能够直接将就是比如说TCP的数据从一个Socket考到另外一个Socket这样就能够让两个进程之间的通讯直接绕过内核协议站进行通讯这样从而实现一个加速的这么一个目的对这就是MerberG的一个核心原理只是说呢MerberG在中间还其实在不同网格类型的一些适配里面做了一些加密工作然后后面我要讲一下因为其实普通的那个SideKa其实大家可能也听得比较多就前几年吧就是上周其实E-Store发布了正式发布其实这个模式已经很久了正式发布了一个Avent模式Avent它其实采用的是类似一种就是节点代理的一个模式因为SideKa模式呢它其实刚才其实前面王老师也介绍了很多就比如说SideKa新的优化或者资源优化其实SideKa的一个核心问题呢就是也不是核心问题吧就它其实有很大问题就是资源用力方面因为它每一个workload的都需要有一个SideKa它的资源其实是一个分布是非常重复的那其实像节点代理模式它就有很大程度上的去优化了这些资源占用的这些关系但是它自己本身当然我们也不能说它没有问题它其实本身也有自己的一些缺陷吧当然这个东西我们就不过头去介绍就是就是Avent其实大家如果早期关注的话其实应该知道Avent模式早期它用比如说IP Table去做比较难解如果比较懂技术应该都知道就是比如说它那个就是要在主机上通过PurWon卡照主机上然后用主机上的IP Table去转到Retro然后Retro里面再做Tproxy去做但是很难念的其实它对不同的CNI其实是有非常大的依赖其实目前来说像IP Table都没有办法在所有的CNI下工作那其实Merbridge作为就是富网哥这一块做专门做IP Table这一块和牛扬难解这一块它是有天安优势的所以说我们Merbridge这边也会就是也是第一时间因为其实我们在一时有时候距离也非常地活跃就是也是第一时间在做支持对然后其实我们这边的一个支持方案其实因为就可能我讲到不是不会很细啊就是我们这边持一个支持方案就是因为Avent模式有个很大的关键点是它没有set card那没有set card我们以前比如说我们那怎么知道它这个是不是在是不是在是不是被Avent管理了那其实我们会以一套比较相当于一套比较复杂的一套控制链就是说然后呢我们还会通过UPS去观测一下比如说像那个进程创建的一些事件然后根据它的C Group获取它的一些IP地址这个是在控制面完成的然后呢我们在一套数据面这边通过控制面和数据面那些交互去完成就是说我们在比如说这是在Avent模式下的这些破的发起请求的时候呢我们可以直接比如说通过它的那个嗯通过它的一些比如说Redirect的技术修改目标地址然后我们可以直接把流量转到Redirect同样的方式呢Redirect的这一块也是相当的处理同时呢我们还可以附用我们的那个Redirect的技术就是能够直接让破得到Redirect这一块的流量或者说说特乐道那个Waypoint的流量也是ok的就是大概是这种技术就是像细的话呢就是大概就是这个录音因为它这一块的就是嗯比如说我们以前Murbride基于CNNi的那种模式呃就可能在Avent模式下不了所以说我们这是我们全新开发的一种呃思路吧那可能有的朋友也会知道其实也就在前段时间其实也引用了一个EBPF去做那个它去实现它Avent流量转向的的一个年龄那其实那个呢它是挺好的但是它也有一些问题就是它其实没办法的时间它也是有CNNi依赖的它但是呢比原生的IPTables会好很多但是它的CNNi依赖的比如说它没办法用在比如说很国内节奏来不少的比如说像一些SRV啊这种比如说网卡上面这种网络模式下就是online的很多网卡可能它用不了这个也是它的一个问题对那使得Avent那就是Murbride可以很好的来处理这一块的一些东西但详细的东西呢我今天就是可能没办法分享一下你的讲就是然后呢还有一颗就是我们其实Murbride在这一块呢就是是做通用的服务网格而且呢是不侵入的所以说其实我们现在目前是支持很多种服务网格包括East2啊Link的DR或者像OSM或者像Kuma之类的东西那因为我们目前其实是也在跟阿里云这边用阿里云的网格其实优化得也很不错嘛但是呢我们目前呢其实正在和阿里云这边去验证一个性能因为但是呢右边这个图呢其实是另外一个服务网格传媒Kuma他们官方在2000年的时候引入了Murbride去做服务网格的那个网络加速的时候他们给出了一个性能大概其实都还不错就是我们呢因为它只是优化了一个内核的路径所以说它优化的那个性能不会很高但是呢它这一块相当于是一个无损的就是你不需要基本上不需要付出什么代价就能够得得一个网络加速而且目前呢它支持的是比较多的包括其实跟FLOW刚刚让人问他们的FLOWMASH同时也有一些合作就是我们也会去探讨一些东西吧然后这就是我们后面就是可能Murbride对于这个Sinship Sandbox的项目来说就是可能我们也会去做一些事情包括就是我们这些持续化的性能验证啊包括一些根据了那些完美要求因为我们目前可能是5.7嘛可能我们会员比如说咱们更低可能不可能可能我们会降到5.4啊或者之内的一些东西包括还有一些快捷链的加速或者说像一些双赞Appint生产支持对然后上面呢其实就是就是大概就是这样就是Murbride这边就讲完了大家如果有什么问题可以问一下大家有什么要提问的吗两位老师可以去给大家解答你们有什么问题吗还有不好意思占用大家这个题我这个人比较好奇啊那个OK OK我马上问一下那个Zetano他相当于是把Citycard转成了一个Demonset是吗对的对的Zetano还其实就是在节链上进行那个Demonset好再问一下阿里那个老师就是前面那个超卖模式下我想问一下那个CPU跟Murbride那个超卖的那个配合是自动生成的还是客户自己配啊这个这个是它其实是给你的这个历史数据做一个分析的自动输出的是吧对对对这个需要客户圈吗是的是的就最刚才提到就是首先有点要明确第一呢如果你是真正的像兼容级的核心业务那个buffer还要留的第二一个的话它是给你真正的系统在运营转一段时间之后去做一些历史的数据的画像然后整体每一个工作负责去做一定的分析好的好 谢谢各位老师