大家好 我叫Grace练练力评来自Intel今天我想和大家一起探讨如何在云原生的环境中保护AI工作负载的机密性人工智能正在迅速发展改变着我们的生活和工作云原生因为有容器化可扩展性和自动编排等非常多的优点成为部署和推动AI应用天然的选择通过云原生AI可以普及到更多的用户汇集到更多的行业然而我们也面临一些关键的技术挑战AI模型训练非常地昂贵特别对一些大型模型我们如何提供硬件和软件的解决方案让它取得成本和性能的平衡AI模型肯定要用到易购计算比如CPU、GPU、加速器等等我们如何确保这些资源能够被有效的利用能够满足AI模型扩展的需求AI的算法和训练都需要有大量的计算能力我们如何优化性能同时还能降低功耗AI训练的数据和模型都有非常高的价值我们如何确保他们的机密性呢Intel为了提供更好的支持AI提供了丰富的产品和方案在硬件方面我们第四代Intel自强可扩展处理器提供了AMX高级矩阵扩展加速器它可以加速CPU上面的深度学习推理和训练适用于自然语言处理推荐系统和图像识别等等任务同时还能节省功耗Habana Gaudi2在中国市场首先推出专门为深度学习集群和深层式AI设计同时Intel还有数据中心急批优它经过优化提供了突破性的性能能够加速多媒体和AI的工作负债上述吩咐的易购硬件组合在一起提供了成本效益高性能出色并且安全可靠的解决方案在软件方面我们持续在云元生软件中投入在许多CNCF项目中从Cubanetti到服务网格到容器运行时等等都做了非常多的代码贡献我们还持续优化各种主流的AI框架比如PyTorchTensorFlow等等我们还提供完API作为一个开放的灵活的基于标准的一个软件堆葬让您的软件可以使用各种不同的易购硬件为了让Intel的技术更好地被开发者和最终用户使用我们还和持续业界生态合作这几年中国的开源生态不断地扩展比如说开放原子基金会下属的OpenAnalysis隆西社区OpenCloudOS社区和Ola社区等等Intel也成立了开源技术委员会持续增强和开源社区的合作促进本土技术的落地下面我们可以看一下在远远生环境中如何全方位地保护您的AI的数据和模型在Ice层面Intel自强处理器提供了SGX和TDX确保了数据的内存加密完整性保护反问控制和可验证性在Pass层面为了支持机密聚算我们开源了一个叫Confidential Cloud Native PrimitiveCCNP的项目不论您选择机密集群还是机密虚拟机或者是机密容器来部署都可以用TDX来保护你的内存做到端道端的验证这个项目在我们展台中有讲述在SARS层面我们也是开源了一个叫Cloud Native AI PipelineCNAP的项目这是一个参考解决方案帮助开发者快速地采用机密计算来保护常见的一些AI应用场景今天时间有限希望你们能够欢迎访问我们在D3的Intel展台我们有技术资料发放同时在现场我们的AI专家和云原生专家会展示AI和云原生结合的解决方案并且和您探讨这些技术如何在您的场景下落地中间的一个二维码我们也有一系列的技术讲座对每一个点都进行更详细的讲解然后右边的一个二维码是我们的一个博客文章讲述了更多详细的项目介绍和相关的技术要点总而言之我们Intel的云原生专家和AI专家非常期待在这次QQcon上与您面对面的交流谢谢