 Okey. Saya rasa kita berjalan beberapa minit lewat kerana beberapa masalah teknik. Jadi mari kita mulakan. Nama saya Leong. Saya rasa saya akan menjelaskan dalam bahasa Inggeris. Saya tidak fikir ada interpretor. Jadi saya tidak... Saya dapat menjelaskan bahasa Inggeris. Saya dapat menjelaskan bahasa Inggeris. Tapi saya rasa saya melihat daripada penonton, yang tidak menjelaskan bahasa Inggeris. Okey. Saya akan menjelaskan dalam bahasa Inggeris. Hari ini saya akan bercakap tentang Blueprint dan solusi yang dapat dibuat untuk OpenCloud. Nama saya Leong. Saya dari Intel. Saya bekerja di Intel Data Center Group. Saya pembedahan kaya untuk kaya di Intel Data Center. Pembezaan dan segmen dan segmen. Saksi China. Saya sebenarnya berdasarkan di U.S. Tapi banyak kawan saya sebenarnya berdasarkan di China. Satu kawan kawan saya. Pembezaan dan segmen dan segmen. Pembezaan dan segmen. Saya akan menjelaskan dalam bahasa Inggeris. Sebelum saya menjelaskan. Jadi apa yang kita cuba mengajar untuk menjelaskan masalah hari ini? Hari ini kita faham bahawa kita mempunyai kompleksiti data. Data datang dari segalanya. Bagaimana kita dapat performa yang lebih baik? Untuk menjelaskan bahasa bahasa Inggeris anda dapat menjelaskan kompleksiti perkembangan dari perspektif aplikasi anda. Jadi anda perlu, sebab apabila anda memperkenalkan perkembangan, anda perlu menjelaskan perlukan untuk aplikasi perniagaan. Jadi anda dapat menggunakan aplikasi data besar. Anda dapat menggunakan spark. Anda dapat menggunakan perkembangan Radis. Anda dapat menggunakan database. Tapi bagaimana anda menjelaskan bahasa bahasa yang lebih baik dari perkembangan anda? Jadi ada satu perkara yang saya akan bercakap dalam perkembangan dalam beberapa perkembangan. Dan perkara yang lain yang kita akan bercakap adalah dari banyak kompleksiti, dari banyak pilihan, kerana kita semua bercakap tentang teknologi pilihan. Satu pilihan pilihan teknologi pilihan adalah memberikan anda pilihan untuk memperkenalkan dengan pilihan yang berbeda. Dan juga, ada konfigurasi hardware yang anda ingin memasukkan ke dalam perkembangan anda. Jadi bagaimana anda membangun hardware dan software dan mereka diperkenalkan untuk memperkenalkan pilihan pilihan pilihan anda? Itu perkara kedua yang saya akan bercakap. Dan bagaimana anda dapat memperkenalkan pilihan ini, pilihan yang saya menunjukkan di sini, atau sebab pilihan adalah pilihan yang diperkenalkan pilihan yang diperkenalkan, pilihan pilihan yang diperkenalkan pilihan yang diperkenalkan dengan pilihan untuk memperkenalkan pilihan pilihan anda. Dan bagaimana anda memperkenalkan semua pilihan yang diperkenalkan dan memperkenalkan pilihan yang diperkenalkan? Bersanggungjawab antara yang diperkenalkan untuk membosankan lebih cepat untuk mengalami value. Saya perlu berbicara soal suju, suju, suju dan suju. Saya tidak akan mengelakkan itu di China. Memang saja, F repe makers ini menjagakkan keseluruhan yang lebih escustrasi, ... kongsi binati, intervene, dan memasukkan Saya rasa ini mempunyai banyak orang yang telah berjalan di Open Cloud selama beberapa tahun. Jadi apa yang kita cuba lakukan di sini hari ini? Kami tidak mempunyai untuk membuat lagi rakan-rakan yang berbeza. Jadi ini tergantung pada standar industri. Maksud saya, standar Open Cloud, standar Open Stack. Jadi apa yang kita cuba lakukan di sini adalah layanan software dan hardware optimis. Kerana saya datang dari Intel. Jadi kamu tahu Intel mempunyai CPU. Kami tidak mempunyai software. Tapi kami berjalan bersama dengan partner software dan penggunaan untuk membuat bahawa software itu dapat terbaik terdapat dari hardware. Jadi kita mahu membuat bahawa, bagi contoh, semua feature CPU. Kerana di Intel CPU, ada banyak feature yang dapat digunakan untuk memasukkan atau membuat sistem untuk membuat perjalanan lebih cepat. Itu adalah salah satu feature CPU yang dapat membawa kepada anda. Selain itu, OmiPath, Ethernet, SSD, FBGA. Mereka adalah layanan botan, komponen hardware yang dapat digunakan dan dapat digunakan sehingga software tersebut. Jadi dalam architektur ini, kita menggabungkan software dan hardware. Jadi anda mempunyai resursus hardware. Anda mempunyai servis storage. Anda mempunyai servis network juga. Jadi bagaimana kita menggabungkan semua resursus hardware bersama-sama dan mempergabungkan infrastruktur tersebut dan mempergabungkan API tersebut dan memasukkan semua resursus bersama-sama dalam sebuah platform unifat. Dan ia juga mempunyai, kerana kita tidak bercakap tentang penggabungan yang terakhir dan yang terakhir. Kita juga bercakap, bagaimana kita dapat mengenai penggabungan yang dikeluarkan seperti yang anda dapat melihat di kino hari ini, Shane, yang saya ingin mengalirkan. Kita bercakap tentang kelebihan dengan InSpar untuk memastikan bahawa kita mempergabungkan penggabungan yang terakhir, kelebihan yang terakhir, yang dapat dipergabungkan pada perjalanan penuh-penuh-penuh. Jadi kita berjalan dengan mereka. Dalam kelebihan ini, kita menggabungkan teknologi yang tersebut yang digabungkan di penggabungan, kelebihan dan sebagainya. Dalam projek ini, kita berusaha memastikan bahawa penggabungan yang dikeluarkan atau mempunyai komponen software ini, bagaimana kita mempunyai penggabungan dengan CPU Intel atau dengan beberapa teknologi Intel dan juga mempunyai penggabungan, bagaimana kita mempunyai multi-T architectures menggunakan layar penggabungan, bagaimana kita mempergabungkan layar penggabungan dan kapasiti. Jadi Intel juga mempunyai produk yang dapat membantu anda mempunyai kelebihan dengan penggabungan. Jadi apabila kita berusaha penggabungan ini, kita memastikan bahawa semua layar penggabungan tersebut tersebut dengan layar penggabungan dan layar penggabungan software supaya anda dapat menggunakan penggabungan penggabungan. Kerana jika anda tidak mempunyai kelebihan, jika anda tidak mempunyai penggabungan atau penggabungan, jika anda mempunyai penggabungan penggabungan, anda dapat melihat semua layar penggabungan tanpa banyak kelebihan. Tetapi apabila anda mempunyai kelebihan, anda mempunyai layar penggabungan yang lain di atas. Apabila anda mempunyai layar penggabungan yang lain di atas, anda mempunyai kelebihan yang lain di atas. Jadi apa yang kita cuba buat adalah kita memastikan bahawa kami berusaha dengan komuniti, termasuk KVM, kelebihan yang mempunyai kelebihan yang lain di atas. Mereka masih dapat menggunakan kelebihan yang dapat digunakan daripada layar penggabungan itu. Itu yang kita cuba buat di sini. Seperti yang kita lihat di atas, kita mempunyai lagu blueprint yang berfungsi pada dua layar ini. Apabila tiga layar ini dapat menggunakan kelebihan itu, kelebihan yang terbaik, aplikasi, kelebihan itu dapat menggunakan kelebihan yang terbaik menggabungan dengan kelebihan KVM atau kelebihan BEMATO. Jadi itu yang kita cuba buat di sini. Translasi kelebihan ini. Kelebihan KVM dan kelebihan KVM saya percaya bahawa semua orang akan faham yang saya cakap. Jadi saya tak perlu terlalu banyak lagi. Kelebihan KVM, kelebihan KVM, kelebihan KVM. Yang penting adalah kelebihan KVM. Kita harus buat kelebihan KVM dan kelebihan KVM. Kami tidak hanya membuat kelebihan KVM. Kami tidak hanya membuat kelebihan KVM. Kami harus menjelaskan bahawa dalam kelebihan KVM, tidak apabila kelebihan KVM, dia dapat melihat kelebihan KVM yang terbaik. Ini adalah perkara yang kita mahu buat. Ia adalah kelebihan KVM. Ia menggunakan perkara kelebihan KVM kelebihan KVM. Biasanya, kita mempunyai kelebihan KVM. Kita juga mempunyai kelebihan KVM dan kelebihan KVM. Apabila kita mempunyai kelebihan KVM, kita menggunakan kelebihan KVM kelebihan KVM kelebihan KVM dan kita menggunakan kelebihan KVM untuk membuat kelebihan KVM kelebihan KVM yang kita perlukan untuk membuat kelebihan KVM. Kami juga memakai SAF. Jadi kita membuat kelebihan KVM kelebihan KVM dan kita membuat kelebihan KVM kelebihan KVM. Jadi di sini, anda dapat melihat 6 buah penutup fizikal, dan bergantung dengan 3 latihan yang berbeda. Ini juga adalah penutup setiap keperluan yang sangat standard, seperti yang anda lihat dari terbuka sekeliling. Dan keperluan itu sebenarnya dapat mengalami dari 10-20 penutup yang terakhir, ke-200 penutup yang lebih tinggi, dan berada di sekitar 500 penutup. Jadi kita tidak hanya bercakap tentang pembinaan, kita sebenarnya melakukan pekerjaan sebenar. Jadi, ada orang seorang wanita yang saya menyebabkan di seluruh jalan, tapi orang wanita adalah dalam versi chinese. Jadi, dalam penutup setiap keperluan terakhir ini, kita mempunyai penutup setiap keperluan dengan teman kita, seperti InSpr, untuk memastikan bahawa kita dapat menggunakan pembinaan yang sama, di setiap penutup setiap keperluan, ke-200 penutup yang lebih tinggi, jadi tentu-tentu apabila anda mempunyai penutup setiap keperluan, anda menunggu perubahan menjadi beberapa penutup setiap penutup yang perlu digunakan sebagai penutup setiap penutup. Penutup setiap penutup. Jadi, salah satu contoh di sini yang anda dapat lihat adalah penutup setiap penutup. Apabila mereka mempunyai pembinaan itu, anda mempunyai penutup setiap penutup, menunggu pembinaan ini menjadi sahaja 5, dan kami juga menjelitkan portungan kita kepada cerita peralatan utama, dan penutup setiap penutup yang sama juga. Tetapi, penutup setiap penutup setiap penutup yang juga disebabkan, anda mempunyai penutup setiap penutup, anda kemahiran peralatan dan penutup setiap penutup. Dan di sini, pada penutup setiap penutup, anda mempunyai dua saja perangkat brick setiap penutup dan sebagainya untuk SEPH, yang mempunyai pengalaman. Jadi, itu pengalaman kecil. Jadi, kita bercakap tentang kealaman. Kita bercakap tentang architektur general. Jadi, apa yang kita gunakan dalam desain ini? Jadi, saya akan bercakap lebih kuat di sini. Jadi, dalam desain ini, untuk setiap notis yang kita tes, kita memastikan bahawa ada komponen CPU. Kita ada mempunyai mempunyai. Bagaimana CPU kita boleh gunakan? Tentu saja, ini adalah satu contoh. Saya tidak mengatakan bahawa anda harus gunakan model ini. Anda juga boleh gunakan AMD. Tapi saya tidak akan mempromosikan AMD. Sebab itulah saya mempunyai untuk Intel. Jadi, dalam model ini, kita gunakan generation 2 yang menggunakan processor Intel. Ia adalah seri Platinum dan seri Go. Jadi, untuk CPU kita gunakan processor 6222V. Processor 6222V itu adalah processor yang mengoptimiza untuk network virtualisasi. Sebab itulah anda melihat CPU-V yang berdiri untuk virtualisasi. Ini adalah CPU yang mengoptimiza untuk virtualisasi untuk mengoptimiza untuk virtualisasi. Jadi, mereka mempunyai lebih banyak koh yang anda dapat menggunakan untuk CPU yang berdiri untuk ke arah kodak-kodak. Pertama, kita akan membahakan bahawa storage. Storage bermaksud untuk servis. Bersama dengan node storage. Node storage, bagaimana anda akan membuat kodak-kodak-kodak anda adalah anda ingin menggunakan konfigurasi flash atau membeli tempat yang anda boleh memasang kodak-kodak kembali ke SST, dan anda dapat meletakkan kapasiti stori SST di SST normal, atau anda dapat mempunyai architektur dengan SST dan SST normal juga. Tetapi dengan desain yang ini, kami memilih SST Intel Opin, yang adalah salah satu SST yang telah mempunyai. Jadi SST Opin mempunyai lebih baik daripada SST normal. Jadi kami menggunakan SST Opin P4800 sebagai kapasiti stori. Kita menggunakan metadata, OSD, warganya, warganya seluruh, dan devices DB pada SST Opin. Kemudian anda mempunyai kapasiti SST normal yang menggunakan SST P4 510. Jadi anda mempunyai percayaan multi-tier. Jadi yang terbaik yang kita bincangkan adalah teknologi yang terbaru ini, yang adalah mempunyai mempunyai SST Intel Opin. Jadi ini teknologi baru yang mengubah mempunyai SST dan mempunyai mempunyai mempunyai mempunyai SST. Okey, saya lupa menggunakan struktur di sini. Jadi jika anda melihat piramid triang, sebuah lelaki-laki di bawah adalah SST. Jadi SST mempunyai kapasiti stori dan performa IOPS. Tetapi sebelum mempunyai mempunyai mempunyai mempunyai SST, itu adalah mempunyai mempunyai. Mempunyai mempunyai mempunyai SST dan mempunyai mempunyai SST. Jika mempunyai mempunyai SST, jika sistem berbunyi, anda hilangkan semuanya. Jika mempunyai SST dan mempunyai mempunyai SST, jika mempunyai sistem, anda masih di sana. Tetapi ada gap antara kedua sehingga kecepatan SST tidak terlalu cepat mempunyai mempunyai SST. Tetapi mempunyai tidak dapat mempunyai SST. Tetapi mempunyai SST membuat anda membuat kemahiran besar. Jadi dalam per-CPU, jika saya ingat dengan betul, hari ini, entah, tergantung dengan sebuah prosesor, saya rasa per-Gol dan Platinum serius, mereka boleh mendukung 3 terabyte memasuk per-CPU. Maksudnya dalam satu sistem, anda dapat mempunyai 6 terabyte memasuk. Jadi itu sangat besar. Dan kemahiran lebih tinggi daripada DRAM. Kerana DRAM memasuk, jika anda memasuk 6 terabyte DRAM per host, ia tidak memasukkan banyak kemahiran. Tapi prosesor untuk memasuk, saya tidak boleh beritahu prosesor. Kerana sebab pemeriksaan kemahiran. Jadi prosesor untuk memasukkan memasuk pasti lebih rendah daripada DRAM. Dan memberikan anda lebih banyak kemahiran. Itu yang kita panggil memasuk. Pertama kedua, memasukkan memasuk, dan memasukkan pemeriksaan kemahiran. Pada pemeriksaan kemahiran, memasukkan memasukkan pemeriksaan kemahiran. Memasukkan seperti DRAM. Maksudnya jika anda memasukkan sistem anda, anda masih kalahkan data. Kerana memasukkan pemeriksaan kemahiran. Tapi jika anda memasukkan, dalam konfigurasi itu, anda perlu mempunyai 1-8GB memasukkan memasukkan atau 3 terabyte memasukkan. Memasukkan itu akan menjadi memasukkan untuk memasukkan memasukkan. Dan di dCPMan, pemeriksaan yang akan digunakan sebagai memasukkan pemeriksaan. Yang itu adalah jelas untuk sistem berusia. Tak perlu perubahan. Anda memasukkan pemeriksaan, memasukkan memasukkan pemeriksaan, tanpa perubahan. Untuk pemeriksaan ini, pemeriksaan pemeriksaan mengambil pemeriksaan untuk meletakkan kemahiran kerana memasukkan data dengan mengambil pemerian device by passing the normal file system. So give you a faster speed, near memory speed, and also persist the data. So that's where the app directory mode is about. If you want to find out more about the persistent memory, you can visit Intel booth. There's a demo that we prepare to talk about how can you accelerate data analytic workload with Intel persistent memory in AD mode, the app directory mode. And also, I think in the keynote, they also mentioned in trend in the T releases, we already working with the community to upstream the virtual P-man feature in Nova. That means that if you use Nova today, you can use the Nova P-man module to manage the persistent memory as some virtual devices and expose that persistent memory device to the VM. Then the VM can take advantage of that hardware features. So this is the more detailed for the control plane and storage plane. We use a lower CPU for controller because most of the processing is happening in a compute and storage node. There's a larger, the 384 GB memory for this case. And in this case, we're using one TB of persistent memory. So as I mentioned just now, we use Optin SSD P4800 series for the storage cache and P4510 as the storage drive. And also the need card. So this is just a rough-and-design. Again, this is a rough-and-design. It's just only for sample. You can change anything of this to meet your whatever workload need that you require. And also depends on your budget. So when we work on this rough-and-design, we also measure that using this kind of configuration, what kind of performance that you can achieve. So we're using this example. We validate the system with three different workload. It's virtualization because today we deploy OpenSat Cloud. Virtualization is one of the key workload. The second is how does storage perform? How many IOPs can you get out of this design? I mean, this configuration, with this configuration as this example, okay? Of course, if you're using a different Spark, you'll give a number, you'll see a different number. And so we validate virtualization, storage, and also in-memory database. So we test these three workload. Of course, there are many other workload that we can test. And there's another workload that we just released is a Spark energetic workload. You can see at the demo booth, okay? But on this presentation, I'm talking about these three, virtualization, storage, and IMDB. So for virtualization, as I mentioned just now, using these as a sample, you get the size of your VM also determines how many numbers of VM that you can put on that host, right? So in this example, you can scale a standard normal host from 200 VMs to 1,000 VM in that cluster. So that cluster, I mentioned just now, is a six node cluster, three controller, three compute node. You can have more than 1,000 VM. If, assuming your VM Spark is one CPU, two GB of RAM, using this as a comparison. Of course, if you increase the size of a VM, you have to divide that size. For example, if you increase the memory to four GB, then you have to divide that number by half, okay? So this is one of the virtualization workload that we've evaluated. And we also use, in this workload, we actually use open-set rally to make sure that when we use rally to spin out 1,000 VMs within, if you run the open-set rally, basically you can specify your concurrency, the number of concurrency to spin out the VM and up to 1,000 VM. So in the example, we use 100 concurrency. For the 200 cases, basically you can spin out the 100 VM with, on average, every VM will take about 100, less than 150 seconds. So in another words, meaning that if I have, need to spin out 200 VMs, right? Because my concurrency is 100, put in simple words, within 300 seconds, five minutes, I can put out 200 VMs. Okay, so there are also numbers for 100,000 CPUs as well. On average, if we spin out 1,000 VM using a 100 concurrency rate, the average VM provisioning time, including provision the sender volume, is less than 150 seconds per VM at 100 concurrency rates. Of course you have, if your concurrency difference, your VMs put out time are also different because your control plan, everything being effected by your network API control plan and KVM layers as well. The second workload that we've validated is IMDB using Radis. So we use 16 GB Radis per VM. So okay, in this case per VM, every VM is about 16 GB RAM running as a Radis instance. We use Manteer Client as a benchmark client to test this Radis instance. And in this cluster, the same cluster I mentioned just now, we're able to run from 20 to 60 Radis instance, 60 GB Radis instance, and they can give you small than 600,000 operation per second. And average operation is less than one millisecond. Because one of the Radis performance SLAs you must complete that Radis operation. Every operation need to be less than one MS, one millisecond. So using that reference design that this is one of the workload performance that we can achieve. With that, the earlier design that I put out there. The last one is storage. So storage IOPS we using VD Bench, something similar to FIO as a benchmark tool to test that storage performance across the VM and the SAF integration because when you test the VM you need to attach. In this case, we attach two Cindervolum and that two Cindervolum is being provisioned by the SAF, OST. And in this VM, we have four CPU, 8GB of RAM per VM and we spin out 30 VM, 30 VM across that cluster and run front kind of IOPS testing including 4K blocks of testing, random read-write. And in this example here is 8K block random read-write more than 600,000 IOPS within less than 2 milliseconds per operations. That's the storage IOPS. So the last thing I'm talking about is I mentioned just now the Intel persistent memory for Spark. It's a new feature that in train release in truly P release. Basically using NOVA using NOVA to manage the VP MEM the virtual persistent memory devices because in the compute pose you see that persistent memory as a region. And that region is being sliced into different namespace and every namespace is being passed through to the VM devices. So the VM devices will see the VP MEM device. So in this example we have 1.5 TB of persistent memory. We slice into multiple namespace and one of the namespace being passed to one of the Spark instance over there with 256GB and the other one is NO persistent memory. I don't have the data to show you here. I do have the workload SLA data at the Intel booth. Basically using this workload as an example the Spark actually using the OAP, Spark OAP Spark SQL application to write the data into the VP MEM 2x6GB. And if we use a 640GB data size because that data size over is actually more than the size of that VM and the persistent memory compared to this one you can achieve 30% to 50% faster query time in the decision support system. So that's what we do here is to make sure all the Intel goodness features is being exposed through the software orchestration layer through the VM, through the container so that the application like Radis or Spark can take advantage of that of those performance. So with that I will close my presentation. Today we are tomorrow actually we are officially launching an Intel select solution for OpenCloud. We work together with different vendors including Inspire, H3C and we are looking for many other partners to build this solution for the customers. We work together partners and build this solution for the customers. We make sure that all these solutions with the partners is pre-configured, all right? Yuxen pays to that, okay? Is system optimized? SQL is in your heart signal your heart and we can it's validated with workload, workload verified. Fuzai yin zeng Yigokai yin zeng OpenCloud. So that's what we're trying to do here. That's about my presentation. Thank you. Any question? Thank you. You mentioned that you are using free controllers and free compute storage nodes nodes are the basic amount of building blocks and you mentioned that you are building this system and validate it for 10 nodes 200 nodes and 500 nodes. My question is there is still only free controller for 500 nodes. When you scale you cannot use three controller for 200 nodes. If you scale, you cannot use three controller for 500 nodes. No, that's not possible because they have 500 compute if you have 400 compute nodes here basically here they have 400 compute nodes. All the API requires all those interface with the control plane. In here you basically have in this design when scale out to 500 nodes we're using five controller five neutron three database. So we actually also scale the control plane as well when the whole cluster scale. So it's not a three scale everything up it's you scale accordingly. Depends on the workload. All right. Thank you. I have a question regarding the so we have a user scenario regarding the nested virtualization because we kind of maintain our internal OpenStack CI and we do see sometimes we need to you know disable re-enable the VTX for all models of the Zion we use to for for Liberty to enable nested virtualization. I'm not sure whether regarding that you have like specific models for us to adopt or if you know what I mean. Yeah. I mean yes we do have a few recommendations but I don't have the figure to tell you right now. I don't have the data to tell you right now. We have a different teams that are working on those virtualization and VTX features. So the virtualization but you're using the Libre and VTX those things right. But if I mean but your question is more like how what kind of design. Okay. Yeah. So we need to understand what the problem is. Um we can talk about this offline so we can link you to our people that if you have a problem because you need to know we need to know what is the problem what is the box where it happens on then we can try to fix that without knowing the problems I can't tell you the solution right. Any other question? I think almost time. You mentioned about the train being tested on the persistent storage. May know what I mean what vendor of BIM supports the train open staff now that you use to validate the persistent storage. So this is a new features and in T release not many vendors support T today. If any vendors or software partners that require P-Mem we do previously we do actually test or back port that features to Rocky. But if any other business are interested in use and but we encourage vendors to upgrade to T right because open site really cycles every six months like the longer that you wait the longer that is more difficult but it really needs pre-release previous versions of P-Mem support we can talk about that we can help we can refer to the team to help to do back porting. No promise right now. Any other question? All right. Thank you very much and enjoy your lunch.