 Selamat pagi semua. Macam mana hari kedua di Asia Force? Semoga anda berdua dapat malam yang terlepas. Sekarang anda bersedia untuk mulakan hari kedua. Hari ini untuk mulakan hari pagi di atas perang. Maafkan saya. Ini adalah perang dan atas perang. Untuk mulakan perang dan atas perang hari ini adalah En. Nguyen Viet Anh. Dan sebenarnya En. Nguyen Viet Anh berhasil selama 6 tahun di Viet Thao Network. Dan dia adalah pembangunan pembangunan dalam operasi IT di Viet Thao Network. Sebelumnya, dia membuat perubahan untuk mempunyai solusi monitor untuk aplikasi IT di Viet Thao menggunakan Prometheus, Grafana dan projek yang lain. Ia berfungsi untuk membangunan pipeline CICD yang mengajar observabiliti dan membangunan solusi yang tinggi untuk pilihan sistem kri-kri yang terkenal. Ia mempunyai pilihan sistem monitor dan pembangunan solusi untuk lebih 200 sistem. Terima kasih, semua orang. Sebelum hujung hari ini, saya akan memperkenalkan En. Nguyen Viet Anh di Viet Thao Network. Dengan lebih 6-5 pengalaman, saya telah mengubah networking dan menjelaskan kemungkinan kemungkinan atau kemungkinan kemungkinan kemungkinan untuk lebih 200 pengalaman. Terima kasih. Selamat datang, semua orang. Selamat datang kembali dengan Black Box, Q-Berness Network dengan Basis Tools dan Technics. Saya beritahu saya En. Nguyen Viet Anh yang adalah Developer Engineer di Viet Thao Network. Dan saya akan menjelaskan yang sangat menarik. Itu adalah Q-Net networking. Sebelum memulai Q-Berness Network, saya mahu menjelaskan bagaimanapun anda berbicara dengan Q-Net. Anda boleh mengatakan bagaimanapun anda mempunyai Q-Net. Dan bagaimanapun anda pernah bergabung dengan Q-Net networking? Bagaimanapun anda mempunyai Q-Net networking? Okey. Saya akan beritahu melepaskan alasan saya untuk mempunyai Q-Net. Saya rasa Q-net adalah sebuah syarikat yang sangat dihidupi dengan kemampuan dan kemampuan. Kenapa saya rasa seperti sebuah hok dan? Sebenarnya, saya mempunyai sebuah bahagian untuk mencari bahagian dan kemampuan ini. Dalam 25 minit, mungkin tidak cukup masa untuk mengembangkan bahagian dan kemampuan Q-net. Saya akan mencari bahagian dan kemampuan yang terbaik untuk kemampuan Q-net. Saya akan mengembangkan bahagian dan kemampuan Q-net. Saya mencari bahagian dan kemampuan dan kemampuan ini untuk mengembangkan bahagian dan kemampuan itu. Untuk kemampuan dan kemampuan, saya mengembangkan bahagian dan kemampuan ini. Saya menjelaskan bahagian dan kemampuan itu. dan terserahkan kepercayaan dan kepercayaan untuk menggunakan kepercayaan dan kepercayaan. Tapi di kawasan kepercayaan dan kepercayaan juga membawa banyak tukar terutamanya dari kepercayaan dan kepercayaan kepercayaan. Q-net mempunyai banyak layer abstraction untuk menghubungi kawasan kepercayaan dari kawasan ke dalam. Sebenarnya, kawasan kepercayaan dan kepercayaan tidak memahami kawasan kepercayaan. Dan salah satu perkara yang paling terkenal adalah kawasan kepercayaan. Di kawasan kepercayaan, kita akan mencari kepercayaan pada kawasan kepercayaan. Kawasan kepercayaan pertama, kita akan bercakap tentang kawasan kepercayaan. Kawasan kepercayaan dalam kawasan kepercayaan Linux. Kawasan kepercayaan adalah network namespace. Network namespace adalah kawasan kepercayaan untuk membuat kawasan kepercayaan. Kawasan kepercayaan untuk membuat kawasan kepercayaan. Kawasan kepercayaan seperti kawasan kepercayaan network stack. Bagi network interface IP address, routing table dan firewall rules. Network namespace adalah kawasan kepercayaan untuk membuat container network. Memang, container ada network stack dikawasan kepercayaan. Kawasan kepercayaan untuk membuat kawasan kepercayaan. Kawasan kepercayaan dalam Linux dapat membuat kawasan kepercayaan dengan cara menggunakan kepercayaan. WXLAN, WXLAN adalah Pengumuman Port Slow keeper We have a plug-in network network untuk memutuskan chats dan paineleng translation Pekit akan digunakan ke VTAP atau VXLan Tunnel Endpoint. VXLan selanjutnya akan digunakan ke UDP. Dan menghubungi menggunakan KGNW. Selepas mendapatkan KGNW, gaya-gaya akan digunakan ke VTAP dan menghubungi ke Pekit dan ke Port. Dalam KGNW, menggunakan IPnip, ke Port. Mereka akan menggunakan KGNW dan menggunakan KGNW. Selepas mendapatkan KGNW dan menggunakan KGNW. KGNW dan menggunakan KGNW. Untuk mengembangkan bot dalam cluster, tidak dapat menggunakan IP untuk menggunakan IP. Kerana IP tidak akan dipercayai. Kerana apabila bot dipercayai, IP akan berubah. KubeNet telah menggunakan KubeNet untuk mengembangkan IP dan domain menjadi IP. KubeNet menggunakan KODNS. KODNS selalu menggunakan deployment dengan repikas untuk mempunyai kemampuan tinggi dan kemampuan untuk mengembangkan KODNS. KodeNet menggunakan Kube API Server untuk menggantikan perubahan dan perubahan dalam cluster dan menggantikan KODNS untuk menggantikan domain-name dan bot dalam cluster. Sebelum saya berhubung, saya menggunakan IP untuk menggunakan IP dan tidak mempunyai kodnaan yang baik. KubeNet mengembangkan kodnaan kodnaan kodnaan untuk menggunakan kodnaan kodnaan yang lebih klinik untuk menggunakan kodnaan kodnaan. Kodnaan kodnaan di KubeNet dan kodnaan kodnaan IP. Kodnaan kodnaan IP akan mengembangkan kodnaan ke dalam kodnaan IP. Kodnaan IP tidak berubah dan hanya dapat mengembangkan kodnaan di dalam kodnaan. Kodnaan kodnaan adalah KODNS. Kodnaan kodnaan IP membuat kodnaan kodnaan di dalam kodnaan kodnaan untuk menggunakan kodnaan kodnaan ke dalam kodnaan. Kodnaan kodnaan adalah kodnaan kodnaan tapi membuat kodnaan ke dalam kodnaan untuk menggunakan kodnaan kodnaan. Kodnaan kodnaan membuat kodnaan dengan kodnaan KODNA dan kemudian kodnaan KODNA yang sama seperti kodnaan IP tapi tidak membuat kodnaan IP di dalam kodnaan. Kodnaan kodnaan membuat kodnaan ke dalam kodnaan KODNA atau untuk menggunakan kodnaan dengan kodnaan KODNA untuk menggunakan kodnaan untuk menggunakan KODNA KODNA adalah sebuah kodnaan yang membuat kodnaan dari kodnaan KODNA dan menggunakan kodnaan KODNA. KODNA yang membuat kodnaan sebuah kodnaan adalah sebuah kodnaan untuk menggunakan kodnaan untuk mengubuhkan kodnaan untuk mengubuhkan kodnaan ke dalam kodnaan. virtual service Dibuatkan di setiap servis Virtual service Dibuatkan di setiap servis Dan real server Dengan bagian port Dibuatkan di setiap servis IPvS akan mempunyai trafik Untuk bagian sport Dengan kekuatan Ada masalah terhadap trafik Untuk wuker 1 Terus, saya akan Saya akan menjelaskan ke wuker 1 Dengan menggunakan tcp-dump Dan t-shark Di wuker 2 Saya ambil informasi Dan memper UV Dan memperiksa IP Dan memperiksa pbpn-n Dan menggunakan nsenter Untuk menjelaskan pbp-dump Dibuatkan Saya akan memperiksa pbp-dump Dengan pbp-dump Dan memperiksa pbp-dump Dan memperiksa pbp-dump Saya menggunakan tcp-dump Pake Capture pada bridge, i.e. CNI0. Selepas kecemasan, saya nampak Pake It dapat ke CNI0. Pake Capture pada tunnel, saya nampak Pake It. Pake It dapat ke VTAP dan Pake It dapat dari node worker2. Pake Capture pada worker2, saya nampak Pake It dapat dari worker2. Pake Capture pada worker1, saya nampak Pake It dapat dari node worker1. Pake Capture pada tunnel, saya nampak Pake Capture pada bridge CNI0. Saya tidak nampak Pake Capture, i.e. saya tidak dapat ke CNI0. Pake Capture pada tunnel, saya nampak Pake Capture pada tunnel. Jasmine, saya tidak nampak Pake Capture tanpa KTID. Saya nampak Pake, Dribble KTID dan B Saya minta maaf, jadi jika anda ada pertanyaan, mungkin kita boleh bercakap di luar. Terima kasih banyak. Terima kasih banyak. Terima kasih banyak. Okey, ya. Ada pertanyaan lagi? Tolong lihat untuk Encik Witteo. Okey. Selamat datang kembali ke Clouds & DevOps Track. Okey. Mula-mula, kita ada Kautila Tripati. Dia dari Microsoft. Dan dia mempunyai latihan yang kuat di kembali kembali, servis web kembali, dan kontributasi sosial. Dia telah menunjukkan profisiti dalam sistem berdiri, tools kebiasaan, dan program sistem. Dengan mempunyai kontributasi serta projek sosial, Kautila mempunyai perusahaan yang penting dalam perusahaan kembali kembali dalam komuniti software. Pernahnya, dia mempunyai perusahaan kembali untuk membuat kontributasi yang menarik untuk Microsoft Headland Project. Dan dia bercakap dengan kita tentangnya. Selamat datang kembali kembali ke Clouds & DevOps Track. Hari ini, kita akan menghubungkan Kubernetes dengan Headland sebagai kumpulan untuk menjelaskan perusahaan kembali di Kubernetes. Hari ini, saya menghubungkan Kautila Tripati. Saya adalah kumpulan perusahaan dengan Encik Witteo di Microsoft. Terima kasih. Terima kasih, semua, untuk berada di sini. Saya adalah Kautila Tripati. Hari ini, saya akan bercakap tentang menjelaskan perusahaan kembali kembali dan menghubungkan Kubernetes dengan Headland. Jadi, sedikit tentang diri saya. Saya adalah perusahaan software di Microsoft. Dan saya adalah kumpulan perusahaan kembali kembali dan perusahaan kembali di Linux Foundation. Sebelum kerja profesional saya, saya telah bekerja dengan perusahaan kembali. Sebelum itu, saya juga memulai sebuah kebanyakan di sekolah saya. Jadi, saya berada di kawasan Kauti Azure Core dan Linux Team dan di mana saya bekerja di perusahaan Headland sebagai pengalaman yang saya akan bercakap tentang hari ini. Saya rasa ini tentang saya. Jika bercakap tentang saya, saya akan berakhir di sini. Terima kasih, tidak. Ini tentang Headland. Jadi, berapa banyak orang tahu tentang Headland? Ada sesiapa? Tidak. Sebenarnya, jika saya membuat kesilapan, anda tidak akan tahu. Jadi, saya akan bercakap tentang agenda. Saya akan memperkenalkan sedikit tentang Headland dan bagaimana ia memperkenalkannya ke dalam ekosistem kebanyakan. Kemudian, saya akan bercakap tentang pengalaman pengalaman dan pengalaman dengan plug-ins. Saya harap anda akan suka. Jadi, saya akan bercakap tentang kerja komuniti dan kontribusi yang anda dapat membuat untuk projek. Saya akan menunjukkan pengalaman yang diperkenalkan dan berharap kita akan mempunyai masa untuk Q&A. Jadi, Headland. Adakah saya bermaksud peluang yang digunakan? Tidak, tidak. Jadi, Headland sangat mudah untuk menggunakan kebanyakan komuniti dan pengalaman. Ini sebuah projek C&C of Sandbox dan kami telah bekerja sejauh sebelum itu. Dan kami bekerja untuk menjadi sebahagian C&C. Ini satu aplikasi untuk semua. Jadi, apa yang saya bermaksud dengan satu untuk semua? Ia bermakna anda boleh menggunakan sebagai aplikasi web yang mudah, sebagai aplikasi dekstrap yang berlaku atau anda boleh menggunakan sebagai pengalaman pengalaman pengalaman kebanyakan komuniti. Headland sebenarnya dibuat sebagai ui web tradisional yang mempunyai kemahiran. Dan ia mempunyai kemahiran yang berbeda dari ui lain yang dibuat di luar sana. Ia dibuat di luar sana. Ia sekarang dibuat di atas Reakt dan Golang dan aplikasi native itu dibuat di elektronik. Ia sangat mudah, mudah dan ui seluruh. Anda akan tahu tentangnya. Jadi, mari saya bercakap tentang integrasi OSS. Headland adalah pengalaman pengalaman. Jadi, apa yang pengalaman pengalaman ini? Ia bermaksud ia boleh digunakan dengan kemahiran pengalaman pengalaman apakah anda memperbaiki perlukan atau kemahiran pengalaman atau anda memperbaiki kemahiran pengalaman. Anda dapat menggunakan dengan AKS, GKE dan lain pengalaman pengalaman. Ia mempunyai kemahiran pengalaman pengalaman. Ia bermaksud pengalaman pengalaman pengalaman yang memperbaiki pengalaman di luar sana. Ia memperbaiki kemahiran dan kemahiran pengalaman dengan kemahiran pengalaman pengalaman pengalaman pengalaman. Headland sangat versatile dengan kemahiran pengalaman. Ia boleh digunakan sebagai aplikasi web. Anda boleh menggabungkan kemahiran pengalaman dan anda boleh menggunakan dengan baik sepenuhnya. Ini memperbaiki pengalaman para pilih pengalaman yang mengubah pengalaman pilih pengalaman. Jadi companies yang pandai mempunyai solisi cloud dengan AKS, tetap memperbaiki pengalaman terpenting Graphic. Irwa pengalaman pengalaman hampir hari ini, berpikiran besar banyak pengalaman pengalaman terpenting perjalanan yang sangat unif dan dapat diperlihatkan kelas-kelasnya mudah. Now, HEDLAM menawarkan pengalaman multi-cluster yang mempunyai penggunaan untuk mengawal dan mengenai kelas-kelasan kelas-kelas mereka mudah. Sekarang, kelas ini menjualkan organisasi bahawa kelas-kelasan kelas-kelas mereka mudah. Sekarang, salah satu kelas-kelas yang menginginkan daripada kelas-kelasan kelas-kelas lain di luar sana, adalah sensibilitas kelas-kelasan. Pemanggilan dapat mengubah kelas-kelasan sebab memperkenalkan kelas-kelasan terpenjual pada kelas-kelasan. Maksudnya, anda dapat membuat kelas-kelasan sendiri atau menggunakan kelas-kelasan yang berlaku dan anda dapat mengubah kelas-kelasan terpenjual pada kelas-kelasan anda. Saya bermakna sepenuhnya. Saya akan bercakap tentang kelas-kelasan nanti. Sekarang, kemasan kelas-kelasan, anda mungkin fikir saya tidak mahu mempunyai kelas-kelasan kelas-kelasan atau tidak mau memikirkan kelas-kelasan terpenjual oleh diri saya. Oleh itu, kemasan kelas-kelasan mempunyai kelas-kelasan terpenjual dan memperkenalkan kelas-kelasan kelas-kelasan untuk kelas-kelasan UI. Sekarang kelas-kelasan UI dikatakan dengan jangkitan sepenuhnya 이건 kelas-kelasan para pengawal. Anda membuat kelas dan tarik dan menerang kelas-kelasan untuk anda, kelasan terpenjual balon dari sebuah kota. Sekarang, kelasan RBEC mengenai kelasan dengan menggantikan dengan sistem kebiasaan dan ekosistem. Kamu tak perlu mengalami kawasan kamu sendiri. Kamu boleh, tapi Headlamp beri solusi untuk kamu. Ia mempunyai ujian yang sangat modern dan mudah, yang kamu akan lihat di demo. Yang lain yang penting untuk Headlamp adalah sokongan internasionalisasi. Sekarang kita ada... Kamu boleh menerima Headlamp di Portugese, Frenc, Dutch, Spanish dan Inggeris. Dan menambah lelaki baru sangat mudah. Jadi jika kamu mencari kontribusi, kamu boleh menambah lelaki-lelaki juga. Kami ada setup yang sangat lemah di mana kamu boleh menambah lelaki-lelaki yang dibuat di dokumentasi GitHub. Yang lain yang penting untuk Headlamp, ia adalah betul-betul mempunyai kawasan-kawasan-kawasan. Kamu boleh melihat kawasan-kawasan-kawasan seperti kawasan-kawasan CPU, sistem file untuk berbeda untuk berbeda dengan berbeda seperti port, kebiasan dan kebiasaan pada Headlamp UI. Satu lagi kekawasan-kawasan Headlamp adalah kekawasan-kawasan. Seperti yang dikatakan, Headlamp tak mempunyai kekawasan-kawasan yang dikatakan. Jadi ia boleh dibuat sebagai kekawasan-kawasan yang berbeda. Contohnya, kekawasan-kawasan mempunyai kekawasan-kawasan dan ia dibuat di sekitar pelbagai pengguna. Jadi kekawasan-kawasan ini boleh membahas kekawasan-kawasan. Dan setiap kawasan-kawasan boleh digunakan kepada kekawasan lain kerana kawasan-kawasan di dalam kekawasan-kawasan. Jadi untuk mencari kekawasan-kawasan-kawasan yang berbeda untuk bermula. Kita membuang kekawasan-kawasan-kawasan di dalam kekawasan-kawasan-kawasan web yang boleh dibuat dengan langsung dan tiada kawasan-kawasan dengan belakang. Kawasan-kawasan main-kawasan adalah kekawasan-kawasan yang berbeda yang akan saya bercakap tentang sekarang. Seperti yang saya beritahu, kekawasan ini membuat anda membuat kekawasan-kawasan apa dan bagaimana yang boleh dibuat dan ia boleh membuat segala fungsi seperti apa-apa pun yang anda mahu. Ia dibuat dan ia dibuat awal-awal supaya anda tidak perlu memanjakan kekawasan-kawasan-kawasan. Di sini mempunyai kekawasan-kawasan-kawasan main-kawasan dan ia ada segala permintaan. Anda tidak perlu memhanjakan kekawasan-kawasan-kawasan dan hanya membuatkan kekawasan-kawasan bagi anda tanpa memperiksaikan kawasan-kawasan. Kita membaru kawasan-kawasan main-kawasan web yang boleh dihubungi sejujurnya semasa anda dapat dapatkan kekawasan-kawasan main-kawasan. Bukan ini membuat kekawasan main-kawasan main-kawasan dapat menggabungi kemahiran ukuran selesai dan teknologi yang juga di luah. Ia adalah sebuah contoh plug-ins yang tidak suka logo Headlamp. Ya, anda dapat mengubahnya dengan mudah. Anda mahu menggabungi chart- chart- chart- chart di Headlamp. Ya, anda dapat mempunyai plug-ins yang sudah dibuat. Anda dapat membuat plug-in apa-apa dan bagaimanapun anda mahu. Kita mempunyai dokumentasi api yang anda dapat melihat semua ini. Mereka ada beberapa feature yang menerimanya di Headlamp. Satu-satunya perkara adalah kita bekerja pada ui rewam yang baru di mana kita akan mengubah ui sepanjangnya. Dan ia berada di sini sekarang. Jadi tolong kita melihat untuk itu. Kita juga bekerja pada plug-in AI yang anda dapat menggunakan Headlamp menggunakan AI. Kerana AI adalah yang baru, bukan? Kita juga bekerja pada plug-in store yang anda dapat menggunakan plug-ins secara langsung dari plug-in store. Anda tidak perlu memerlukan plug-ins. Ya, anda dapat mencari dan menggunakan secara langsung. Kita juga memperkenalkan dan memperkenalkan projek C&CF Kubernetes. Jadi untuk memperkenalkan fungsi dengan Headlamp. Jadi jika anda mahu menambahkan sesuatu, ia sangat mudah. Jika anda memperkenalkan dan memperkenalkan projek itu, anda juga dapat menjaga roadmap. Saya rasa anda dapat memperkenalkan PDF, jadi anda dapat memperkenalkan itu dengan mudah. Dan anda dapat memperkenalkan isu GitHub dengan mudah jika anda mempunyai bug-nya, jika anda mempunyai pembinaan. Headlamp adalah projek C&CF dan kami akan suka mempunyai kontributasi yang hebat seperti anda. Dan kami sangat gembira untuk mempunyai kontributasi, supaya anda dapat belajar perkara baru dan juga membuat kontributasi kepada projek. Anda dapat periksa kawasan komuniti yang digunakan di GitHub. Dan anda dapat membuat kontributasi untuk projek. Kita mempunyai pembinaan GitHub yang pertama dan yang terbaik untuk kontributasi baru. Dan ia sangat mudah untuk mempunyai. Kami juga mempunyai pembinaan public Headlamp Slack Channel atau Komuniti Slack. Jika anda mempunyai pembinaan dan tidak mempunyai pembinaan, anda dapat menjadikan sesuatu. Sekarang, saya akan mempunyai pembinaan kecil. Jadi, ini pembinaan rumah di Headlamp, di mana pembinaan multi-cluster ini di set-up. Saya mempunyai dua pembinaan, mini-cube, mencuba dan lain pembinaan. Ini adalah cara pembinaan pembinaan yang sangat mudah. Ini adalah cara anda dapat melihat pembinaan pekerjaan seperti Ports, Demonsets, Replicas, Semua-semua pembinaan kecil. Saya akan memikirkan pembinaan kecil dan beritahu anda. Apabila anda melihat pembinaan, anda akan melihat pembinaan pembinaan Prometheus, dan semua pembinaan Ports dan pembinaan Ports. Ini adalah pembinaan Prometheus yang anda dapat melihat CPU, memori, network data, file system, usages dan segalanya. Anda dapat melihat logs dari sini. Apabila anda melihat logs, anda dapat melihat pembinaan 100, atau pembinaan custom. Anda dapat melihat logs, anda dapat mengikuti logs, dan anda dapat melihat pembinaan pada masa-masa. Anda tidak perlu pergi ke pembinaan separa. Kita ada pembinaan di sini untuk anda. Pembinaan pembinaan dengan bash. Jika pembinaan anda tidak mendukung bash, ia berlainan ke pembinaan default. Jadi anda tidak perlu memilih pembinaan yang berlainan. Adlem melakukan itu untuk anda. Anda dapat mengambil pembinaan kubaniti anda dari sini. Anda dapat melihat log, anda tidak perlu mencari Google untuk mengambil pembinaan. Anda dapat mengambil pembinaan yang anda perlukan untuk pembinaan kubaniti anda di sini. Biar saya menunjukkan, ini adalah pembinaan custom yang saya berbicara tentang. Anda dapat mengambil pembinaan kubaniti yang berlainan. Anda mencari pembinaan ini dari Artefact Hub. Anda dapat mengambil pembinaan kubaniti yang berlainan. Ini pembinaan custom yang digunakan oleh Headlamp. Anda dapat mengubah pembinaan pembinaan. Di setjumannya anda dapat mengubah pembinaan yang berlainan. Untuk pembinaan terbicara, seperti yang saya katakan, kita memiliki langsung lain. Biar saya mengubahnya untuk seluruh. Ini adalah pembinaan pembinaan yang anda dapat mengambil pembinaan yang berlainan. Tolong lihat, kita telah memiliki perlainan untuk perlainan ini, jadi perlainan ini adalah perlainan yang berlainan. Jadi jika anda mengambil pembinaan, Lihat untuk logo. Ia akan berubah ke logo kembali. Ia boleh berubah ke apa-apa. Terus mengubah logo kembali. Kita akan mengambilnya kembali. Saya juga tidak tahu Spanish, jadi saya akan mengubah kembali ke Inggeris. Jadi, ada sebuah kemari lain. Apabila saya beritahu tentang kelas statis, anda hanya perlu mengambil konfig kekuat. Dan kembali akan menambah konteks dari ianya. Anda dapat memilih konteks. Di konfig kekuat saya, saya hanya ada satu konteks. Ia akan menambah kembali. Tiada apa-apa yang digunakan di belakang. Semuanya digunakan di TV indeks. Jadi, ianya menambah kembali. Ada sebuah kemari lain? Ia hanya sebuah kemari. Ia hanya 5 MB. Jadi, ia sangat mudah dan sangat mudah. Kita telah mengubah 10,000 kelas. Dan ia menambah kembali. Dan dengan penggunaan penggunaan yang baru, anda akan mempunyai kelas yang mudah untuk semua kelas. Jadi, ia sangat menggunakan penggunaan penggunaan. Ada sesiapa lagi? Terima kasih banyak. Selamat hari ini. Terima kasih. Selamat datang kembali kembali di Cloud & DevOps Track. Selanjutnya, kita mempunyai Yash Maratha. He is a Senior Software Engineer dari Flank Source. Dan dia telah bekerja di sekitar 6 tahun. Beg 저는 dalam orangheinfin alert dentro within developer productivity initiatives all around the companies he has worked at. He has been software develop per- a DevOps Engineer and a platform engineer which helped him bridge the communication gap to build his own unique experience to the problems. Selamat datang. Selamat datang kepada Cip ShinySH. Selamat datang kepada Cip Shatt akan akan mendapatkan We had a senior engineer a software engineer. He developed a tool called DjangoFed. We will learn about this tool later. Hello everyone. So I'm Yash and today I'm going to be talking about developer environments. DjangoFed is just the name of the tool. Tetapi ini bercakap tentang bagaimana anda boleh mempunyai perlindungan developer di Demand dan Kubernetes. Jadi mari kita mulakan dengan cerita. Jadi tidak lama yang lalu, di Galaxinia, sebuah pembina yang ingin melakukan sesuatu yang menjadikan, tetapi mereka ditangkap oleh peluang perlindungan developer yang mereka ada. Mereka menerimanya seperti mereka berada di dalam masalah ini, jadi mereka menerimanya dengan seseorang yang boleh menyelamatkan mereka. Mereka hanya berharap itu adalah saya. Jadi siapa saya? Saya adalah Yash. Dan saya adalah penggunaan perlindungan perlindungan dan perlindungan perlindungan. Saya sekarang bekerja di FlankSource dan sebelumnya saya pernah bekerja di Lumo, MindTecl, dan Blinket. Dan saya telah mempunyai beberapa perlindungan perlindungan. Jadi, apa masalah dengan perlindungan perlindungan adalah bahawa perlindungan perlindungan developer di Demand hanya dari perlindungan perlindungan perlindungan dan mereka tidak melihat bagaimana perlindungan perlindungan sebenarnya. Sebelum saya bermula dengan sebuah kebanyakan kebanyakan perlindungan untuk orang-orang yang tidak tahu, anda boleh memperkenalkannya sebagai anda mempunyai beberapa perlindungan, dan kebanyakan perlindungan, perlindungan perlindungan, perlindungan perlindungan, jadi anda boleh mengutilisinya secara efeksi. Dan ia berlaku pada prinsipa kekonfigurasi yang berlaku. Ia bermaksud anda beritahu sistem yang ini adalah perlindungan yang anda mahu dan sistem akan memastikan bahawa anda mempunyai perlindungan itu. Jadi anda tidak melakukannya atau memperkenalkannya. Anda hanya beritahu mereka bahawa saya mahu perlindungan ini. Dan kebanyakan kebanyakan itu. Dan anda menghubungi dengan Yamilor Jason Manifest. Dan anda sebenarnya mempunyai perlindungan perlindungan yang anda gunakan untuk menghubungi mereka. Dan hanya beberapa termanologi. Jadi nama-nama adalah hanya perlindungan logis. Jadi ada banyak nama-nama yang anda mahu. Dan kami menggunakan nama-nama untuk memutuskan sesuatu dari setiap orang. Kemudian anda mempunyai perlindungan. Perlindungan adalah hanya beberapa perlindungan. Jadi aplikasi dan segala-galanya yang memperkenalkan perlindungan, itu adalah PODs. Setelah itu, kami mempunyai perlindungan. Jadi perlindungan adalah bagaimana anda akan mempunyai perlindungan logis. Jadi anda boleh memperkenalkan jika saya mempunyai api dan saya mempunyai 10 replikas. Jadi api akan menjadi perlindungan dan setiap replikas akan diperkenalkan. Dan kemudian kita mempunyai sesuatu yang dipunyai ConfigMap yang hanya untuk menunjukkan perlindungan dan konfigurasi. Dan ada banyak lagi, tapi sekarang kita akan menjelaskan. Ini adalah cara yang menjelaskan perlindungan. Jadi perkara yang penting yang anda ingin lihat di sini adalah perlindungan api dan perlindungan. Dan di sini saya hanya membuat perlindungan nginx yang nama nginx. Dan anda boleh menjelaskan semuanya. Ia mempunyai 3 replikas dan ia memperkenalkan perlindungan nginx. Jadi ini adalah file YAML dan apa yang berlaku apabila anda memperkenalkan? Anda hanya dapat beberapa perlindungan nginx di perlindungan. Jadi sekarang mari kita melihat sesuatu yang lebih mudah yang dipunyai yang dipunyai KUSTAM RESOURCE DEFINITION. Jadi bagaimana anda sebelumnya melihat perlindungan? Itu adalah sesuatu yang kubinetis yang membuat anda keluar dari pembentangan. Tapi anda boleh mencubainya sendiri, sesuatu seperti perlindungan di diri sendiri, hanya sebuah cara untuk memperkenalkan perlindungan kubinetis. Dan anda menulis logik sendiri yang dipunyai KUSTAM RESOURCE DEFINITION untuk mengenai bagaimana itu berlaku. Jadi mari kita katakan, saya membuat perlindungan baru yang dipunyai PING. Dan apa yang berlaku adalah bahawa apa-apa pun yang anda akan memberikan kepada perlindungan, ia akan hanya memunyai PING pada perlindungan itu. Jadi mudah-mudahan. Dan jika saya perlu memperkenalkannya, bagaimana ia akan berlaku adalah saya akan mempunyai pembentangan. Dan saya hanya mengambil perlindungan. Saya memilih jika saya mahu IPv6 atau tidak. Dan kemudian ini adalah Golang dan kemudian saya hanya membuat pembentangan dan saya mengambil perlindungan itu. Yang penting untuk menjauhkan rancangan adalah perlindungan tidak menjaga apakah sesuatu yang telah dibuat, berlaku atau terlambat. Ia hanya mengambil perlindungan dan ia berlaku kepada anda untuk mengenai perlindungan itu. Yang sekali lagi, bagaimana kita katakan bahawa kubinetis menjaga perlindungan itu. Jadi sebagai filosofi anda tidak perlu menjaga apa yang berlaku pada perlindungan. Anda hanya perlu menjaga apa yang berlaku pada perlindungan. Kembali kembali kepada masalah yang sekarang. Jadi kami mempunyai satu perlindungan, satu perlindungan dan kita mempunyai dua perlindungan yang berlaku yang adalah apakah perlindungan yang berlaku, mencoba perlindungan dan melakukan perlindungan aktif. Tapi kami mempunyai banyak perlindungan dan dua perlindungan tidak cukup. Jadi jika anda perlu melakukannya atau mencoba sesuatu, anda hanya menunggu seseorang lain. Dan sejak semua orang hanya menjaga perlindungan sebagai perlindungan mereka sendiri, mereka tidak ingin menjaga perlindungan dengan perlindungan atau perlindungan. Jadi sesuatu yang seseorang akan datang, mereka akan mencoba perlindungan, mereka akan pergi, seseorang lain akan datang dan tiada siapa yang menjaga perlindungan itu. Jadi problem sebenarnya tidak ada siapa yang menjaga perlindungan. Dan kemudian saya dan tim saya menjadi perlindungan. Tapi masalahnya adalah kami tidak menjaga perlindungan apakah perlindungan yang ditutupi. Jika ada perlindungan, kami tidak mempunyai idea kerana kami tidak memperkenalkan perlindungan. Dan tidak ada proses eksperimen seorang akan mencoba perlindungan, mereka mungkin memperkenalkan sesuatu yang lain. Dan perlindungan terakhir adalah tim QA yang mencoba perlindungan, mereka perlu menunggu segala-galanya sebab mereka juga berkata kami tidak boleh mencoba hal-hal ini. Jadi ini hanya perlindungan untuk perlindungan. Jadi sekarang perlindungan pertama adalah perlindungan untuk perlindungan baru. Kami ingin sesuatu yang akan mencoba perlindungan. Sebelum itu, kami berfikir, apa yang kami ingin mencoba perlindungan? Jadi ini sepatutnya mudah digunakan sebab perlindungan dan perlindungan dan segala-galanya berada di QBanitas. Ia sepatutnya menjadi QBanitas dulu dan tidak memperkenalkan perlindungan sekarang. Dan yang paling penting adalah isolasi dengan perlindungan lain. Kerana kami tidak mahu seorang untuk diperkenalkan seorang lain. Dan sebagainya, jika ia berisolasi, anda boleh memperkenalkan sebagainya perlindungan yang anda mahu. Tapi apabila kami mencoba perlindungan, kami tidak mencoba perlindungan yang baik di luar sana. Semua orang memiliki masalah. Semua orang memiliki pros dan perlindungan. Dan keadaan terakhir adalah bahawa semua orang berada dalam perlindungan aktif. Dan tidak ada perlindungan yang tidak ada. Itu adalah perlindungan industri. Dan kami berfikir, okey, apa yang perlu kita lakukan sekarang? Kita boleh idealnya mengambil perlindungan, membuat perlindungan, bekerja, menulis beberapa perlindungan kami. Tapi keadaan tersebut anda tidak boleh menggunakan sesuatu yang adalah perlindungan aktif dan memiliki perlindungan sendiri kerana perlindungan original akan mengubahnya dan mereka tidak akan berhati-hati untuk perlindungan yang anda gunakan. Dan untuk menggunakan setiap perlindungan, anda harus belajar bagaimana perlindungan mereka memiliki perlindungan domainnya, bagaimana mereka percaya anda patut gunakan perlindungan itu. Jadi, apa jika kita memiliki perlindungan kita? Jadi, saya akan buat apa yang harus saya lakukan. Dan jadi, mari kita sebenarnya melakukannya tentang masalahnya. Jadi, ada dua pula services. Jadi, kami menggunakan setiap perlindungan yang diperlindungi. Jadi, kami memiliki perlindungan yang tidak berlindungan yang anda gunakan. Mereka hanya mengubah kode. Mereka tidak peduli apa yang diperlindungi. Tapi masalahnya adalah perlindungan yang perlu diperlindungi. Jadi, perlindungan adalah data anda. Yang adalah Postgres, Redis, atau data terbiasa, perlindungan S3, perlindungan CDN, apa-apa pun yang anda menunjukkan data. Itu adalah masalah yang perlu diperlindungi. Jadi, apa-apa pun yang kami lakukan, kami perlu pastikan services ini berlaku dengan betul-betul. Jadi, kami memutuskan untuk membuat CRDs untuk menggantikan mereka. Dan kami akan menggunakan kubanitas hidup, kubanitas hidup, jadi anda boleh menggunakan sesuatu, anda boleh mengalami sesuatu, dan kubanitas, dan logik kontrol yang kami menulis, itu akan menunjukkan semuanya berlaku. Dan kemudian, sebaiknya, kami harus membuat untuk mendukung bahagian projek. Dan perkara yang penting ketika kita memiliki, sejak kita memiliki untuk perlindungan, kami boleh merupakan yang mereka mahu. Sekarang, kami sedang menjadikan kubanitas yang menjadikan. Jadi, kami merupakan dengan golang. Jadi, setiap kubanitas dibuat dari golang, jadi kami boleh mengalami semua api natif. Itu sangat senang untuk bergejut. Ini membangunkan semua peringkat. Dan ini ada sebuah community yang saya berharap jadi, jika kami menerang sebuah masalah, kami akan tahu jadikan untuk mencari. Jadi, ya, kita akan cari We'll build something about it. So the framework that is the most popular for building Kubernetes API is called CubeBuilder. And it uses code generation and as I said it natively works with Kubernetes source libraries. But yeah, so the most important part you have to look is the reconcile loop, which I showed you earlier, which is where a function which just gets an object and you do not know what happened to that object. So you just have to make sure that the object state is achieved. So let's get to the actual implementation. So this is our first CRD we created. So as a developer, you'd see this is the environment kind, which means you're building your own environment. You give it's name. Then there are two users, let's say yush and pair programmer. So that means in this environment, only these two people will have access. No one else can go inside it, delete it or do anything else. Then we have configure management, which is configuration files. And this is how it looks. So we have a reconcilation loop. So as I said, you do not know it exists or not. So sometimes if you actually have to delete it, you have to check if it actually exists or not. And then you delete it else. If you don't have to delete it, you make sure you create that namespace, you configure authentication and all of that. And similarly, we have one CRD for Postgres. So when you apply this Postgres CRD or Postgres database would be created and whatever extensions you give, those would be added to your database. And it also works in a similar way. When you apply it, the logic is create database, create user, give users access to the database. And same for Redis. So yeah, we don't have enough time to go into the testing, but it uses a behavior driven test. So let's say to check if the Postgres has been created or not. The test looks something like this. So like you gave a context and for each of the statement, you just check if the object exists or not. And it has a need eventually function, which means that it will keep checking something till that status reached before the time outcomes. And okay, now let's think of the actual use case scenario. We have to deploy an application and we have a bug in our logistic service. So how would we go about fixing it? And an important thing is since we were an Android app, mobile app first thing, we need to make sure that the route is we can check that thing from our Android app. There is, yeah. So as a user, you would apply these CRDs. And then on the other side of the thing, you can see the actual CRDs that are in same for any environment. So for production, you'll have deployment and service and config map, but for developer environment, you need to apply these first. So you would think that things are fine, right? So this is how it works. You apply a CRD, databases are created, your application is deployed and you have your own paradise. And the workflow as a developer would be, you create your environment, you get an endpoint so you will get logistics, bugfx.dev.domain.com. And in your mobile app, you can use this interface so you can use whatever your developer environment is directly. But there was a problem. Not everyone was using it. Why? It's such a cool tool. And then final part, which is the adoption menis, is what we realized was that it was not very intuitive for the developers how they use those manifest was by a shell script that shell script was in a Git repo and not everyone used to do a Git pull before when they applied and the shell script had some bugs. So anytime something went wrong, I had to come in because I knew since I wrote it, I knew what the problems were and how it worked, but not them and it was wrong of me to expect them to know all of these things. And then you learn a harsh truth about software is that whatever you build, that's not cool or awesome unless people are using it. So there is no point of building something which is technically good if no one has, if you don't have any users. So we went back to the drawing board, we did some research to find out what the real pain points were. I talked to the developers, we did a lot of surveys and then we found out that we had built an amazing engine, but no one buys engines, people buy cars. They want something which is functional, which is running. They do not want something which is half. So how did we solve it? We created a CLI. It seems simple enough, but it actually solved all of their use cases because previously they did not have a workflow. The CLI gave them a workflow which encapsulated all of those cases. So and even you'll see that so we used a viper for CLI and even you'll see that previously I just showed you a bunch of YAML manifest which is hard to grog but now you can understand what is happening. I am creating an environment and that's the name. Then I'm deploying in the environment name the logistic service and then you get a deployed, deployed, created, created. So you have your feedback and you know what's happening. And similarly you have more commands like deleting things. They have a, so in Kubernetes you want to restart something you can delete it but you can just use the CLI because it's more direct to their logic and same for config operations and the devs love these things. So I got a lot of positive feedback after the CLI changes and in that quarter almost 80% of the changes wash features and changes worship using this tool. So the balance in the world was restored and so to end this what did we learn? Sometimes it's okay so you might have heard the thing that do not reinvent the wheel which is correct but sometimes it's okay to build the wheel because you might be the company whose in-house tool ends up becoming the next de facto standard. Go is great if you want to build things on Kubernetes but the two main important things is customer or user obsession is the key. We keep and we always remember what you are who you are building the tool for and never build a complete thing and then say okay why aren't you using it? Build it in small chunks and iterations and then try to gather early feedback and yes that's it. Thanks for giving me your time. We do not have do we have time for Q&A? Okay we don't have time for Q&A so you can catch me outside if you have any questions. Thank you. Thank you. Thanks for coming back. We're back on the cloud at DevOps track. Next we have Uthuan Dat, Niem Tin Thong and Nguyen Xuan Trong Lam. And they'll be taking over from here. I see most of you are Vietnamese so if you are non-Vietnamese speaker I hope the translation works for you. Yeah okay. So I'm not Vietnamese. I'm Uthuan Dat and this is Nguyen Xuan Trong Lam and Niem. We are from the cloud platform of the Cloud Platform. So today we bring to you a presentation about total cost total cost owner and 100,000 201,000 the cost and the issue we met during the process to develop a story that's the largest in Vietnam. We believe it's the largest story in Vietnam at the moment. So this is the information about Telegram platform. If you have any interest after today's session you can contact us. The sharing of today's session has three parts. First, I would like to introduce the President of Vietnam of the New Year's Day and the year 2030. And based on the situation of the leaders and second part we would like to share a little bit about the difficulties that we face when developing the previous two weeks. And the third part I will share later that we love the cost related to OPEX and OPEX when developing the resources related to OPEX and OPEX. First, currently, there are 14 datacentr running from BapChungNam to focus mainly in Hanoi, Hualak. As you know, the scale currently is about 11,000 racks and 81,000 m2 per sàn. In that server, there are about 200,000 physical cores and in the previous two weeks we have about 60 peta-byte. So up to 2028, the President of Vietnam will build about 18 datacentr with 1,164,000 m2 per sàn. And up to 20,000, it will be 24 datacentr and 414,000 m2 per sàn. So I also all of my datacentr are also influenced by TA402, 13, 2017, in other words, TA3 datacentr. So the datacentr I have made a mistake to transfer and host the cloud datacentr. The cloud datacentr was released in 2020 or 2022. And in 2022 the datacentr will supply the products from the datacentr to the location to the platform In addition to the products that we have developed in-house we also cooperate with foreign partners such as Fortinet, Baru AnTu and SQT or AI Machine Learning. The link of Vietthiao Cloud is vietthiaocloud.com for VN You can refer to the introduction of our previous series SOSBDIFY SOSBDIFY SOIL SOSBDIFY SOIL I don't know if anyone is listening to SOSBD or have contact with SOSBDIFY SOSBDIFY SOIL So, let's talk about Vietthiao Cloud It has about 60% of the SOSBDIFY SOSBDIFY SOIL SOSBDIFY SOIL As I've mentioned, currently, there are 10 classes and the first class I have about 200 OSD host and with 20pd HDD and 10pds SSD So, in Vietthiao we have developed all the SOSBDIFY such as HPE, Hitachi, IBM and NetApp I hope that I can cover the common issues of SOSBDIFY and SOSBDIFY So, as we move to SOSBDIFY I would like to introduce Mr. Son Truong Lâm who will share the problem of SOSBDIFY Thank you Hello everyone I'm Lâm I've been here in Vietthiao and I've been working with SOSBDIFY I'm the oldest First, I'll start with hardware After a lot of hard work that I've bought I can come up with some hardware First, we have to talk about latency of the network After a long time I've been familiar with CPU I've shared chip so it should be gold or silver so that it has the best latency And the issue related to CPU is related to iDoState I'm sure you know iDoState It's better Before iDoState latency of network is high 150Ms After iDoState support Intel iDo It's not CPU support but it's not but it's overwrite biode config I've found a way to disable it and latency of network is 50Ms Before I've heard that latency of storage will be reduced 4x I've reduce it 4x Second about interface on CPU and other they recommend I use network 25x interface but I also use network 25x network latency I didn't say but it's not so I've come back to iUGP I'm still choosing network 10x It's related network I don't I don't I don't It's related I've 9000 I don't I don't I don't I don't I don't I don't I don't Hahah Can I RUS You II Bah, You attended the Dan akan mempunyai pakaian untuk mempunyai pakaian dalam DCN. Saya juga mempunyai pakaian dari Servietmon ke ServietOSD untuk mempunyai pakaian untuk mempunyai pakaian. Ia akan mempunyai pakaian dari DCN untuk mempunyai pakaian. Saya rasa ini adalah yang mengembangkan. Pada masa kedua, terhadap pakaian dari OSD. Mungkin sesiapa yang mempunyai serta akan mempunyai SSD. Ini adalah pertama. Sebenarnya, HDD untuk serta tidak hanya membuat masa, tetapi juga membuat masa yang membuat masa yang membuat masa. Selepas masa yang lama saya membuat kerja, saya juga membantu pelajari yang mempunyai SSD. Pertama, saya mempunyai SSD untuk membuat masalah untuk masalah HDD. Sebenarnya, HDD tidak terlalu bagus. Sd tidak terlalu kecewa. Sd hanya membuat masalah. Dan masalah yang membuat masalah, masalah pakaian yang membuat masalah. Selepas masa saya memperkenalkan, saya memperkenalkan bahawa masalah yang membuat masalah. Selepas itu, saya memperkenalkan bahawa masalah yang membuat masalah. Jadi, masalah SSD tidak terlalu bagus. Saya beritahu kepada kamu, kalau membuat SSD untuk membuat HDD, saya akan berkongsi sekitar 2-3. Itu adalah dua pakaian yang paling penting untuk saya selama masa saya membuat kerja. Sebenarnya, saya tidak bercakap tentang kerja mereka. Bercakap tentang pakaian, pakaian yang mempunyai pakaian yang terlalu banyak untuk membuat pakaian, iaitu kakak dari kakak dari kakak. Bersama pakaian, kakak yang membuat pakaian, pakaian yang membuat pakaian, saya tidak bercakap tentang perkara. Saya bercakap tentang perkara yang membuat pakaian. Pertama, pakaian yang membuat pakaian. Pakaian yang tidak dapat diberi, tidak mudah untuk menguruskan. Sebenarnya, pakaian yang mempunyai pakaian dan membuat pakaian, sehingga pakaian yang membuat pakaian, hanya sebabnya, sebabnya, sebabnya, sebabnya, sebabnya, sebabnya, sebabnya, events yang PrettyMid sayagiveob. Saya stro-cro�-crew saya ИлиalItemI Saya OrangDSH OrangDSH Saya OrangDSH Saya OrangDSH Color empat tetapi saya hanya mahu memperbaiki kelebihan sedikit. Kerana kawasan defaultnya hanya beri 1.024. Ini memperbaiki kelebihan sedikit, tetapi kemudian saya tahu bagaimana khayangan saya atau kelebihan lain. Mereka menggunakan banyak, dan kelebihan yang sangat penting. Dan kelebihan yang saya mahu meletakkan kelebihan yang tidak terlalu banyak. Sekarang saya akan bercakap tentang San. Ada sesiapa yang bercakap dengan San? Sebelumnya, ada sesiapa yang bercakap dengan San? Mereka tidak bercakap dengan San. Pertama, San bercakap dengan Vendor Loughin. Mereka menggunakan Vendor. Semua orang seperti IBM, Dow, HP, dia menggunakan kawasan yang berbeza. Dia akan menggunakan kawasan yang berbeza untuk menggunakan kawasan yang berbeza. Semua orang akan membuat kawasan yang berbeza. Dan sebagainya, bagi saya, saya akan menggunakan kawasan yang berbeza. Saya akan menggunakan kawasan yang berbeza. Dan ia sangat susah untuk menggunakan monitor. Mereka ada khanang monitor, dan juga ada API untuk menggunakan monitor. Tetapi, menggunakan monitor menggunakan API, pada masa yang belum digunakan. Mereka menggunakan kawasan yang berbeza dan berjaya mengikuti kawasan yang berbeza untuk menggunakan kawasan yang berbeza. Mereka ada kawasan yang berbeza. Walaupun dengan kawasan yang berbeza, kita juga ada kawasan yang berbeza. ...tidak boleh mengecewakan keadaan ini. Saya harap yang anda gunakan, ...saya akan mengecewakan keadaan ini. Tapi yang anda belum nampak... Selepas itu, saya akan meminta anda menangiskan kesempatan. Selamat tinggal, semua. Kami juga beritahu, ...saya masih meminta masalah, ...tapi masalahnya adalah bagaimana untuk mengecewakan keadaan ini. Saya menyebabkan keadaan ini, ...saya rasa sangat sedap, ...tapi saya rasa sangat sedap. Untuk memilih keadaan ini, ...saya akan mengecewakan keadaan ini. Sebelumnya, saya akan perlu kongsi keadaan yang saya gunakan. Dan saya akan pilih... ...sebelumnya, saya akan sem Appleete anitah meta. Dari jalan coba ini, ...saya akan Matrix-led, Sebelumnya, saya akan mempunyai k Romeo-JC우�. Saya akankan k Dogon Thomas, Pekar pentingitis k Working 시간, Tak dan timestài. Bagaimana kata-kata? Untuk kembali, saya boleh beritahu San adalah sebuah pakaian yang saya beli dari kawasan. Atau saya mempunyai pakaian yang seluruh. Seperti pakaian yang seluruh, pakaian yang seluruh, saya masih menggunakan pakaian yang seluruh. Untuk menggunakan pakaian yang menggunakan pakaian yang seluruh. Seperti pakaian yang seluruh. Terusnya, saya akan memberikan pakaian yang saya akan mempunyai pakaian yang boleh saya memperubah untuk mengubah kawasan. Melepon yang mengubah kawasan, saya masih mempergunakan pakaian yang saya masih membuangkan. Untuk mengubah kawasan itu, saya harus memperlukan kawasan yang yang tertentukan bersyukur. Sebelum itu, saya mungkin melepon bersyukur. Pada masa itu, saya juga dapat mencari kesilapan yang berlainan. Dan kemudian ia dapat diubah. Bukan kata-kata, tetapi selama 10 tahun ini, ia tidak diubah lagi. Pada masa itu, kemudian kemungkinan yang saya mahu. Selepas itu, saya mahu performa. Dan kemungkinan melepaskan seperti yang saya lalui. Dan kemungkinan yang saya mahu. Pada masa itu, untuk kemungkinan yang saya mahu, saya mahu, untuk kemungkinan yang saya mahu. Tetapi, saya mahu mencari kemungkinan yang saya mahu. Saya mahu performa yang baik. Dan kemungkinan yang lebih berbeza, saya mahu. Saya mahu elaikkan video yang saya mahu. Sebelumnya, kita akan mulai dengan Pn. Nguyen Tin Hong dari Vietel Group. Selamat datang. Selamat datang, semua. Seperti yang anda lihat, saya akan bercakap tentang Operator Upgrade Kubinati dan bagaimana saya memperkenalkan dengan API Cluster untuk memperkenalkan versi Upgrade Kubinati. Jadi, ada beberapa informasi tentang saya. Saya seorang penyelesaian dari Vietel dan seorang penyelesaian yang memperkenalkan teknologi di Vietel. Di sini ada layak. Saya akan bercakap tentangnya. Jadi, pertama, sesiapa yang tahu tentang API Cluster? Tiada siapa. API Cluster sekarang adalah projek kubinati yang paling popular. Ia membantu API Kubinati untuk mempunyai penghantaran dan pengalaman kubinati kubinati. Ia mudah memperkenalkan pengalaman kubinati seperti Big Tech, AWS, VMware, Azure, atau Google. Tetapi sekarang, API Cluster tidak memperkenalkan kemungkinan untuk memperkenalkan versi Upgrade Kubinati. Jadi, kenapa kita perlu memperkenalkan kubinati kubinati kemudian kemudian? Ia perlu diperkenalkan kerana ia mempunyai beberapa alasan seperti perubahan keadaan, perubahan dan perubahan dan alasan baru, kompatibiliti, support komuniti dan efeksi operasi. Jadi, bagaimana untuk memperkenalkan versi Kubinati? Seperti yang anda lihat, saya memperkenalkan dua alasan. Pertama adalah memperkenalkan kubinati dan kedua adalah memperkenalkan kubinati. Pertama, anda perlu memperkenalkan alasan untuk mendukung versi target yang anda mahu memperkenalkan. Dan memperkenalkan alasan seperti ETCD, Kube API Server, Kube Controller Management dan Kube Scheduler dan memperkenalkan alasan CNA. Dan yang terakhir adalah memperkenalkan KubeNet dan Kube CTL. Itu adalah penting. Dan kedua adalah mengenai alasan kubinati. Anda perlu memperkenalkan dan memperkenalkan alasan kubinati dan pastikan alasan kubinati akan bergerak ke satu-anat. Dan mengubah alasan kubinati yang anda perlukan. Memperkenalkan alasan kubinati dan memperkenalkan alasan kubinati. Jadi alasan kubinati dapat diperkenalkan dan memperkenalkan dengan seorang-orang. Oleh itu, alasan kubinati akan bergerak ke alasan kubinati. Oleh itu, memperkenalkan alasan kubinati yang lain. Di tempat alasan kubinati, anda dapat memperkenalkan alasan kubinati sebelum anda memulai alasan kubinati. Anda masih perlu memulai alasan kubinati. Jadi, apa yang anda memulai alasan kubinati? Sebelumnya, anda masih perlu memulai alasan kubinati yang membantu alasan kubinati yang diperkenalkan. Kemudian anda mengubah alasan kubinati yang baru dan memperkenalkan alasan kubinati dan memperkenalkan alasan kubinati. Kita mengubah alasan kubinati yang sama seperti alasan kubinati yang baru, memperkenalkan alasan kubinati dan memperkenalkan alasan kubinati. Jadi, apa yang diperkenalkan alasan kubinati? Anda mempunyai beberapa perjalanan. Jadi, kita dapat mudah memperkenalkan alasan kubinati. Saya mengubah alasan kubinati yang baru dan memperkenalkan alasan kubinati yang baru dengan installasi alasan kubinati yang baru. Saya mengubah alasan kubinati yang berlainan dan mengubah alasan kubinati untuk aplikasi anda. Dan perjalanan yang sama dengan alasan kubinati. Apa-apa pun yang anda mahu memulai alasan kubinati atau alasan kubinati atau alasan kubinati, alasan kubinati atau alasan kubinati tidak perlu memperkenalkan alasan kubinati dalam alasan kubinati. Jadi, sekarang saya akan bercakap sedikit tentang alasan kubinati. Pertama adalah alasan kubinati. Alasan kubinati di sini. Alasan kubinati yang berlainan dengan alasan kubinati seperti AWS, Azure, Google dan kedua adalah alasan kubinati. Yang ini adalah alasan kubinati untuk mengubah alasan kubinati seperti memperkenalkan alasan kubinati dan membuat alasan kubinati dan memperkenalkan alasan kubinati dalam alasan kubinati. Yang terakhir adalah alasan kubinati. Dan alasan kubinati ini dibuat oleh alasan kubinati. Ia nampak sangat berlainan, tetapi dalam alasan kubinati, saya akan bercakap tentang alasan kubinati supaya saya akan bercakap dengan kedua alasan kubinati dan alasan kubinati. Macam mana alasan kubinati berlainan dalam alasan kubinati, kami ada pelanggan kubinati. Di dalam kubinati, saya akan bercakap dengan alasan kubinati seperti alasan kubinati supaya alasan kubinati boleh dilihat dan faham. Jadi, kami menolong alasan kubinati. Salah kubinati yang kedua adalah alasan kubinati. The default of the cluster ABI, consumer and the cube admin, consumer plans, so it still get the configuration for our machine template and create the machine and provision it at the masternode. So, just like I talked, so this is the concept of the cluster ABI. So, I move to the next slide. So, we have two kind of upgrade here. One of it is the rolling upgrade. So, how the cluster upgrade operator handle this integrate with the cluster ABI and then upgrade it with the check is rolling upgrade. So, first of all, the operator will get the configuration from the machine template that you provide to it. And then it will create the new node and drain and remove the own node, like I talked. But, the problem in here is replace the node one by one is low. So, the workload can be stuck while draining and the upgrade need to be expedient. So, what is the solution? In rolling upgrade, we have two configuration about it. One of it is Markshell. It's a greater new node before removing E6-1. The second one is the Mark unavailable. And it's Mark exiting node unavailable and recreated. Go to more detail. Here is the customer resource update. And we have the Markshell E3 and Mark enviable E0. So, it will create the three machine and also drain and remove the machine if the workload available is a new one. And what about this config? The Markshell E3 and Mark enviable E1. So, it will create the pre-node and drain. So, it allows one node can be drain. And what is the definition here? So, the configuration will have many type of use case like if the Markshell E1 and E0 is the default configuration. It's low but let this rough step for your workload. The second configuration list like Markshell E0 and Mark enviable E10. It fast is the node and will not have to use much your resource. But it is more this rough step. The third one is the Markshell E10. It fast but you more your resource. Here is the recommendation. But in the other coin, the rolling upgrade gives you a lot of control over the speed of the upgrade. And this is helpful. Especially, it's a skinner in which you have to lack no pull and need to go through an upgrade. But the rolling upgrade performing rolling fashion. And the trade of the controlling the speed on a less granular control workload. It drops it and cannot roll back when you need it. You cannot roll back to the previous version if you upgrade it. And the workload start sensitive. And you want to have more permission to control the micro resist during the upgrade. So I will introduce the rolling upgrade concept. It's the second one of this operator. So what is rolling upgrade in community cluster? And first of all, we start with the first phase is create new green set of node of the new version that we want. Most importantly, this set of node will equal to the old node. Here is the rule. Here is the green node that create have the same color of the blue node pool. And then it will code on the blue node and code and drain. So the workload will be rescheduled to the green one and wait it for it available. So when it's done, we step into the phase four. We have the waiting for the soft time. What is this phase? Just let us observe how all the workload are behaving on the new node. And if we need it, we can quickly roll back to the previous version. If we have some trouble in the new workload. So the soft time can be default with one hour. But you can set it to the maximum valuable in the seven days. So if you don't have any problem with that zero zero one, you have no problem about the new version. So you can release the blue node. If you have some different workload, so you can activate the rollback step. Zobater will drain the green node pool and then encode in the blue node. Reschedule the workload into the previous version node pool. And then the last one is just release the green node. That is the blue green upgrade in how I integrate with the cluster API. So this is the last one. Thank you for listening. Here is more and more contact about me. You can contact me if you have any question about this operator. Thank you. Okay, we'll do a bit of Q&A right now. Any questions from the floor? Okay, if not, guys, stay a bit. We take a picture with the crowd. Thank you. Just a quick picture. Welcome back to the DevOps Track. Our next speaker is Kushburn Murma. She is a software engineer from App Right and she is passionate about technology, open source and building communities. Previously she worked at Microsoft and Adobe. So put your hands together for me. Hi, everyone. Thank you so much for joining for this talk. I am Kushbu as you all know. I work at a startup called App Right. It's an open source back in as a service tool. And I'm passionate about open source and communities and that is why I'm here today. Today's topic is cost efficient monitoring with Grafana, Prometheus and Open Telemetry for startups. It's going to be a beginner session. We are going to talk about what is observability, what are these tools and how you can get started with these. But before getting started, let's just imagine that you are building a startup and you are an amazing back-end developer and you build an amazing website and it starts to receive more traffic. So you add more servers, infrastructure. You add maybe some docker containers and spin up some Kubernetes clusters. And you test everything. Everything seems to work fine. And you test everything and then you go to sleep. The next day when you get up, your boss tells you that some customers were complaining last night that the system was down. The website was not accessible. And you go and test again and everything is still working fine. But you have no idea what went wrong during the night because you did not had any system to monitor what was happening. So today we are going to talk about how you can set up something that is going to help you monitor because your boss is really angry and it can't happen again. The website can go down and it can lead to revenue loss. It can lead to loss of customers and that is not good. So let's talk about the first thing. The basics of it, like what is observability? So observability is the ability to monitor your system and just keep track of everything that happens like different compute, logs. So there are three pillars of observability, logs, matrix and traces. Terms are used interchangeably. People just interchangeably use them but they are actually different. Logs are something that are kind of what is happening. So essentially if you are a JavaScript developer you might have used console.log if you are a PHP developer you might have used vardoms and logs keep track of everything that happens. So think of it as a log book of everything that has happened. So you can add print statements, you can just keep, and it can be a huge file. Whereas on the other hand matrix are numerical figures which signify performance health of your system. So if I have to give you some examples think of it like CPU utilization the performance of servers how much RAM is being consumed Are there any memory leaks? You can just check the matrix and it will give you performance numbers health of your system etc. And then traces. of how things work. So for example if a request comes to an API endpoint what exactly happens after it that it hits a certain line in the API then it goes to a different function then it calls the database something gets fetched and then you process that data so kind of trace of what exactly happened like the flow of the entire request so these three are the pillars of observability and they help you to understand it helps you in quickly debugging and finding out where exactly it went wrong and you can quickly fix it if you know what exactly was not working. So I'm going to talk about some open source tools that are pretty popular in the cloud native ecosystem and especially if you are a Kubernetes developer or if you are building a cloud first startup then you can use these open source tools to easily monitor your systems. So the first one is Prometheus. It's a very popular time series based database for storing and querying matrix data. So how it exactly works is that you know it fetches everything from different targets that you might have and it stores all that information. So if you look at this diagram right here, so whatever is happening it pulls the matrix from your application which is the client library and then it exports it to a third party application if you want and it finds all the targets. I'm going to talk about these features in a bit and then it also has alert manager which you know sends alerts if something goes wrong and we're going to talk about Grafana as well but let's quickly just you know talk about some basic features of Prometheus. So think of it as a monitoring tool that is constantly looking at your servers infrastructure et cetera and ensuring everything is working and it is kind of storing it in a database and as you can see it's a time series database. So as the events happen it keeps on storing that information. So there are some popular features why Prometheus is so well known. The first one is it has multi-dimensional data so it does not just fetch numbers it also attaches some key value labels to it and that helps in you know querying the data, segregating it into different types of data et cetera and it also allows in flexible querying which brings to the second point it has a very powerful query language called PromQL which is known as Prometheus query language so what you can do is you can write interesting queries so if you want to know about you have huge data so you want to just know about a certain scenario something went wrong at 12 am on Monday night et cetera and you want to find it so PromQL allows you to write those queries and fetch the correct information from a huge chunk of data so you can also filter by labels you can filter by different values et cetera then the third feature of Prometheus is that it's a stand alone server so what it means is that whatever happens on a single server the logs and the details are stored on that server itself which means that you are not kind of overloading the entire thing so it's pretty fast it stores in the quick fast access memory and you can easily fetch whatever is happening so the local storage it being so fast and what you can also do is that you can also configure it to periodically scrape that data and push to a more persistent cloud storage so that is the thing and then it's a pull based model so essentially Prometheus pulls the data from your devices like all the servers and targets what that helps is in doing is that the load on the target machine does not increase so the target machine is not responsible for sending these logs to Prometheus and which means that it is saving compute and Prometheus itself has like a pull based model and it keeps on pulling the information to the target devices and the last thing is it has like a static and flexible target delivery so you can configure like static targets if you already know where the target machines are you can configure them and it also has a flexible target discovery so it can automatically detect some smart targets for you and start searching for information from there but you know just looking at a log file is so difficult just imagine like having a huge file of thousands of lines and exactly figuring out where the problem happened and it's pretty hard to read what if we had a visualization tool to have such beautiful dashboards where you could see some spikes in latencies you can see some CPU usage when was it high, why was it high and then look at the particular time frame so we have an amazing open source tool called Grafana and it allows you to create beautiful dashboards you can customize the different dashboards as per your use cases and track different matrix in different forms of data and it can help you monitor your systems health and performance so Grafana also has couple of amazing features the first one being a drag and drop dashboard so you can like you know build like add a pie chart graph maybe heat maps etc and then you can also drag and drop around the dashboards and arrange them in a quick way so that it serves your custom use case and then you can also have multiple data sources attached to Grafana so think of it as a common so let's say that you have multiple data sources one can be Prometheus and then there can be multiple ones so for example you can have databases like MySQL, Postgres etc you can also have some cloud storage on AWS or GCP and you want just one single visualization dashboard where everything is visible to you in one place so you can add multiple data sources to Grafana and it you know pulls these insights and presents them in a beautiful way for you and then you don't have to constantly keep on looking at it right because it's gonna be really hard if you're a developer so it has an amazing alerts and notification system which is again configurable so let's say that if you want to alert when the you know CPU utilization starts getting above 50% and the RAM starts getting above 50% etc and it's gonna send you alert and you can also customize where you want to receive these alerts so emails, SMSs are some ways where you can receive it and you know it also has a sharing and collaboration feature so these amazing dashboards that you have you can easily share them with your teammates so that you can all work together in environment and you know see the everything that's in the system at one place so now we talk about how to integrate Grafana with Prometheus so if you look at this beautiful screen it's like the Grafana dashboard and you can see that there's an option to add multiple data sources so you can just go and select Prometheus from the drop down and usually it is running on localhost 9090 port but you can configure whatever it is and it's as simple as that once you configure it you can experiment and check it's working by running some PromQL queries and trying to see if the data is what you are expecting once you see that the data is correct you can start using Grafana to create different dashboards and use that query as the input to that dashboard and it's going to build the dashboard for you since it's a small talk I don't have the time to show you how to exactly do it but I'm just going to show you a quick visual of how powerful it is and what all scenarios you can use it so heat maps, you know graph charts spy charts, et cetera, whatever you need you can just arrange it, it also has some templates that you can use to quickly pull, like if you have a Node.js project you can just quickly import whatever are the popular matrix in Node.js and just you know it's going to create the dashboard for you. Another tool is Open Telemetry, it's an open source project by CNCF organization and you can use it in correlation with Prometheus and Grafana, so what it does is that it collects telemetry data from all the different programming languages that you might have, so it is like kind of a standardization tool and set of API so each programming language will have a single API and a single SDK and it's going to even if you switch programming languages later you do not have to do anything to you know fetch the telemetry data, so it collects the telemetry data and then it has some collectors which can you know send that data to whatever you know devices you might have like it can send it to Prometheus, it can send it to you know Thanos etc, so you can just see that it has exporters, it receives the data, it processes it and it sends the telemetry data to whatever data source you have, so maybe Open Telemetry can fetch data from your system Prometheus can save it in a time series way and then you can use Grafana to visualize it. So let's also talk about some best practices for keeping your costs in check because also they are open source tools if you want more conversations you might also have to like pay for some features of it so the first step that you should keep in mind is allocating the right size of resources, so if you are only using a 4GB compute you should not have an 8GB or 16GB machine right, so that is going to help you keep the costs in check and run everything you know efficiently the second thing is writing good queries, if you just do a select star also it's going to fetch everything is going to take a lot of time so write good queries try to optimize what you're trying to find and make sure that the results are exactly what you're looking for try to narrow down the search etc the third thing is alerting, only set alerts when you really need it like it is time critical so for example if your company also has on call engineers where you know if everything goes strong you need to increase more servers you need to add more RAM so you can set alerts and it's going to send SMS maybe when it's at 50% but call me when it's at 80% or above so that way you can also save some costs there, so that's all from my side today I hope that you try out these products and also contribute to these because these are open source projects and they are like a huge community so you can pick up any project that interests you and also utilize these tools and the open source tools for free in your startups so you can connect with me on my social media on twitter or x or github, so thank you so much I hope you enjoyed it Any questions? So I have not used the Grafana because I use the Kibana and but how the Grafana also support the application trace log which comes into alert whenever you get a SMS or Slack alert or e-mail you can trace out that logs into the alert that will support the Grafana so he was asking that does Grafana also support having traces like we talked about traces so I am not really sure about it but I think if not Grafana then I think Loki or some other tools are capable of doing that and all of these are quite easily integrable with each other and you can use whatever tools you want so before using any tool, research if it's actually fitting your use case there are different tools for logs there are different tools for matrix so much Thank you therefore abstract Next we have speaker Hong Hua Chin He is a Senior Enterprise Sales Engineer at DataDoc and he spent the last 22 years working for renowned technologies vendors such as DataDoc, Red Hat, SAP and IBM Hong Hua has contributed to the open source community projects as well as provided consulting services to enterprises he's specialized in the DevSecOps Cloud Automation and Hybrid Cloud Security Come Selamat datang keadaan Klau Hari ini keadaan Klau Klau akan beritahu kita tentang telemetry dan keadaan keadaan Klau Klau ini tip computing keadaan Klau Terima kasih Jadi saya beritahu sebelum awak dan makan jadi saya beritahu dengan cepat jadi ini profil saya semua di satu page kita boleh mencari lebih di blog saya dan mempunyai apa yang saya lakukan terutamanya saya di DataDoc fokuskan pada teknologi observabiliti sebab pemberikanan pemberikanan pemberikanan pemberikanan yang penting dan DataDoc membuat penggantungan untuk penggantungan dan keadaan keputusan saya akan bercakap dengan anda dengan apa yang kita lakukan dalam pemberikanan pemberikanan yang DataDoc sangat membuat keadaan apa yang pemberikan dari perspektif historik keadaan keadaan yang sangat susah jika anda ingat pemberikanan pemberikanan pre-USB yang sangat susah untuk menggantungkan setiap perusahaan perusahaan PC, server, storage semua di central hub tidak ada, tidak ada standar unifat dan kemudian keadaan perusahaan USB yang unifat perusahaan perusahaan pemberikanan pemberikanan pemberikanan dengan semua aplikasi menggunakan aplikasi perusahaan pemberikanan ini pemberikanan pemberikanan banyak pemberikanan jika membandingkan ada data. Bersama yang kita berjumpa di tempat observabiliti kita bercakap tentang pemberikanan perusahaan perusahaan berulang Kerana aplikasi yang menerima aplikasi kebunan kebunan tersebut, membeli usaha kebunan kebunan, dan membuatkan aplikasi kebunan tersebut membuatkan aplikasi kebunan tersebut, dan melalui teknologi lebih banyak yang berguna dengan aplikasi kebunan tersebut, So let's say from a component perspective, what would you do today to start using Open Telemetry? You will very likely be using Open Telemetry Collector and what this does is that it helps in the instrumentation and collection of various Open Telemetry compatible applications. If they are not compatible, simply just instrument them. So they are client libraries that allow you to set up that instrumentation quite easily. Popular Open Source Projects, part of CNCF, Open Telemetry happens to be it. Other popular projects such as Kubernetes, has Open Telemetry support, as in there will be Open Telemetry client libraries for Kubernetes. And likewise, other sorts of proxies, maybe Envoy, part of Istio, and importantly is that you can send this to any observability platform back end, including of course data. So there is a rich library of ecosystem that implements Open Telemetry across different types of application programming languages. For Kubernetes, it becomes a lot easier now with HelmChats. There's Open Telemetry HelmChats that allows you to deploy these client libraries for instrumentation of container apps. Now the birth of Open Telemetry really started in not Open Telemetry but Open Tracing in 2016. Then it morphed into Yeager, which was developed into Euro, developed by Yuri. But the whole idea here is that Yeager and Open Tracing, they work hand in hand together. 2018, Google released Open Sensors. And 2019 Open Sensors was merged with Open Tracing to form Open Telemetry, a very important CNCF project. Then the beta release was 2020. Today it is stable. It has stable support for all three pillars, traces, metrics, and locks. Very importantly, again, there are some experimental bits, so be careful of Open Telemetry, even though it's so exciting, it's increasingly getting wider adoption. Example will be the semantic conventions. So there might be compatibility issues. If you plug in different tools and use different platforms that claim to be Open Telemetry ready, so you need to look out for that. Behind Kubernetes fast catching up is Open Telemetry, chasing it. So these are all the various CNCF projects and Data.com company I work for contributes significantly to this Open Telemetry project. And we'll talk about some of the contributions shortly. But key aspects about why users adopt Open Telemetry, application stakeholders will be the data portability if they require a different type of dashboard, different type of observability platform today and a different one tomorrow. They can instrument the apps today and then just switch between different types of observability platforms. Cost control because it's open sources and it's free. It's easy to start instrumentation and application performance monitoring today. Also, data flexibility. So it's easy to send to different backends that you have seen in the earlier architecture. Last but not least, this is quite important nowadays when we are talking about like Web 3 and blockchain apps, Ethereum, Ethereum is in the house this week for Asia. These programming languages are all about Web 3. Rust, Swift, Elixir and Open Telemetry supports this. Now there are some limitations. I did talk about the incompatible semantic conventions. That you have to be careful so sometimes traces and logs don't appear as they should on incompatible platform or incompatible tool. There is very little assurance that you will get good support for Open Telemetry is best effort. Whatever apps you instrument, libraries are failing, instrumentation breaks, you support yourself. Hopefully there will be a friendly contributor Open Telemetry subject matter expert on the GitHub forums, on the issues page. Whenever you raise a GitHub issue, he or she may show some kindness and lend you some advice. There's different levels of maturity as well. There are many moving parts in Open Telemetry. It's not just a collector. So it's not just a semantic conventions as well. So different parts are now in experimental phases. Some are more stable than other semantic conventions. Definitely experimental, still moving target. There are some unsupported use cases in the application space. We tend to want to support everything and want everything out of the box. Sometimes we straddle between should it be vendor provider or should it be pure open source? Of course it has to be open source. I mean forced Asia. But unfortunately if that's the case, there are some use cases that can't be supported. Example code profiling, absolutely absent from Open Telemetry. That's where some of the backends come in. Application security, not in Open Telemetry. In the future, far flung future. No milestone being announced. Container monitoring, absolutely not again. Even though there's Open Telemetry help charts, it is again best effort, try it out, see whether all types of container apps actually work. Band minimum is just about container tagging so far. It's not pure end-to-end distributor tracing within a container platform. The pace of innovation, it's the trends who you ask and what you are looking at. Is it a collector? Is it the semantics? Is it the breadth of the ecosystem plugins? Some of them are faster and others, some of them are better done than others. It's a very unclear waters that the Open Telemetry community is charting the cost. So the roadmap timelines for additional features and capabilities subject to change. So that's where Data.com comes in. So there's some element where the Data.com contribution is actually going to help. Steady the ship so as to speak in all these uncharted waters. First of all, Data.com is represented in the CNCF governing board. Data.com employees of several of us are maintenance of the core hotel projects such as core collector examples. We take the top role position as these maintenance. Third, Data.com contributes the original instrumentation. Libraries to the hotel product. So Data.com being one of the leaders in observability space contributed these instrumentation libraries very early in our observability journey because we believe in the open source spirit as well as helping hotel take off. Data.com engineers continuously contribute to the hotel project. She assures the ship is steady. Data.com is also continuously improving its support for hotel. Now, the key thing here is that there are many other open source contributions that comes with this. Example would be the agent, decline libraries. These are all open source within Data.com. There's also the gratis Data.com which is for open source projects for open source monitoring as well as other open source projects such as straightest rate team aglomio. So together using it, it makes perfect sense because they have best in class observability together with well the most popular open source application tracing framework. There's other value add to this including dashboards that come out of the box. I'll show some of them later. There's now capabilities of applying AI ops together with some of the open telemetry traces, metrics and locks that will be ingesting in order to find errors in real time. To set it up is really simple is the use of the Data.com exported has been contributed as part of Open Source Initiative that is free of charge set it up and send it to a Data.com backend. Any other exporter can be used concurrently as a Data.com exporter. Don't let us be the only choice. Compare us with Prometheus and Grafana to see which is easier to set up say for instance if you want to compare options. The customer instrumentation is actually really easy to appreciate because you can have this to assure you that your code becomes vendor agnostic, vendor-free no vendor lock-in. The dependencies of the tracing libraries at compile time makes it possible makes it so beauty of open telemetry. Now there is a key aspect now within the community and that's interoperability between not just the framework but different types of open telemetry ready to say it's for instance a trace this is what a trace would look like typically no matter what tool use doesn't have to be the error can be the error and you're not having different method calls and function calls they call them spans and these spans become disconnect often and therefore the whole trace is disconnected can happen a lot with open telemetry projects and the whole idea here is that you want to unify them you want a completeness of a trace end to end tracing so this really helps if the back-end platform for observability platform that supports open telemetry is able to stitch up so got stitch up all the individual spans to form a trace so introducing W3C trace context propagation this is one of the latest highlights of hotel open telemetry is also called hotel so see that on the chart that means open telemetry hotel the key thing here is that you have different types of services being instrumented using open telemetry project they may have different formats B3W3C list of this makes things a whole lot messier right to stitch up so it's possible your observability platform may already have that support this is a screenshot of data doc it has that W3C 3C trace context propagation support that helps with all sorts of different header formats stitch them all up single trace single distributed trace end to end and using a flame graph you can just visualize everything which method called longest which particular span should I go into can I drill down easy next the open telemetry community is heading towards 128 already is 128-bit trace IDs not all applications today using trace IDs of this format but one key thing here is that the 128-bit trace IDs are supported by the likes of data doc data doc also supports the trace and user session integration which is key highlight for some of our customers right in all of that so would you like to see how data doc in the day in the life of a user of data doc stakeholder who happens to be a stakeholder of apps instrumented using open telemetry what it could actually be going through in terms of observing the health of the app let's take a look so at a very good goal you get to see a single pane of glass all the metrics pertaining open telemetry the health of the exporters the receivers the process all in a single pane of glass the amount of traffic sent if you remember the earlier architecture diagram from the instrumented apps to the hotel collector and to the back end how much traffic is being sent what are the stats and so on and so forth so all this is out of the box so it makes it a whole lot easier to consume hotel with a single pane of glass this is the metrics dashboard a key thing also it goes into the process and looks in the uptime and very importantly again the stats pertaining to the connector there's also an dashboard out of the box just a a moment so this one is the collector metrics this is the host metrics the actual host where your open telemetry app is actually running right so you can look at the health of the host underlying host metrics that will no doubt tell you a lot of important vital points whether the app is healthy the underlying host is healthy now from a remember the 128-bit trace perspective using such a concept when i'm locked into data doc because it's very very easy for me to say pick up a particular type of trace so what i have is some of these hotel traces already made available to me for these particular hotel traces for the various microservices as you can see over here that's the hotel trace right there i'm using i'm using very simple key value pair base search i'm able to obtain up a particular trace that shows end to end where there is from the front end all the way to the back end how long individual method calls and functions and even each API operations take as you can see and all this is stitched again using the open hotel tracing what the three pillars bring us would be lock stitch together with traces so over here you get to see the locks as well as the trace which is here in the flame graph right up here at the top so if ever there was an error lock you could actually correlate that in real time thanks to hotel and see that all visualized by data docs APM application performance monitoring over here as you mentioned so one key thing about the metrics would be from a host perspective these are also correlated with a trace so again are you running out of soft space running out of this space running out of memory or CPU as a result executing any trace operation or one of those spans method calls that are leading to poor performance within your infrastructure now this is really good for some of us application architects where we want to visualize what's the performance with regards to an hotel trace it's any part of this that's taking way too long so i visualizing the dependencies between services and this really saves you a lot of time whenever you are troubleshooting and you are discussing among your team should i optimize ago can i add in an additional microservice or should i take a few of them out so all this will be available out of the box the moment you have custom instrumented your hotel app send it to a data lock back hand right now again from the logging perspective we have a lock explorer which with thanks to hotel tracing correlation it's very easy for me to just retrieve locks they are already instrumented with with hotel say for instance i'm going to pick one up i think this one's been a little bit old so i have this particular hotel say span id has a lock correlated with it all i need to do is just go in and i can start seeing exactly using json visualisation what a particular lock is so based on span id trace id it's very very easy to do it we use key value pair for for querying so that's it sum it up it's probably a lot of information all shared within 90 minutes yes it took 90 minutes to get here there's some blog post that our maintainers write so this slide will be slide that will be available to you shortly there's also a knowledge centre article talking about the contributions we have made to the open telemetry framework very bondly there's also official documentation so for any of us there are custom instrumenting your apps today java javascript even .NET and they intend to use say open telemetry to help in sending those traces metrics to a compatible back end we teach you how easily how to set it up there's also the support statement for w3c trace context what exactly does that mean to hotel stakeholders app stakeholders and of course we we love to brag about our customers satisfaction putting the two stacks together like hotel application stack as well as a data.observability back end so Monday.com uses both data.as well as open telemetry support any questions no questions everybody who just want lunch just once lunch yes stickers in front please grab them and thank you thank you