 OK, Hello, everyone. I would like to welcome you on my presentation about OpenStack Kubernetes and SlotStack and how these tools can be used for complete deployment automation. So, few words about me. My name is Salesh Kumarak and I am working at Mirantis as a Cloud Architect. I used to be a Ptl of OpenStack Slot Project. výběžně, když je to růt pro projektu, co se znamení, to je soldformula. A výběžně, co jsme dělali, jsme vyskávali soldstek a jsme přednáváli nějaké skrypě, které byli dělat service. Vy můžeme dát do dnes 140 servicí, že jsme můžeme většinit příjšení výstření. To je všechno výstření, ale největšení jsou mětšina. Mětšina výstření se uvědila zvuková, která je zvuková metadata a zvuková výstření. Vypadáme se to, jaké to cestce, které jsme nám týdeme. Takže jsme se zvuknili nějaké výstředé růzky, takže jsme vždyčí výstředné metadata modelu na výstředné formuláře. A to je mětěr, které se zvuknit, které se zvuknit, co se tady tady tady závodí. A jedna z největných výstředního konceptu je výstředné kompozitiony. Běžně výstředné formuláře výstředné výstředné, A to se jich seů koristou můžeme dát, a je to zvukovat o rítměom. Přiští, jak divošel od půlští, který mám vnit i skřeba data, n'NGynyxys. Jedná měla je výstálet nejpouště se, a to bude jen spíštěsé. Když se tvoje obrovů které jsme vzážíli. Protože jsme infrastrukturáře, vzážíli zvukování systemu, a zvukování services, tímto databases, messagebuses, a zvukování services. A sweetsch! Je to Python Java. Už se můžete jít tímto OpenStack services v tom kategóru. A tímto jsme vzážení a můžete mít kvězit, kolektorů, datastorů, a agregatorů a ccd servici, takže jsme můžeme dělávat artefácky a můžeme komunikovat s větmé kláda provážů a větmé větmé větmé větmé větmé větmé. Takže, se závodujeme, jak jsme závodujeme servici. Tady jsme závodujeme servici, aby můžeme dělat v mělné operácie. Vyklad jsme dělat větmé linuxfamilé a můžeme dělat větmé servici, aby můžeme dělat na linrirach, uznatíček a vzneslo diseasesční ok太, takže dálede se dobrá větmé kláda žijeme mální a krádaughterů. Tro mundě proetení retesý syl game pro testыпě, takže můžeme záhodou z važným ringolo a controlot unexpected smytout na android- v Away. klaster, když se vám zvukujeme, že jsme přijízni nějaké vytvěděté parametře. A to je tím, že je to zvukovat stručná metodata, které jsme všichni vytvěděté. To bylo všichni vytvěděté vytvěděté vytvěděté vytvěděté vytvěděté. A to je tím, že jsme přijde, jak se vytvěděté vytvěděté vytvěděté. Běžně jsme tady klientrov, které jsme vytvěděté vytvěděté. Běžně jsme zvukovat stručná metodata, které jsme vytvěděté, které jsme vytvěděté. Běžně jsme zvukovat stručná metodata, které jsme vytvěděté. A to je všichni vytvěděté, které jsme vytvěděté. Běžně jsme zvukovat stručná metodata, které jsme vytvěděté. A to je vytvěděté. Vytvěděté stručná metodata je vysoký mcp plátform, všechno všechno jen výštějskou výštějskou, kontrolu plnů, výštějskou a to můžete výštějskou výštějskou, který je zvukovat na výštějskou. Bylo to těchto pročet nevětnějské výšty, protože než jsme měli výštějskou, takže jen výštějskou, které máme výštějskou, můžete mít výštějskou výštějskou. To je definicí, jak jsme vždyž vždyžíme vždyžitává instancí na výstek. Takže jsou mnohy hlavní soličnice. Projekte rejistí Python a LibCloud, které vždyží hlavní výstek. In the new version of the salt, there was added support for salt mineral proxies, it's a mechanism that allow you to wrap and control devices that cannot run the Python or the salt agent natively. So basically it reuses Python napalm, library which can talk to multiple vendors, it supports Cisco network, orchestration or the Junos. On the right side, then you can see how are the metadata for these types of remote devices. So one of the most strong features of the system are so-called support metadata. Basically, when your infrastructure is defined in a consistent way, you are able to define some services without just looking at the model. So we use this function to set up the monitoring. Basically everything in the monitoring is model driven, so you basically tailor the monitoring to fit exactly what you have installed on your system. When you install a new service, basically you just have to rerun the state of the monitoring and the new service will appear in the monitoring. Basically, we cover the entire length of the monitoring, so from the collecting metadata, collecting metrics and logs to the storing of the logs, we have support for graphite influx DB promethies, and then also to the some evaluations and visualizations. So basically, we have support for Grafana, and the Grafana also takes the metadata from the infrastructure, and so basically you generate your dashboards according to what you have defined in your infrastructure. We use these capabilities to generate documentation from the infrastructure. It's very helpful. You get very good insight of what you are running, what versions of the packages, et cetera. Then we support IP table security rules and back-uping, so everything, every service that has some state can be backed up, and we use the metadata model so we know exactly what needs to be backed up and where the service is running. To make our life easier, we have created custom heat salt resources. Basically, these resources help us integrate the salt stack into the open stack cloud. Basically, the salt key resource provides the registration of the newly spawned minion into the salt master. Then we have the salt metadata. Basically, we are able to classify the newly spawned node, tell what classes it uses, and give it some parameters. On this level, you can reuse the parameters that come from the open stack itself. Basically, you have the ability to get, let's say, floating IPs and stuff and other data that was not known at the time of the launch of the stack. The last is the salt pipeline. Basically, you are able to, upon the creating and destroying the node, you are able to call salt master with a list of steps it should do. Basically, it can call or it can update your monitoring if you add a new node. Basically, it runs the state for the Prometheus or for the Grafana. Then when you destroy it, it cleans it up for you. There are some important links for you. The first one is the most important. That's the documentation. The second one is a code for the Firmula. Everything is open sourced, Apache licensed. You are welcome to contribute and make use of it. If you see something wrong, you can fix it and give it back to the community. The last link is the heat salt resource that you can use and install in your cloud. OK, so this is all. Thank you for your attention. I don't know if there is time for questions. If not, you can reach me at the email. Currently, we are using external node classifier. It's a reclass. You can find it in the documentation. There is a long chapter about how we structure metadata, how we go from the service level, when you have metadata for individual pieces, then to some system level, which aggregates it to some functional blocks up to some cluster level, which basically is the deployment. For that, we use the reclass. It's an external classifier. It's similar to here, but not entirely. But you can provide the metadata just a simple pillar. It does not matter. What do you mean exactly? You don't need heat. It's just to give your life cycle management, spin up a node, and then everything else is sold.