 안녕하세요, 여러분. 좋은 아침이에요. 런쥐를 하셨어요? 휘페? 밴드요? 저는 밴드가 있어요. 아주 맛있습니다. 저희는 GMO 인터넷에서 팀이 되었습니다. 저희는 오픈스탑에서 개발한 서비스 밴드입니다. 제 이름은 현태 박입니다. 이 팀이 많은 오픈스탑 프로젝트에 많은 오픈스탑 프로젝트에 왔습니다. 저희는 클라우 서비스 밴드가 되었습니다. 이 서비스는 코노아입니다. 오픈스탑 주노에서 개발한 서비스 밴드입니다. 저희는 항상 제작되고 있습니다. 하지만 이 서비스 밴드는 일반적인 서비스 밴드에서 개발한 서비스 밴드입니다. 저희는 전통 서비스 밴드에서 개발한 서비스 밴드입니다. 하지만 모든 서비스 밴드는 일본에서 일반적인 서비스 밴드에서 개발한 서비스 밴드입니다. 왜냐하면 코노아는 일반적인 서비스 밴드에서 개발한 서비스 밴드에 우리가 전통 서비스로 개발한 서비스 밴드에서 개발한 서비스 밴드에서 개발한 서비스 밴드입니다. 한 example is multi-region. 네. 코노아 multi-region structure를 소개합니다. 그리고 operational know-how입니다. 오늘 애전� vigilant buttons에 전통 서비스 밴드에서 개발한 서비스 밴드에서 개발한 서비스 밴드에 정말 다른 Minnie 이 제품은 2010년에 유지된 오픈스톡에 관심이 있었죠 그리고 몇 달 후, 이 제품은 2012년에 제작되었죠 이 제품은 온라마이.comvps입니다 이 제품은 온라마이.comvps입니다 이 제품은 작년에 제작되었죠 이 제품은 아프스톡을 일본에 제작되었죠 이 제품은 오픈스톡에 제작되었고요 customize의 demand에 제작되었죠 이 제품은 Conor based on Grizzly입니다 이 제품은 Newton에 제작되었고 유트롬과 iAES의 프로덕트는 social gaming company called GMO-Opply Cloud에 관한 소식이 있습니다. 이 프로덕트는 하바나의 오픈스타 하바나의 글자로서의 글자로서의 글자로서의 글자로서의 글자로서의 글자로서의 글자로서의 글자로서의 글자로서의 글자로서의 글자로서의 글자입니다. 자, 우리의 서비스에는 어떻게 많은 인간이 있습니다. 여기가 피지컬 서버 1,500만 원입니다. 지금 버전의 버전은 25,000만 원입니다. 이 버전은 130,000만 원입니다. 여기가 바로 코나의 미래입니다. 기술에 대한 규정, 우리의 users에서의 미래에 대한 코나의 업그레이드가 마지막 버전의 오픈 스톡을 사용합니다. 코나의 users로서의 미래에 대한 미래에 대한 복 surroundings, SSED only, Scalability API,シンプル, and Compatible Pricing. For the time being, I will focus on talking about multi-region features as it is very unique. Supportive multi-region was our first variety out of all the features in the load map. 정면들의 위치 정면이 많다고 말합니다. 도쿄에서 처음 포함한 데이터센터의 위치 정면이 싱가포로서에서 3개의 기지에서 이곳을 통해 전형의 various 이곳을 제공하는 수정지입니다. Here is how we actually did the multi-region within the open-stock environment. We took a multi-region as a structure that can be authenticated globally within just one count. Flat open staff has capability of sharing a single keystone in their story. Flat open staff has capability of sharein single keystone in the multiple open staff environment. We semester disciples in the 춤uen to experience multi legions, in this slide you can see the kinds of 그냥 한 키스톤이 필요합니다. 그리고 이 이미지에서 한 개의 모습을 볼 수 있도록 합니다. 이제 액체 프로세스에 대해 설명을 할 거예요. 아키테이지 멀티 리즌을 만들었죠. OAS와 오픈 스타트 버저버커너 에리어 쇼입니다. 도쿄 키스톤을 통해 키스톤이 모든 리즌을 만들었죠. 도쿄 기스톤의 끝부분에 적용할 수 있습니다. 물론, 도쿄 기스톤의 끝부분에 적용할 수는 없죠. 도쿄 기스톤의 끝부분에 적용할 수는 없죠. 아주 간단합니다. 이 기스톤의 첫 디자인은 멀티 디자인입니다. 이 디자인은 도쿄 기스톤의 끝부분에 적용할 수 있습니다. 이 디자인은 도쿄 기스톤의 끝부분에 적용할 수 있는 기스톤의 끝부분에 적용할 수 있습니다. 이 기스톤의 끝부분에 적용할 수 있는 기스톤에서 목적을 가능하게 변경하려 합니다. 이 기스톤은 도쿄 기스톤의 끝부분 만들어 모여서 도쿄 기스톤의 끝부분 porque 이런 기스톤을 지켜서 인프라 스트로케어 레지트로인션에 대한 main trans due to the infra structure registration we have three restrictions in our infra I would like to introduce the three points 인프라 스트로케어 레지트로인션에 대한 main trans due to the infra structure registration we have three restrictions in our infra structure registration we have three restrictions in our infra project 1. 시스템이 2. 핸직 네트워크 장도와 수치인 문구에 연결해서 연결할 수 있습니다. delta bays에는 수치 10MB만의 의식으로 비 breaker 수치의 수치인 단체 수치인 배경을 이용하여 수치 3. 10,000개의 토큰을 일으켰습니다. 테이블의 컵퍼시티는 길게 적용한 리플리케이션이 없었습니다. 하지만 토큰을 일으켰습니다. 토큰을 유지할 수 있었습니다. 한국의 엄청난 amount of Korea is still being identified as a tremendous amount of Korea. 그냥 한일 10,000 토큰이에요. 네, 이 프로젝트는 인터넷에 사용되었죠. 도쿤을 설정, 도쿤에서 100개의 논란을 제거할 수 있었을 것입니다. 3개의 논란을 제거할 것입니다. 이 논란이 아주 간단한 멀티레이션을 제거할 것입니다. 기스톤은 데이터베스, 리플리케이션, 리플리케이션을 제공하고 있습니다. 3개의 리플리케이션을 제공하고 있습니다. 리플리케이션을 제공하고 있습니다. 기스톤은 데이터베스, 리플리케이션을 제공하고 있습니다. 기스톤은 데이터베스, 리플리케이션을 제공하고 있습니다. 기스톤은 데이터베스, 리플리케이션을 제공하고 있습니다. 기스톤은 데이터베스, 리플리케이션을 제공하고 있습니다. 기스톤은 데이터베스, 리플리케이션을 제공하고 있습니다. 기스톤은 데이터베스, 리플리케이션을 제공하고 있습니다. 기스톤은 데이터��스, 리플리케이션을 제공하고 있습니다. 또한 기준으로도 많은 데이터를 줄일 수 있는 기준을 줄일 수 있습니다. 하지만 아직도 기준이 없을 수 있는 경우, 일본에 사용할 수 있는 기준을 사용할 수 있을 것입니다. 이 기준은 이 기준에 의해는 없을 수 있습니다. 이 기준의 밑에 있는 것은 기준의 기준을 줄일 수 있는 기준을 줄일 수 있습니다. 기준의 기준을 줄일 수 있는 기준을 줄일 수 있으며, 기술들에 대해 공개할 것입니다. 제가 이미 말씀드렸네요. since Coma's user database is only in Tokyo, We can add our direct user information into the Keystone database outside of Tokyo. Therefore, we consificantly choose to structure the data sync Tokyo Database는 다른 지역으로도 사망을 할 수 있습니다. 그 결과는 마리아 데이터베스와 킥스톤 데이터베스는 이미 만들어졌습니다. 가열레오 클러스터에 많은 데이터베스에 위치에서 사용할 수 있는 기간이 있다면 롯가 네트워크가 있다면 이 slide에 대해 이야기한 스트로드가 있다면 제가 말할 수 있는 것입니다 마리아 디비 서버에서 각 지역에 있는 버전 IP address를 원하는 버전 IP address를 제작할 수 있습니다 버전 IP address를 이 트렌드는 지역에 이어가게 될 것입니다. When the peacemaker detects unusual activity and replace the virtual IP address, MariaDB's stored procedure will run automatically and the replication structure will be revealed. 방위 shout of this structure is that this is full scalable by using Galera cluster for data sync within each region, it reduce the amount of work load of Master server in Tokyo. 이 동의선이 우리의 레플리케이션을 배우는 경우, Tokyo의 네트워크는 가열로 크라스터로 싱가포리전과 산호제 루이자에 수업을 제공하고 수업을 공유하고 있습니다. 또한, 토크원과 다른 태브를 예를 들면, 예를 들어 로박 컴퓨터를 사용할 수 있습니다. 버츠메시지로 템플레이터를 제거할 수 있습니다. 이 템플레이터를 매일 제거할 수 있습니다. As long as you sync keystone table beside token, you can easily add a new region like this. Of course, and also a corner has a feature that can manifest a temporary image saved in glass to other regions. Using this feature, our user can easily extend to other regions. This is a glass image in Tokyo region and Sun region. Transport is very simple. In future, we intend to fix all the downside to the structure. We currently have an upgrade, our multi-region structure. All tokens retrieved in one region can be used in that region. I've talked about the multi-region but not only that. We operate based on concept of keystone domain. My partner Mr. Coco is going to explain keystone domain. Thanks, Park-san. Now I'm going to talk about the relationship between the keystone v2 API domain operation and region within the OpenStack authentication in Juneau. Park-san has talked about the region structure in multi-region and how it works in Konoha Cloud environment. We have more to that. And the application to multi-location region structure is domain structure. Application of one domain to one OEM service or a product service. I'm going to dive into the detail of these two future. Why? As Park-san has mentioned, multiple OpenStack cluster are operating in multiple products within our environment. Primarily, this is very efficient in terms of cloud operation. It is of principle of fundamental business rule, selection and concentration. Starting with the other cluster, we build many OpenStack clusters such as Grizzly and Havana and Juneau. They are still in operating. In terms of Swift cluster, we share multiple OpenStack by deploying Swift proxy per keystone OS. However, it takes a lot of time and cost to deploy OpenStack cluster each time. Cost-operated multiple version OpenStack have increase and it is difficult to upgrade or add new future. Managing multiple site of OpenStack is a headache for us. I'd like to take a few minutes to go over the definition of each terms. When I say domain, it refers to the keystone domain. I will talk specifically about the domain that is operated with the Keystone V2 API. I also talk about the designated DNS domain but that's not all. Location means area that are physically in the location that are far from each other. In our case, they will be US, Japan and Singapore. Region refers to OpenStack Region which means that location and region are not used as same meaning. There are cases where we set up multiple regions in one location. Even in that, we've developed a multiple location environment with OpenStack, Juneau and LaunchConohan. Speaking in infrastructure future, we've developed future such as DNS and LBUS. As a Keystone future for IS authentication infrastructure, we are able to segment by domain user management future. First of all, when developed with Juneau, we released OpenStack Keystone OS to develop path and sense application for customer use. Email, database, shared hosting and WordPress. We used Keystone for all of these. So far, we've always optimized one OpenStack cluster design pattern toward one service. For example, when we need a fast network such as low latency and high bandwidth, we would use appliance hardware such as L3 and L4 load bansal and develop the product based on Linux bridge. And we used Expansive Sinder storage such as HP Sleeper with active multiple implementation with Sinder. And we provide Nova and Sinder source code active active multi-path, which was created in the team of HP Sleeper team. On the other hand, for the service with below $10 VM instance, we optimized the service pricing by structuring LBUS using Linux LVS or using ZF storage Sinder based on software-defined structure. This is affected mainly by the cost structure of the cluster. Here's how we feed over from a concept of one OpenStack equal one IS product. Even if the business condition require multiple of product from operation perspective, it doesn't always mean we want to operate multiple OpenStack cluster. We've always been thinking about considering multiple cluster into one. Give the fact that SSD price are now more affordable and usually being able to cut the storage cost by adopting SDS. The idea of considering multiple OpenStack cluster becomes realistic. Now we need the Keystone for multiple domain but domain future. We only available from V3 API Keystone. But because Keystone V3 API only support a few client and OpenStack few OpenStack component. This wasn't what we wanted to use. In addition, because this wasn't any type of bug fix and we wanted to use components that we haven't been using the past such as trouble and money. We wanted to minimize the Keystone modification. Juno Keystone V2 API don't support domains. We use and customize the code that is in Juno Keystone V3 domain. Then we use domain ID for Juno Keystone V2 API. What you see in the slide is the actual token information, the response of JSON. You can see GNC as a domain ID. By doing this you can use domain ID is token and as long as you write script based on domain ID. Thus, we build on top of OpenStack will work just fine. Just one more thing we need to do. In our ISCO case, there is a wrapper API proxy for validation check in public API. In Keystone, you determine the domain either by the prefix of user name and tenant name by looking up user ID and tenant ID in the Keystone DAB. Also for other NOVA grants and send them that we want to scope, we add prefix name. This October we released our second service on same Juno infrastructure. We added domain of OEM service for our group company ZEGO. ZEGO.com is a brand domain and OEM partner in Asia. That's mainly distributed to GMO internet group company service. Three regions including US, Singapore, Japan. Difficult domain ID used for each OEM partner. By adding ZEGO products, Keystone endpoint related to ZEGO domain is separated into API endpoint for admin and public API endpoint for user. First and last, that we build using Keystone OS designed to look up the admin URL for this default domain. This is because there is domain ID in the Keystone DB and with reverse look up such as get token with admin. There is no issue with using default domain Keystone. Also Conoha and ZEGO each has wrapper API proxy program which introduce area in public API, internal API, admin API. This is mulch domain and mulch endpoint. Left side is named GNC domain as Conoha service. Right side is named ZJP domain as ZEGOM service. When user access from internet connect to wrapper API and PHP program. Validation check to verify to value to OpenStack DB. No bashing the neutron Keystone. Then after passing through the validation check you can access real Keystone. Other side ZJP domain same scheme like this. Here is configuration. Domain configuration is this. This is ZJP or GNC. And region configuration and URL template configuration. Component. Neutron is domain specific item is known but this service configuration. DGNET DNS. SOA record and NNS record depend on domain setting. Cilometer. All item is domain specific. We collect the domain ID and user items. Swift. Domain specific is known. Clance has domain specific item is public image. Other domain is have other public image. Nova is flavor. Shinder is volume type of each domain. SAS service all endpoints is domain specific items. Summary. How about domains? Container for tenants. They are owner and members within the domain. Domain owner can manage users group and roles in their domains. Motivation. We have this domain dependency and sharing item. We just want domain. It is no different from ordinary multi-region. This show what Pakistan explained earlier. What were their keystone replication between region. Let's say we set up domain name JPOM1 as a service product just for Japan. I would create an API endpoint for the domain. I can make it look like I'm using only the resource in this domain by changing the API endpoint URL. JPOM1 will access region DIY1 and OSA1. In this structure, it is sharing DIY1 and OSA1DB with just one endpoint. Next, if I add SAS only OM2 the way I just did. It work look like this. For example, just DNS and SAS product will be distributed as a service. You can extend product domain like this. In the multi-location to build multi-region environment, we have been operate the service. In order to take advantage of the location and region, we apply the concept of domain to make the endpoint and the API wrapper proxy. We use it customized as multiple wires. In Libertie release, I still saw that I don't that. Trying to confirm the future and when doing the correspondence to also Keystone v3 API grants and Swift march domain installation of Keystone might be able. However, such as grants and Swift and Nova, how to make take advantage of such as the concept of march domain in the service to be used. We cannot use and are not implemented using them. OK. That's what it is. One more thing. Here is our corner post which come here. There is a real corner character. You can check that. Here. Oops. Oops. OK. Here. There is a real corner character. Very beauty. Beautiful. Inna? Today no girl. And there is someone question. OK. Thank you. Thank you very much.