この課題は、山川先生、都市都市NHCの コンヴェースシステムソローションを 使用しています。山川先生、都市、どうぞ。このセッションを受けたいと思います。今日は、クラウドプラットフォームプロダクトを 使用しています。最初のプロデュエンテーションは、 今日のスピーカーを紹介します。私の名前はアツシツジです。このプロダクトのディベルフメントリーダーです。このプロダクトのディベルフメントリーダーです。今日は、3つの話をします。まずは、クラウドプラットフォームを 紹介します。次に、このプロデュエンテーションを 紹介します。最後に、このプロデュエンテーションを 紹介します。私のプロデュエンテーションを 紹介します。今日は、このプロデュエンテーションを 紹介します。今回のプロデュエンテーションは、 多くのデザイン、デプロレミス、リスク、マネジメント、 コンプレクシティ、などのためのコンプレクシティを 発揮しています。このプロデュエンテーションを 紹介します。このプロデュエンテーションを 紹介しました。クラウドプラットフォームを 紹介します。続いて、このプロデュエンテーションを 紹介します。次に、このプロデュエンテーションを 紹介します。CPIは、3個のCPUを 紹介します。ウェブUI、ソフトウェア、 インフラストラクチャ、ハードウェアを紹介します。ウェブUIは、ダッシュボードを 紹介します。ウェブUIは、ダッシュボードを 紹介します。ウェブインタフェースは、 インフラストラクチャを 紹介します。このスタックの中央、 開きスタックの中央、ハードウェアの中央を 紹介します。このプロデュエンテーションの中央、ジェネラル、アイエーサーバー、テンキアス、イサネットスイッチ、モニタリングコンポーネンスを 紹介します。ハードウェア、ダッシュボードを 紹介します。3つのコンセプトを紹介します。プロデュエンテーション、 インフラストラクチャ、ソフトウェアを紹介します。このプロデュエンテーションは、ダイナミックアダプテビリティを 紹介します。3つのコンセプトを紹介します。1. インテグレティドプロデュエンテーションハードウェアとソフトウェアを 紹介します。2. ビジネスインタフェースを 紹介します。1. ビジネスインタフェースを 紹介します。インテグレティドプロデュエンテーションを 紹介します。ダッシュボードを紹介します。3. インフラストラクチャを 紹介します。4. ビジネスインタフェースを 紹介します。你想像の色を使います。4つのコンテナの製造、を使用する 複数着手の赤 さ石のコンセプトペートゥップとして紹介用します。1 equiaデビューは だんだん入れています。 This is the basic hardware architecture.7ノードを設定するためのミニマンのモデルを設定するためのバランス・アベラブリティ・パフォーマンス・ハードウェアコストを設定します。7ノードは、2マスターノード、2コンピュートノード、3ソレージノードを設定します。テンキガイサネットケーブのコンピュースは、このプラットフォームのマネジメントを使用しています。オープンスタックコンポーネントと、他のモニタリングコンポーネントを使用しています。CNは、VMのハイパーバイザーを使用しています。KVMが使用しています。SNは、ストレージを使用しています。セフストレージを使用しています。CPIは、ダイナミックスケラリティを使用しています。コンピュートノードは、多くのコンピュートノードを使用しています。スタッフのVMは、多くのストレージサイズとアイオーパフォーマンスを使用しています。アフォーマンスを増えるためにどんなレタンダーカルなコンフィグラシーなども層を追加していますプラトォーのオプテミアの一つのバーティカルスタッグを発売させますプロダクトはオープンスタッグ、Safe、Renax OSCPI、他のソフトウェアとハードウェアのコンポーネット一つのコンポーネットはリリースサイクルとライフサイクルこのコンポーネットは一つのバーティカルスタッグをNACのデベルトマンスチームで一つのバーティカルスタッグを発売させます次にダッシュボードについてダッシュボードについてウェブ・インターフェースをデベルトマンスについてプライベートクラブについてデベルトマンスチームとオペレーションサイクルのNITサービスについてプライベートクラブについてプライベートクラブについてシステムアドミンストレーターNITサービスのオペレーターNITサービスのユーザーダッシュボードについてシステムアドミンストレーターNITサービスの ピロッパーNITサービスの オペレーター三つのダッシュボードについてシステムアドミンストレーターNITサービスの オペレーターS&P&MについてS&P&Mで強調装備をシステム コンフィグレーション システム リソース マネード モニュータリングPA パフォームズ インスタンス ユーザー マネージメントインサイズ パフォージェクトPM パフォーム インスタンス オペレーションインチ パフォージェクトこれは スクリーンショットダッシュ ボード エッセイ ロールオペレーション メニュー プレース 左側ライトサイズ Dok Cal多ルーズ ロ盟 デALL インスタンツ 一昇サイズ base ダイアロガーランチ インスタースクラウドユーザー ミディ E2kクレイッ インスタースAz 5ステップファイaiaipエスティフ Axこのり 아 plateこの技術を続け、CPIを作って、ペットバックが保存して、次の技術を紹介します。次はセフストレージを話します。セフはソフトウェアのストレージプラットフォームです。ストレッジクラスターはシングルポイントであり、ストレッジソリューションを自信しています。クラウドユーザーはストレッジを簡単に使用するストレッジが簡単です。ストレッジはオープンスタックで最高のストレッジバックエンドです。ストレッジはファンクショナリティーです。1.フレクシバルスケーラビティーです。セフはキャパスティー・パフォーマンス・リダンダンスの違いです。2.高いアベラビティーです。セフのデータは3つのフィジカルディスクで3つのフィジカルディスクです。そして包丁をエクスコードして、フィジカルデバースケーラリティーでシングルを外し、データでフレクシーフェリアを受けます。3.次のストレッジはマワークストレッジ・インターフェスです。セフはオブジェクトストレッジ・ブロックストレッジ・インターフェスです。オブスタックで使うストレッジがオープンスタックとしているインターフェスケーラビティーです。最後に、NECのアドバンテージについてお話しします。OSSのお客さんのセントリックテクニカルサポートを 参加しています。多くのOSSコミュニティーに参加しています。OSSのディスタブユーダーでグローバルパートナーシップを 参加しています。さらに、ソフトウェアとハードウェアの 力を持っています。ソフトウェアのディスタブユーダーでグローバルパートナーシップを 参加しています。次のセクションは、R&Dのアクティビティーを 紹介します。では、次のセクションを紹介します。私は佐藤山川、CPIのプロダクトアクティックです。次のセクションは、R&Dのアクティビティーを 紹介します。私たちは、R&Dのアクティビティーを 紹介します。私たちは、R&Dのアクティビティーを 紹介します。今、私は、セフストリーシステムの アクティビティーを紹介します。セフストリーシステムは、 クラウドパートフォームユースの ブロックストリーシステムを使用しました。セフストリーシステムが割AirMЫ インスタンスで書かれたプロダクトランスになったthoseデータ、 イメージデータや、ステムログのためのタイプで、セフストリーシステム countrysideの アクティバでマヨブリーの ウォアを紹介しました。セフステル内までの各種の濃厚性 レイブライトを行います。ioprocessing resources in the case of cluster status changingfor example, server is down, the HZ device is down, and so on.Another one of our R&D activities on self storage is to select new hardware.Ioprocessing resources are very important.Ioprocessing resources are very important.Ioprocessing resources are very important.Self storage is to select new hardware.We decided how the specification of new version, new version product by manytroyers in R&D activities.I will talk about our tryers of all fresh self storage in this session.This figures show architecture of self storage system inR&D.Self storage is scaling up storage system.System can be expanding by adding extra storage nodes.OSD in storage server is object storage demo.OSD manages one storage device in the storage server.So, if one storage server has 10 HDDs, 10 OSDs running in the server.If one storage device were broken,OSD would shut down by itself.And then, other OSDs automatically would recover data fromOSDs.OSDs are managed and controlled by MoM, monitor demo.This is the rest of the part.A self client gets data, data placement in OSDs from MoM.And directly access to OSDs for reading or writing data.This part is separated.This is control plus and data bus.Self is scale out type storage system.Scale out type storage system is typically good at processing simultaneousIO request from multiple clients.This character is suited for ERS use case.Scale out type storage system is not good at processing higher IO request from single client in the system configured by large number of storage servers.Because self client has to connect to large number of storage servers.That connection and data packet handling cost are large overhead for achieving higher IO request.Simple solution for boosting IO is using flash device instead of hard disk drive.Self storage system is typically configured by using hard disk drive.Boost IO in some IO pattern by using flash device for data general and data caching.Self storage system of cloud platform ERS.Self storage system of CPI boost IO performance by these approaches using SSD for data general and data caching.But all flash system raise the level of IO performance in the various IO pattern.So we try to evaluate all flash system as our unknown activities.At first trial we evaluated all flash storage system by exchanging a CD of our CPI into SSD.And we compared IO performance of two systems.This figure shows architecture of evaluation system.Evaluation system had 10 data disk drive per one server.Self storage system is configured by 3 storage servers.Data is too familiar in the self storage system.Self version was self-firefly.We use FIO as IO performance benchmarking tools.And run FIO on single self client.This is a result of FIO in 4Q byte random read and write access.In the evaluation of random read case, we possibly dropped FIOs work data caching the DRAM of storage server and run FIO.So the case is the worst case in the read access.Performance bottleneck of HDD system is HDD.Due to there are no data boosted by caching mechanism.In the case of data cached in DRAM of storage server, IO performance of HDD system is closely same to all flash system.In the random write case, there are difference of IO performance between HDD systemand all flash system is small.Because HDD system store the journal data on SSD in the processing of writing data.Data journaling on SSD boosts write performance as a write cache.At second trial, we evaluated the effectiveness of increase of SSDs in each server.At first trial, storage server has 10 drives.We added 24 SSDs as a maximum as a second trial.These are FIO results of second trial.In the case of read access, the IO performance was slightly degraded by adding SSDs to storage server. Storage server afforded enough to process more IO requests.So total IOs would grow up in the workload by multiple client access.The peak of IO performance is limited by client issue on the handling connection to OSDs.It could be improved by tuning network socket configuration of clients.In the case of write access, the IO performance was dropped down by increasing of SSDs dropping down.Because CPU utilization of storage server were closely 100% and the system bottleneck was the CPU of storage server.At third trial, we exchanged the CPU of evaluation system into new other CPU which has 1.5 times CPU cores.The peak of IO performance was improved by new CPU.But the trend of performance stabilization didn't change by increasing of SSDs.This graph shows the CPU utilization of OSD daemons in the case of 14 SSDs per server and 24 SSDs per server.In the case of 14 SSDs per server, CPU utilization were balanced each other.But in the case of 24 SSDs, they were unbalanced.These are CPU utilization of a process event in storage server.In the 24 SSD case, CPU utilization of tc maloc were up.In the 14 SSD server, tc maloc's tc 3.7.2 is very low utilization.It is very low CPU workload.But in the 24 SSD server, tc maloc CPU utilization is much higher.Tc maloc is memory allocation library and the collision of fetch memory and release memory.That's the collision of fetch memory and release memory by tc maloc happened in this case.This chart shows flows of memory allocations by tc maloc.In the case of increase of SSDs, garbage collection by tc maloc worked in efficient flow.Normal processing flow is right side, but in the case of 24 SSD per server,tc maloc worked in efficient flow.Tc maloc is the origin of this unbalanced issues where memory allocation library are using by self, tc maloc.When we found the origin of this issue, the issue of self-development committee found the same issueand had a plan to try other memory allocation library, j maloc.J maloc has already supported in the latest version, self-hammer.Force trial, we evaluated the self-hammer using j maloc.This graph shows comparison of each self-version.Io performance of self-hammer is dramatically improved.It's pretty good.Performance stability is very good by using j maloc.In the case of hammer using tc maloc, the trend of Io performance is dropped down.It is the same situation and this happened in the using of self-firefly.It's very good performance.So, thanks for self-development committee.Self-development committee, if there are discords, if there are not discords, we cannot achieve this performance.Thank you.This part conclusions.We need more CPU Perth for improving random write performance.This choice are part of our R&D activities.We are trying to evaluate other OSSS and the combination of OSS for achieving better products.In the final part of today's session, I will introduce future enhancement cloud platform years.We have planned to two big functional enhancement in the future version of cloud platform years.One function is bare metal deployment by Ironic.The other function is big data analytics platform deployment on bare metal server deployed by Ironic.This stackable functions are based on characteristic key device,MicroModule Server DX1000.MicroModule Server DX1000 is high density and energy efficiency hardware including 46 module server to use chassis space.One module server is palm-sized server.This is image of module server.That specification is suited for working write-write applications.One module server has one socket 8 core processors and 32Gb memory.So, 5600 processor cores and 22Gb memory as a computing resources can be installed in 40U workspace.The high dense architecture of micro module server achieves saving working space dramatically.In the comparison between micro module server is left side and normal work server is right side.This is image.MicroModule Server has large memory bandwidth.Aggregate memory bandwidth is over 1000Gb per sec in one chassis.In the case of using micro module server as a single system, it is most efficient to use large memory bandwidth.Wisting the target application of micro module server are scaled application platform.For example, in memory distribute data processing and distribute cache server and web server and so on.The CPU of micro module server DX1000 is Intel Output processor based on Intel Output processor.So, DX1000 covers only a part of our target application area.But next generation micro module server supports Intel DMV processors.So, it could cover all of our target area and empower user application environment in the various use case.The next generation micro server is coming in the near future.We are trying to evaluate Apache Spark as one of the applications suited for micro module server for our first target application platform now.Apache Spark is a memory distribute processing platform and involved in Apache Hadoop as one of the processing models.Apache Spark serves the problems of performance degradation of iterative processing by Apache Hadoop.And it is suited for semi-realtime processing and machine learning.So, we can show the demonstration of Apache Spark on micro module server in NEC Express.Please see and touch on micro module server and Spark solutions.This is final slide.This figure shows our next goal of platform.Product is only your solution now.But we are going to upgrade our product to pass solutions for big data analytics by OpenStack Ironic, Apache Hadoop and Spark at next step.Please look forward to our future product and solutions.Thank you very much for listening to our session.Thank you.Thank you very much for the session.