みなさんこんにちは。フレンツリーとフレンツリーのプロジェクトセッションです。私の名前はマサ、フレンツリーのデータのデータです。このセッションはフレンツリー・オバビュー、アークティクチェーン、ユースケーシーズの新しいフレンツリーのユーザーです。エザルドはフレンツリーの二部についてお話しします。まずはフレンツリー・オバビューです。フレンツリーはストリーミングデータコレクションです。フレンツリーはデータソーシーズとデータを書き、ストリーミングバナーについてフレンツリーはコアパートとプラグインパートです。フレンツリー・コアはデータコレクション、プラグインパートで使用するケーシーズです。例えばデータを書き、データを書き、データを書き、フレンツリーはプラグインパートで使用するケーシーズです。フレンツリー・コアはプラグインパートで使用するケーシーズです。フレンツリーはセデラルアプローチを使用するケーシーズです。例えばフレンツリー・コミュニティでオイスパッケージを使用してRPM、MSIパッケージを使用してフレンツリーのリナックスとWindowsで使用してカンテナイメージを使用してFren-toDとFren-to-DはローキングパートでCNC-Aです。フレンツリーとフレンツリーを使用するケーシーズです。フレンツリーはCNC-Aのプラグインパートでプラグインパートで使用してフレンツリー・コミュニティーを使用してプラグインパートで使います。このデータをコレクションにある1つのプラグインパートです。フレンアプロレクションを 落とすとローカルファイズは フレイントドリルのリードロークスを 申し上げるとセントロークスの ローカルファイズは下のレイトにあるからですこのような メートフレンズの アプロレクションは全体のローカルファイズで 必要なのですまた リークファイズの ローカルファイズで新しいロークスの �くさらばの ダッシュボードやアザードスープに 行われますコンプロダクションに 多くのロークスープをビジネシーのために サービスローグやシステムローグを採用することができますこのローグはKPIやマシンラーニングやサービスモニュータイムなどで使用されています実際に実際にリアルワーズのバリオスローグを採用する必要がありますFrentityはこの問題を解決していますFrentityのユニファイドローグのレイヤーはFrentityのデータファイプラインのグルーを採用していますデータファイドローグを採用する必要があります次はFrentityのアーキテクションですFrentityはコアパートとプラグインのパートですこのデータファイドローグのデータファイドローグを採用する必要がありますFrentityコアはデータフォレクションに関してもらうことが重要です例えばプラグインは2つのインプレメントで字幕リング、batfaring、レトライングメカニズムに関してもらうことが重要にありますインプレメントでプラグインに関し、Frentityがそのパレーを取り付けることが重要になりますFrentityはもう1つのアルファイドローグのパートを採用する必要がありますただし、フレンチャーのクリマスウィッチを採用する必要がありますこのプラグインは、Frentityがフレンチャーを採用する必要がありますこのゲリックのやり方が重要になりますナリアルワーズを採用する必要がありますフレンドリーはコミュニティで多くのフラグインを持っています。フレンドリーの1つのイベントです。フレンドリーのイベントは3つのイベントです。タグ、タイム、レコードです。例えば、アパーチログがあります。一つのログラインはこのストラクチューを使用します。タグはイベントルーティングで使用されています。アクチュアログのコンテンツはJSONオブジェクトのコンテンツです。ローストリーはこのコンテンツです。JSONオブジェクトは、フレンドリーを取り出し、フレンドリーを使用することができることができます。このコンテンツは、人間の中央や、リズムのサービスがJSONオブジェクトの中央に取り出し、JSONオブジェクトのイベントのレコードを使用します。このイメージはイベントプロセッシングフローインフローエントDです。イベントが通るこのパイプラインは、左から右から左から右から左から左に通ると、1コンポーネントを取り出し、インプトプラグインは、データパイプラインのスタートポイントです。インプトプラグインは、データのデータのソースティーを使用します。データパイプラインのエミットログが使用します。ポイントの重要なのは、インプトプラグインは、ローストリーのログを使って、Logsはフレンドディーイベントのインクとプラグインをコンバートしています。フィルタープラグインは簡単です。フィルタープラグインはミューデートのイベントです。例えば、アディングオストネームのイベントのレコーブ、コーディションを確認する必要があります。もちろん、フレンドプラグインはチェーンであるので、データストリームに多くのフィルターを使うことができます。バッファープラグインはアウトクトプラグインで使用されています。フィルタープラグインを使用して、アウトクトプラグインのイベントは一番簡単です。この表現は、フィルタープラグインを使用しています。フィルタープラグインで進行する必要があります。アウトクトプラグインは、アウトクトプラグインで進行する必要があります。この写真もあって、半分のデータストリームを見ます。前面でデータストリームは小さく使える。このアプローチは小さく、レッドライチーアルーとレカバーによって、別の大きなパッチモデルと同じようです。小さく、コンコーチレーションによって、データストリームを使えることもできます。これはデータソーシーとデータストリームを使えることもできます。これは人々のデータコレクションです。捨てられる程度の原則を取材しています。コミュニティのために、いわゆるって樣々なプラグインを作っているためにその時、データのためにデータサービスやもいったりのツールを使い、コミュニティもいわゆるっていうプラグインを作っているためにデータのために、データ・オブジェットストレージを作り、ベイブ・サービスを作っています。それから、では、そのプログインで、200万ページのデータを使用するために、次に、ページの使用セスケースを示しています。これが、簡単な使用セスケースです。データのクリエクションで、各データのセスケースを使用するために、ローカルファイズで、アプリケーションで、データのデータのデータのデータのデータで、モンゴーDVやRDBMSで、この使用セスケースを使用するために、コンフレーションの例があります。プログインでは、例えば、新しいラッシュボールを使用する東北場で、Batch filesとアーカイビーの啓動を使っています。上下当時にプロトコールを販売できたマルチタイヤモデル。上下当時、プロトコールを購読するプロトコールは、2ヘレバリセマンティックスのアッテモスワースサービスのこのマルチティアモデルは大きなトラフィック・エンバーラメントで主要です。このモデルをご覧いただき、このページのリンクをチェックしてください。最後に、コンテナルとフレンツリーをお話しします。フレンツリーはコンテナルログを使用するために、コレクトログのコレクトログをお話しします。まず、コンテナルログのリソーシーを紹介します。ドッカーは一定要にイメージを頼みます。DemoSetセットセットセッティングを一つ入れ、 înappで人間でオフィッシャルリポジトリのサポートを サポートさせることができますオフィッシャルリポジトリのサポートは ステーブルフレンドリーチャートですフレンドリーをプロピュアプラットホームで 使えることができます次は、コレクトロークスフォームの コンテーナスを紹介しますこれはドッカーユースケーシーですドッカーはエクスターナルシステントの ドライバーを送ることができますドッカーはフレンドリーの ドライバーを送ることができますフレンドリーを用のドライバーで 自動プロピュアのフレンドログを送ることができますインストリングを使う必要がないので アジタルコードに寄ったことができますフレンドリーからドッカーでフレンドリーを 送ることができますこれはドッカースケーシーの アプローチを使ったことができますフレンドログは自動プロピュアの 数を使わないためです次は、フレンドログの ドライバーで使う必要がありますフレントローガーは各プラギングの言い方に応じています。このアプリケーションデータやメトレックスは主にこのアプリケーションデータです。このアプリケーションは、フレントDのデータと同じで、フレントDコンフレーションと同じで、フレントローガーのデータのフレントプラギングを使用します。このクバニティスはデーモンセットを使用しています。クバニティスはコンテナローガーのデレクトリーを使用しています。フレントDはこのローガーを使用しています。オッシャルフレントデーモンセットを使用しています。デーモンセットのイメージはメタデータフィルターです。このフィルターはクバニティスのAPIサーバーからメタデータのアプリケーションを使用しています。バトリレは中にコンテナ名、アクリトな ANJ、 Nouting コンテナ名、応募の名、恩恵。これから Texas 간を使用して、ネタを使用してください。アグリuraションやデータフィルターのダータは、つまり、バトリレ枠のアプリケーションの解決出ように使用できます。こちらのローガーに使われた packing、この June モデッドを撮影するために、説明とか、後ろ地台を出ました。クバニティスを動画で話しました。コンテナローガーから最初は作成となり、フレンツリーパウダーは終わりです。次は、Flew and Bit by Eduardo. Thank you, Masa.Hello, everyone. My name is Eduardo Silva and I'm one of the maintainers of the Fluent Bit Project.Fluent Bit is part of the Fluency Ecosystem and it's a project that started around 2015 Initially for embedded Linux, but quickly evolved to solve cloud-netic problems.And it's under Apache line sense of course.One of the advantages of Fluent Bit in general is that it's written in C languageand it's very optimized for a low CPU and low memory footprint.Actually, it already has an applicable architecture where you can have more than 60 plugins available built in natively in C.So, this is one of the advantages that when you deploy the agent, you don't need to insult A dependencies.And from a data workflow perspective, it's very similar to Fluent Bit.We have an input section where we collect data from.We have the parsers to parse the data and convert from unstructured format to structured format.We have the filtering phase for data enrichment.If you think about Kubernetes, you need to enrich your data with Kubernetes, a metadata like labels and notations.We have all this buffering section and rolling mechanism to send your data from one place or many others.This kind of destinations or the input source of data, all of them are configured by plugins.And Fluent Bit in general is made for a high performance at low cost solution.So, if you have for example, you are working in a common cloud environmentand you have a very intense application that generates a lot of logs.Actually, what you want is to have that your agent consume as least as possible,but to be able to process your data and ship your data and that it's Fluent Bit.In Kubernetes, you can have many nodes, right?That cluster has a master API, you have nodes and you have your applications inside ports.And this is kind of a scenario.It's not that easy to process the logs and ship all the logs at once.As master said in the previous section, he said that, yeah, we have all this.It can be deployed as a demo set and can solve the problem.So, we follow the same pattern.We are able to be deployed as a demo set and solve all this problem.Imagine that if you have an application that is generating, for example, an Apache web server.It generates the log messages, right?All of them doesn't have a structure and goes to the file system or goes to journal link.When these messages are generated, for example, if you consider that they are using the JSON format for the file system,all of them will have, every container will have its own specific log file.So, the agent needs to be able to correlate all this information together.And that message is not just a message.It also has a string information and the time that when this message was created inside the Kubernetes node.But also, it's really important to understand and get the context of the information.That's why the API server in Kubernetes provides you extra information for the container or pod that is running in the node.For example, labels or annotations.Because at the end, when you do data processing or data analysis,that's the information that you care about.Because you want to search for all the logs that every application that has a label color equals blue as an example.So, a simple message that starts in Kubernetes or as in a pod like this becomes something with more content,like the processed data, right?The Kubernetes metadata, like labels, annotations, the pod name, and so on.This will correlate all the information from the cluster and every record has all the information together.So, when you process this, it's a more straightforward process.And how this works.Internally, FluentVet is deployed as a demo set, but also can be deployed as a cycle container.It reads the logs from the pod system, then it goes to the API server as a set to retrieve the metadataand then to be able to finally push the old data that is correlated to your final destination.Final destination can be any cloud service that is supported or any kind of custom HTTP input.You can use your own elastic search, Kafka, AWS, possibly SQL.We have many connected for your different and favorite backends.So, FluentVet was created in 2015.We are close to have to turn five years next year.And what is really important here to understand what are the new things that are coming up in the project.So, a few weeks ago, we released FluentVet 1.6.And one of the major features set that we ship are the new Enterprise connectors.I mean that we connect to this Enterprise connector all of them are for free for use, of course.It's for the Azure Blob Service, where you can send your data to a Blob Service, to a Blob, or on a PenBlob in Azure.Also, we have the new integration for GrafanaLoki and also with Amazon.We just come together with a connector for Amazon history and Amazon files.This is not new.At least,Loki and Amazon connectors already existed in different images provided by Grafana and by AWS.But they implemented the connectors in Golang.This time, we migrated all these connectors to C-Language and we ship all of them by default in the primary distribution of FluentVet.And of course, you gain a lot of performance compared to the other versions.That's major thing here.If you know about filtering in region metadata, you will know that also it's not about enrichment.You also can take some logical decisions like filter your data out or take some action or trigger some alerts.And now, we are going to step forward with that and we are trying to bring all this machine learning, all these capabilities for analytics inside the FluentVet pipeline.So, the ARM team has provided a new filter to run Threshold Flow models inside FluentVet.So, you can have your data which is processing certain metrics and you can apply a model.And if the model traps the exception, I assume that is the term for that, you can trigger some alerts or some action.This is not for training inside the pipeline, but just to deploy your models and apply these models on top of your data that is flowing, which is quite powerful and can open many possibilities to do data analysis on the edge.So, from a community perspective, as of last month in October, we hit 170 million deployments for this year.I think we are going to close 200 million in the whole year.So, this means a huge traction in the project.So, these kinds of deployments are happening every day and this is like crazy numbers.But if we look carefully, this is thanks to the help of every enterprise company that it's a cloud provider or a service provider.Actually, FluentVet, it's been supporting the three major cloud providers like AWS, Google Cloud, Microsoft, and others like DigitalOcean, BalsaCloud, and so on.So, as a project, it's really important that we keep all this synergy across users and users, enterprise the companies, and also the developers.So, we try to have all this kind of partnership together because the feedback that you provide also if you're watching this session live on QtCon is really important.I would say that 78% of the features that you see in FluentVet is because of the feedback from users like you.And also, we're looking for how to get better at metrics.So, we are working together with the OpenTelemetry team to try to integrate together and integrate a better way for them to manage loading through FluentVet.More about this news, you will get next year.So, this is just a snippet about the work that we are doing together.If you are interested in OpenTelemetry and you care about logs, pay attention to FluentVet.So, we just finished this introduction presentation and now we have a lot of time for Q&A.So, thanks for coming.