 Selamat tinggal, terima kasih kerana menunggu. Nama saya Lee Wei, saya dari Team Data.Gaaf. Data.Gaaf adalah Singapore's Open Data Portal. Kita bermula di 2011. Kita ada 70 agensi di bawah. Saya rasa hari ini kita ada 700 data sets di sisi baru. Saya sedikit mengenai diri saya. Nama saya Lee Wei. Saya seorang Team Data.Gaaf. Team Data.Gaaf adalah sebahagian digital servis. Kita juga bergantung dengan agensi teknologi dan agensi. Gaaf.Gaaf adalah sebahagian digital servis. Ini adalah alasan baru yang telah diorganiskan dari IDA dan IMDA. Jadi, ini adalah Team Data.Gaaf. Saya ada di sini hari ini. Sebelum tahun lalu, saya rasa pada tahun 2011, apa yang kita memutuskan untuk dibuat? Sebelum tahun lalu, saya bermakna pada tahun 2015, apa yang kita memutuskan untuk dibuat? Jadi, saya tidak pasti jika anda berdua berada pada data.Gaaf. Tetapi, ia hanya sebuah listan dari banyak data set. Saya rasa ia cukup bergantung dan cukup susah untuk mengembangkan. Dan kita memutuskan, kita ingin melihat bagaimana kita boleh memperbaiki perjalanan. Dan kita telah menghubungkan masyarakat kita untuk sebuah istimewa. Bagaimana kita cuba membantu publik lebih baik memahami dan lebih baik menggunakan data yang pemeriksaan berlaku? Jadi, kita menghubungkan kepada dua perkara yang kita ingin lakukan. Pertama, kita ingin fokus pada bahagian kualiti dan bahagian kualiti. Jadi, kita cuba mencari bahagian data yang menarik kepada publik. Dan kita cuba pastikan bahagian data bersih dan bahagian yang digunakan oleh publik. Kita juga ingin cuba menghubungkan bahagian data yang benar-benar berlaku. Jadi, bahagian data hanya menggunakan satu perjalanan yang berlaku dengan bahagian data. Dan bahagian ini adalah bahagian data yang tidak sangat bergantung kepada publik. Jadi, kita cuba menghubungkan mereka menjadi bahagian yang menarik. Pertama, kita cuba menghubungkan bahagian yang menggunakan bahagian data. Jadi, kita cuba menghubungkan bahagian data supaya mempunyai bahagian publik, seperti bahagian data, analis, membuat semua orang lebih teks, atau mungkin bahagian lay man. Mereka boleh melihat bahagian data dan melihat bahagian data. Saya faham apa bahagian data yang saya cuba bercakap tentang. Jadi, apa yang kita lakukan adalah membuat beberapa feature baru. Jadi, sebelum saya mulakan, sedikit tentang bahagian data.gov, bahagian data.gov yang baru. Kita membangunkan C-CAN. C-CAN adalah platform bahagian bahagian bahagian bahagian bahagian bahagian yang dibuat oleh Fundasio Open Knowledge. Jadi, beberapa rakyat lain menggunakan seperti platform bahagian bahagian bahagian bahagian UK, platform bahagian bahagian bahagian bahagian bahagian. Dan kita juga membuat menggunakan penggunaan yang tambah dari web amazon lain. Jadi, beberapa rakyat itu yang dilakukan di sini. Jadi, beberapa feature baru yang kita dapatkan untuk kek. Jadi, setiap bahagian bahagian dengan keterangan dihargainya. Jadi, bila anda memberi rakyat, jika anda lewat, banyak bahagian yang dikatakan akan mempunyai tempat yang ditempatkan dengan sebuah rakyat. Toa kedua adalah bahagian bahagian bahagian bahagian bahagian bahagian. Dan kanapun bahagian bahagian bahagian bahagian bahagian itu diserangkan pada masa raya semasa. Jadi, anda boleh melihat bahagian ini adalah minat Ini adalah sebuah contoh kebunatan taxi, API. Pada masa yang tersebut, kita membuat dashboard. Jadi, apabila anda melihat page langit, apa yang anda ada adalah set setaian charitur yang kita memikirkan yang lebih unik untuk orang. Jadi, semasa kita berjumpa, anda dapat melihat semua data yang menarik tentang Singapura di depan anda. Dan keadaan terakhir yang kita mendengar untuk lebih teknologis dan lebih ramai orang seperti anda, adalah bahawa kita membuat bahan-bahan data dan artikel. Ini adalah artikel yang lebih lama dari negatif, yang menarik ke dalam data. Untuk contoh, salah satu perkara yang kita membuat adalah apabila ia adalah masa yang terbaik untuk menarik jemput. Jadi, kita mengambil data dari... Saya rasa ini adalah S.G yang terbaik untuk menarik jemput, yang menarik data dari apabila orang menarik jemput. Dan kemudian kita cuba melihat data untuk melihat apabila jemput yang kita mengutiliskan di Singapura. Jadi, ini adalah jemput yang menarik, tetapi ia hanya sebuah kes pula yang menarik. Dan saya rasa orang yang menarik akan lebih menarik dalam perkara seperti ini. Okey. Jadi, apa yang membuat perjalanan ini kemungkinan? Jadi, perjalanan data berkembang sedikit berbeza daripada semua perjalanan yang lain yang anda lihat. Dalam bahawa perjalanan seluruh perjalanan telah berkembang di rumah. Jadi, perjalanan kita, perjalanan kita, tidak menarik ke dalam jemput, tetapi ia sebenarnya berkembang oleh perjalanan di dalam perjalanan kita. Jadi, ini membuat perjalanan untuk berubah dan berubah pada perjalanan apabila kita fikir kita dapat melihat perjalanan yang menarik untuk kita menarik perjalanan. Pertentangan kedua adalah kita sebenarnya membuat perjalanan baru untuk perjalanan data. Jadi, lebih daripada mempunyai perjalanan agensi apa-apa format yang kita mahu menyebabkan, ada perjalanan tersebut kepada setiap perjalanan yang harus ada pada data.gov. Jadi, ini menyebabkan perjalanan ini untuk perjalanan meta data dan juga bagaimana perjalanan api telah ditempatkan. Dan perkara terakhir, ia menyebabkan sangat kecil, tetapi setiap perjalanan perjalanan pada data.gov harus diberi di luar kita. Dan ini menjelaskan beberapa perkara yang saya menjelaskan kepada anda nanti. Jadi, menjelaskan perjalanan data. Jadi, ada beberapa perkara yang kita ada. Tetapi perkara pertama, ia menjelaskan dua perkara. Okey, perjalanan perjalanan. Jadi, kita menjelaskan format untuk menjadi CSV. Dan ia kerana ia tidak mempunyai perjalanan. Dan secara kedua, kita mempunyai bahawa ia perlu dalam sebuah struktur. Pertentangan kedua yang kita lakukan adalah data TIDI. Jadi, data TIDI adalah sebuah konsep yang dibuat oleh ini, Autocod Haley Wickham. Ia adalah salah satu perjalanan untuk perjalanan R. Dan ada beberapa prinsipa yang ia menjelaskan. Seperti setiap perjalanan sebaik-baik perjalanan dan setiap perjalanan sebaik-baik perjalanan. Dan ini adalah perkara yang kita cuba menjelaskan perjalanan data di sisi baru. Dan akhirnya, kita cuba membuatnya berkongsi di setiap perjalanan data. Jadi, beberapa perkara yang penting di sisi ini. Kita ada perjalanan data meta, perjalanan data meta. Jadi, setiap perjalanan yang anda menjelaskan dari web datang dengan perjalanan meta dan ini dibuat di Yamal. Data TIDI, setiap perjalanan adalah format CSV dan ini mempunyai format machine-readable. Dan API tindakan yang akan kita pulang nanti. Jadi, saya akan menjelaskan dengan cepat. Tetapi, perjalanan data meta kita berdasarkan perjalanan perjalanan perjalanan perjalanan jadi, perjalanan perjalanan adalah perjalanan perjalanan jadi sebenarnya, ia berkongsi dengan perjalanan perjalanan perjalanan yang lain diberikan. Setiap perjalanan adalah setiap perjalanan bersatu-satu melalui otak-osak disama, dan saya akan menjelaskan pilihan ini selanjutnya. Jadi seperti yang anda lihat, setiap perjalanan yang anda ada ketika anda melalui pakaian perjalanan perjalanan perjalanan. Jadi, jika anda melalui perjalanan perjalanan perjalanan perjalanan perjalanan, anda boleh mengahwiti perjalanan setiap perjalanan kisah tanpa meruang anda tidak akan hilang apabila anda mengubah penaruh Jadi, ini adalah perjalanan perjalanan ada 3 komponen yang penting untuk kita. Satu adalah komponen dataset yang mengatakan dataset yang seluruh dataset. Jadi, kita akan mengadakan apa yang saya katakan di atas kaki. Saya tidak boleh mengatakan apa-apa. Jadi, kita gunakan ini. Jadi, kawasan perniagaan dan rumon untuk primary school dan tertarik pendidikan. Jadi, ini adalah nama dataset. Dan kemudian untuk keadaan resursus. Dalam setiap dataset, itu dapat menjadi beberapa resursus dan setiap resursus akan menjadi perniagaan yang berbeda dengan dataset yang sama. Jadi, itu sebabnya ada perniagaan yang berbeda dengan resursus yang berbeda dengan dataset yang sama. Sama-sama, skima sebenarnya berikan informasi yang berlaku tentang bagaimana resursus itu berlaku. Jadi, ini adalah contoh skima. Setiap dataset berkumpul dengan ini. Anda dapat melihat nama, nama, tarik, tarik dan mesyuarat unik. Dan ada beberapa deskripsi jika anda ada. Ketuaan CSV adalah quite standard. Jika anda menggunakan XR, anda akan memasukkan. Anda harus mengikuti perniagaan CSV. Jadi, bagaimana bagaimana ini membuat dataset berbeda dengan dataset yang lain? Jadi, ini adalah contoh bagaimana dataset yang biasa akan berlaku pada dataset yang berlaku. Apa yang anda akan mempunyai adalah beberapa perniagaan yang berlaku di depan, yang akan mempunyai deskripsi dan sebagainya. Dan kemudian, anda akan mempunyai total yang digunakan dalam kolom. Dan seperti data scientist, kami tahu bahawa ini tidak mudah untuk anda. Apa yang anda akan mempunyai adalah anda perlu mengambil file, cuba mengambil kemahiran pertama dan kemudian anda cuba mencari jika itu total dan anda mengambil total. Ini tidak mudah untuk anda cuba menggunakan perniagaan data. Dan apa yang kita telah buat, kita mengambil top. Jadi, segera anda dapat mengambil data. Dan setiap perniagaan adalah jelas. Jadi anda dapat mengambil perniagaan untuk membuat perniagaan data tanpa membuat membuat untuk mengambil file. Jadi, ini bagaimana dataset baru akan berlaku. Maaf jika saya bercakap dengan cepat, sila beritahu saya. Ya. Maaf? Jadi, ini lebih perniagaan. Jadi, apa yang kita lakukan adalah kita biarkan kita mengambil dataset dari seluruh perniagaan kembali ke baru dan kemudian kita mengambil perniagaan untuk mengambil perniagaan terhadap perniagaan data. Tetapi, ia adalah proses yang tidak teruk. Ia sedap, tapi saya rasa ia membayar perniagaan. Dan ada cara untuk memastikan bahawa ini berlaku dalam masa depan. Jadi, sebelum saya terus mengambil perniagaan data, perniagaan data berkualiti yang seluruh perniagaan adalah mengambil perniagaan ke GitHub.com. Jadi, jika kita pergi ke website di sini, URL di sini, kita boleh lihat perniagaan perniagaan data kita, tapi kita gunakan bagaimana kita membuat perniagaan perniagaan kita. Dan anda boleh cuba menerima perniagaan jika anda fikir ada cara untuk mengambil perniagaan. Jadi, apa yang perniagaan ini membantu kita? Satu-satunya perkara yang paling penting adalah bahawa kita boleh mengambil perniagaan data pada perniagaan. Jadi, apabila perniagaan mengambil perniagaan, jika wilt était dalam formats yang tak bergelak, apa kita boleh dibuat adalah kita boleh memperintah perniagaan KYT atau aldogan di perniagaan jika tapi jika negeri no errata, perniagaan dia mengosong predicting lawan ini akan digambak dan bergelak però jika mereka akan beritahu Oh, pohon data kamu tidak berlempak dan kemudian boleh berjodoh menyebabkan mereka untuk menyebabkan file ini dan kemudian mereka boleh menyebabkan file ini. Jadi setiap dataset di dalam, setiap dataset yang akhirnya dikeluarkan di sisi, sebenarnya mempunyai rekaunan dan sebagainya. Jadi anda tidak perlu risau apakah jika anda menunyai file di sisi, itu tidak mempunyai rekaunan. Okey, jadi perkara yang tersebut kita mempunyai adalah pembinaan-pembinaan. Saya rasa ini mungkin lebih menarik untuk anda. Dan ini sebenarnya, ini telah dibunyai awal tahun ini. Dan sebenarnya, perkara pertama dari dataset yang saya bincangkan, adalah sebuah data statis yang lebih tabur. Tetapi pembinaan-pembinaan-pembinaan dan data.gov adalah actually more real-time dataset. Jadi seperti yang anda lihat, kita ada taxi availability, availability, kita ada image trafik, kita ada data PSI, dan kita ada beberapa bahan-bahan yang lain. Jadi, perkara yang baru, perkara yang berbeda adalah anda hanya perlu, lebih daripada mempunyai anda, mempunyai agensi yang berbeda untuk menyebabkan periuk yang berbeda, anda hanya perlu menyebabkan periuk yang berbeda dan anda perlu menyebabkan periuk yang berbeda dan mempunyai keputusan untuk semua. Kita cuba mendapat kecartanaan-kepadaan keabadian, api-api yang di sisi-siap. Kita juga mempunyai dokumentasi, eggur dengan cara yang tak kenal dengan memasukkan metadata kalau anda tidak mempunyai documentasi dari semua agensi. Kita juga mempunyai data berhistoryak untuk semua freezer. Jadi lebih daripada menyebabkan periuk yang mana anda ingin melakukannya seperti data berhistoryak, anda boleh memakai periuk kita untuk memakai itu. Akhiran saya, mempunyai kebodatan api. Sebelum kali ini, apa yang kita lakukannya adalah Kita lakukannya untuk menghubungi api publik yang berbeza Tetapi apa yang kita lakukannya adalah kita cuba membuat platform yang berseparah supaya semua orang boleh mengambil dan menghubungi masa yang berlaku jika ia berlaku Ya Jadi Baiklah, bagaimanapun, bagi api aplikasi Jadi ini bukan yang sangat berlaku tetapi bagaimanapun, bagaimanapun, bagaimanapun, bagaimanapun, bagaimanapun Sekarang kita tidak perlu mempunyai api yang berlaku dan kita boleh menghubungi data dan untuk publik kita boleh menghubungi semua api yang berlaku untuk apa-apa saja yang dipercaya dan anda boleh melihat semua api yang berlaku di satu tempat Jadi bagaimana anda menerima data yang lebih baik? Anda akan beri anda lebih banyak masa untuk menganal data sebaiknya daripada mengharapkan Okey, jadi ini adalah beberapa jenis orang menggunakan data kita Apabila kita baru-baru menghubungi data yang berlaku seseorang menghasilkan visualisasi sebab semua jenis data yang berlaku anda boleh mengambil visualisasi di dalam artikel baru anda dan seseorang menggunakan api yang berlaku api yang berlaku untuk membuat aplikasi dan beberapa lain aplikasi Jadi, apa yang berlaku? Saya harap ini adalah bahan yang lebih menarik tentang aplikasi Kita menghasilkan, kita mengharapkan ui jadi, kita akan menghasilkan ini segera dan perbezaan antara O-Site adalah versi ui yang lebih berlaku adalah actually more mobile friendly jadi jika anda pergi ke ui baru anda harus dapat melihat bahan-bahan data yang lebih mudah yang kedua adalah, kita sebenarnya menghubungi data kita di media saya tidak tahu ia menarik untuk kami tapi saya harap anda dapat melihat hidup di blog.data.gov.sg dan yang terakhir yang terakhir saya ada adalah data explorer Jadi, ini adalah projek oleh seorang pelajar smart nation dia baru-baru-baru tinggal dia datang dari YouTube dan kemudian dia membuat ini adalah salah satu perkara yang dia bekerja dan apa yang dia lakukan adalah mendapatkan api dari data.gov dan ia menolak anda menjelaskan hubungan antara bahan-bahan data jadi saya perlu diperkenalkan bahan-bahan data ini jadi hubungan antara bahan-bahan bukan hubungan jadi anda boleh ambil sebuah data saya dan apa yang mereka cuba lakukan adalah mereka cuba bergurung sebaik-baik saja jika ada mana-mana peralatan di antara bahan-bahan data dan cuba menolak mereka di jantung jadi anda boleh saja melihat anda dapat melihat anda boleh mengubah hubungan antara bahan-bahan data itu hubungan antara bahan-bahan jika anda nak tahu ini anda boleh ambil Bersama saya dari Dr. Fa Jadi, apa yang akan berlainan? Jadi, kami cuba menenangkan data di dalam So, let's say if they release budget data correct, we try to put it up as soon as possible of that. Like I said, we're trying to create new data sets and we're also going to release new APIs in the near future. Another thing that we've done is we try to simplify the terms of use so it's no longer legal jargon. It's actually quite easy to use. If you want to take a look at our terms of use, I'm not sure how many of you will want to read that but it's supposed to be simpler than before. Okay, so the reason why we're here is pretty simple. I understand that your community is very large and actually we're still trying to identify new data sets and things. And we want to see whether it can reach out to you all to help us improve our site. So, the way it can help us to do this is, for example, the new data quality guide. If you have any ways to improve the site, please let us know. If you have any data sets that you think is useful or important in any of the analysis, please let us know and we'll try to request the agency to provide it. And also, if you have any suggestions on how we can create new articles, like interesting analysis, also share the ideas with us and we'll try to work on that for you. So, this is more of letting your help us help you kind of thing. So, please let us know and feedback at data.gov if you've got any suggestions on how we can improve our site. Thanks. Any questions? Yes, sorry? Okay, the question is, what are our challenges? So, the main challenge is working for the government, it's not easy for us to identify data sets that we think are interesting to you all. Because we are flooded with requests for internally ourselves. We sort of can understand what kind of data we want to have, but we have no specific idea of actually what data sets we want or what the public might need or what the public might want to use for their analysis. So, it's more of like, we don't know what, we don't know kind of thing. So, if you have any idea of how you can tell us, like, point us in the direction of something that you might know, it will make our job a lot easier to find and actually request the agency to provide the data to us. So, that I think is one of the more difficult things that we'll be facing. Yes? I think one solution would be to put that real-time traffic data. Real-time traffic data? Okay, sure. Yes, Karis. So, we have traffic camera data over there. Okay. I believe LTA has something like that. Like, they do the main trunks of the expressway. They give you some time required, but it's not exactly for everything. Ya, it could be, ya. I'll take that and LTA know that. Okay, sure, sounds interesting. Sure. We are trying, it's a hard thing, but we're trying to make more of this data. So, ya, the whole idea is that we're trying to make more data open and that's definitely one of the things I want to do. Ya. Anything in Pacific? Pardon? URA data, which one in particular? Mungkin you can keep this in recording. Transactions? Real-time, as a URA transactional data. Okay. Okay, got it. Anybody concurs with him, then we can know. Okay, so there's like five people. Okay, cool. You mentioned just now that you navigated the data automatically. Correct. Is the data set that you use for navigation? Is it coming from the metadata? So, what we're using to validate is the actual data itself, the table itself. So, how it works is that every agency, they have a couple of people who have user accounts on the site. So, what they do is they log on, they take the file and then they upload the file. The moment they upload the data set itself, correct, the table, it validates based on that table, data set, correct? The schema is automatically generated from the table. So, what it does is it goes through the file, it identifies maybe this is a year column, maybe this is like a numeric column or maybe this is a textual column. And then it assigns it that general text. And then what happens is that the user can actually go and maybe tweak it if it's not correct or something like that. So, it's all automatically generated schema. So, can I assume that you are just using the similarity of each column and then you try to guess what is that but we already define things like year or time or things like numeric or percentages, correct? So, actually most of these things you can identify, you can guess based on the data set itself. Also, I think some of the data sets can be a bit more granular in my sense because some of them later you go according to regions. So, I think this is something that many areas and regions can be based on the estates. So, I think this is more useful. Okay. So, can you say something about some of the things about validation is that a lot of it can be done in a machine because you can check. The number is not a number. But there's also a lot of semantics behind the data, which we have to then check manually. For example, there's a series in the column but it may not be the same kind of category. So, for the kind of thing we still have to check manually. So, actually besides what we went through about automatic part we actually have to put every single data set manually as well to make sure that, for example, the documentation is complete. So, for example, HDB has some data set on housing grounds but you may not understand why is this abbreviation why is this AHA and CGA different kinds of housing grounds and we have to make sure that all these things are documented so that when you download the data you can actually start using it without having to then dive into HDB's website and google and find out what that means. Do you have a sample application for commercial purposes? We do not for commercial purposes, not so much but we have a couple of apps that we know that have been developed from there. We know a couple of use cases where people are using specific data sets to perform simple analysis but not actual applications. Yes, so the new terms of use allows you to do that. Okay, so the question is are there any commercial applications for our data right now? So, have there been any real commercial applications that have been in the public? So, the reply is that we do not know exactly but we know that there have been some commercial analytics that have been performed on some of our simple data sets. Yes, next. Sorry. I mean, if you can't get the data from the government maybe you can get it from apps by title. Sorry? Competitions? I mean, if you can't get the data or you have to organize the competition. Oh, so why not organize competitions? I think we did that like last year, hektaton at SG or something. There's something that the previous thing organized but yeah, I mean it's a real common statement with real data and what do you want? Yeah, sure. Yeah, we can take that out with the next. Yeah, then we will share the invitation with you all. They have a data set like comparing the jobs in SG like what was the job market and how many data science and how many job data sets not off the top I know we have some unemployment data and then if you have that kind of data so many people will access and they get more popularity. So, if you cannot find a data set that you are interested to get I suggest you send us an email at feedbackdata.gov and we will try to route it to the correct agency and try to get it for you all. So, you open-sauce the data how formatting or tablet Any chance of open-saucing the data explorer itself? Data explorer is a feature that we're still working on so that one is going I think we do have some plans about the platform itself but we're still working on that. Let's get to the last question because I only have these two. Yeah, sure. So, some curious, how do you get the agencies to get the data nicely in format? That's more of a procedural thing. I'm not sure whether you're interested to find out but I think it's more of a hammer at the moment. We'll try our best to get the data for you all so that's the approach that we're doing. So, I suppose that's one of the challenges? It's probably one of the challenges as well. I would also assume that as a public servant in one of these agencies they also find it hard to find out whether there's actual use for the data that they have. So, they also need to maybe they need your help to identify what are the data sets they might find useful to share because they're working with it everyday they don't know what's interesting or what it's not so they'll probably need your help to identify those as well. So, there is a burden Yeah, it is. So, there's certain things that we're doing in the back end to try to make all this easier so some of the things they don't really need to have a user account to do we're trying to do some automatic integrations but that is something that we're trying to work on to ease their burden. You can ask the question but you're not getting a book. That's right. You know in the past websites like HDB and MND they had data but they were only for the last 12 months, 18 months and then you wouldn't get it for example we sell transactions. So, when these agencies are working with you does that mean we get data for a longer period? Or do they dictate how long you need to keep it? No, no. They provide us for as long as possible so there's no duration but right now we're just we're trying to work with them to provide as much as possible. There's no hard rule as to how far it is. So, we keep everything on AWS we don't have any kind of description of the capacity and stuff like that. So, once agencies give pass to data we never try to make sense always of data. But I'm assuming that they had a reason for people to answer something actually we sell transactions it's probably years ago but just in case those rules that I keep develop it Since it looks like you're getting most of the data from the government if someone of us start making apps on it or doing some commercial is there some kind of a service level that you're guaranteeing because it's coming from the government like you said you're not sure it's correct or not they don't have any self in sharing the data with you, right? You're carrying the hammer right now So, how do we if we want to base something of yours is there any service level that you can guarantee or they can guarantee you what is the procedure So, service levels we do not have anything that is specific all the data is provided on an SES basis if I remember from the terms of use but we try our best to make it as accurate as possible if you actually spot anything on the website that you might think that it's funky please let us know we try to correct it as soon as possible So, right now we should just use it more like a social study kind of a thing You can Yes Sorry? Okay, so the question is how proficient must it be technically to create the visualizations So, because all our data sets are based on the same format, the tiny data format we have this visualization tool that the users can just it's just a couple of options I want to visualize this column as a column as a column graph, I want to visualize this as a line chart so they don't need to be proficient in any JavaScript or it's just like a simple UI that you just click options and take a visualizer from there So, there's no technical requirements to make visualizations Are we part of the government or are we separate from the government we are part of the government we are part of the graph tag the name implies government So How real-time is our data real-time APIs the frequency of the APIs dependent on the APIs themselves So, for instance if you're talking about traffic images I think that is as updated to maybe like 5 minutes or like for PSI data, if I'm not wrong it's maybe hourly It depends on how frequently the agencies are providing the APIs at that moment It's on an API per ABI basis We're trying to provide as real-time as possible, but it's still limited to So, an example of that might be we're currently working with NEA to provide out a minute frequency there so at temperature, humidity level Right now their APIs are usually hourly data and through message curing system they are trying to sign up this data and they are providing it as soon as possible So, I think the most recommended is at temperature every minute We are trying to get those kind of data from agencies So, it really depends on the API and the source of the API Any questions? Okay, yes So, the data that you showed initially like the columns are very of the data So, when I started using the data.coaster Also you've been using? So, I initially saw that and somebody it has like summed up So, in terms of totals with the numbers and all that that's what you expect for the website changing and all the things that you are saying is actually very valid and I have seen the website changing over the months So, it's my personal feedback that you guys are and I realized that one day that how come this website so different from the government all the other government websites and I started finding out why what is so because it it feels different and I realized it must be some in-house team that is doing so, my personal feedback is you've been doing some very nice work and I've read some articles as well Nervous? Ya That's it That's good Thanks for the feedback I think let's discussion on this no talk acknowledgement and I'll see you again QQ announcement