 Takk. Jeg er Jan Harald Mortensen, og jeg er teamlead av dev-ops-team i Ekinor, hvor vi trykker til å implementere OSTU-data-plattformen som en strategisk komponent i vår digitalisasjoner-journey. Jeg har vært for omkring to dekater i Ekinor-forum, men jeg er fra IT-siden. Når jeg starter å mese opp etter omkring, bare begynner å være med meg. Når jeg begynner å mese opp IT-siden, bare begynner å være med meg. Dereingsdeppet er å begynne å begynne å begynne å begynne å blande digitalisasjon og transformasjon. Men vår næste step på dette jordet for oss er å ha det som vi kaller en operasjonale OSDU-data-platform som er avværende på enden av dette år. Og med operasjonale, vil jeg si at i dag har vi en OSDU-produksjonsinstitut opp og rundt, og jeg vil snakke litt om den nødvendig, men vi vil faktisk ha user, konsumere, og samarbeider som er faktisk bedre på denne data-platformen, og ikke bare data, fordi nå har vi plassende data, vi har data som er avværende, men det er det vi mener med å ha det operasjonale på enden av dette år. Så, typisk når vi taler om OSDU, hva vi har hørt fra starten, og vi startet ferdige tidligere, i autumn 2020, så er det ingjørt, det lags feitjører, min samarbeid er ikke supportet, det ikke coverer min data-type, det er ikke rett, ikke? Og til å være færdig, mest av dette er virkelig. Så dette fokuserer på alle ting du ikke kan gjøre med OSDU-data-platformen, og vi preferer å fokusere på hva du kan gjøre. Og som vi har shown på denne præveste presentasjonen, ganske forskjellige ting, det var impressivt, og det er satt at jeg er i denne præsentasjonen. Takk for denne. Så det er det vi er. Så vi fokuserer på faktisk å få noe gjørt med de toolene vi har vært givet. Så hvor starter vi? Vi er i 2020. Vi har ikke noe, vi har ikke avmiddag. Så vi hadde å installere det oss selv. Vi hadde ingen klub, hva vi gjorde. Så vi baseret installerede det, og så hadde vi å reinstallere det, og reinstallere det, og reinstallere det, og delte det hver gang det var. Og så starter vi å ingjørte data. Så vi ikke hadde en firm klub på hva data var nødvendig, så vi hadde en data vi ingjørte, og så selvfølgelig, vi delte det i stedet, og vi hadde å reinstallere data. Så dette er det vi gjorde i starten. Men det er bare om å starte, bare å gjøre noe for å starte. Og så starter vi å finne utkastelser. Hvis vi menneske det her, er det ikke rett. Så hvordan kan vi finne end-userer som er villige i Ekvenor, som er villige til å være part av dette. Så vi startet å snakke med domene, vi startet å snakke med forskjellige initiater, og en av de ting som vi startet med, var ikke at noen som nødvendig hadde data, de nødvendig hadde å share. Så selvfølgelig, det er ikke det optimale utkastelser, fordi vi ikke har noen konsumere, men vi har noen ting. La oss starte. Så det er en ting, finne utkastelser, som gjør dette fortsatt et dialog med domene, med end-userer, å finne om hva vi kan bruke dette for. Det løpende part der er at det er en masse forskjellige skjølger, når du har sånne digitalt transformasjon og skjære en data plattform. Det er legaliske problem, det er sekuritets-issus, det er data-issus. Hvem som åter data, som ikke åter data, men klæmmer de, så har vi alle disse ting som vi startet veldig tidligere om å finne om hvordan vi kan bruke dette for. Hvordan kan vi bruke ACLs som var forført med hva ekvindor mennes at det skulle være access til data. Så og alle dette, du må ha et dialog fortsatt for å finne om hvordan vi kan bruke dette for, fordi samtidig, du vil finne, når du faktisk starter å gjøre, lyftes data og gjør det avvægte, du vil finne ting du ikke tenkte om, du har gjort det wrong, du har gjort det wrong igjen, og så får du feedback fra skjølger at dette ikke er det de tenkte om. Så samtidig, det er alltid å holde dette, dette alignment med domain og hele data-manager, hele data-manager, alle dem, hvordan vi kan gjøre dette. Som jeg startet til å mennes, vi hadde dette, reinstallering, rengesting, og rengesting og rengesting. Så automatiseringen var også det som vi startet veldig tidligere. Hvordan kan vi få infrastruktur som kod for å runne, hvordan kan vi starte å ingestere data via kod og hvordan kan vi keepe data updated by having continuous data pipelines running to keep all the data in sync at all times. Så det er det som vi startet på dette stedet. Så hvordan har vi nå, hva har vi, givet de ting som vi har gjort, vi har noen av de ting som vi vil si et par ord om. Så noen av de eneste der i livet er interoperabiltigheten, som du har hørt om, hvor vi tester noen av de fleste klienene på toppen av OSDU, og hva kan vi share av data uten OSDU som intermediator mellom dette. Nå igen, den første præsentasjonen har også showet dette, som er virkelig fantastisk. Og i dag er det en stor præsentasjon med regard til interoperabiltigheten. Så hvis dette ser interessant ut, så skulle jeg hente på dette. Det er der du får alle de løske detaljer. Men vi skjølgjede enn hva som skjølgjede, vi skjølgjede enn hva som skjølgjede av sizemic data, jeg tror det var et par hundre gigabytes. Ja, eller megabytes. Hva gammel, det gikk. Det er meg og denne domainne ting. Så vi testet noe, og det er det for en faktisk end to end use case? Det er noe, men det er testningstiftene. Finding out, learning, maturing, trying to find out, how do we get there? Det second one there is that sizemic, right? This is one of the big ones, both literally speaking and in the context of this. So in this context we said, okay, what if we just try to get all the metadata? So at least we know our entire seismic states. Let's go to all our seismic stores, extract the metadata, so it's index, it's available, and then we start trying to see how do we do with the bulk data? What do we do afterwards? So we'll probably even try, as a parallel track to this one, to actually get some seismic cubes in there, to actually do some parts, make those available, but not as a part of a bigger stream. So the seismic metadata, that's how do we do it from a corporate perspective. The other stuff is just testing, maturing how to do this, and then we might have a corporate strategy for how to do the entire seismic bulk data. Testing external cloud-native solutions on top of OSDU. We've done some of these, we've had some tests done with INT, and as mentioned here, the Earth Science Analytics Team, where we basically try to see if we make equinoir data available in our OSDU instance. What happens when you put a third party on top of it? Once again, just learning, maturing, trying to find out what happens. The original use case I mentioned, where we had somebody who wanted to make data available, that's the fourth one, the well-data availability. So that was basically a team that had already focused on trying to get all the well-logged data and extracting them from their list, loss, d-list structures, and making the data available and the metadata as a separate part. So, and this is where I said, how can we share this? So they had it in a data lake folder, but how could they share this to a platform? And we did this through OSDU. So right now to support this, we also got the map there, it shows we have fields, well boards, we have some 50,000 well, 60,000 well boards, we have about a million well logs, separated over six different countries. And to support it, we also have extracted and ingested binaries that is the originating source. We have some 20 million file generics in our instance as well. So this is where we try to see what happens when we start getting a lot of data, so in the millions. And the last point there is that we talked about third party external file native and then our regular tool boxes, but also what happens when we do our internal stuff, right? Liberating data is all about, we can use the data when we want how we want. And this is also one of those, what happens when we put our own internal applications on top of our OSDU instance. So the picture, which is actually animated, we just call that goes there is from the reservoir experience platform, where they look at well log data. Let's see. So does that mean we're done, we reach the goal line, right? We have millions of records, we have all this stuff. So I would say obviously no. We want more, we want higher granularity on the data types you already ingested. We want more data types. We want, as mentioned in the beginning, we want consumers to actually use this data for their workflows. We wanna have complete end-to-end workflows. We want to have processes for data management and governance. We want to have, so there's so much to do. And when it comes to the capability, and I'm still just talking about what is possible today. I would say we haven't even sort of made a scratch in the clear code. So none the least actually a scratch in the paint. Not even in the clear code or what the capability of what OSDU data platform is capable of doing. So it's all about just keep on truckin' and trying to do more in this space. But then again, I also mentioned there's a lot of things that isn't ready, right? Imature, blah blah blah, all this stuff. So no matter how much we implement what we need in Equinor, then we mustn't forget that we need to continue evolving the platform in itself. And there's only one mass of people who can do that. And that's the community. And you guys are sitting right here. Questions?