 Ok, vamos, entretanto, juntamos mais pessoas, mas vamos então arrancar, com esta semana, uma, acreditamos a semana OpenAir Portugal com uma sessão dedicada aos repesitoros, vai ser uma semana, vamos aqui pensar um pouco mais sobre as questões da ciência aberta na prática, a partir dos serviços e ferramentas do OpenAir, mas também discutindo outras coisas que nos parecem importantes para pôr aqui a ciência aberta na prática. O OpenAir avança o quarto projeto, uma série de projetos que construiu esta infraestrutura europeia para a investigação da Europa, o OpenAir, está a chegar ao fim, chega ao fim este mês de fevereiro, entretanto, a organização OpenAir continua com membros, mas não numa prática de projeto, mas numa lógica estável de serviço à comunidade e à investigação da Europa, participando em projetos, mas construindo e oferecendo serviços a partir desta infraestrutura que foi construída ao longo dos últimos 10 anos e que muitos de vocês participaram desde o início, portanto, queremos também fazer aqui um monte da situação nesta semana, o que é que temos, o que é que construímos, que ferramentas, que serviços é que temos e também o que fica para a comunidade e como é que a comunidade se pode se pode envolver. Durante estes dias vamos ter cinco sessões, cinco sessões diferentes, mas vamos arrancar com esta primeira sessão onde dedicada aos repesitorios, pronto, a sessão está a ser gravada, os outros slides e a gravação vai ser disponibilizada, podem, vai haver um momento em que vocês poderão colocar as vossas perguntas áudio, portanto, teremos muito gosto em que vocês possam colocar as vossas perguntas e depois também poderemos quase fazer aqui uma semana ou uma sessão paralelo aqui no chat, podemos ir trocando algumas impressões, opiniões, uns links, algumas informações úteis no próprio chat. Vamos tentar aqui controlar, tentem levantar a mão aí nas facilitizas aí do zoom para podermos dar-nos a palavra, vai haver alguns momentos para dar-nos a palavra. Pronto, também se quiser ir partilhando nas redes sociais todas com a Ashtagopaneb.com. É a conta do Twitter, mas se podem partilhar no Twitter ou no Facebook, esteja o avontado, teremos muito gosto em, em paralelo a esta sessão e para além do chat, também construímos aqui uma sessão em paralelo nas redes sociais, se então se há vontade para Twitter, Facebookar etc. Temos muito gosto em que vocês também um juntado a nós, já temos aqui mais de 80 pessoas ligadas, esperamos um pouco mais que 100, tantas pessoas vão se ligando. Vamos ter uma sessão dedicada então ao serviço diretto do Openair para os digitórios, a European Open Science Cloud, o futuro, percebermos um bocadinho o que é que fica, o que é que está a funcionar do Openair, o que é que fica para usarmos individualmente, como é que também a nossa rede nacional dos digitórios, o RECAP, também está ligada à infraestrutura Openair e como é que por esta via também do Openair nós somos parte integrante da Europa no Open Science Cloud. A ideia é que possamos ter aqui um conjunto diversificado de apresentações para compreendermos melhor estes diferentes aspectos de serviço, vamos tentar fazer isto aqui numa hora e meia, vamos compreender aqui a infraestrutura Openair e a Europa no Open Science Cloud, como é que nós por via de fazermos parte do Openair estamos também a integrar e óscar, compreender mais em detalhe o que é que é este espaço de informação Openair, esta infraestrutura que agrega diferentes tipos de produtos de investigação, resultados de investigação, não só as tradicionais de publicações, mas também outro tipo de recursos e construirmos aqui um research grave que é um espaço de informação dos diferentes entidades do processo de investigação, desde os diferentes produtos, as organizações ou os investigadores estão interligados. Depois como é que as diretrizes Openair estão presentes no recap e aí teremos uma intervenção do José Pervalho, a universidade da Linha, representando aqui o recap, para compreender a infraestrutura e o Openair Research Grave que nós temos, o Paulo Lomangue que é o diretor técnico do Openair e depois um conjunto de outros contributos para a parte dos serviços Openair, proveido na prática, porque nós quisemos chamar as pessoas na prática, já vou apresentar a agenda, só queria dedicar aqui um minuto, então a dizer que nós vamos procurar entender aqui na próxima hora e meia, é precisamente este mundo de informação que o Openair agora tem na sua infraestrutura, como é que se constrói aqui uma infraestrutura construída pela comunidade gerida a partir de definições para o mundo da ciência aberta. É muito importante esta ideia de conseguirmos construir infraestruturas sustentáveis, guiadas e geridas pela comunidade para conseguirmos que este ecossistema de ciência aberta seja realmente um ecossistema transparente e aberto. O Openair é uma infraestrutura que contribui a este grande objetivo e o recap agora com este iconozinho ali aparecendo aqui no tanto inferior esquerdo do Vossi Acran, é também parte do Openair, todos vocês e muitos de vocês gerem repositórios ou revistas em ciência aberta em Portugal são parte deste Openair e portanto vamos compreender isto com a ajuda do diretor técnico do Openair Paulo Lomangue e vamos compreender também estes diferentes serviços que existem disponíveis para os gestores orpositorios, como é que eles são úteis e como é que se faz aqui o uso destes diferentes serviços em cada uma, por casos de práticos de Portugal, mas também por um colega de Espanha para perceber como é que usamos estes diferentes as ferramentas e estes diferentes Por isso vamos ter o Paulo Lomangue, diretor técnico, como já disse, depois também o Zeca Valle, para nos apresentar aqui a parte da integração do recap e depois então três casos de uns, mais uma apresentação adicional para complementar alguma coisa que possa estar aqui a faltar para a fotografia completa desta infraestrutura. Francisco Jesus Martins Galindo da Politécnica de Valência, a quem muito agradeço por estar também presente conosco. Nossa colega, nossa querida Raquel Truta da Universidade Unida, também do recap, apresentando aqui o caso prático de como é que alguns dos serviços Openair estão presentes no repusitório comum, que servem muitas instituições em Portugal. Depois uma instituição em concreto, a utilização de diversidade em concreto na Universidade do Algarve pela gestora do compusitório Emelio Peixeco, que os vêm passar aqui também a apresentar aqui um caso de prático. Depois no final o André Vieira, da parte do Openair da Universidade do Minto, entrará aqui para encher algumas peças do puzzle que possam faltar. Portanto, já percebemos o que é que queremos fazer, agradeço pela participação de todos. Nós agora vamos arrancar com a apresentação do Paulo Munghi e vamos fazer isto aqui em três línguas. Vai haver aqui este momento agora que o Paulo Munghi nos vai falar em inglês. Depois voltamos ao português. A sessão é em português, mas as questões, claro, para o Paulo Munghi podem ser feitas, devem ser feitas em inglês ou então em português eu vou fazer em inglês para eu. Mas vamos começar então com o Paulo Munghi e em inglês, o que tanto agora vou passar a falar em inglês e podem sempre fazer as nossas questões em urchato, como já diz. São Paulo, vamos começar com a apresentação de vocês. Eu já... Bem-vindo a pessoas em português. Eu acho que vocês entendem um pouco de português. Eu também, sim. Então o Flor é seu e você pode começar a apresentação. Um segundo. Você pode vir para sua câmera também, se você quiser. Sim, eu também quero. Se eu encontro... Ok, eu encontrei. Ok, então vamos começar com o Paulo Munghi, a apresentação sobre o emprego de infostratos. O emprego de infostratos é um parabéns. Em caso de entender melhor o que se fala, o que se fala. O que se fala. O que se fala. O que se fala. O que se fala. Então o Paulo Munghi é o que se fala. O que se fala. O que se fala. O que se fala. E o que se fala. por me convidar aqui. E isso é tudo meu português. Bem, eu entendo o que você está falando, porque muitas palavras são similares a italião, então eu posso realmente entender e seguir, mas eu não posso, claro, repreender a mesma língua. Então, então, deixa eu começar com a primeira língua. Então, como você pode, bem-vindo, estar consciente de que o open air não é apenas a infraestrutura de networking para fostrar e localizar open science em Europa e além, mas também um número de serviços técnicos, sobre o que eu sou responsável em termos de mapeamento do mundo e a coordinação overall. Então, nós temos três principais sílios de serviços. O primeiro é se concentrar na traca, science, open science em esses contextos muito específicos, mas science é um todo. E, por traca, nós precisamos enablar a coleção de metadata sobre a ciência e como se evoluía as relações entre esses tipos de objetos e as datas de metadata, as relações com informações contextais, por exemplo, organizações ou identifiers persistentes ou fundos e projetos sobre resultados científicos, e bringe-los tudo juntos. Então, isso requer, de uma mão, dar vida a serviços como as guidelines para uniformar a forma que essa informação é exposta, e, de outro lado, para coletá-la, então, construindo o gráfico, que Pedro mencionou várias vezes. O segundo sílios de serviços se relaciona a monitorar o open science, que abre e proporciona soluções para todos os desafios que se relacionam à supervisão de science, a monitoração de science para tragar a evolução, para evaluar as qualidades, para identificar trends para o futuro e etc. Então, esses manifestos, em si, em um número de dashboards que estamos produzindo, ou aplicações de web, através de vários estados, podem dar vantagem ao estúdio, principalmente fundos, comunidades, infraestruturas e etc. E, finalmente, nós temos o último sílios, é o, digamos, o mais maior, com respeito ao potencial que temos, que relaciona a descobrição do open science. Então, estamos hoje oferecendo muito os tools para procurar e browse, navegar através dos resultados de science ou da informação contextual que eu já mencionou. Estas são hoje, fazendo bastante trabalho em termos de classificações, ou tentando entender, por exemplo, o que o science está tocando sobre os produtos em o gráfico, ou quais são os projetos relacionados a uma comunidade e não a outra, para poder, digamos, abrir uma janela específica, em um subseto do gráfico. Então, estamos fazendo muito trabalho em termos de classificação, mas um lote mais pode ser feito em termos de descobrição, então, não em termos de recolha, mas em termos de procedência. Então, em termos de recolher, em termos de recolha, em termos de recolha, em um certo ponto também, se você for procurar, recolhe o que você realmente quer saber, ok? Em esta parte, há um lote de coisas que podemos fazer e nós estamos trabalhando nisso. Então, este é o gráfico, sim, do Moon. Então, o tipo de entidades que estamos procurando, nós temos no core, e este centra o produto de pesquisa, o que nós distingimos, em publicação, data set e software, e outros produtos, onde alguns objetos falam em um domínio específico da disciplina e não podem ser realmente taguados como data set de publicação. Os produtos de pesquisa estão, então, relacionados com as organizações atrás deles, então, as organizações para o que os autores ou os criadores de produtos de pesquisa são afiliados. Então, nós temos os produtos, que são os produtos de pesquisa e os produtos de pesquisa, ok? Todos os objetos que nós colegamos no gráfico são associados com a data source original, de que nós colegamos. Este é extremamente importante para tragar a qualidade, entender os issues, fixar os issues, que, em vários casos, como você sabe, deveriam ser fixados no site original. Então, em um repositor específico ou em um publicador, onde a informação autófica é porque nós não deveríamos esquecer que o publicador é apenas uma coleção de data, ok? Então, nós podemos fazer o nosso melhor cleaning, mas se em 10 anos o publicador não estará aqui, os repositorais estarão. Então, é importante para essa informação ser construída propriamente e correto nos sites originales. Então, o gráfico, nós queremos ser... Bem, é metadata. É uma coisa muito importante para tomar into account. É metadata. Nós chamamos de gráfico porque, no mapa, um gráfico é descrido em modelos e um número de elementos linkados por ajustes, ok? E esses ajustes significam a relação e significam a relação entre esses dois objetos, ok? Para mencionar um gráfico que você está muito consciente e que você usa todos os dias, nós temos o Facebook, nós continuamos usando esse exemplo porque é o mais... é o mais próximo a todos os possíveis colegas que temos lá fora. Então, quando você está usando o Facebook, você está usando o gráfico atrás. E o gráfico em Facebook consiste em um número de pessoas, nodes, conectados com a relação, como friendships ou husbandships, queriam chamar eles assim, e assim. Então, você está capaz de acompanhar um node, outros nodes no gráfico, por seguir as relações. Em Facebook, você tem um tipo de node, que é a pessoa. Em OpenAir, você tem vários tipos, os que eles mencionaram no previous slide. Então, é realmente, principalmente sobre metadata. É sobre produtos científicos. Nós queremos saber quais são abertos e quais não. Então, essa é outra parte da informação que estamos recebendo. Nós estamos relacionados com fundos e comunidades de ressoura. Nós queremos ser abertos ao ponto de vista. Então, alguém tem que pagar, mas não para os usuários finais. Então, nós abrimos nossos apis, abrimos nosso data, nós abrimos isso. Nós queremos ser completos, o que significa que estamos tentando seguir a regra que se há uma data source lá, usado por cientistas, nós coletamos, nós queremos ter seu conteúdo. Então, deixe-nos saber, nós esquecemos algo porque queremos ter isso. É duplicado, porque, como você sabe, nós seguimos coletando metadata sobre o mesmo, conceptamente, os mesmos objetos digitais de diferentes recursos. Isso é o que os repositorais são, na verdade, para, digamos, aumentar o nível de redundância, garantir a persistência dessa informação e oferecer também a versão do OpenAxis da informação que, às vezes, é só disponível pelo Access. Nós queremos ser transparentes, como eu menciono antes, queremos providência, em todo lugar, para ser perversivamente parte e instalada parte do gráfico. Nós queremos ser uma informação descentralizada, o que significa que nós estamos, sim, levando em um lugar, porque queremos ver isso como um lugar, mas nós também queremos redistribuir os recursos originais, onde ele deve persistir sempre. Então, quando nós achamos partes de informação que podemos ser usados para a comunidade, nós queremos a comunidade fazer isso e manter isso. E, claro, nós gostaríamos de ser confundidos. Isso vai acontecer por causa de você, por causa da comunidade de repositorais, relançando, coitando, engajando com o que temos, e ser parte desse ecossistema, onde você pode dar e dar, e fazer isso mais e mais útil, e de alta qualidade para o mundo. E também, por causa da potência de número de usuários, nós esperamos de mais engajar, além do que temos já hoje, o que já é muito muito. Agora, esse gráfico foi mostrado, esse slide foi já mostrado por Pedro, então eu não vou muito para o detalhe, mas ele está mostrando, basicamente, se, em um momento, um veículo do tipo de recursos que estamos recebendo. Então, repositorais, sim, eles são institucionais, temáticos, repositorais, nós queremos o Mo, porque nós acreditamos que eles acreditam, eles fazem o nosso espaço de informação completo. Nós queremos ir para os publicadores, open access ou não open access, nós queremos coitá-los no Mo, mas nós vamos além, nós olhamos para os infraestrutores de pesquisa, por exemplo, os recursos de data, eles têm, os recursos de data, eles operam, que muitas vezes containem informação, que é, digamos, não tradicionalmente parte do setor de comunicação escolar, então, de máquinas virtuales, de métodos e protocolos, até mesmo code, que apenas recente foi acessado como a primeira classe de comunicação escolar. Então, em este caso, nós coitamos os métodos de data de eles, e nós tentamos instalar o link, thanks to mining and other processes, com nossos resultados, por exemplo, as publicações, e depois, em torno de projetos, e depois em torno de fundadores, e assim. Então, nós tentamos expandir este grau, como muito possível, com a informação coletável ou derivável. Como você pode ver, nós também levamos a vantagem de outros amigos, irmãos, digamos, que estão construindo iguais graus, com outros tipos de habilidades, indo além do que podemos fazer hoje. E nós também tentamos fazer esses graus interoperáveis, thanks to RDA Working Groups, onde nós trabalhamos em esta direção. Então, definindo estandas para exchanger informação através desses graus, de novo, tentando seguir o princípio da descentralização que eu mencionava antes. Agora, isso é como nós construímos o grau, em breve, eu não vou entrar em detalhes. Como você pode ver, nós coletamos, no lado esquerdo, da data source, da metadata, onde podemos os PDFs, porque nós estamos construindo algoritmos de graus. Nós temos que coletar cerca de 14 milhões de PDFs, que dá uma ideia do impacto que nós possamos. Nós usamos eles para marcar internamente. Às vezes, nós coletamos direitos de publishers, isso ajuda muito, mas também dos repositorais. Pelo menos, aqueles que estão disponíveis para fazer isso. Nós coletamos, nós marquemos, e nós enxergamos o grau. Como você pode ver, a chaina vai de data agregação, onde nós coletamos a data, nós construímos o grau e nós aceleremos, tentando harmonizar. Então, a clínica vai para harmonizações, formatos, vocabulórios, etc. Nós o duplicamos, então, se nós achamos recorde similares, descrevendo os mesmos objetos, nós nos levamos juntos, nós construímos um recorde, e nós mantemos o grau de providência de todos os recordes que contribuíam à construção deste recorde. Nós o enxergamos, thanks to mining, como eu mencionou antes, e também thanks to propagation, porque nós podemos dar informação de um node e propagar para outros, given that we have meaningful relationships within them, with between them, to give you an example, se uma publicação é ligada a um projeto, um projeto científico, e a publicação é ligada com uma relação suplementada a um dataset, então é muito raiscente dizer que o dataset também é fundado por esse projeto, porque o suplemento implica que os dois objetos estão juntos, esse material suplementário, basicamente. E depois, quando o grau está ligado, bem construído, nós ofreemos para o outro lado, através de diferentes produtores, então nós construímos em Gump, em JSON, nós construímos em um index de futebol para procurar e através de APIs, nós colocamos em um database de data open-data, desde não há muito tempo, nós também expostamos isso como IPMH, mas decidimos para dar esse acesso, porque foi basicamente possível providedo com 135 milhões de recordes e um bilhão de relações, isso foi muito grande, ninguém iria usar isso propriamente, então nós estamos expostando em Gump, que é uma solução muito melhor ou APIs. Nós também ofreemos APIs através de dois diferentes veículos do grau, ok? Então, no jeito que podemos oferecer o grau, em outros fatos, você pode acessar apenas os links, por exemplo, entre artigos e datasets, isso gira os livros a um dos serviços que ofereceram hoje, que é um co-explorer. Agora, nós aceitamos todos os tipos de PADs, também nós não temos limites nisso, então quando nós aceitamos o fato de que nós temos uma entidade como a publicação, então para a publicação, nós aceitamos o UI, o circuito, PMC-ADs, e nós levamos eles tudo juntos, se nós coletamos recordes de diferentes sites, que ofereceram diferentes PADs, então nós sempre tentamos manter eles todos, ok? Isso é o mesmo goes for organizations, o mesmo goes for data sources, nós coletamos de diferentes registros, recentemente também, também do fairs fair, nós tentamos integrá-los em nossos workflows e assim. E no futuro, nós vamos ter PADs para serviços, que se proporcionaram pelo Cloud da Europa Piano e Cine, isso é outro importante step forward. Agora, claro, isso tem vários desafios, não é uma coisa fácil de fazer, ok? Então, construir um gráfico assim, não é uma aplicação ou aplicação do seu desktop, isso requer muito grande clases e machineira de data, isso é realmente data de data, management. De fato, eu quero dizer que isso não é apenas que nós usamos o tool de data de Big Data, nós também temos o Big Data, que não é, na verdade, o caso. O primeiro desafio é a heterogeneidade. Então, nós estamos coletando, esperando que as sources estiquem nos nossos estandares, os estandares que nós escolhemos com a comunidade, principalmente nas guidelines open-air. Isso não é sempre o caso, então, em alguns casos, nós temos que fazer o desafio, eu quero dizer, o completo desafio de mapear as formas de metadata em 2 horas, e nós só fazemos esse desafio para um pouco de sources de data excepcional, que nós esperamos que o nosso para continuar o trabalho, um exemplo é a Archive ou a EOPMC, para os Big Guys. Nós esperamos que engajem com as comunidades para reduzir esse desafio e melhorar a qualidade do gráfico, e isso é o caso para os repositorais institucionales, por exemplo, ou para os repositorais de data, que estão lentamente seguindo. Nós tentamos atirar as plataformas, então isso é onde isso deve acontecer, não deve ser o repositorar-se para implementar tudo que precisa ser compreendido, open-air compreendido, mas as plataformas de desenvolvedores devem ser os produtores, e então nós estamos atirando com eles, claro, tentando reduzir o gato e mitigar esse gato, digamos. Então nós temos qualidade e acurso da data, então, claro, a heterogeneidade é um problema, mas então nós precisamos fazer a nossa data com uma qualidade muito alta. Isso é, não sei, lutando contra os gatos, você sabe, os gatos de wind, porque a metadata é intrínseamente ruim. Então, alguns repositorais excelem por qualidade e acurso da data, a maioria não. E isso é um problema, e é o mesmo para os repositorais, repositorais também extremamente ruim. Então, para te dar uma ideia, nós temos no Crossref 120 milhões de requerções, de que apenas 85, 90 milhões são acessibles, o resto, nós justizamos eles, porque eles precisam de notícias, eles precisam de notícias, eles são testes, testes, testes, e isso é Crossref, certo? Ou se você olha, recentemente nós olhamos para o Orkid, e o way Orkid is being up taken by the community, and the news is that is not very good. Orkid itself is extremely bad, right? So, and that's not Orkid's fault, is because it's used in a bad way. So, the means users all over the place are evident and clear. So, when you're building aggregation of this kind, of this proportion, and dimension, it's really hard to achieve certain level of standards and accidents. In this case, what we're trying is to offer validation, for example, validation is a good entry point, because to be part of our system, you have a way to check how would you are with respect to certain standards and expectations, and therefore you increase the overall quality of scholarly communication and of the services that are built on top of us. In other cases, we can try to fix something, but whatever we do is going to generate errors, in a way, or another. As we say in Italy, the duvet is always too short, you know, you can pull it up to your chin, but your feet will be, we get cold or vice versa, right? So, you're trying to do the good in a way, but you get the worst in other cases. So, it's really hard to find a balance. So, we really believe that the community there should make the difference, and we can try to compensate where we can. And then completeness is, of course, another big issue, because it's important to build on top of our graph, and to make it cleaner, to make it richer, but it's only one initiative with an overall large, but still limited, because we don't have the whole knowledge of the world, group of people in terms of skills, okay? So, we have tax mining people, we have AI, now we're starting AI tooling also, the construction realization of those, but we cannot target all possible issues out there. So, it's extremely important for us to find solutions with others, with others that are doing very similar efforts, and exchange the information that we construct and build, to make our graphs richer, to decentralize the information, to return it in the end to the original sources, and make the overall scholarly communication better and cleaner. So, today we have a lot of consumers already. We will become, the graph will become the EOS Resource Catalog in the European Open Science Cloud, is one of the first important achievements. But before that, proving the fact that we are being useful, we have, unfortunately, is somehow a paradox, that in order to show that you're good, you want as severe to use you, right? So, as severe already, so scopus, in this case, and Saival, are using our services, for example, to build and richer tools for their communities and their customers. And that's evidence of quality. We also have other companies who are using us for the very same use cases, selling services to universities, etc. We have the commission that is using our data today, it's important, and we have communities. Building on top of Open Air, the two links to report to the funders about the research impact they may have, but also exploring the graph as a whole, with respect to a community perspective. You can collect the graph from everywhere. Again, the dumps are one of, one of the most efficient ways to do it. So, if you go to Zenodo, there's an Open Air Research Graph collection, they call it community there, where you can collect the latest versions of the dumps of the different perspectives of the graph. So, the whole graph, the Open Air COVID community, or DOI boost, which is the cross-ref subset of the graph, Skoll Explorer, which is the one used by Saival, which is the publications linked to datasets, and so on. We are very open to collaborate, to improve the quality and completeness of the graph, whenever you want. Manual work, more than fine. Feedback on the quality of everything we collect, we enrich, and we infer more than fine. If you have instead services or algorithms that you would like to use to improve the quality again, or to identify anomalies in whatever we produce, more than fine, open to discussions. And of course, you'll be given all the visibility that you deserve based on your contribution. Finally, of course, we are also happy to improve service provision. So, if you want to build services on top, using the graph, if you need content in a specialized manner, let's talk about it. We can find solutions for you, that's pretty sure. Now, last slide. I was asked to link the worker doing to the European Open Science Cloud. Here is a slide that summarizes this relationship. On the left, you have a very schematic but useful view of what the EOS could be, where you have at the center, the EOS core services, which are the key core services, without which, let's say, the EOS cannot exist, cannot operate. The first ring outside of the EOS core is the one of the EOS exchange, which consists of all the services of the research infrastructures of the clusters that are registered to the EOS. So, they take advantage of the EOS. They are part of it. Where the minimum level is registration to the registry, so the EOS service. And beyond that, you have the federation, so all the services that are there but not registered, the research and innovation community, etc. So, the core is at the center. And, of course, across the services, you have all the products, the publications, the data, the software, which can be as close to the EOS core as to be aborted or as to be outside, depending on which services they're hosting them. The MV, which is the minimal viable EOS, is the minimal number of services that today make the EOS meaningful and sellable as a product. So, of course, the EOS core is there, but a subset of the exchange or a subset of the outside services will be there as well. And this is very dynamic. It depends on the period of time, the vision, etc. But, still, the EOS will have a specific value because of that, in that time t, the same. In this context, OpenAir offers at least four services that are part of the core. This is one of the biggest achievements. So, the OpenAir Resource Graph provide the OpenAir user statistics and the OpenScience Observatory as a way to control, monitor, not control, but to patrol science as a whole. Okay. The rest will only be part of the EOS exchange and they already are today because the OpenAir service catalogue is in sync with the EOS service catalogue. So, the two, one is a subset of the other. So, thank you. I'm done. So, I'm sorry. I went four minutes beyond. No, no, no. It was perfect. Thank you very much, Paulo. Okay. So, many thanks, Paulo, for this great presentation, really clear. I think it's, if someone wants to put a question, so we have some time now. I already asked also, for questions also in the chat. So, Paulo, if you can open also the chat just for you to check the question. Yes. There is already one question from Paulo Almeida. Can you still hear me? Yes. Yes, yes, perfect. Okay. That's the interesting part. We are opening now lines of research in that. So, the idea is to try. One of the, there are several challenges there, out there. Okay. The first one that comes to my mind is research data discovery. So, there is a huge difference between the discovery of research outcomes as we usually intended it. When the, where the only elements of science we were interested in were articles, scientific articles, that was pretty straightforward because you have text there, right? So, the text of the full paper was exactly representing what the science was about. The scenario changes completely when you're looking for research data. If you're looking for research data, you're not looking for text. You're looking for the research data and you have no text to represent it. So, you need somehow to extract. It's like doing image search, right? You would like to have an image representing something, but there is no text around it. So, the two are very similar. So, you have different ways to approach this problem. One of them is to collect this information from the surrounding contextual information of the research data. For example, if you have publications that are pointing to the research data, you can collect information from there and make it part of the metadata of the, of the data that you're looking for. But there are other things that you can do. So, based basically on the information that you have in the publication and how it relates to the research data, you can reveal the, let's say, the entity or the intention of the research with respect to the data. So, you may search, for example, for research data that has been used in different contexts, multidisciplinary, ou you may use search for research data that has been reused several times. So, not just published together with an article, which has been, let's say, repeatedly used for the benefit of different scientists in different contexts. Or you may search for the data that has been processed using this service, this service, and this service. So, there are things that go beyond our traditional conception of discovery, which capture the intent in a different way. Okay. Great, many thanks. So, if you want to raise your hand, just ask. You can also do it using the microphone or just put your question in the shot. I also have a question, Paolo. It's not a difficult question, but I think you can, I think it's also important to hear your opinion as we have here in our audience, lots of, apart from your kid in your room, in your office. So, we have lots of repository managers in the audience. So, what is your advice? So, you already mentioned the curation, that is really an important activity. You have already highlighted that some sources of information have poor metadata quality. So, what is your, so like say, two or three advice for repository managers to contribute with quality metadata? I'm not sure the advice goes for repository manager, but rather for those developing the platforms. That's an old story, right? So, of course, repository managers and librarians can do an enormous amount of work, given they have the tooling to do so. So, they can curate the data, they can revise whatever has been the metadata provided by the authors. The metadata that I provide to my service at CNR is very bad, right? So, normally what I do is to ask people, retired people, ex-librarians to do it for me, because I know they do it nicely and perfectly. But in several cases, this is not the case. So, my advice would be to push a lot as repository managers for the providers, for the platform providers to give you the tools that allow you to do that. For example, I'm typing in an ORCID ID. Can I please check on the API of ORCID and see, you know, with a glance, if what I'm typing is the right ORCID ID? I'm typing in a DOI. Can I please see the title of the article that I'm mentioning while I'm cutting and pasting the DOI to counter-verify that I'm doing the right thing? All these things are simple in terms, in technical terms, because they can interact with APIs here and there provided by different services. And make sure that the information that is provided out there makes sense. I'm surprised about the amount of information that we cannot rely on. Meaning that if I start thinking that the DOI that comes with a metadata record from a repository is the DOI of the same paper, it's a bad decision to make in OpenAir. I won't do it, and we are trying not to do it anymore. So, we cannot rely on the DOI. We do a double check. We check the DOI and the title, because we want to be 100% sure. Because in too many cases, the DOI is not really the DOI of the article, but it's the DOI of the dataset, but it's put in the wrong field, right? Or, there are conditions that basically go out the boundaries of control, and so we cannot extend it to the whole scholarly communication. Why the DOI should be there exactly for that, right? And I cannot trust it. The same is for ORCID IDs. Persistententifiers are often a cause of problems, rather than simplifying the problem. So, push for that to the help desks. Okay. Thank you. So, I think we are done with this first part. So, many thanks for your contribution. So, I also thank you for the question from Paulo Almeida. If you have any other question, you can put it in the chat. We will try to answer it by the end. So, I think we will lose Paulo in the coming minutes from this session. But if there is any question that we are not able to answer, I will contact Paulo to provide an answer for us. So, Paulo, if you want to say some final words for our... Then we will proceed to the other presentations. Thank you again. I know that you guys are one of the most active communities. You are putting a lot of effort in this. And I have to thank you because this is the example that other communities should take. Actually, Pedro tells us wonders about you and how you're collaborating is one of the happiest person I know. When he talks about the Portuguese community, they say the old peninsula, Iberica, is really active and it's very important. So, yes, please continue like this. Tell us where we're wrong. So, we can become better and we'll try to do the same. We gotta be kind as Pedro says. Okay, great. Many thanks, Paulo. Bye bye and thank you. Vamos, então, agora por seguir para as outras... Outra apresentação que agora é precisamente do Zé Carvalho. Vamos agora começar a olhar concretamente para a nossa realidade. O Paulo já foi dando que algumas ideias, talvez de alguns pedidos, podem ser feitas. Pós-ecosistemas de serviços do RECAP e para cada um de nós, vamos agora começar a centrar o nosso olhar agora no RECAP e depois iremos aos casos de uso. Também vamos ter aqui um lámire sobre a Espanha, mas vamos começar com o Zé Carvalho. Zé Carvalho, muito obrigado pela disponibilidade também para apoiar essa sessão e vamos a isso. Boa tarde. Vou aqui abordar a questão do projeto RECAP, principalmente do portal RECAP e a sua interligação com o apanheir e as diretrizes de interoperabilidade. Um aspecto muito importante aqui é nós percebermos, efetivamente, o que é e em que consiste o portal RECAP. Eu sei que muitos de vocês conhecem o portal e usam o portal e, de alguma maneira, diretamente fazem parte do projeto RECAP. Mas é importante aqui percebermos o conceito que esteve na origem do portal para percebermos esta ligação, de que forma que aquela informação que nós temos nos repositórios e o papel do portal tem depois naquilo que o Paulo Mãe já pouco falou da informação que se interliga no grafo. E, portanto, grande parte dessa informação vem também dos vossos repositórios, ou também no caso das revistas. E o portal RECAP nasceu no início do projeto RECAP em 2008 e focou-se como um ponto único de pesquisa no nível nacional, principalmente no início focado em repositórios institucionais e focado também naquilo que é o conceito de acesso aberto. Mais tarde, evoluiu na abrangência para o tipo de conteúdos, como revistas científicas, mas também para aquilo que é não só o que está em acesso aberto, mas todo tipo de acesso aos documentos. Ou seja, a partir do momento em que nós começamos a incorporar teses e acertações, por exemplo, tivemos também que abrir todo tipo de acesso dos documentos e, portanto, neste momento, o portal RECAP acaba por ser um espelho naquilo que existe ao nível dos repositórios institucionais e das revistas. Por outro lado, o portal por si só que isto também desenvolver uma rede de recursos alinhados de acordo com estas diretrizes internacionais. Na altura, iniciou-se com o projeto driver, que, entretanto, depois foi evoluindo de origem também aquilo que foi o Open Air e que pegou nestes ideais de uma rede europeia de repositórios e nós continuámos a alinhar com essas diretrizes. Mais do que uma rede de recursos, de repositórios e revistas, foi também importante criar uma rede de pessoas, uma comunidade. E com base nesta rede de recursos e de pessoas, criar uma infraestrutura baseada em informação científica para que se pudessem desenvolver serviços centralizados ao nível do portal. E, para isso, nós criámos desde o início um documento que se chama As Condições de Aggregação do Portal RECAP. E, de certa forma, é um contrato entre o repositórios e revistas e o Portal RECAP, na medida em que, quem quiser integrar esta rede e integrar estes serviços e fazer parte desta comunidade tem um conjunto de condições para as quais devem cumprir e que são estas condições de agregação do Portal RECAP, tanto que, no fundo, é uma compilação de guidelines. Neste momento, o agregador nacional integra também o CEL Portugal e o Portal OASISBR e toda a documentação que existe disponibilizada no Portal, a nível nacional, está também disponível no Portal de Pesquisa OASISBR, no Brasil. Tem já um número significativo de repositórios e revistas, que ao longo do tempo foram integrando gradualmente o Portal. E este aqui é, digamos, uma perspectiva que vocês conseguem ter daquilo que é uma gestão da informação científica, de uma validação daquilo que são a qualidade dos metadados, num contexto nacional. A partir deste momento, nós considerando que temos recursos bem organizados, podemos também, depois, exportar toda esta informação e disponibilizar esta informação de uma forma direta dos recursos ou dos repositórios para o openair, por exemplo, ou através do Portal. Mas isso vai nos garantir que nós já temos um primeiro filtro que define uma certa qualidade da informação que partilhamos e que depois é reutilizada em outros contextos. Por que estas diretrizes e por que as diretrizes do openair? Primeiro, há aquela necessidade de nós desenvolvermos serviços que possam ser integrados com outros serviços que já existem, que possam ter uma utilidade efetiva para aquilo que são os utilizadores, que podem ser gestores de repositórios ou investigadores no contexto do público final e que tenham uma série de funcionalidades que tenham automatismos, ou seja, que se baseiam em informação na qual eles possam ter confiança para fazer depois outro tipo de ações. Estas diretrizes são também muito importantes para uniformizar alguns conceitos, nomeadamente tipologias de metadados, a definição, por exemplo, como é que nós definimos qual o idioma dos trabalhos e, portanto, essa uniformização vai permitir que toda a gente possa falar a mesma linguagem e entender os mesmos termos. Depois, estas diretrizes servem para facilitar a integração dos repositórios da revista, a nível nacional e a nível internacional nos diferentes serviços que nós podemos usar e um deles, como há pouco falaram e vocês viram do openair. E depois também usar estas diretrizes para conseguirmos integrar aqui este conceito de portal agregador numa visão mais ampla e mais macro daquilo que é a gestão de ciência em Portugal para poder, por exemplo, termos-nos algumas perspectivas relativamente, por exemplo, a questão de financiamento, a tipologia de documentos que existem, a prestar serviços como o depósito legal das teses de ações em Portugal, etc. E como é que nós fizemos isso, obviamente, através das diretrizes, mas também dos estándares, das normas, dos protocolos que já existem. E estas condições de agregação, que são, eu diria, o elemento primordial que serviu desde o início para que nós garantíssemos essa qualidade básica desde 2008, faz com que, hoje em dia, o facto de alguém estar integrado no portal recap automaticamente numa qualidade mínima do ponto de vista da organização deste recurso, que seja um repositório ou uma revista. E isso vai depois permitir que possam ser desenvolvidas integrações numa primeira fase já básicas, mas que, a partir daí, podem depois evoluir para outros aspectos mais complexos. Foi também muito importante na altura e ainda hoje continua a ser uma importância bastante relevante a questão do validador recap que permite, de uma forma autónoma, cada repositório ou revista poder validar o comprimento das diretrizes de cada um para integrar o portal recap, não só no primeiro passo de integração no direitório do portal recap, mas também depois para poder manter a qualidade desses elementos ao longo do tempo. Aspetos muito básicos que nos permitem fazer, digamos, logo a partir de alguns aspectos é, por exemplo, a pesquisa avançada em que eu posso pesquisar por datas, por financiamento, tipo de acesso, tipo de documento idioma, etc., e ter a garantia de que essa informação vai ser, digamos, usada de uma forma correta para obter, digamos, esta funcionalidade de pesquisa avançada. Um outro aspecto, por exemplo, é a integração de financiamento ao nível do repositório de acordo com as diretrizes do Opané, que depois nos permite fazer uma página de projeto com uma listagem das publicações às quais o financiamento está associado, e depois com base nisto fazer relatórios sobre um projeto. Uma outra funcionalidade é, a partir do momento em que um recurso está integrado no portal recap, toda a informação está disponível numa API do portal que, por sua vez, depois interliga com o Ciência Vitae, e neste momento eu posso ir ao Ciência Vitae pesquisar por título, autor, um determinado trabalho com os meus trabalhos e selecionar estes trabalhos para incluir no meu CV de uma forma automática baseado na informação que existe ao nível do portal recap. Em termos de desenvolvimentos que estamos a fazer neste momento, houve aqui um investimento muito grande na nova versão do DSP-SET para que incluísse já umas novas diretrizes que são as guidelines ao panel R4.0 para repositórios institucionais de literatura, e isto vai implicar aqui algumas alterações e fizemos também bastantes alterações ao nível do portal recap, que se baseia no software lá referência para que quando nós tivermos o repositório com o DSP-SET e com o conceito de entidades elaborado, possamos também agregar ao nível do portal recap essa informação e tirar a partido depois dessa informação. E isso leva-nos este conceito de nós olharmos para o portal como algo que vai refletir aquilo que você já possui no próprio repositório, que é uma gestão de informação baseado nas diferentes entidades. Já houve alguns desenvolvimentos neste momento relativamente à atual versão do DSP-SET em uso para integrar, por exemplo, o conceito de autor através do ORT-TID existe também, de alguma maneira o conceito de financiamento mas é necessário um pouco mais do que isso e, portanto, a versão SET do DSP-SET bem ao encontro destas necessidades. Inicialmente nós iniciamos com as guidelines driver, e depois avançamos para as guidelines do Open Air, e agora estamos já a caminhar para as guidelines do Open Air 4, e que tira a partir desse conceito de entidades que utiliza taxonomias, por exemplo, do tipo de documento de acesso e de versões baseado em vocabulários controlados do COAR, e que neste momento estas guidelines Open Air 4.0 são já a referência. Algumas destas questões nós já estamos automaticamente a transformar e a criar equivalências ao nível do portal RECAC, mas serão no futuro, digamos, as guidelines. E estas novas guidelines Open Air 4.0 implica a partir da mais promenor de informação e mais promenor de informação baseado principalmente naquilo que são os principais identificadores, quer seja um de autor, de publicação de organizações, financiamento etc. e, portanto, existirá sempre um identificador associado a cada elemento de cada entidade. Tudo isto leva-nos aqui a uma perspectiva que nós temos vindo sempre a trabalhar de uma visão integrada relativamente àquilo que são os repositórios e que são os repositórios num contexto nacional integrados com o portal e integrados com outros serviços. E, de certa forma, aquilo que o conceito que está por trás do PT Cris nos leva a alinhar em uma certa conjunto de protocolos, de diretrizes, de vocabulários para que nós possamos todos ter uma linguagem uniforme que possamos comunicar entre isso. E temos aqui um exemplo daquilo que já está de certa forma implementado, ou pelo menos parcialmente implementado, que é olhando para o dspace aqui enquanto repositório institucional a informação dele automaticamente flui para o portal RECAP. Tanto existe um processo da gravação do portal RECAP. Do portal RECAP, esta informação pode passar para o sistema de protocolos de ciência vitae. Do ciência vitae nós podemos já depositar documentos no próprio repositório, tanto esse ciclo de informação é contínuo e pode continuar a ser atualizado e curado e melhorado ao longo do tempo se é necessário. Existem depois outras integrações implementadas e que permitem contribuir para isto, que é, por exemplo, a integração com o Orkid. E temos também aqui esta possibilidade de integrar toda esta informação nova que já está curada e validada de alguma maneira através do opané, nós podemos integrá-la também neste ecossistema, quer seja através dos repositórios, quer seja através do RECAP ou outros serviços. E, portanto, com estas visualizas e com esta visão macro, digamos assim e este desenvolvimento e amadurecimento dos serviços, nós teremos cada vez mais informação e melhor informação para podermos também ter mais e melhores serviços para a comunidade. Obrigado. Excelente, muito obrigado. Portanto, se vocês quiserem ir colocando perguntas, agora este conjunto de apresentações nós já vamos responder às questões mais no final depois deste conjunto de perguntas, mas se entretanto quiserem pôr de perguntas aí o José também poderá ir respondendo à medida que vão fazendo as perguntas aí no chat e depois no final destas quatro apresentações antes dos destaques finais nós podemos responder. E por isso convindo já então entrarmos neste agora, neste conjunto de apresentações ou só que recuperar a agenda, só para nós sabermos então de onde estamos que são casos de uso de repositórios, já fomos então à realidade nacional para ver o que o recap, vamos ter aqui outros exemplos de Portugal, agora vamos ver como é que os serviços do Opané, por via também deste Opané Provide, são usados por os gestores de repositórios reais que existem. E vamos começar com o colega Francisco Jesus Martínez Galindo da Espanha da Politécnica de Valência que muito agradeço para nos presentear com uma apresentação. O Francisco é um querido amigo do meu e de alguns de nós e conhecido de alguns de os repositórios portugueses também e é muito ativo no domínio dos repositórios e é gestor do repositório na Politécnica de Valência, mas também tem responsabilidades no grupo nacional de gestores de repositórios em Espanha, no âmbito da rede da biblioteca universitária. Tem um grupo coordinador que coordena a questão dos repositórios e tem um papel também propondrante aí o Francisco. Portanto Paco Martínez, Obrigado Agora vamos passar para um portinho Vai ser espanhol mas Francisco vai fazer um esforço de falar um pouco de espaço Muito obrigado por a invitação É um prazer compartilhar com vocês sempre aprendemos muito e é muito enriquecido sempre que temos coincidido Vou tratar de explicar brevemente como trabalhamos desde a Politécnica de Valência a parte de colaborar com OpenEV Eu fiz um pequeno avião para se posteriormente tenhais algum tipo de dúvida e a apresentação já é isso que se vai compartilhar O primeiro é explicar o repositorio que temos na Politécnica de Valência a diferença de como trabalhais em Portugal que estáis mais coordinados ao nível do portal que acaba de explicar José nós em Espanha temos diferentes repositorios em cada instituição e depois são recolhecados que é ao nível nacional dentro de um par de dias eu acho que colabora uma companheira e os explicará a outra visão a parte um pouco do que explicado José como coordinam a recolecção da parte espanhona nós em Rio Nete o que tentamos é incluir toda a informação possível um pouco também coincidindo com o que está dizendo Paulo de tentar que a qualidade dos metadatos que disponemos seja o suficiente porque é certo que há bastante críticas acerca de a qualidade dos metadatos em repositorios mesmo que também como ele disse também sobre as editorias de todos os identificadores permanentes que estamos falando no PID tanto o Orchid e o Doi vão facilitar cada vez mais a qualidade dos metadatos então nós o que tentamos para facilitar a recolecção de nossos itens, de artículos os trabalhos é criar incluir todos os metadatos diferentes esquemas que nos solicitam os recolectores ou colocar a informação como nos está pedindo por exemplo Google para facilitar que nossa informação chegue a todos os buscadores Google tem uma grande potencial de recolecção e visibilidade mas precisamente um dos problemas que nos genera que como administradores de repositorio não temos praticamente nenhum tipo de controle temos que deixar as portas abertas que acedam com suas aranhas através de como nós vimos de os OI é mais fácil que podemos criar a informação para que os diferentes recolectores, agregadores se levam à informação e temos uma forma de trabalhar com eles são múltiples os agregadores que passaram durante este tempo e que proporcionam um serviço muito bom aos usuários e permitindo recuperar nossos registros desde múltiples fontes de informação o qual está muito bem mas pouco a pouco está havendo um cambio de recolectores e começam a oferecer uma série de serviços também para os administradores rapidamente é um grande exemplo no Open Air vamos ver que há outros casos como Base ou Core em que está muito centrado esses serviços nos repositorios do Reino Unido e o caso de Recolecta que eu já comentou antes e que, mesmo que veja os dias seguintes podemos ver como os diferentes funcionalidades como, por exemplo, é a parte dos projetos dos projetos espanholes porque até agora hemos podido agregar os projetos europeios graças ao Open Air e os europeios da União Europeia, franceses, portugueses agora, desde o último ano desde Recolecta está dando-nos essa informação precisamente Recolecta é um pouco o irmão pequeno do Open Air permite identificar-nos os repositorios para ter uma série de serviços em que temos a guia de evolução de repositorios o esforço, o enlace e que critério do mesmo modo que fazemos com as guidelines de Open Air é muito similar a forma de trabalhar e segue um pouco a excel dando uma série de serviços de momento não é para rivalizar com Open Air mas sim para, por exemplo a parte da validação dos projetos a nível estatal e também esta série de critérios de validação justamente agora estamos no grupo que comentou Pedro de repositorios a nível nacional dentro da rede das universitárias espanholas querendo uma série de uma guia, uma quarta guia de evaluação de repositorios em que se incide muito uma série de critérios para conseguir uma qualidade dos metadatos que é o que nos oferece Open Air a nós como repositorio um trabalho de integração como vimos no grafo com um monte de repositorios com um monte de editores um trabalho grande de duplicação de metadatos a mim, personalmente uma das coisas que mais me agrada é este índice em que nos indicam o que está fazendo, o que podemos esperar cada dia podemos ver no enlace que temos aqui também temos sim Paco, eu penso que você cortou o seu sonho todo o audio desculpe, assim pode repetir os últimos segundos bem o que eu disse é que precisamente o índice e a atualização que se mostra nesta página é muito importante para mim e eu acho que para todos os administradores de repositorio para poder ver exatamente como vai trabalhando o grafo o explore de Open Air como se vai alimentando ou atualizando igualmente a guia que tem esta hoja de ruta que nos informa de esses diferentes projetos de integração de órquido rediseño de la página nos vai informando um pouco de como vai fazendo isso é muito importante igual que a parte de o suporte que podemos criar tickets para dizer se temos qualquer tipo de problema eu posto alguns dos nossos e, por supuesto, os community calls que se afeitem nos primeiros miércoles de mês que depois também estão aí as presentações e os vídeos, eu tenho pendientes um par dos últimos em que se nos informa de que vai fazendo e, mais, se nos pide informação para mim é fundamental que para a maioria então, por supuesto, depois os produtos que ensinado podemos ver dentro do explore quando buscamos os projetos como aparecem os nossos registros de Rionet aqui dentro isso nós fazemos graças rapidamente seguindo o modelo que vimos em Minho quando pudimos visitar em 2013 para poder integrar dentro dos formulários ou buscar por o código e que se incluirá estes códigos diretamente facilitam depois a recuperação sempre que seguimos estas guidelines ok? as guidelines que também se tradujeram ao espanhol, graças a os companheiros da referência e que já está também na sua versão 4 outro dos pontos importantes para nós em Rionet em La Plutina de Valencia é como indicado antes Paulo a monitorização a monitorização do acesso aberto de que é o que cumplimos e não e de diferentes financiadores os opus do enlace precisamente ao monitor que temos no UPV porque como nós falamos não todo o conteúdo que temos em Rionet chega ou tem uma financiação europeia e, portanto, podemos ter uma série de informações específicas a nível local toda essa informação que sim que chega ao reposito a Open Air de nosso repositor não é permitido ver como dentro da UPV temos um monte quase 100 mil publicações software e como esta aparece em Cordis, que é um dos serviços que desde o repositor brindamos a nossos investigadores que podem ter seguro de por ter suas publicações no repositor e outros cumplimos as diretrizes para que, através dos códigos do projeto, podem aparecer suas publicações dentro do portal Open Air e de aí a Cordis uma funcionalidade que temos que terminar de explotar é precisamente fazer uma comprovação através do explore de aquelas publicações da Politécnica de Valencia que não estão em nosso repositor comprobar qual é o motivo que produz algum tipo de erro simplesmente é um retraso ou que podemos nós incluir nós trabalhamos diretamente desde o CREES ao repositor mas pode que nos dê uma série de registros que não tínhamos até agora que é o que temos em Open Air podemos ver os diferentes recursos e como vemos isso dentro do Dashboard bem, tivemos a sorte desde 2017 que nos invitou a participar como beta testes no projeto e posteriormente também no 2020 em uma nova versão, nessa que estamos visualizando agora a verdade é que foi uma sorte poder provar e ver nossos registros também em especial para poder provar, já com os guidance 4 de Open Air ver os resultados inclusive ver se já se cumpliu ou não por nossa parte igual que nós falamos que temos a parte desde a página onde se vê que é o que se está fazendo desde Open Air podemos ver como dentro do nosso repositor o historial que temos como se nós está recolecendo nos perguntamos nossos investigadores quando estarão nossas publicações em Open Air podemos ver através de que momento se nos recolectou e faz uma conferência a respeito também podemos ver através de a parte do historial da validação como hemos sido passando os diferentes provas para conseguir um resultado óptimo nas guidelines e uma das partes mais interessantes para nós é a parte do entretenimento de metadata. Graças a este trabalho de duplicação e poder comprobar que nossas publicações também estão em outros repositorios ou em outras editoriales se nos oferece uma série de informação tanto de identificadores como de projetos que vamos comprovando para incluí-los dentro do nosso repositorio igualmente os ficheros conversões que temos encarrado nosso repositorio um exemplo simplesmente para comprovar os identificadores que são tão enriquecedores nós temos criado uma série de subscripções a esses campos que nos parecem mais interessantes e se postou também um exemplo do correo que recebimos para poder ver quando há uma série de novos eventos e comprovar essa série de metadata hemos utilizado o app e o Openair para fazer umas cargas massivas quando temos identificadores como o Doi e o Orchi dê uma publicação e poder ver se nos interessa trairmos umas palavras clave mas a parte do Dashboard nos interessa especialmente para poder ser mais preciso ir a essas publicações que não temos tão claras porque ou não tem identificadores esperamos que cada vez sejam menos ou porque em alguns casos queremos que também pode ser um erro como falamos e por último também participamos na parte de as estadísticas e temos visto como se vão incluindo um pouco lento porque vemos como não se movia ainda a fecha de carga suponemos que está pendiente mas sim que se nos vai cargando o número de visitas e descargas e através disso também estamos vendo os diferentes informes que nos faz é um dos serviços que também dentro de Espanha estamos intentando integrar esta guia de volação de repositoria fazendo que mais repositorios espanholes incluindo esta série de estadísticas espero não haveros aburrido muito claro que não qualquer dúvida que tengais tentarei explicaros sim muito obrigado Paco, muito obrigado foi aqui uma visão muito geral e completa da forma como os serviços diferentes serviços, componentes os serviços da PANER interagem com o repositorio neste caso com o repositorio da bolitécnica de Valência pode ir colocando aqui as perguntas o Paco foi indo a detalhes muito específicos que eu julgo que serão do interesse de muitos de vocês se quiserem ir perguntando aí no chato podem ir perguntando e depois nós vamos abordar essas perguntas entretanto avançamos já para esta segunda apresentação destes casos práticos com a Raquel Truta da Universidade de Dominho que é gestora do repositorio comum que servem muitas instituições em Portugal que me vai apresentar também como é que são usados este serviço da PANER força Raquel muito obrigado vai aqui tentar localizar o som boa tarde a todos então gostaria de partilhar com vocês com a gestão do repositorio comum os serviços do PANER só para que uma breve contextualização e para relembrar para saberem mesmo o repositorio comum é um dos serviços que o projeto RECAP disponibiliza destina-se a aquelas instituições do sistema científico nacional que não possuam um repositorio institucional próprio e que desta forma permite não só dar a visibilidade às instituições como a sua produção científica vou agora abordar então as mais valiais em utilizar o PANER Provide na gestão do repositorio comum identificam então quatro, são elas um serviço de enriquecimento metadados as métricas, a validação e a monitorização da agregação dos conteúdos pelo PANER destas quatro funcionalidades materializam-se um bocadinho como podem ver que na apresentação do PANER agora na minha o dashboard do Provide é igual a qualquer repositorio e qualquer gestor tem basicamente as mesmas informações não os mesmos conteúdos mas as mesmas informações aqui podemos visualizar o histórico da validação das validações realizadas um número de registros portanto agregados os enriquecimentos disponíveis e estatísticas de uso como os downloads e as visualizações das quatro funcionalidades particularizo duas aquelas considero as mais pertinentes para as necessidades do repositorio comum são elas o validador e os enriquecimentos por um lado de realizar validações assim como consultar o histórico do mesmo permite-nos verificar se o repositorio é compatível com as guidelines do PANER no caso com as guidelines 3 a 3.0 e por outro lado através do serviço de enriquecimento é possível identificar um conjunto de metadades adicionais que podem enriquecer os registros do repositorio através do validador do provide então como referir fazem-se as validações onde é possível verificar e visualizar o histórico das mesmas e nos permite verificar os resultados da compatibilidade do comum com as guidelines também como referir neste exemplo em concreto demonstro os resultados de uma validação realizada que podemos observar os resultados por item ou então o resultado global do repositorio esta ferramenta permite-nos também visualizar detalhes detalhes de itens das compatibilidades de cada item aqui podemos ver dois casos de disparos o primeiro caso onde o registro está 100% compatível com as guidelines os três seguintes onde há erros que poderão ser importantes melhorar e trabalhar o serviço broker também como referi a pouco disponibiliza uma grande variedade de informação académica que permite sem se sombra de dúvida e ao longo destas apresentações têm verificado isso é uma opinião similar e partilhada que permite efetivamente fazer um grande enriquecimento dos metadados que disponibilizamos e tudo isto depende estes enriquecimentos o passo inicial para se chegar até eles depende de nós enquanto os estores é um procedimento muito simples então como fazer inicialmente vamos identificar o tipo de eventos que efetivamente interessa para os nossos repositores no caso concreto para o repositorio comum efetuar as subscrições os mesmos daquilo que consideramos efetivamente pertinente e depois sempre que haja novos eventos identificados eles são-nos devolvidos por e-mail e podemos trabalhar neles para o comum eu considerei cinco que poderíamos considerar outros que são eles os identificadores persistentes os projetos as versões em excesso aberto orquide e data de publicação aqui podemos ver a lista completa o tipo de eventos que o broker disponibiliza para cada um dos estores e que podremos ou não subscrever como referir aqueles todos ou aqueles que nós considerámos mais importante como os resumos assuntos etc e também como referi há um bocadinho mas volto a frisar porque é um ponto importante depois de criar a subscrição porque só assim é que recebemos os eventos sempre que haja algo de novo essa notificação que nos enviada a título de curiosidade partilho a lista de notificações que considerei importantes e como referi há bocadinho para o repositório comum são elas e vis-a-vis aqui do lado esquerdo a data tem que foram criadas e o número de eventos gerados pelo openair que depois iremos ver se são ou não pertinentes para incluir no repositório realmente o processo é como referir há pouco é realmente muito simples há uma primeira parte que é este de escolher o que nos interessa de fazer as notificações posteriormente de receber os eventos a partir daí a partir do momento em que se recebe uma notificação é tão simples como avaliarmos o que realmente interessa eu trago-vos aqui um exemplo de um projeto que efetivamente considerei que era pertinente sendo pertinente basta seguir o link do mesmo e que nos levará ao repositório no caso ao repositório comum com login da administração basta preencher o campo do qual eventos estamos a trabalhar no caso em concreto estamos a falar de um projeto portanto logo o campo de preenchimento será o de ser Relations se fosse um Orkid ou um outro que previamente subscrevi seria no campo correspondente estamos a falar aqui ao nível de o projeto portanto preenchido manualmente a informação do projeto faça a pesquisa demora uns segundos verifica a informação a informação correspondendo àquilo a informação que recebemos basta aceitar e o registro fica completo e enriquecido e este procedimento é o mesmo para um dos quatro outros que eu subscrevi do Orkid as versões em ser sabertos etc muda apenas o campo do tipo de campo que nós queremos preencher como isto realmente é tão simples apenas é um caso prático do que eu faço no comum termino a dar umas notas cinais e identifico sem sombra de dúvida dois aspectos positivos que são eles o validador e o broker sem sombra de dúvida como componentes essenciais para a gestão e qualidade dos metadados que o repositório comum disponibiliza depois a questão da visibilidade que os registros passam a dispor pela agregação no aponer e obviamente e isto é um complemento à visibilidade que os próprios registros já têm a partir do momento que são positados no repositório comum e depois mais tarde agregados no portal recap e entrando no mundo do ecossistema como o Zé a bocadinho referiu mas como se costuma dizer não há bela senção e afontaria aqui três aspectos a melhorar o primeiro, pela particularidade do repositório comum como refri no início é um repositório que é partilhado portanto é particular na sua essência o que faz com que neste momento os dois instituições e neste momento são 81 não tenham acesso a seu próprio período portanto, todo este enriquecimento depender de nós enquanto gestores de topo do repositório e do serviço depois seria realmente importante uma interação com os eventos, ou seja, ele enquanto gestora ter a possibilidade de dizer, ok, isto interessa-me isto não me interessa ok, está resolvido, interessa-me já está disponível no repositório neste momento ainda não é possível e depois um último ponto seria a possibilidade de fazer downloads de um conjunto de eventos por exemplo, em fecheiros CSV muitas vezes seria uma mais valia para trabalhar determinado aspecto obviamente que tudo isto seria ouro sobre azul se houvesse um automatismo implementado ou seja, havendo as notificações e o automatismo para o repositório que neste momento ainda é manual mas de modo geral ressalvo mais os aspectos positivos apenas refiro aqui como aspectos a melhorar e pronto, termina a agradecer o convite e a sugerir que consultem e que sigam o projeto através das nossas redes sociais obrigada excelente, excelente, muito obrigado por este mais este contributo e este caso prático também aqui com uma reflação crítica importante e que são impossíveis também fazer-se com infraestruturas abertas transparentes e inclusivas e portanto podemos também abordar estes assuntos aqui mais no final em resposta a ter alguns destes questões que eu aqui introduzi para também dizer para onde é que nós estamos a evoluir pronto, vamos então a última apresentação destes casos, coloquem as vossas perguntas aqui vamos então para com o colega Emilia da Universidade do Algarve Emilia Pacheco que nos apresenta aqui também o caso prático do repositorio Sapiencia do Algarve força Emilia, obrigado olá, boa tarde então eu sou Emilia, sou bíblico de Caria da Universidade do Algarve e sou também gestora do repositorio institucional da UALG que é o Sapiencia e vou na mesma linha da Raquel e do Paco que aliás estou quase repetir as coisas da Raquel queria-se só ah certo isto são os pequenos tópicos para não me perder do que tensione dizer-vos, o Sapiencia é o repositorio que está registrado no Open Air Provider na altura não exatamente com este nome desde o outubro de 2018 o repositorio tem origem em 2008 é um repositorio SARI pretensenta ao serviço de alojamento de repositórios institucionais do RECAP portanto beneficíamos do trabalho dessa bela equipa portar aí a Raquel e o Zé Carvalho que realmente é um excelente mais valia é mantido pela biblioteca e apesar de termos o acesso por autodepósito isto é alimentação por autodepósito majoritariamente estamos alimentado por importação de dados a partir da Web of Science o que vai de encontro um pouco aquilo que temos estado aqui a falar sobre a qualidade dos metadados de alguma forma vence um pouco garantida neste momento temos 14 mil pouco mais de 14 mil publicações depositadas este é é o a visão do site do portal do Open Air Provider já vimos portanto o dashboard é um dos aqui temos os vários serviços mais utilizados e de todos eles salientamos a possibilidade de enriquecimento realmente de acordo com aquela linha que tem sido defendida aqui pelas pela Raquel e pelo Paco este serviço esta ferramenta de enriquecimento é aquela que de onde tiramos mais benefícios que era através dos metadados que vêm complementar aquilo que já existe no repositorio quer através dos metadados que vêm para preencher as lacunas do que está em falta no repositorio desses metadados desses eventos como o sistema eles chamam os que nós mais utilizamos foi numa determinada altura inicial o enriquecimento através da pesquisa de versões em acesso aberto mas sobretudo dos identificadores persistentes os identificadores persistentes aqui importamos durante bastante no início importamos os doi e conseguimos completar bastante o depósito que tínhamos os dados das nossas publicações no repositorio por outro lado também no lado do missing usamos bastante o complemento da informação para os projetos porque no momento em que muitas vezes depositávamos não existiam ainda esta informação sobre os projetos e nós complementámos bastante a partir aqui este é um exemplo de pesquisa de várias versões possíveis em acesso aberto para além disso também fazemos a subscrição dos eventos para obtermos mais do que os 100 primeiros eventos e depois recebemos as notificações no correio como já disse Raquel e procedemos a alteração quais destes eventos de enriquecimento consideramos os mais interessantes pois como disse são os identificadores persistentes e depois sobretudo os projetos os identificadores de projeto que nos ajudaram a complementar a nossa informação que isso tem que ser feito com alguma regularidade porque senão corremos o risco por um lado de não se esquecermos como é que se faz porque quando voltamos lá andamos assim já à procura e por outro lado de termos desculpem de termos acumulado trabalho por resolver então como é que nós achamos que melhoramos a qualidade do repositório com a ajuda do open access ou do open air primeiro pelos eventos de enriquecimento como já disse depois também pela identificação duplicados aquilo que falaram logo no início da nossa apresentação que é o facto do open air colocar em sequência os registos que têm os mesmos identificadores permitiu-nos do nosso lado descobrir que tínhamos publicações em duplicado o uso do validador também numa fase inicial foi bastante interessante e depois participando na comunidade a comunidade do open air é cá em Portugal bastante ativa aparecem sempre nas jornadas da VCCN em webinars e nestes últimos tempos através das tais reuniões mensais do open air contando providers comunitical que nos ajuda também a perceber melhor como é que tudo isto funciona as possibilidades de melhoria penso que também um bocadinho na linha do que Raquel tinha dito é a ideia de podermos implementar as alterações dos eventos de enriquecimento do lado do repositório de uma forma mais automática se bem que realmente como ela disse no nosso estilo passarmos depois à atualização mas era interessante nós podermos escolher de uma maneira mais automática o que queremos e o que não queremos implementar no nosso repositório das alterações sugeridas não sei se por web services ou por AAPIs workshops mas sentia uma necessidade de uma formação ou qualquer coisa mais realmente participar e simultaneamente termos alguma sermos guiados talvez nestas exploração do nosso lado é procurar explorar os serviços do open air os serviços de métricas de uso criando rutinas as rutinas são importantes para isto e eu pedi agora se se fosse possível a possibilidade de eu não sei se me estão a ver penso que estão ou não estão sim sim sim estamos estamos a partilhar o browser sim certo estava com dúvidas sobre isso então um caso concreto podíamos ver aqui acho que ainda tem alguns minutos não tenho Pedro mas no mesmo momento não estás a apresentar mas não estou mas tenho esperança de conseguir ainda isso não é o link do provider pois mas aqui é não é sim ok então está a demorar algum tempo mas ao entrarmos autenticados no open air pois eu tinha entrado mas agora ainda deve ter perdido a sessão interessante desde o princípio já perdi a sessão sim sim ok no profite está a demorar bastante vai parecer pois escalhar sim sim temos aqui aquela informação que já tínhamos visto anteriormente a possibilidade de vermos os relatórios como a Raquel já mostrou de obtermos aqui os relatórios de estatísticas eu ia só ver um exemplo de como podemos proceder diretamente aqui há a fazer as alterações que nós queiramos a partir por exemplo de projetos enriquecimento de projetos eu posso chegar aqui ver diretamente qual o projeto que tenha falta sabendo qual é o identificador do meu registro do lado do repositorio indo cá procurando esse registro pense que já até mesmo era este 609 se tivesse logo autenticada seria mais fácil não estou mas é fácil entrar e podendo aqui proceder a essa alteração só que se era neste procedimento que se tornava mais fácil de alguma maneira nós podermos selecionar as informações este é também o processo de que a Raquel já tinha falado posso aceitar esta referência do projeto e proceder à atualização pronto não é difícil mas quando nós temos alguns eventos para alterar deveríamos de alguma forma arranjar uma maneira mais expedita para fazermos esta aceitação destes dados e pronto basicamente quero agradecer agradecer a equipa do opanére e é tudo sim excelente obrigado obrigado por estes casos há algumas perguntas que estão a ser aqui de algum modo abordadas nós agora dávamos um tempinho para algumas perguntas e respostas ou comentários ou alguns de vocês que não consigam aceder algumas dessas coisas há alguns comentários que a Raquel pode dar clarificações sobre qual é o nível de granualidade de até que nível é que pode haver pronto é que o broker, é que o dashboard pode ser usado pelas comunidades do comum já que o repositório comum tem esta coisa diferente que serve várias instituições portanto havia aqui algumas perguntas podem abordar um pouquinho eu acho que já fui respondendo mas se alguém ficou para alguma questão que queira ver clarificado que é uma questão da Madeleina Reis talvez vocês possam responder melhor que eu que pergunta se não é possível subscrever eventos de uma só comunidade eu respondi que ainda não não sei se vocês querem dar algum tipo de de detalhe ou alguma novidade sobre isto ou se está pensado ou se não está saberam responder melhor que eu certamente sim sim, se era uma das coisas que poderia ser melhorado mas não é possível atualmente e também não será assim nos próximos tempos breves irmos a este nível de detalhe porque são realidades muito específicas o serviço é muito penso simples e direto para repositórios institucionais com os gestores de repositórios passa a ser mais complexo para quando entramos nestes com os repositórios de catchall de orfons, para quem não tem repositório usar o repositório como um botecto comum como o repositório comum e não existe a resposta é não, o André vai explicar mais coisas que são muito úteis porque também tem a ver com uma próxima característica, uma próxima novidade que o dashboard vai ter que é o multi-user, portanto na prática é que é o poder dar menos de acesso ao dashboard da outras pessoas que poderá resolver parcialmente esse problema, embora depois é preciso haver um protocol de funcionamento entre as várias pessoas que vão ter acesso ao serviço mas será uma das coisas que há muito tempo é pedida não sei se o Zé também quer dizer alguma coisa aqui ou relativamente outra pergunta que a Marisa introduziu embora não seja só uma coisa para o Zé mas é, queres também dizer a Marisa também perguntava aqui sobre a questão das diretrizes para as revistas no contexto do protocol recap e mesmo no contexto das próprias diretrizes openair elas referem de uma forma lá, de repositórios informação científica de literatura científica e desse modo podemos olhar por essas diretrizes também e adaptá-las para as revistas científicas no caso as revistas que nós costumamos contactar e no caso da Marisa que utiliza uma plataforma que é o OJES existe um primeiro passo que é ativar um campo de preenchimento que é o financiamento nas configurações Workflow, tem uma opção para ativar esse campo que pode ficar disponível para o próprio autor que submete o trabalho ou ser algo mais administrativo é uma questão de ver, depois as regras de cada um, mas é possível incluir essa informação de financiamento olhando para as diretrizes em si existe um código que define a estrutura de financiamento e esse código que deve ser incorporado tal como vimos há pouco e alguns exemplos dos repositórios mas também é digamos uma oportunidade para nós fazermos um artigo que de certa forma foque esse aspecto do cumprimento das diretrizes na revistas também podem fazer outro aspecto tanto mais transversal e genérico que é utilizar o validador do recap para validar as revistas porque terão também já um overview geral se cumpre ou não com aquilo que são os campos que são solicitados Muito obrigado Essas questões aqui em torno do Comun será um importante ponto de ação para com a Raquel como gestor e depois ver também com a equipa do Openair ver como é que se pode fazer esta gestão do multi-user access acho que vai ser uma mais valia depois acho que será uma coisa interessante a ver-se no futuro Eu estava aqui também a ver a pergunta do Paulo Almeida Muito obrigado Também já aqui a Brudamos Bruno Neves também é possível obter diretamente o código formatado do projeto Sim, portanto, é possível obter não é isso, é usando este plugin que integra a lista de projetos da API do Openair diretamente nos repositorios está em todos os repositorios do serviço de alojamento do repositorio e mais outros repositorios que fazem parte do recap no cenário não estará em todos mas de forma de obter diretamente o código que já foi formatado é precisamente como a Emilia apresentou muito rapidamente existe um plugin realmente que na prática no processo de edição faz um search, faz uma query procura o código ou começamos a digitar o nome e começa a aparecer e depois isso automaticamente se encontrar o nome ou o id aceita se ele já vem formatado automaticamente Manel Moreno também dentro de um repositorio é possível utilizar o dashboard para apenas uma comunidade por exemplo é a mesma pergunta da Madalena Sim não é possível atualmente é uma das coisas é um use case que já foi identificado várias vezes vamos dizer que a primeira abordagem a resolução do problema é fazer o multi-user access que já vai ser bom como o multi-user access depois o que é importante é os vários gestores dentro de cada instituição que tem acesso ao dashboard de terem um protocol de entendimento eu atualizo os meus registros eu atualizo os teus falar assim e fazer um protocol de entendimento prático mas isso vai ser uma coisa muito boa e vai ser mais rápido que o que nós queremos nós pensamos que na próxima semana na próxima semana um próximo mês que é quase na próxima semana já vamos dizer concretamente quando é que vai estar disponível esta funcionalidade no dashboard um gestor que é atualmente o gestor permitir acesso a outras pessoas ok então aqui as perguntas todas pronto nós vamos só pedir mais cinco minutos para terminarmos então e o André fazer aqui uns destaques de coisas que nós não abordamos não foram sendo abordadas se quiserem colocar mais perguntas no chat fácil nós vamos usar um pouco mais do tempo que tínhamos previsto mas acho que é útil também o Paco se quiserem colocar perguntas ao Paco agora ou ele também deixou o e-mail ou acho que a apresentação do Paco foi muito útil para percebermos assim a multiplacidade de serviços porque foi um pouco mais do que o próprio Provide vamos fazer aqui alguns destaques rapidamente e depois terminamos a sessão também perdia só um pouquinho mais da vossa atenção Força André bem, obrigado eu penso que já conseguiram conseguir ver o Moacra porque eu estou aqui com um pequeno problema está em modo da apresentação, podes avançar ok agora sim porque eu não estava aqui consegui ver no meu próprio PC então muito brevemente vou apresentar aqui apenas ao que algumas informações consideramos importantes e que tenha a ver logo com algumas limitações ou dificuldades que se possa ter a interagir com o serviço do OpenApp Provide isto tem a ver muitas vezes com a conta de utilizador que se utiliza para aceder ao dashboard específico de um repositor isto por vez acontece, é natural que a nossa conta de utilizador não seja a mesma ou não seja aquela que permita aceder ao dashboard do repositor quando isso acontecer não se ocupa e isso é muito facilmente resolvido basta que nos contactem podem por exemplo enviar um e-mail para mim está aqui assinalado ou então deve fazer um contacto para o serviço do OpenApp vocês indicam-nos qual é que deverá ser o endereço de e-mail qual é o endereço de e-mail que vocês querem utilizar para aceder ao dashboard nós fazemos essa atualização e muito rapidamente passam a ter acesso ao vosso dashboard outra nota que queria aqui deixar a importância da monitorização da agregação do repositor pelo OpenApp também já foi aqui hoje falado pelos colegas é importante para compreender se o OpenApp está efetivamente a fazer a agregação de vida aos conteúdos do repositor verificar-se os números agregados mesmo mesmo fazer sentido ou não dar-lhe alguma discrepância significativa ou se até há um mês que nem agrega nada isto nos sentido de perceber se está tudo a decorrer bem se os números tiverem ok tudo bem se suspeitarem que algo não possa estar bem também devem sempre contactar-nos para que nós possamos verificar o que é que se passa por isso nunca existem nos contactar por esses motivos ou por outros aqui é o exemplo do histórico da agregação de um repositor como também já foi visualizado hoje, também não me vou demorar muito e agora vou passar a falar um pouco sobre os eventos gerados pelo serviço broker os eventos de enriquecimento de metadados o que é que eu aqui destaco que por motivos de escalabilidade do serviço o OpenApp neste momento apenas apresenta por defeito uma amostra de 100 eventos para cada tipo de metadados ok o que é que nós vemos o número total de potenciais e eventos que o OpenApp vai gerar para cada tipo de evento como podemos ver aqui se nós abrimos por exemplo a informação de orkidis em falta para os registros nós apenas vamos ver aqui nesta página uma amostra de 100 eventos para termos uma nação do tipo de informação que o OpenApp nos está a dar no entanto nós podemos ter acesso à lista completa o que é que podemos fazer para receber esta lista basta que selecionamos o tipo de evento por exemplo a informação de projetos que estejam em falta e de seguida fazer o que aplicar um filtro aos eventos para que caso não queiramos receber toda a lista de eventos podemos selecionar alguns filtros como por exemplo a data e assim que aplicarmos o filtro clicamos em subscribe todos os eventos vai surgir mais esta janela só para nos mostrar quais são os filtros que eu acabei de aplicar e num fim clique em subscribe a partir deste momento sempre que o OpenApp gerar novos eventos neste caso de projetos de informação de projetos em falta eu irei ser notificado irei receber por e-mail informação de que o OpenApp gerou novos eventos e também poderei ver a lista completa aqui na área das minhas notificações aqui na área de notificações vamos visualizar todos os eventos que eu subscrevi e que quero que o OpenApp me informe sobre novas informações isso é muito importante retenham isto que é se eu for apenas consultar enriquecimentos no menu enrichment eu apenas vou consultar uma amostra se eu tiver interesse toda a informação a lista completa é deveria fazer uma subscrição e posteriormente consultar isso no menu notificações agora a vação daqui para alguns desenvolvimentos que o OpenApp está a desenvolver como o Pedro acabou de falar acreditamos que esteja para breve o acesso multi-user ok isto é algo que de facto a comunidade nos tem vindo a pedir e acreditamos que vai resolver até outros problemas e limitações como aquelas que acabamos de de abordar isto irá na prática primítica mais de que no utilizador possa aceder ao repesitório ao dashboard do repesitório no provider outros dos desenvolvimentos tem a ver com a implementação dos indicadores fair de RDA os fair data maturity model indicators no validador do openair é algo que está a ser desenvolvido neste momento uma equipa de trabalho das guidelines do openair e na prática estamos a tentar incluir estes indicadores no validador do openair para que posteriormente se possa avaliar, digamos, aqui em trás das fairnas dos repesitórios verificar o quão fair são os repesitórios que sequeram validar utilizando a ferramenta do validador do openair por isso é algo que está ainda em curso e não temos uma data prevista para a sua disponibilização mas acreditamos que seja para breve por isso peço que são mantendo a par das notícias que nós vamos promovendo tanto nas community calls todas as primeiras quartas-feiras de cada mês a próxima já para a próxima semana e também subscrevendo a nossa newsletter ou nós também de forma mensal comunicamos sempre aquilo que mais recente faz envolvido no openair provide e na infraestrutura do openair que tem impacto depois também naquilo que são serviços despondilizados pelo openair provide portanto deixe este convite que já muitos vocês acompanhem muito de vocês já nos acompanham aqui nas community calls por isso reforço este convite e para aqueles que ainda não fazem parte também convido a que se juntei a nós todos os meses aqui é um breve destaque para a próxima community call na próxima semana dia 3 de março ao mi maia o tópico principal será bastante interessante e vai ao encontro de algumas das notas que aqui foram deixadas no openair broker no dps-crisis e dps-set isto era um resultado de um trabalho desenvolvido pela force science de itália um projeto da open innovation program uma open innovation que é promovida pelo openair convida a uma série de instituições iniciativas que desenvolvam serviços utilizando informação do openair graph e outros como por exemplo o serviço broker para desenvolver novas funcionalidades com base na informação que o openair disponibiliza no seu graph e um dos serviços que foi desenvolvido em esta integração do serviço broker no dps-space na prática o que isto irá permitir e vocês vão poder ver uma demonstração para a semana é como é que nós estamos por exemplo a editar as metadades de um registro no nosso dps-space nós podemos ser capazes de incorporar ou rejeitar informação de metadades de forma automática sem termos que fazer isto que tanto Emili como Raquel demonstraram fazê-lo de forma automática isto é algo que ainda só está desenvolvido pela force science já existem alguns repositórios em itália também a utilizar e espera-se que no futuro isto possa vir a ser implementado em uma escala maior mas para saberem mais para ver logo como isto funciona convido-vos a participar nesta próxima community call será por certo muito interessante para todos nós vermos este caso podem ver o link da saída e outras informações aqui neste link em baixo e é tudo situa-se a vontade para nos colocar em questões, por e-mail usando o lps-space pois podemos ajudar naquilo que for lançado obrigado terminamos aqui esta apresentação e esta sessão agradecendo muito o vosso contributo e a vossa presença ficam de certeza muitas questões para responder para nos contar também via e-mail via alpedesco e também para o alpedesco que tu recape algumas coisas relacionadas com isto vamos continuar com a nossa semana open-air Portugal para abordar alguns assuntos esta foi muito focada para os gestores depositórios e gestores editores etc contribuem os que fornecem conteúdo para a infraestrutura open-air espero que tenha sido muito útil agradeço a todos os que contribuíram portanto ao José Carvalho ao Paco Francisco à Raquel ao André e à Emília muito obrigado por vosso contributo e eu contributo a todos por estar em presente espero que tenha sido útil