 OK, c'est bon. Bonjour. Sorry. Mon nom est François Cartoni. Je suis un des développeurs de VLC pour longtemps maintenant. Je travaille beaucoup sur la démarche, ce qui signifie qu'on ne s'occupe pas de toutes les formes broken. On les voit et ils sont disponibles pour les cours, pour pouvoir jouer de retour. J'ai aussi travaillé sur les coders. J'ai fait beaucoup de travail sur l'adaptive streaming et aussi sur le subtile stack. VLC est managé par Vidoland, qui est une organisation non profite française. On a 40 membres. On vit avec des donations, qui sont utilisées pour des services, pour construire vos réalises, pour être ici, pour exemple. On a aussi notre conférence en septembre, qui est Vidoland Live Days, qui est généralement dans Paris. C'était l'année dernière. On a beaucoup de projets. VLC est juste un projet, mais on a beaucoup de tools de streaming. On a des codecs pour encoder vos films, comme les well-known X264, X265. On a aussi des decoders. On a aussi des membres spécialisés pour vos DVDs ou vos Blu-ray. Nous allons parler un peu de la 3.0 que vous pouvez avoir sur le desktop. C'était notre première release unifiée, où nous avons évoqué du codec hardware. Nous avons créé des 360 vidéos, 3D audio support, et un nouveau stack d'adaptives, qui a travaillé très longtemps, avec HLS, Dash, smooth streaming. Nous avons évoqué l'HGMI pass-through, quelqu'un qui a créé un nouveau stack d'adaptives, qui est là-bas. Nous avons également offert le support Chromecast, qui était une feature longuée, et qui a introduit beaucoup de délais pour cette release. Nous avons offert 1 million d'adaptives sur nos services. Pour la prochaine release, nous avons plus de 200 millions d'adaptives, including les dates. Et cette année, nous avons offert 3 millions d'adaptives sur les services en Las Vegas. C'était un événement très populaire. Comme je l'ai dit, nous avons évoqué le codec hardware par défaut. C'était un grand changement entre VLC 2 et VLC 3. C'était par défaut, mais le point était que le codec hardware est rapide. Vous pouvez faire 8K à 66px. C'est vraiment durable sur une très faible CPU, ainsi que l'adaptive que vous avez offert. Donc, c'est un grand bénéfice. Sur notre plan de vidéo, nous avons... Quand vous décodez, vous pouvez faire beaucoup de choses, après la déconnée, comme la scale, l'application de la vidéo. Render des sous-titres, pour exemple, faire ton mapping si vous avez des vidéos HDR, et faire la rendition sur la CPU, comme ce que l'a été fait sur la VLC 2. Ou vous pouvez faire ça sur la GPU. Vous pouvez faire tout sur la GPU, sur la CPU. Mais quand vous voulez changer de l'un à l'autre, ça a un grand prix. Et maintenant, avec VLC, nous faisons la décodation sur hardware, la scale, le ton mapping et la rendition, mais pas tous les effets qu'on avait avant, ou les textes de la rendition. Donc, un autre bénéfice d'utiliser la décodation est que c'est très efficace. Vous... pouvez sauver beaucoup de pouvoir. Pour exemple, c'est la décodation de la vidéo 4K, la vidéo HDR, sur la plateforme Windows et tout, c'est généralement fait sur la GPU. Donc, comme vous pouvez le voir, nous utilisons seulement 7% de la CPU, où nous avons généralement utilisé tous vos CPUs avant. Et compared à certains autres joueurs, sur cette plateforme, nous sommes plus efficaces que eux. Donc, le train currently est sur 4K. Mais, il crée un nouveau set de problèmes, parce que quand vous allez d'une résolution HD, d'une résolution Full HD, à 4K, tout est plus complexe. Comme pour le détenu, si vous voulez faire une photo, c'est bon. C'est bon, ok. Je ne sais pas pourquoi il ferme le signe. Si vous voulez gérer des sous-titres sur les vidéos 4K, vous devez faire un grand nombre de pixels, qui est vraiment lent. Donc, vous pouvez faire SimD, qui est une parallelisation en assemblée. Ça m'aide, mais ce n'est pas suffisant. Ce n'est pas suffisant. Donc, nous devons bouger, comme je l'ai dit, nous faisons quelques étapes sur la GPU, mais pas tout. Donc, nous devons bouger tous ces étapes sur les chadres et les jettes, ce qui signifie sur la GPU. Donc, l'accélération est faite. Ça m'aide beaucoup de pouvoir. C'est nécessaire. Ok. C'est nécessaire pour toutes les nouvelles vidéos de résolution. Mais quand nous avons fait un nombre 3D de l'accélération, nous avons quelques étapes de la communauté. Ce n'était pas vraiment expectant parce que nous avons beaucoup de tests. Mais nous avons aussi reçu quelques étapes, beaucoup d'étapes comme vous pouvez le voir. Les gens n'étaient pas très heureux. Il y a des gens et nous essayons de comprendre pourquoi. Donc ces gens-là ne sont pas totalement durs parce que nous avons fait des choses. Donc, les meilleurs bugs sont que les gens ont un black screen, un green screen, ce que vous voulez, vous avez un pixel, un gros pixel, un pink, généralement, parce que c'est parce que c'est des choses de l'UV. Ou sur des dévices comme des dévices d'épaule, vous avez un outil avec des vidéos naturelles, ce n'est pas fixé, encore plus. C'est juste parce que les voitures ne sont pas compliquées ou exposées totalement bloquées comme ils disent qu'ils peuvent faire 10 bits et ils comptent. Donc, quand vous avez 10 bits de vidéos, tout est faible et il n'y a aucun moyen de le faire. Donc, le seul moyen est de identifier les voitures et les black screens. Mais c'est la raison que nous n'avons pas sauté plus tard. Vous avez besoin beaucoup de devices et de plateformes et encore plus de devices si vous considérez les devices Android et les dévices d'épaule. Donc, il faut plus tester qu'à juste relancer une nouvelle version sur purement le code software. Donc, il faut beaucoup de devices maintenant. Donc, c'est vraiment confusif pour les utilisateurs parce qu'ils ne comprennent pas qu'il ne fonctionne pas parce que les hardware n'ont rien à dire. Donc, si ils ne nous demandent pas, on ne peut pas vraiment faire leur problème. Donc, les hardware ont aussi des limites. Vous avez des profils pour les vidéos de décodation, ce qui signifie que les hardware ne décode que 30 frames par seconde ou 60 frames par seconde, ce qui signifie que vous avez un maximum de décodation de vitesse qui est relativement à l'écran. Et les gens ne comprennent pas que quand ils faisaient des playbacks dans leurs précédentes vidéos, comme des gens qui préfèrent les vidéos pour jouer plus vite quand ils sont en train parce qu'ils ont eu des délais en temps, ils ne fonctionnent plus sur le hardware parce que vous allez parfois sur le limit de hardware que vous pouvez faire dans le software parce que le software c'est un limit d'accepter le limit de CPU et vous avez le feedback dans ce cas et aussi si vous voulez encoder dans le hardware vous avez aussi des limites vous il y a des simplifications dans le silicone pour encoder vos vidéos qui donnent parfois la qualité et moins d'options donc c'est pour encoder ok s'il vous plaît et pour plus d'options de vous ok je ne sais pas quel est le problème pour nos points de développement de vous, nous voulons parce que VLC c'est des modules en train donc nous voulons décoder nous voulons encoder nos decoders mais la plupart des plateformes sont en train d'accepter donc ils veulent poursuivre les vidéos et faire tout et c'est une philosophie de VLC où nous voulons prendre la vidéo et transformer et probablement remettre ou faire d'autres choses donc nous n'avons pas d'accès à une réelle et complète d'application d'accepter le hardware et surtout le hardware et avec l'application d'exemple sur Android avec d'HDK nous avons l'application mais vous avez une manière différente selon le chipset et vous avez un bug c'est difficile à identifier parce que ils n'aiment pas cette version du hardware et vous avez aussi une rendition mais selon si vous avez une vidéo ou si vous avez une plateforme ou si vous avez une screen HDR ou pas et un hardware capable ou c'est vraiment très difficile et des decoders sont vraiment mal design comme l'IOS si vous ne l'avez pas utilisé sur SDK vous devez faire tout par hand comme réordir les frames dans les des codes d'exemple aujourd'hui les frames sont pas dans l'application des frames n'est pas dans l'enquête et il y a quelque chose d'inquiétude et la plupart des decoders dans le monde sont en train de le faire d'exemple avec Apple Software quand vous avez à le faire par hand et il y a des autres trucs trucs des trucs dans l'application qui aussi crachent comme ils n'aiment pas les vidéos interlètes et les interlètes sont encore en dans l'enquête dans le monde donc tous ces issues sont incroyablement fixés dans le 3.0 il y a encore des issues mais c'est mieux donc comment c'est fast c'est plus fort c'est plus ménétrique et dans le GPU probablement c'est mieux mais il y a beaucoup de limitations maintenant il y a aussi beaucoup de fragmentation comme je vous l'ai dit on a besoin de de nouveaux devices pour tester beaucoup de hardware on va tester beaucoup de diverses versions et des drivers avant que nous nous avons besoin d'avoir des devices c'est plus pour des plateformes et des plateformes oui ce qui signifie il y a beaucoup d'issues pour faire parce que il y a des plateformes et nous avons besoin d'autres gens pour faire ces issues donc ce que vous attendez aujourd'hui on parle de 4.0 donc 4.0 auto check qui est encore dans ce monde on a 4.0 un peu plus plus peut-être 6.0 on a fait beaucoup de changements d'architecture parce qu'on a vraiment besoin on est encore enversant l'impact 2 fois un concept qu'on a broken depuis ce temps et la date est quand c'est fait comme d'habitude donc nous avons travaillé sur les plateformes internes pour être plus simple pour déléguer les features nous avons travaillé le manager d'input c'est ce qu'on a fait nous avons fait unifié d'architecture pour toutes les plateformes nous avons travaillé sur les gameplays audio playback qui tout le monde veut mais nous sommes beaucoup des joueurs donc les joueurs musiques et les joueurs sont un peu différents donc les libraries comme si vous voulez sauver votre playlist ou importe des plateformes foreigns sur les UPNP tout le monde ça sera plus facile et nous avons travaillé C-Clock qui est le corps de VLC qui donne des fois à être dans votre playback donc avant nous avons une PCR basée sur MPEG2 sur le clock mais nous introduisons un nouveau clock où nous avons un 1 clock qui est basée sur l'output pour baser donc vous n'aurez plus expérimenté un glitch dans l'audio qui vous pourrait avoir avec la version générale quand vous commence une vidéo mais vous pouvez aussi prendre des sous-titres et ça pourra aussi augmenter la synchronisation entre ces ressources sous-titres ou autres audio streams donc c'est un énorme bénéfice et pour l'autre on va faire un nouveau vidéo d'output de hdc on aura beaucoup d'inter Akbar pour lutter d'output peut s'il est plus efficace on pourra faire la version de lutter en plus et en plus video output, donc si vous voulez savoir un peu plus sur Weyland, il y a un talk, c'est ce matin, par Remy, qui a fait le travail. On pourrait avoir des output Vulkan aussi, et pour MakoS, nous avons d'autres supports, surtout le gadget. Et nous allons avoir une nouvelle interface, une nouvelle interface basé sur Qt Quick. C'est pour les Windows et Linux usages, et nous allons avoir des lightes et des dark themes. Donc, comment ça ressemble ? Maintenant, c'est comme les Windows that he built, que vous avez vécu, quelque chose de plus modern, plus smooth. Nous serons capables de faire des effets de vidéo. C'est un grand changement. Et les termes de défauts peuvent être dark par défaut, mais on n'en sait pas, nous avons besoin d'un peu de feedback. C'est une nouvelle screen de vidéo. Nous essayons d'avoir une vidéo pour les audios, et pour l'audio, nous avons la playlist sur les slides, toutes les options sur le côté, dont vous pouvez conclure. Donc, c'est comme la plupart des joueurs de vidéo aujourd'hui. Et nous allons aussi donner des supportes de 3D, pour les vidéos de côté-à-side, scopique et 360, et peut-être une vidéo MVC, qui est de 3D Blu-rays. Donc, nous avons fait un changement. Nous avons évoqué l'openGL par défaut. Nous avons évoqué le 360.0. Nous voulons ajouter le 3D studio. Et c'est la prochaine étape. Nous allons ajouter le support HMD en 4.0. Nous avons déjà fait des demos. Vous pourriez utiliser d'autres devices HMD, sans d'autres STK. C'est-à-dire que vous pourriez regarder la vidéo avec Oculus, Vive, Starbreeze, Windows HMD, ou même un carboard sur Android. Vous pourriez également avoir un théâtre virtuel pour regarder vos vidéos. Ça dépend d'où vous voulez être. Nous allons ajouter toute la technologie, qui est un codec d'open source, qui est de plus en plus targeté pour être patent-free. Il y a de plus de compétition, qui est de plus en plus efficace que l'HEVC. Le support hardware est venu. C'est déjà disponible dans le VRC 3, depuis le 3.0.5. VidoRAN est aussi travaillé sur le décoder, qui est sponsorisé par Mozilla, qui est David, et qui a répliqué LibéOm dans le 3.0 branch. Parce que le décoder était assez lent. Ce décoder est très rapide, au moins sur AVX2. Il utilise beaucoup de simdich, et ce n'est pas aussi disponible dans Firefox, Chromium, FFMPEG, Handbrake. Tout est bien. Nous avons besoin d'un support hardware, parce qu'il utilise beaucoup de CPU, parce que c'est un codec de génération. Sur le côté de Comcast, nous voulons ajouter un codec de hardware, pour pouvoir streamer plus efficacement. SMT, interplatformes, et aussi des supports subtil. Pour la plateforme, nous allons ajouter Windows XP sur toutes les plateformes, les Android et les iOS, pour pouvoir être plus efficaces dans notre développement, parce qu'il y a beaucoup de bugs qui n'ont pas été solvés, et qui font beaucoup d'issues. Dans le futur, nous voulons agir à la tente basale, une nouvelle interface web, pour ajouter aussi support pour DRMs, pour pouvoir voir les contenus protégés. Pour être plus sécurisé, si vous avez besoin d'un codec de GNSA, pour agir à nos produits. Nous allons introduire le sandbox. Nous allons faire plus de fabriquement. Nous avons une session de l'Akawana, qui est en train d'accueillir. Nous avons trouvé beaucoup de bugs, qui seront fixés. Nous avons aussi travaillé sur VRC.js, qui est généralement VRC en WebAssembly. C'est très différent de nous, parce que les webplugins sont en train d'accueillir. Nous avons des demos, vous pouvez le tester. Ça fonctionne, mais c'est encore plus dur, parce que c'est GNSA. Ok, si vous avez une question, je serai très heureux d'y répondre. Cette picture est vraiment toute. Quand j'étais étudiant, et je ne savais pas encore, je devais travailler sur VRC. Donc, j'ai eu de la musique. Merci. Rande d'applaudissements, et des questions de l'audience. Bonjour. Il y a juste une ou deux slides, que vous avez dit, que vous pourriez impliquer la hardening, en VRC. C'est pour ça que l'application d'une troisième partie va tenter d'accueillir VRC. Elle sera dans un environnement virtuel. Et si c'est un freu hassle, elle sera en VRC. C'est quelque chose d'une sorte, que l'application d'un sandbox sera impliquée ou quelque chose d'autre ? Ok, si je l'ai compris correctement, vous me demandez si nous allons l'application d'un sandbox dans une conteneurisation, pour pouvoir faire la VRC, ou quelque chose d'autre. La VRC est modulaire. Donc, nous voulons isoler chaque module, pour garantir moins de capacités pour chaque module. Comme l'application d'application d'une vidéo, j'ai juste besoin d'accès au hardware et rien d'autre. Comme le décoder, j'ai juste besoin d'accès au CPU, ou peut-être le décoder hardware, et rien d'autre. Et le demoxage, où la plupart des issues sont seulement pour avoir l'accès au CPU. Et, bien sûr, la mémoire. Le grand challenge de cette vidéo est de partager les données entre toutes ces modules, parce qu'ils ont usually besoin d'un high bandwidth. Et, en faisant ça dans la sécurité et en passant, c'est ce que le challenge est. En fait. Donc, ça ne va pas changer de manière que vous vouliez faire la VRC. Vous allez juste lancer. Et tout va être fait à l'intérieur, en fait. Merci. Oui. Quand va la VRC 4.0 être élevée ? Quand la VRC 4.0 est élevée. Donc, quand la VRC 4.0 est élevée, ce sera... Quand je l'ai dit, quand c'est terminé. La VRC 3.0 était 2 ans plus tard. Donc peut-être que je peux vous dire que la VRC 4.0 peut être élevée à la fin de l'année. C'est vraiment... Je ne sais pas. Il y a beaucoup de challenges. Remise il y a beaucoup d'issues qui ne sont pas vraiment sur le corps. Parce que nous avons fait des changements architecturaux. Nous sommes encore en train de marcher. Peut-être à la fin de l'année. Je ne sais pas. J'aimerais être intéressé pour vous et vous dire qu'à la fin de l'année, sérieusement, je ne peux vraiment pas. Oui. J'ai une question ici. Pourquoi c'est un corne? Oui, c'est une question normale. Les gens qui ont commencé les projets, ils se sont appelés centrales. Ils ont collecté les cornes de trafic. Ils connaissent la danse, l'alcool. À la nuit, parfois ils font des choses. Ils ont eu une collection de cornes. Quand ils ont commencé ce projet, un des membres a utilisé ce comme le premier symbole pour le projet. C'est quand même commencé. Nous avons utilisé ça pour 20 ans, peut-être. 15 ans? Un peu plus de 15 ans. 15 ans? Ok. Une question finale ici. Avant, dans la présentation, il y avait un mention de nous, beaucoup de temps, nous faisons le committement et tout ça. Comment les gens sont-ils activement committés ou travaillés sur ce projet? Le corne est tendance à 15 personnes parce qu'il y a des companyurs qui travaillent et qui proviennent des employements pour les gens qui travaillent tout le temps. Mais le corne est peut-être 7 personnes including Remy qui est ici qui sont très, très, très committés peut-être d'aider. Et comment les communautés? Les communautés sont en train d'avoir 30, 40, des choses changées. Pas including the translators and... Ok, so I guess you guys could be next. Round of applause for Francois.