 Ok, bonjour tout le monde, je suis Emmanuel Durand, je suis de la société pour l'art et la technologie, qui est locée dans Montréal, et je vous présente la plateforme de l'édition de l'Institut ou de l'Institut d'éditing en anglais, mais on préfère l'éditer en français, parce que c'est Québec. La société pour l'art et la technologie est une organisation non profitée, qui tente de donner des outils pour aider les artistes à créer des shows de nouvelles médias, et en particulier, nous travaillons beaucoup avec des espaces immersifs. Nous avons un grand domaine, où le sat est locué, qui est 18m de diamètre, et nous avons quelques petits, pour aider les artistes à protéger les contenus, pendant que le grand domaine est utilisé. Normalement, les artistes ne sont pas proches sur ce genre de displays, c'est leur première fois dans des espaces immersifs. Ils ont besoin de apprendre comment utiliser ça. Nous avons aussi des outils pour protéger l'intérieur des espaces immersifs non délicatifs, donc nous pouvons protéger dans un genre de géométrie, pendant que nous avons le modèle 3D pour la géométrie. C'est juste une salle avec des rouleaux blancs et des projecteurs dans le centre. Et au-dessus de ça, nous avons aussi des outils de téléprésence, donc nous avons déjà fait des shows qui ont connecté plusieurs domaines ensemble. En ce cas, il y avait deux domaines, un locué dans Montréal, et l'autre dans St-Tafé, si j'en remercie correctement. Il y avait des vidéos et des audios qui se sont transmettis entre les deux locations, et oui, un show a été fait avec ça. Donc, la grande question avec ce genre de espaces immersifs, c'est comment vous créez des contenus pour eux. Normalement, les artistes utilisent ce très simple fonctionnement, c'est qu'ils ont une idée productuelle, ils réalisent la création initiale sur leur station de travail, et puis ils l'exportent d'une façon ou d'autre, qu'ils le rendent, ou ils l'exportent pour l'utiliser en unité, et ils le testent dans l'espace immersif, donc dans notre cas, dans l'audom. Et ils vérifient si le résultat correspond à ce qu'ils avaient dans leur tête, et qu'ils prennent des notes, et qu'ils retournent à leur station de travail, ils fixent les choses, et puis ils retournent dans l'espace immersif, et donc ils retournent entre la station de travail et l'espace immersif jusqu'à ce qu'ils soient heureux avec le résultat. Et puis ils peuvent le rendre ou l'exporter une fin de temps pour l'utiliser en unité, ou autre chose. Alors, notre goal pour improving la création de travail est d'avoir une création effective, une édition d'environnement immersif. Ce que nous avons observé, c'est que, comme je l'ai dit, il y a un résultat très stupide pour ce genre d'espace immersif, parce que, par exemple, dans notre domaine, qui est très grand, c'est une projection monoprojection, vous n'avez pas de stéréo, mais parce que c'est très grand, vous pouvez encore obtenir un sens de volume, de 3D, en fait. Mais ce n'est vraiment pas immédiat. Vous devez apprendre à faire votre scénographie, comment vous bougez vos objets autour de votre caméra, et la chose est que, comme les artistes ont besoin d'y aller, entre leur station et le domaine, ils ne peuvent pas obtenir un sens immédiat de ce qu'ils font. Et sur le top de ça, nous avons seulement un grand domaine, même si nous avons des petits. Donc, le temps est limité, chaque artiste a un petit nombre de temps dans le domaine. Donc, ils doivent obtenir les résultats aussi vite que possible. Donc, ce qu'ils font, c'est qu'ils sont limités dans ce qu'ils peuvent tester dans le domaine. Donc, ce que nous pensons, finalement, c'est que, si nous pouvions éditer le contenu à l'Institut, dans l'espace d'immersion, nous pouvions augmenter la vitesse de création. Et, nous pensons aussi que ce n'est pas utile d'essayer de convertir every possible tool dans l'institut de création. Et donc, nous avons décidé de limiter nos capacités pour justifier le prototyping. Parce que, par exemple, un mot et un keyboard, nous serons toujours mieux pour éditer des vertices individuellement, que d'autres types de controllers HTC Vive ou d'autres types de controllers. Donc, c'est notre hypothèse. Le cycle de création de l'idéation à la validation est plus fort si le medium de production est aussi le medium de travail. En fait, c'est ce que vous obtenez quand vous travaillez pour la production standard. Vous travaillez sur la fenêtre et quand c'est rendu c'est aussi un gros écran, en fait. Et quand vous travaillez sur l'usuleur de travail pour créer des domes complétiques, vous travaillez sur un planar de displays. Vous faites votre rendition qui est généralement dans les coordonnées sphériques. Et puis vous projectez. Donc, vous avez un mismatch entre le medium de travail et le medium de production. Donc, ce que nous voulons vraiment c'est ce genre de choses. Nous voulons pouvoir éditer dans cet espace massive. Et finalement, ce qu'on propose et ce qu'il pourrait vous donner c'est que vous commencez avec votre idea de projet mais en fait, à partir de votre travail sur votre station de travail vous préparez vos assets et vous faites le premier passage dans le espace massive. Donc, vous loadez les assets et le son et tout le matériel que vous avez dans le espace massive. Vous placez-les, vous récordez rapidement l'animation toujours prototype. Et vous pouvez avoir une première grapette de ce que votre pièce ne fonctionne pas. Et vous pouvez avoir une très, très petite vue de ce qui fonctionne et ce qui ne fonctionne pas. Et puis, vous pouvez retourner à votre station de travail et utiliser cette grapette comme un exemple de ce que vous devez faire. Et vous pouvez l'improver. Et nous pensons que cela permet de limiter le nombre du domaine et de la station de travail et que de cette façon, le artiste peut tester plus de choses. Il a plus de temps pour tester la configuration, l'animation et la scénographie. C'est ce que nous avons fait avec la plateforme AES. Donc, la plateforme AES donne des métaphores d'interaction dans la façon des contrôles virtuales et des tools d'interactive audio-visual qui signifient des tools de video mapping et des tools de spécialisation audio. Donc, la plateforme est construite dans un blender avec un peu d'adents, un splash qui est notre ingénie de video mapping et un satin qui est notre ingénie de audio spécialisation d'engine. Et pour le hardware, nous avons des contrôles htc très efficaces, qui ont été utilisé par le protocole VRPN. Je ne sais pas si vous en connaissez avec les tools VR, mais c'est un standard. Donc, nous avons seulement utilisé les contrôles htc donc nous avons les hauts qui sont quelque part seulement une grande usb-dongle pour les contrôles. Et vous avez besoin d'un espace immédiat. Donc, un dôme une très grande rume avec des roues white et un peu de projecteurs, quelque chose. Donc, je vais faire un démon très petit de ce que ça ressemble à un blender. Donc, c'est un almost vanilla blender d'aujourd'hui. Donc, j'ai quelques add-ons. Je ne sais pas si vous pouvez voir très bien, peut-être pas. Il y a quelques add-ons pour les contrôles. Donc, nous avons un add-on immersive viewport qui permet de rendre le viewport du blender dans le mode d'acroectangular ou de QMAP. Nous avons un add-on saty qui communique avec notre tool audio-specialisation par OSC. Et nous avons notre tool live-editing qui communique avec les contrôles et qui permet de displays dans le menu pour ajouter le right tool pour faire ce que vous voulez. Donc, si je load une note comme le classroom et il y a ça. Donc, c'est rendu en temps réel. C'est le classroom rendu dans l'acroectangular. Donc, c'est un peu plus lent sur mon laptop, mais sur un computer desktop, ça fonctionne bien. Et nous pouvons changer le render sphélico et c'est vraiment un viewport pour que vous puissiez adapter le render du viewport dans l'immersion. Donc, c'est mieux si nous étions dans un domaine. Donc, vous devez croire que ça correspond à la production sphélico. Et ça fonctionne avec le render de viewport et le viewport de cycles. Nous avons un peu de bugs en regardant la lumière, parce que ce n'était pas fait pour ça, parce que nous utilisons beaucoup de renderings. Mais sinon, ça fonctionne correctement. La autre chose c'est que, même si c'est un viewport, vous ne pouvez pas sélectionner parce que nous n'avons pas converti le mot clic pour ce genre de view. Donc, si vous cliquez quelque part, ça va faire quelque chose. Ok, donc sinon en regardant Sati, ce que nous pouvons faire c'est que vous pouvez connecter à l'engin de la spécialisation audio. Et puis vous pouvez à l'engin de Sati. Je n'ai pas l'engin de Sati sur ma computer, mais si j'étais je verrais tous les sources de sound qui sont des samples ou des sounds qui ont été générées en temps réel. Donc, quand je connecte un sound à un objet, si je bouge l'objectif dans la scène, il va bouger en temps réel dans le domaine. Vous pouvez aussi prototype votre sound audio spécialisé. En fait, c'est aussi une très grande chose pour des artistes parce que ils ne savent pas comment utiliser correctement le setup audio dans le domaine parce que nous avons 31.4 du système audio et c'est tout. Et la dernière chose c'est le menu. Je ne peux pas vous montrer le menu en temps réel parce que je n'ai pas les contrôles et donc je vais vous montrer ce que ça ressemble. Donc, nous vions pour des menus qui pop dans la direction où vous pointez les contrôles. Donc, vous pouvez faire des actions qui sont sculptures et paintings. Nous n'avons pas besoin d'aller pour une faite modelée 3D dans le domaine parce que une fois de suite, ce n'est pas le objectif. Le objectif c'est de construire la scénographie et ne faire pas la modelée 3D. C'est aussi un landscape rapidement. Ça fait sens dans certaines cases. Nous pouvons aussi importe l'objectif et le son. Vous naviguerez dans un modèle 3D ou les sources qui sont données par Saty. Vous pouvez importe les sounds au objectif. Vous pouvez transmettre les assets que vous avez loads. Nous avons aussi créé les petits gizmos qui sont purement informatifs. Et vous pouvez naviguer et animer. Pour l'animation nous l'implémentons deux systèmes. La première est que vous bougez pour la timeline. C'est la grande fenêtre que vous pouvez voir. Nous sommes dans la grande fenêtre. Vous naviguez pour la timeline et vous ajoutez des outils quand vous voulez. Ou vous pouvez faire la timeline automatiquement. Et puis, si vous bougez un outil il sera ajouté. Et ça est comme d'habitude. Nous avons découvert. Je vais vous donner des détails d'implémentation. La rendition immersive n'est pas faite en Python. Il n'y a pas de modification pour le code Blender. La rendition est offerte par un code Blender qui est offert par un API Blender. Et ça est offert par un code Blender. C'est une fabrication en Comme nous voulions utiliser des modèles OpenGL, nous avions besoin d'utiliser l'OpenGL et de ne pas être accessibles par l'application Blender. Ça fait que ça fonctionne sur Linux pour sûr, avec NVIDIA drivers, mais ça n'a pas besoin de travailler sur d'autres plateformes. Nous travaillons seulement sur Linux, dans le laboratoire de recherche, donc nous n'avons pas testé sur d'autres plateformes, mais ça a besoin d'utiliser l'OpenGL 3.3 et n'a pas été testé seulement sur Linux plus NVIDIA. Régardons les menus et les gizmos, nous n'avons pas utilisé les objectifs Blender pour les créer, nous avons construit un small render engine sur ce que Blender a utilisé pour l'utilisation de l'OpenGL, et nous devions modifier le code Blender pour ça, car nous avons déjà utilisé le callback post-render pour le vue immersive, donc nous ne pouvons pas utiliser le même callback post-render pour les menus, parce qu'ils étaient juste à l'aide de tout autre. Ils devaient être appelés de l'un par l'une de l'autre, donc nous avons ajouté un autre callback post-render qui vient juste avant le vue immersive. Nous avons donc notre propre code Blender avec ces modifications, ce qui n'est pas beaucoup, mais de toute façon. C'est aussi plus spécifique, mais comme nous sommes dans un espace immersive nous n'avons pas d'utilisation d'utilisation de l'Head Tracking, parce que l'un des points intéressants dans cet espace est que nous pouvons avoir plusieurs utilisateurs dans l'utilisation. Typiquement, dans notre domaine, nous pouvons obtenir 100 personnes à l'un de l'autre, donc nous n'avons pas 100 personnes éditing des trucs ensemble, mais en tout cas, ce n'est pas un seul utilisateur, et c'est ce qui est intéressant pour eux, comparé à l'Head Set. Mais le truc est que, quand vous faites l'utilisation, si vous faites ça de la façon naïve, l'utilisation sera faite du centre du domaine. Et vous ne seriez pas toujours au centre du domaine, vous pouvez être à n'importe quel endroit dans le domaine. Donc vous devez être corrects pour cela. Donc, les contrôles de l'HTC Vive, vous obtenez la position à l'intérieur du petit espace, et vous utilisez cela pour correcter la direction de l'utilisation. Donc, en fait, nous avons piqué un modèle 3D de l'hôpital, et ensuite nous avons obtenu la position de la direction de l'hôpital sur la surface de l'hôpital, pour faire un autre piqué qui va piquer à l'intérieur de l'hôpital. Si vous voulez plus de détails, je peux parler avec vous d'aujourd'hui. Et cela permet d'utiliser en virtuellement un espace immédiat. Le piqué va travailler dans ce genre de formes, ou dans d'autres formes. Donc, nous avons construit notre plateforme, qui nous permet d'accéder virtuellement à une capacité de blender, ce qui est incroyable, parce que nous ne voulons pas construire l'édit de la plage de l'hôpital de scratch. Nous n'avons pas besoin d'un export entre la station de travail et l'espace de l'hôpital. C'est exactement la même file, qui est utilisée de toute façon. Et nous pouvons aussi utiliser des cycles en place. Je n'ai pas pu le montrer, mais dans les cycles, maintenant, vous pouvez le rendre dans un rectum-gula et vous pouvez le rendre directement à l'intérieur du domaine. Donc, vous pouvez avoir le port de vue, et ensuite, vous choisissez l'option à l'intérieur du menu et vous avez les cycles rendant. C'est bien. Sur l'autre côté, tout cela s'est réalisé gravement sur les opérateurs, et les opérateurs ont besoin d'un contexte pour travailler correctement. C'est une limitation de blender API. Et cela implique que ce n'est pas possible d'avoir plusieurs utilisateurs modifiés ensemble. C'est nécessairement un utilisateur. Donc, vous n'aurez pas de network de multi-users. Si vous n'avez pas de multi-users dans un espace, cela fait que c'est difficile de les avoir dans plusieurs espaces. Et aussi, le port de vue n'est pas adapté pour les pièces interactives. Évidemment, ce n'est pas le blender game engine. Et nous travaillons avec des artistes et parfois, ils veulent faire des pièces interactives. Donc, ce sont les limitations de notre première implementation. Donc, cette plateforme est relativement nouvelle. Elle fonctionne depuis juin, à peu près. Donc, nous travaillons toujours avec des gens pour trouver des utilisateurs. Donc, je vais vous montrer deux utilisateurs. La première, c'est avec une recherche dans l'histoire. Et la deuxième, c'est notre propre test de créer un film. Même si nous n'avons vraiment pas des créateurs 3D. Donc, c'est la première. Donc, le gars que vous voyez ici est un historien. Il n'a jamais utilisé un HTC Vive ou peut-être même pas un gamer. Il ne sait pas ce genre de choses. Et donc, je lui ai montré comment naviguer dans l'espace. Et oui, c'est l'une de nos petit domes qui ne couvrent pas l'arrivée de la vue. Mais le grand domes était utilisé ce jour-là. Et donc, le projet était enregistré une séquence de lui dans un model 3D de Paris, dans le 18e siècle. Et plus tard, ce mouvement serait un renseignement avec des cycles et tout. Mais il était celui qui décide où il voulait prendre l'envie finale. Donc, notre plateforme permet pour quelqu'un de faire des créations dans l'espace virtual, dans l'espace de l'image. L'autre c'est la réalisation. C'est une vidéo plus longue. Je vais vous demander des questions si vous avez des questions. Donc, nous avons utilisé notre plateforme pour créer un film pour illustrer ce que nous pouvons faire avec ça. Et c'est dans ce film que j'ai posté dans la submission à cette conférence. Donc, c'est ce qui m'a pris. Nous avons utilisé tous nos outils. Nous avons eu un peu d'assets, des modèles 3D, des samples. Et nous avons créé un film de scratch près de deux heures dans le domaine. Et c'était assez drôle. Encore une fois, nous ne sommes pas artistes. Donc, ce n'est pas meant mais c'est que ça fonctionne. C'est tout. Nous avons utilisé notre plateforme dans de nombreux contextes. Nous continuons de travailler avec ça. Et Blender a été utilisé pour nous aider à construire une première version. Parce que tous les outils d'édition et le port de vue et tout pour construire quelque chose sans avoir à réinventer le réveil. Mais nous ne pouvons pas utiliser seulement Blender. Donc nous allons changer pour une autre plateforme pour la partie immersive. Encore une fois, parce que nous voulons faire multi-users. Parce que les spécifiques sont construits pour multi-users. Mais nous voulons toujours garder Blender un élément central du workflow. Parce que nous sommes vraiment fonds d'outils d'édition. Toutes nos outils d'édition, Splash et Sati sont aussi d'outils d'édition. Et Blender est le right tool pour la partie de rendition. Et oui, nous voulons avoir une meilleure intégration parce que dans les deux exemples que j'ai montré, il n'y a pas de représentation. Et c'est une autre raison pourquoi nous voulons utiliser Python. Parce que la plupart de nos laboratoires ont un rappeur Python. Donc merci. Et si vous avez d'autres questions. Oui. Oui, j'espère. J'ai testé EVE, la version de développement. La seule chose qui ferait d'être converti à EVE, c'est qu'il y soit un rendering API pour EVE. Si il y est, il n'y a rien à limiter. Limiter ceci. Oui. Donc la question est, si j'ai le droit, peut-on faire une projection stereo avec ça ? Non, nous ne pouvons pas. Parce que il n'y a rien à limiter. Parce que ce que nous faisons aujourd'hui, c'est que nous faisons un rendering de chaque face de l'EQMAP. Et ensuite, nous le reproduisons dans une vue sphérique ou une rectangle ou des productions comme ça. Donc nous devons faire la même chose, mais avec deux yeux. Le truc est que le set du rendering de l'EQMAP est obvious parce que les deux yeux sont toujours regardés dans la même direction. Quand vous êtes dans un domaine quelqu'un peut regarder dans une direction en une. Donc vous ne pouvez pas faire ça. Vous devez utiliser des trucs et généralement le résultat est que vous avez un stereo à l'horizon et vous perdez quand vous regardez sur ou sur. Oui. Nous avons pensé sur plusieurs types de contrôles. Et c'est pourquoi nous avons voulu pour Vrpn connecter aux contrôles HTC Vive. Nous ne voulons pas être fixés sur un contrôles. Donc maintenant, nous avons utilisé les contrôles HTC Vive. Il n'y a pas de problème. Pour exemple, nous avons trouvé que nous avons été limités par le nombre de contrôles sur les HTC Vive. Nous avons vraiment besoin de plus de contrôles. Donc, peut-être nous allons essayer avec les contrôles Oculus. Le motion bleue Pourquoi pas, même si je ne suis pas un fan de juste bouger les doigts. Mais oui, pourquoi pas.