Connexion
Pour récupérer votre compte, veuillez saisir votre adresse email. Vous allez recevoir un email contenant une adresse pour récupérer votre compte.
Inscription
En vous inscrivant, vous acceptez les conditions d'utilisation du site et de nous vendre votre âme pour un euro symbolique. Amusez vous, mais pliez vous à la charte.
 
ARTICLE

The Physical Based Rendering Dossier - Partie II

Ze_PilOt par Ze_PilOt,  email  @@Ze_PilOt
 
Dans la première partie de ce dossier, nous avons survolé la physique des matériaux. Mais ce n'est qu'une partie du problème. Sans lumière, pas d'image!

Nous allons dans cette partie nous concentrer sur la gestion des sources d'éclairage, mais également voir en quoi elle est différente de la méthode "historique".
Pour un moteur de rendu physiquement plausible, la lumière, ou plutôt les sources de lumière visibles (pas d'infra-rouge ou l'ultra-violet) se doivent de respecter certaines lois.
  • Une source de lumière n'est jamais de taille nulle.
  • Une source de lumière est omni-directionnelle.
En plus de sa position, une source est définie par sa taille, son intensité et sa température.

La température

Mesurée en Kelvin, elle correspond à la teinte de la source lumineuse.

On pourra dans la plupart des moteurs sortir des clous et employer directement une teinte (en RGB) afin de simuler les gélatines (calques colorés placé devant des éclairages pour les teinter) ou certains éclairages artificiels (LED, lampes au mercure,...).

L'intensité

L'intensité d'une source de lumière se mesure (en système international) en candela. Elle est valable dans une direction donnée (n'importe laquelle, une source est omni-directionelle, donc éclaire dans toutes les directions à la fois à la même intensité), et dont la quantité d'énergie dans cette direction est de 1/683 watt par stéradian.

un stéradian?

C'est l'unité de mesure d'angle solides.

Un angle solide?

Comme ça ne vous avance pas beaucoup, il me faut expliquer quelques concepts fondamentaux utilisés en physique (et donc en PBR). Comme nous ne sommes pas à l'école, faisons ça de manière ludique.

Imaginez une sphère autour de votre oeil. Maintenant, prenez n'importe quel objet autour de vous, et projetez-le sur cette sphère. Vous noterez que quelque soit la taille de votre sphère, les objets projetés dessus auront toujours la même taille relativement à la sphère. Nous sommes désormais dans un espace bi-dimensionnel. Les objets lointains sont plus petits plutôt que plus loin.

Chaque objet a donc une taille. L'angle solide permet de mesure cette taille.
 
Si la surface de cet objet est égale au rayon de cette sphère au carré, il mesure un stéradian. Cette unité a l'avantage d'être indépendante de la taille ou de la distance réelle de l'objet. Et comme un stéradian est relatif au rayon de la sphère, sa taille n'importe pas non plus (et parce que de toutes façons, même si cette sphère était deux fois plus grosse, la taille des objets sur celle-ci ne changerait pas).

Okay... Et le Watt?

Et le watt, c'est l'unité internationale de puissance ou de flux énergétique. Si je dois définir chaque mot, on y sera encore demain!
Reprenons :  Une lampe émettant 0,0014 watt sur un stéradian a une intensité de 1 candela. C'est ce que ferait une chandelle/bougie (d'où le nom si vous n'aviez pas encore deviné).

C'était pas si dur...

Non, mais nous avons également le lux et le lumen. Cette dernière prend en compte le flux lumineux. De toutes façons, dans un moteur de rendu, connaître l'intensité exacte d'une lampe importe peu. Mais cela permet d'introduire des notions qui seront importantes par la suite.

La taille

On a failli l'oublier celle-là. Il faudrait plutôt dire: la taille relative par rapport à un point de l'objet que l'on éclaire. La raison de cette précision : L'intensité lumineuse décroit selon l'inverse du carré de la distance.
Prenez une feuille blanche et une ampoule. Enfin ne prenez pas l'ampoule, mettez là plutôt dans un socket et allumez-la. Mettez la feuille proche de l'ampoule. Reculez. La feuille est de moins en moins éclairée. On est d'accord, il n'y a rien de magique. Mais pourquoi ? La lumière est-elle absorbée par l'air ? Oui, mais si peu que c'est négligeable. De plus, si vous remplacez votre feuille par un miroir, la lampe ne va pas paraitre plus sombre dans le reflet lorsque vous vous éloignez. Et là ça commence à être magique.
 
Elle ne va pas devenir plus sombre, mais elle va devenir plus petite. Et c'est bien ceci qui est en jeu ici. Prenez un point sur votre feuille. La lumière que ce point reçoit provient de tout autour de lui. Nous pourrions dire : d'une sphère autour de lui. Et revoici notre sphère virtuelle et ses angles solides!
Si votre lampe ne perd pas d'intensité quand vous vous éloignez, sa projection sur cette sphère est par contre de plus en plus petite.

Si l'on faisait une moyenne de la lumière de toute la sphère, plus la lampe s'éloigne, plus elle fait baisser la moyenne. Moins elle a d'importance. Moins elle éclaire. C'est comme vous voulez.
La surface d'une sphère étant de 4*pi*r²  (r étant son rayon), si votre lampe éclaire sur toute sa surface à une puissance "P", sa contribution sur notre point sera donc de P / 4*pi*r². La contribution de votre lampe diminue donc par 4 chaque fois que la distance r est doublée. Autrement dit, elle décroit de 1 / r².  La lumière décroit selon l'inverse du carré de la distance. C'est la loi du carré inverse.

Le point de notre feuille serait au centre de la sphère. La porte n'est évidemment pas plus petite que le réflecteur blanc, mais son angle solide est plus petit. Mais concentrons nous sur la lampe de cette image.

"Mais pourquoi ne diminue telle pas dans le cas du miroir ?" me demanderez-vous. C'est pourtant le cas. Si vous faîtes la moyenne de l'énergie reçue par le miroir, elle diminuera de 4 fois à chaque fois que vous doublez la distance. Car la lampe sera plus petite dans le miroir.
C'est très important et je ne veux pas porter à confusion : Un photon ne se dissipe pas avec la distance qu'il a parcouru. Par contre, un ensemble de photons va de plus en plus s'écarter avec la distance, et la quantité de photons que vous recevez au final diminue. Et c'est cette quantité de photons qui détermine l'intensité de votre source.

Relation avec les matériaux

Repensez aux micro-facettes de la première partie du dossier.

Le miroir à gauche, la feuille à droite.

Dans le cas de la feuille, les rayons frappant la surface partent dans toutes les directions. Dans le cas du miroir, les rayons partent tous dans la même direction. Dans les deux cas, ce qui importe est la lumière frappant votre rétine.
Le schéma ne montre qu'une seule direction de rayon. Mais la lumière, comme nous l'avons vu précédemment, vient de toutes les directions. Vous pouvez inversez le sens des flèches sur le dessin.

Dans le cas de la feuille, pour un point de la surface, vous voyez la totalité de la sphère autour de ce point. Et donc, plus la lumière est loin, moins elle y contribue.
Dans le cas du miroir, vous ne recevez qu'un angle précis sur cette sphère. Plus la lumière est loin, moins vous avez "de chance" de voir la source de lumière car elle prend "moins de place".
Ce qui signifie que plus votre materiau a une surface lisse, plus il ré-émettra de la lumière venant d'un point précis selon votre point de vue. Plus la surface sera perturbée, plus il réémettra de la lumière venant de toute part, et moins votre point de vue aura d'importance.

Plus la surface est perturbée, plus la lumière reçue est uniforme, comme une moyenne de la "sphère" autour de chaque point de la surface.

A noter que dans les moteurs de rendu, on ne considère souvent pas une sphère complète autour du point, mais un hémisphère (une demi-sphère) : A moins que le materiau soit translucide, l'autre moitié de l'hemisphère ne reçoit pas de lumière (imaginez être à l'intérieur du bois). Le calcul en est deux fois plus rapide.

En page deux, vous découvrirez enfin à quoi cela sert de s'embêter avec tout ça!
 

Commentaires

Masquer les commentaires lus.
Ouhlala
 
Intéressant . Ca me donne sérieusement envie de me remettre au rendu . La dernière fois que je m'y suis mis, Mental Ray c'était le top avec renderman (c'est pour dire combien çà date :P)
hiroshimacc
 
Juste pour info Ze_Pilot, tu fais quoi dans la vie ? Je me tâtais entre dev et artiste, mais me rappelant que tu as fais un launcher pour SupCom, j'imagine que tu es dev :P. Spécifiquement moteur ?
Paulozz
 
hiroshimacc a écrit :
JJe me tâtais entre dev et artiste


Un artiste avec un doctorat de physique ?
Ze_PilOt
 
Même si je fais du dev, je ne suis pas dev mais superviseur/TD lighting/shading (et j'en fais pas mal aussi du coup). Donc rien n'empêche de faire les deux (c'est le cas de tous les bons directeurs techniques).

Les principes physiques que j'explique ici sont normallement tous connus par un élève de terminale, pas besoin de doctorat :)
mustach_cuir
 
Ze_PilOt a écrit :
Même si je fais du dev, je ne suis pas dev mais superviseur/TD lighting/shading (et j'en fais pas mal aussi du coup). Donc rien n'empêche de faire les deux (c'est le cas de tous les bons directeurs techniques).


Pour de la prod de VFX ou de jeux vidéos ?
Je demande mais je n'ai aucune idée si les 2 ont la même organisation.
D-Kalcke
 
mustach_cuir a écrit :
Ze_PilOt a écrit :
Même si je fais du dev, je ne suis pas dev mais superviseur/TD lighting/shading (et j'en fais pas mal aussi du coup). Donc rien n'empêche de faire les deux (c'est le cas de tous les bons directeurs techniques).


Pour de la prod de VFX ou de jeux vidéos ?
Visiblement, il fait pas de jeux vidéos, puisque si j'ai bien compris, il fait pas trop dans le temps réel.
Paulozz
 
Ze_PilOt a écrit :

Les principes physiques que j'explique ici sont normallement tous connus par un élève de terminale, pas besoin de doctorat :)


On exagere tous les 2. Bien sur qu'il faut pas un doctorat. Mais ton éleve de terminal il est en S, et il est plutot bon.
De plus, si je ne me trompe pas, le programme de physique de terminal ne fait que survoler tout ca. Typiquement, je pense que l'angle solide n'est meme pas évoqué pour me pas troubler les éleves.

Je disais ca parce que clairement tu n'es pas un artiste. Je pense que je dois en avoir renconter maximum 2 qui savaient calculer l'aire d'un cercle ^^
Ze_PilOt
 
Paulozz a écrit :
On exagere tous les 2. Bien sur qu'il faut pas un doctorat. Mais ton éleve de terminal il est en S, et il est plutot bon.


Je ne connais pas les équivalents français, mais je me souviens d'avoir vu tout ça dans l'équivalent de vos terminales. Bon après j'avais oublié la moitié parce qu'on ne m'avait jamais expliqué que ça pouvait servir dans ce que je voulais faire plus tard.
Idem avec les matrices en math...

Paulozz a écrit :
Je disais ca parce que clairement tu n'es pas un artiste. Je pense que je dois en avoir renconter maximum 2 qui savaient calculer l'aire d'un cercle ^^


Pourtant je sors d'une académie de beaux arts... L'un empêche pas l'autre, et les deux sont nécessaires pour certains postes.
Paulozz
 
Ze_PilOt a écrit :


Je ne connais pas les équivalents français, mais je me souviens d'avoir vu tout ça dans l'équivalent de vos terminales. Bon après j'avais oublié la moitié parce qu'on ne m'avait jamais expliqué que ça pouvait servir dans ce que je voulais faire plus tard.
Idem avec les matrices en math...


Tout s'explique !
En France la terminal c'est beaucoup plus simple depuis les années 90.
Par exemple en maths, on entends pas parler de matrice avant le bac.
D'ailleurs, quand je suis arrivé en fac ca m'avais choqué. Les types venues des ex colonies d'afrique avaient un tres bon niveau comparé a moi. En fait ils utilisent encore le programme du bac des années 60, du coup, ils connaissaient déja tres bien les matrices, et plein d'autres trucs. C'est que vers la fin de la 2eme années qu'on commencait a faire des trucs qu'ils ne connaissaient pas (ce qui leur fait un gros choc en général).

Ze_PilOt a écrit :
Pourtant je sors d'une académie de beaux arts... L'un empêche pas l'autre, et les deux sont nécessaires pour certains postes.

Dans ce cas, je n'ai qu'une chose a dire : chapeau l'artiste !
LeGreg
 
Quelques compléments :

Pour ceux qui se demandent pourquoi on parle de "température" de lumière, cela n'est pas toujours très clair. Mais ça a une base physique, il s'agit de la forme de la radiation d'un corps noir ("black body radiation" en anglais). Un corps qui est chauffé va spontanément émettre des photons. Au départ ces photons ne seront pas très énergétique, par exemple votre corps à 37 degrés celsius émet des photons dans l'infrarouge (lumière non directement visible). Mais si on vous chauffait très très fort vous commenceriez à émettre des photons de plus en plus énergétique jusqu'au point ou finalement ils seront visibles. C'est le principe des lampes à incandescence, un bout de métal est chauffé par la circulation de courant jusqu'à ce que le métal émette dans tout le spectre visible. Le spectre émis est donc directement lié à la température du métal. Plus bleu si plus chaud, et plus rouge si plus froid (l'inverse de la convention artistique de la "température des couleurs").
Cette dénomination est évidemment un raccourci pour des sources de lumière plus complexes, un spectre ne peut pas être résumé à un chiffre dans une dimension. Mais c'est une convention qui faisait sens quand les lumières étaient basées sur des sources à incandescence.

Blinn/Phong : Il est possible qu'ils restent utilisé pendant encore un temps en temps réel. 1 pour leur simplicité, 2 parce que on peut appliquer les mêmes principes que pour les autres modèles à base de microfacettes à Blinn/Phong. Certains moteurs de jeu utilisent par exemple un modèle Blinn Phong qui conserve (plus ou moins) l'énergie (le lobe et l'intensité ne sont plus réglables séparément mais sont fonction de la même variable "rugosité/roughness", les métaux étant séparés des diélectriques par l'application de Fresnel). Il est possible de combiner Blinn Phong avec un modèle d'éclairage à base d'image (en l'exprimant en terme de distribution de probabilité), ou des sources non ponctuelles, etc. Et pour certains matériaux/configurations le résultat visible ne sera pas fondamentalement différent que d'autres modèles basés sur les micro-facettes (Distribution de facettes de Beckmann, GGX, etc). Au moins suffisant pour le temps réel (par exemple dans un jeu on va tout préfiltrer.. Ce qui est parfois une plus grosse approximation que l'utilisation de tel ou tel modèle).
Le vertueux
 
Au final dans votre pipeline vous faites quelque chose de spécial de plus que de poser des lights, mettre au pifomètre une intensité, une température et mettre une éventuelle hdri dans l’environnement ?
JusdePoubelle
 
Le vertueux a écrit :
Au final dans votre pipeline vous faites quelque chose de spécial de plus que de poser des lights, mettre au pifomètre une intensité, une température et mettre une éventuelle hdri dans l’environnement ?


m'enfin... c'est MON pipeline !
Le vertueux
 
Le miens aussi ^^
Si, depuis quelques mois je mets une courbe au lieu d'une simple valeur numérique dans l'IOR pour les shaders comme je l'ai vu dans un tuto de Grant Warwick, ça les rends plus réaliste, m'enfin ça ne change pas la phase du monde.
Ze_PilOt
 
Le vertueux a écrit :
Au final dans votre pipeline vous faites quelque chose de spécial de plus que de poser des lights, mettre au pifomètre une intensité, une température et mettre une éventuelle hdri dans l’environnement ?


Le lighting 3d devient effectivement un job de directeur photo et non plus un job d'électro. Dieu merci.
Par contre, c'est bien plus facile de trouver quelqu'un qui tape des résolutions de shadow map que de trouver quelqu'un qui a l'oeil :)
Le vertueux
 
Ah oui je ne dis pas du tout que c'est facile de placer des lights mais je me demandais si ça n'allait pas plus loin avec des équations ou ce genre de trucs nébuleux. Au final la théorie ne semble pas vraiment avoir d'influence sur le travail.


Le dernier Pixar, Gravity et Pacific Rim utilisent tous les 3 un moteur et des techniques PBR. Se ressemblent-ils?

En l’occurrence Gravity et Pacific Rim se ressemblent comme 2 goutes d'eau et c'est normal puisqu'ils tentent de singer le photo réalisme, pas toujours très adroitement d'ailleurs, les moteurs ont encore du progrès à faire sur certains trucs.
Quant aux Pixar c'est du cartoon dans la forme, mais dans le rendu il ne diffère pas tant que ça, le plastique ressemble à du plastique réel, les vêtements ressemblent à du tissu réel etc...
Ne parlons pas du fait que ça fait depuis Toy Story 1 qu'on a des films d'animation en 3d qui ont pratiquement tous le même rendu quelle que soit la boite. Et les différences énormes qui existent entre les recherches graphiques et le rendu à l'écran, comme si la direction artistique était impuissante.

Pour moi ça n'est pas qu'une question de direction artistique. Si tu prends un court métrage comme Paperman de Disney qui lui a un rendu réellement différent, ils ont été obligé de développer leurs propres outils internes. Ça n'est pas du tout à la portée de n'importe qui et c'est un boulot monstre.
Des courts métrages en 3d qui singent l'aspect 2d comme Meet Buck sont le fruit de bricolages et ne sont possibles que parce qu'il y avait des outils non physiquement réalistes encore disponibles.

Il faut vraiment continuer à rendre disponible ce genre d'outil, par exemple la GI ne sert à rien dans un meet buck, ors il me semble que dans Arnold elle est forcement active. Je pense qu'on peut légitimement s'inquiéter d'une uniformisation au delà des considérations de la direction.

Pour l'instant tout reste relativement possible avec les moteurs actuels, mais méfions nous quand même. S'il y a uniformisation c'est aussi parce que les outils proposés ne sont pas simples d'utilisation au delà de leur périmètre d'action pseudo photo réaliste.
Ze_PilOt
 
Le vertueux a écrit :
Ah oui je ne dis pas du tout que c'est facile de placer des lights mais je me demandais si ça n'allait pas plus loin avec des équations ou ce genre de trucs nébuleux. Au final la théorie ne semble pas vraiment avoir d'influence sur le travail.


L'influence, c'est que ça rend le travail logique. Une bonne implémentation est transparente pour l'utilisateur.

Le vertueux a écrit :
ors il me semble que dans Arnold elle est forcement active.


C'est actif de base, rien ne t’empêche de la virer.
PacRim et Gravity n'ont pas la même esthétique, qui va bien au delà des considérations de type de rendu. Teintes, ambiances, ... PacRim jouent souvent avec des couleurs criardes pour colorer les réflexions des robots et ainsi les "dessiner".
Gravity a une approche quasiment chirurgicale de la lumière.





Le NPR (non photo-realistic rendering, comme paperman) n'est pas incompatible avec le PBR d'ailleurs. Comme je le dis dans l'article, si tu tapes des valeurs non-crédibles (qui n'existeraient pas dans la "nature") par exemple, tu auras un rendu qui reste physiquement correct, mais qui ne sera pas photo réaliste.
Ou simplement via le choix des matières et du travail de la lumière.

Par exemple le court Rob'n'Ron

ou



Encore une fois, ce n'est pas une question de moteur mais de DA.
Le vertueux
 
Je ne vois pas trop ce qu'il peut y avoir d'illogique, tu places tes lumières comme il est possible de le faire dans la réalité et tu paramètres tes shaders comme tu désires qu'ils soient. Par exemple le fait de savoir que l'aspect glossy d'un objet est dû à sa paroi lisse à l’échelle microscopique n'a aucune influence.

Et ça n'est qu'un certains type de logique, il y en a d'autres, la logique des contrastes, de couleurs, de composition qui peuvent justement entrer en contradiction avec la logique théorique. Le fait de rajouter des lights alors qu'il n'y a pas de source lumineuse dans la scène est un bon exemple. Pas besoin de connaître les règles théoriques pour les transgresser, il suffit juste d'en suivre d'autres.

Je dirais aussi que pour l'instant tous ces moteurs ne font qu'interpréter la réalité et sans une bonne postprod derrière l'aspect photo réaliste n'est pas toujours convaincant au rendu brut.
Et même chez les grosse prods ça n'est pas parfait, heureusement qu'il y a du motion blur, de la poussière, de la fumée, des plans courts et que ça bouge beaucoup !



Pour les exemples que tu donnes, je suis obligé de dire que ça ne marche pas vraiment.
Le changement de teintes et d'ambiance entre Gravity et un Pacific Rim est tout aussi normal que la différence de photographie entre un Derrick et un Julie Lescault. Ça n'est pas suffisamment différent pour parler de rendu non uniforme.

De même que pour les dessins animés que tu montres, l'image ressemble à du stop motion, et se retrouve donc à singer la réalité. Et l'autre c'est pareil, ça reste très réaliste dans bien des aspects, ça ne s'en détache pas vraiment.
Ze_PilOt
 
Le vertueux a écrit :
Je ne vois pas trop ce qu'il peut y avoir d'illogique, tu places tes lumières comme il est possible de le faire dans la réalité et tu paramètres tes shaders comme tu désires qu'ils soient. Par exemple le fait de savoir que l'aspect glossy d'un objet est dû à sa paroi lisse à l’échelle microscopique n'a aucune influence.


Parce que ce n'était pas le cas avant, simplement. Les contrôles que tu avais n'avaient aucun équivalent réel. le PBR rend ça logique (page 2 de l'article).
Et effectivement, tu n'as pas besoin de savoir pourquoi. Parce que c'est devenu logique justement.

Le vertueux a écrit :
Et ça n'est qu'un certains type de logique, il y en a d'autres, la logique des contrastes, de couleurs, de composition qui peuvent justement entrer en contradiction avec la logique théorique. Le fait de rajouter des lights alors qu'il n'y a pas de source lumineuse dans la scène est un bon exemple. Pas besoin de connaître les règles théoriques pour les transgresser, il suffit juste d'en suivre d'autres.


Oui, un taf de directeur photo donc. Tu ne transgresses rien, tu n'es pas du tout en contradiction avec quoi que ce soit, c'est comme ça qu'on éclaire depuis que le cinéma existe :)


Le vertueux a écrit :
Je dirais aussi que pour l'instant tous ces moteurs ne font qu'interpréter la réalité et sans une bonne postprod derrière l'aspect photo réaliste n'est pas toujours convaincant au rendu brut.


Tout comme un film sera probablement moche sans étalonnage.

Le vertueux a écrit :
Et même chez les grosse prods ça n'est pas parfait, heureusement qu'il y a du motion blur, de la poussière, de la fumée, des plans courts et que ça bouge beaucoup


Le PBR ne remplace pas le travail de l'artiste. Au contraire, être un bon artiste et avoir l'oeil est encore plus important.
C'est plus facile de trouver 5 mecs compétents pour un court que 200 mecs avec les même compétences pour un long. En fait ça n'arrive jamais, d'où les compromis.
Le niveau des artistes dans les grosses boîtes est étonnamment très bas. Enfin étonnant non, historiquement, ce sont des techniciens. Résoudre les probs étaient 90% du taf. La partie technique s'est effacée au fil du temps, mais la façon d'apprendre n'a pas changé.

Le vertueux a écrit :
Pour les exemples que tu donnes, je suis obligé de dire que ça ne marche pas vraiment.
Le changement de teintes et d'ambiance entre Gravity et un Pacific Rim est tout aussi normal que la différence de photographie entre un Derrick et un Julie Lescault. Ça n'est pas suffisamment différent pour parler de rendu non uniforme.

De même que pour les dessins animés que tu montres, l'image ressemble à du stop motion, et se retrouve donc à singer la réalité. Et l'autre c'est pareil, ça reste très réaliste dans bien des aspects, ça ne s'en détache pas vraiment.


On va pas lancer un débat sur l'esthétique, si pour toi tous les films (non 3d) se ressemblent, et que la seule esthétique qui s'en détache est le dessin animé, je vais pas essayer de te faire changer d'avis.
JusdePoubelle
 
Le vertueux a écrit :
Le miens aussi ^^
Si, depuis quelques mois je mets une courbe au lieu d'une simple valeur numérique dans l'IOR pour les shaders comme je l'ai vu dans un tuto de Grant Warwick, ça les rends plus réaliste, m'enfin ça ne change pas la phase du monde.


putain ca m'a valu qlq crises de nerf son pipeline à la mortmoilenoeud. Pas tant sur l'utilisation des courbes que les réglages des samples dans tous les sens. J'avoue, autant j'aime bien Vray par ce qu'il nous a permis de monter en niveaux sur de la petite prod, autant maintenant ca me saoule. Je suis pas spécialisé rendu et j'aimerais avoir un moteur qui me prend pas le choux à ce point. Surtout sur du rendu réaliste. Au final on perd du temps sur la technique, là ou on devrait se poser des questions artistiques.

Sinon Ze_Pilot, je vais peut etre posé une question conne, mais quant est il du "linear workflow" dans le temps reel? Ca a un impact non négligeable sur l'éclairage dans le précalc, donc j'imagine que ca devrait aussi etre implémenté ds le jv non?
Le vertueux
 
si pour toi tous les films (non 3d) se ressemblent, et que la seule esthétique qui s'en détache est le dessin animé,


Mais c'est pourtant un problème, puisque justement on est vite limité dès qu'on ne veut pas faire du réaliste avec des moteurs PBR.
Pacific Rim et Gravity ne se ressemblent pas, admettons, mais quand les gens parlent de craintes d'avoir des rendus identiques, c'est la crainte de ne pas avoir des rendus à la meet buck, de ne pas avoir du Okami, du Ninokuni, ça n'est pas la crainte de voir disparaitre la diversité des filtres vert ou caca marron qu'on peut mettre sur l'image.

Pour l'instant ça reste possible même si je ne crois pas que vray où arnold soient les mieux adaptés, mais surtout on reste dans le bricolage ou dans le développement d'outils très complexes inaccessibles à la plus part des boites.
J'aurais aimé justement qu'une boite sorte un moteur qui cherche complètement à s'éloigner de la réalité plutôt qu'un énième moteur physiquement réaliste.

Pas tant sur l'utilisation des courbes que les réglages des samples dans tous les sens. J'avoue, autant j'aime bien Vray par ce qu'il nous a permis de monter en niveaux sur de la petite prod, autant maintenant ca me saoule. Je suis pas spécialisé rendu et j'aimerais avoir un moteur qui me prend pas le choux à ce point. Surtout sur du rendu réaliste. Au final on perd du temps sur la technique, là ou on devrait se poser des questions artistiques.


La force de Vray c'est justement la possibilité d'optimiser, si tu ne veux pas te prendre la tête, tu mets tout en brute force et les subdiv des shaders et des lights à un nombre élevé. Mais du coup tu vas te retrouver avec un temps par image ingérable pour une petite boite.
Mais je suis d'accord avec toi, moi aussi ça me les brise et mes connaissances techniques sont limitées, rien que de mettre en cache la gi ou de la calculer une image sur 2 a failli avoir raison de nous. On a préféré laissé tomber d'ailleurs et admettre un peu de flickering.
Ze_PilOt
 
JusdePoubelle a écrit :
Au final on perd du temps sur la technique, là ou on devrait se poser des questions artistiques.


Le jour où il n'y aura plus de questions techniques est loin, mais quand le ratio devient trop important, il faut effectivement songer à changer.

JusdePoubelle a écrit :

Sinon Ze_Pilot, je vais peut etre posé une question conne, mais quant est il du "linear workflow" dans le temps reel? Ca a un impact non négligeable sur l'éclairage dans le précalc, donc j'imagine que ca devrait aussi etre implémenté ds le jv non?


C'est vrai que je ne l'ai pas du tout abordé. Mais oui c'est essentiel, et le temps réel travaille en linéaire également.
Ze_PilOt
 
Le vertueux a écrit :
mais quand les gens parlent de craintes d'avoir des rendus identiques, c'est la crainte de ne pas avoir des rendus à la meet buck, de ne pas avoir du Okami, du Ninokuni


On parle de quel % de la production de jeu vidéo? Tu peux m'en citer combien sorti en 2014? (et qui ne sont pas en 2d ou 2.5d?)
Ça a déjà disparu, c'est un peu tard pour s'interroger dessus. Fallait acheter Okami plutôt que COD 4 :)

Regarde les telltale, sorti de leur style ultra-codifié ( "coups de crayon dans les textures"), utilisé sur 3 jeux, c'est pas folichon (l'espèce de gribouillis infâme de Games of Thrones).

Le vertueux a écrit :
Pour l'instant ça reste possible même si je ne crois pas que vray où arnold soient les mieux adaptés, mais surtout on reste dans le bricolage ou dans le développement d'outils très complexes inaccessibles à la plus part des boites.
J'aurais aimé justement qu'une boite sorte un moteur qui cherche complètement à s'éloigner de la réalité plutôt qu'un énième moteur physiquement réaliste.


Le problème, c'est qu'il y a autant de style NPR que d'artistes. Pour reproduire un style, il faut passer par un dev custom, c'est quasiment obligatoire. Et pour le jeu aussi. Et encore, c'est la partie "facile". Après faut des mecs capable de le reproduire. Ca tombe pas des arbres.
C'est bien pour ça que sorti des contours noirs ajouté à la va-vite, ca a disparu des jeux 3d. Trop cher.

Sinon qui peut le plus peut le moins, tant que le moteur est ouvert, même s'il est prévu pour le PBR à la base, tu y arriveras. Mais faut développer.


Le vertueux a écrit :
Mais je suis d'accord avec toi, moi aussi ça me les brise et mes connaissances techniques sont limitées, rien que de mettre en cache la gi ou de la calculer une image sur 2 a failli avoir raison de nous. On a préféré laissé tomber d'ailleurs et admettre un peu de flickering.


C'est la principale raison qui me fait détester Vray alors que sur le papier, c'est un peu un rêve mouillé pour un mec qui fait du shading/lighting.
Pour chaque truc t'as au minimum 2 façons de faire, mais aucune des deux n'est parfaite. J'ai l'impression de jouer à un telltale : "Le mec du lighting se souviendra de ça".
Le vertueux
 
Je suppose qu'Arnold est plus rapide que le Brute force de Vray, parce que pour ce dernier y a vraiment rien à paramétrer, c'est hyper simple et hyper long.

Après pour de l'image fixe, irradiance map et light cache suffisent, sont unanimement utilisés et ça n'est pas très compliqué. Si on veut animer avec ces algo il suffit de booster les paramètres, y en a pas 36 non plus. Perso je dessine un pentacle rouge sur chaque pc de la renderfarm pour limiter le flickering.
Ensuite il y a les fonctions avancées comme mettre la GI en cache et faire une interpolation des images (si j'ai bien compris). Mais on avait des bugs avec la version sous Maya, on a laissé tombé, mais on peut s'en passer, ça n'est pas obligatoire, ce sont des fonctions facultatives.
Ze_PilOt
 
Poltro a écrit :
Je ne vois pas en quoi le pipeline PBR nécessite une plus grande maitrise des mathématiques ou de la physique de la lumière par l'artiste que les formes de rendus et d'art actuelles.


Au contraire, elle en demande moins, car elle est plus logique.

Poltro a écrit :
Il est évident qu'une maîtrise des propriétés de la lumière et de ce qu'elle évoque est utile mais j'ai juste l'impression qu'on est en plein bullshit technique en 10 ans de métier j'en ai vu des révolutions à deux balles mais là on touche vraiment un cas d'école.

En création et surtout en infographie on à des vraies révolutions plus souvent que dans d'autres métiers mais du coup on se tape aussi beaucoup d'enfumages.


Le PBR n'est pas une révolution. C'est des années d'intégrations de procédés qui se sont accumulés.

Poltro a écrit :
Ensuite il y a les avancées purement techniques comme l'AO ou la GI qui on réellement apportés un plus.


La GI est une composante du PBR justement.


Poltro a écrit :
Mais là on parle juste d'un nouveau pipeline qui est certes plus performant (réutilisation des textures/shaders et facilité à créer des bibliothèques cohérentes). Mais qui ne se traduit pas par une évolution des possibilités artistiques ou même par un meilleur réalisme technique.

Ce n'est pas un "pipeline". Ce sont une série de règle physiques appliquées au rendu.
Et au contraire, ça se traduit par un réalisme atteignable plus facilement, grace à la conservation de l'énergie, la gestion de sources lumineuses en tant que surfaces émitrices,...

Poltro a écrit :
Toutes les propriétés physiques dont tu parle sont déja bien simulées (au delà de la sensibilité humaine)


Justement non, elles ne l'étaient pas avant le PBR.
Pas de conservation de l'energie et des paramètres arbitraire pour les sources lumineuses (début page 2).

Poltro a écrit :
ou imitées et ne sont en rien plus cohérentes ou réalistes que le mix raytrace/post simulations actuels.


Le raytracing prend tout son sens en PBR, mais dire "le raytracing fait mieux" ne veut absolument rien dire.
Lancer des rayons dans une scène ne défini absolument pas comment un matériau se comporte. Ne confondons pas tout.

Et sinon si, le PBR est plus cohérent (voir page 2).

Poltro a écrit :
Pour moi les prochaines grosses révolutions qui vont changer la 3D sont plutôt par ordre probable d'arrivé :
- L'automatisation et la qualité des déplieurs UV

Déjà fait. Ca fait des années qu'on s'emmerde plus à déplier des meshes.

Poltro a écrit :
- La création de bibliothèques géantes.

Impossible sans PBR :)

Poltro a écrit :
- La maturité du rendu parallèle.


Aucune idée de ce que tu veux dire par là.

Poltro a écrit :
Très bon article, très intéressant j’espère qu'on en aura d'autres.


Soit il n'est pas bon car tu ne l'as pas compris, soit tu as raté la deuxième page :)
Le vertueux
 
La lisibilité des uvs est de moins en moins importante depuis qu'on utilise des logiciels de texturing 3d comme Mudbox, Substance ou Mari. On se passe de Photoshop, Disney utilisait même le Ptex où les uvs sont inexistants.
Il existe déjà des outils de dépliage automatique, combinés avec les outils de peinture 3d il n'y a pas besoin de d'avantages.

De plus l'augmentation des résolution supporte bien la tolérance sur de légères distorsions, inutile de passer un temps fou à optimiser.

Donc honnêtement je ne vois pas trop ce que tu imagines comme nouvel outil révolutionnaire pour les uvs.
Une IA qui reconnait que tu es en train de faire le dépliage d'un desert eagle plutôt que d'un Ak74, analyse la topologie, place les seams à la perfection pour avoir les shells les plus lisibles possibles, le tout sans distorsion et en un seul clic ?
Ze_PilOt
 
Poltro a écrit :
" Déjà fait. Ca fait des années qu'on s'emmerde plus à déplier des meshes. "
Non mais t'est sérieux ? Toutes les prods que je connais le font encore.


Ha bon? Ils connaissent pas Mari? :)

Poltro a écrit :
PS : Le rendu parallèle c'est le rendu GPU. Actuellement on est en progression rapide mais ce n'est pas encore mature.

Et ça ne le sera pas avant un paquet de temps. Pas assez de ram sur le GPU, et les solutions out of core sont pas forcément plus rapide.

Poltro a écrit :
Et je persiste, toutes les propriétés physiques dont tu parle sont déjà simulées,


Exactement. Tu es en train de me dire que le PBR est inutile parce que le PBR existe déjà :-)
Ca n'est rien d'autre que ça, et c'est l'intro de la première partie : Ca existe depuis des années en offline, le temps réel le découvre maintenant seulement.

Poltro a écrit :
Le PBR c'est juste une nouvelle organisation dans les maps des shaders et une normalisation des constantes afin qu'on puisse facilement créer des bibliothèques comme je le disais.


Non, relis la première partie, j'explique en quoi ça s'applique pour les matériaux.
Il est possible que pour une implementation dans un soft ça signifie qu'il y ait une uniformisation des paramètres, mais c'est une conséquence, pas le but.

Poltro a écrit :
Je n'ai pas comparé la performance du raytracing puisqu'il est le même dans un rendu PBR ou non.
La GI est une passe qui n'est pas liée au PBR puisqu'on peut la passer sans PBR.


Je pense que tu n'as pas compris ce qu'était le PBR. J'ai du très mal expliquer.

Ce n'est qu'une façon de respecter des phénomènes physiques défini par des formules mathématiques.
la GI est une de ces formules. Ca n'a aucun sens de dire que la GI n'est pas liée au PBR, le PBR n'est pas une chose, mais un ensemble de chose, dont la GI fait partie.

Oui elle a existé sans les micro-facettes, ca n'en reste pas moins un cacul physique de la lumière indirecte. "Demain", on utilisera de nouvelles en plus.
Ze_PilOt
 
Poltro a écrit :
Mais Mari ne déplie absolument pas les UV, c'est un logiciel qui permet de peindre sur l'objet mais un objet qui a déjà ses UV.
T'y connais rien en fait.


Mais le dépliage d'uv se fait en un clic (automatic mapping, zbrush, uvlayout, et zou). Ca fait bien longtemps qu'on ne passe plus des heures à faire des uvs, et encore moins à la main.
Le vertueux
 
Tu n'as pas compris ce qu'il a dit, ni ce que j'ai dit.
Pourquoi parle t-on de Mari ? Non pas parce qu'il déplie les uvs effectivement, mais parce qu'il peut gérer des uvs illisibles. Il est désormais inutile de faire de beaux dépliages que l'on peut voir parfaitement dans photoshop.

Donc tu vas dans n'importe quel logiciel de 3d, tu appuies sur auto mapping et c'est terminé. C'est fait en un clic, c'est instantané et tu as tes uvs sans distorsion que des logiciels de texturing modernes vont gérer sans problèmes.
Le vertueux
 
L'automaping crée des superpositions des polygones sur la map


Absolument pas. Tu es complètement déphasé.
Ze_PilOt
 
Je ne pense pas avoir employé une seule fois le mot "révolution" dans les deux articles. C'est clairement un empilage de techniques ayant pour but d'être physiquement correct, je pensais avoir était clair à ce propos dans l'intro du premier article.
Nicaulas
 
Tu fais bien ce que tu veux, mais je trouverais ça dommage. Les commentaires sont un espace de discussion, et même si je n'en ai pas compris un traître mot, elle semblait vachement intéressante.
Ze_PilOt
 
Je pense que tu lis de travers. Je n'ai jamais dis que Mari dépliait les UVs, mais j'insinuais que Mari rendait le dépliage d'uv de façon hyper-méthodique obselete.
Ce qui est complétement vrai : Le soucis de coupure que tu signales n'arrive plus avec Mari.
Poltro
 
Oui mais j'avais dépassé les bornes que je m'impose car je parlais de compétences alors que ça na rien a voir.
Du coup je préfère effacer.
Poltro
 
Je connais mal Mari donc je vais voir mais j'ai du mal à croire qu'il peut se passer d'UV propres car jusqu’à maintenant je n'ai jamais vus un processus pro sans.
C'est vrais que toutes les prods sur les quelles j'ai bossé sont assez classiques avec des riggers qui s'occupent des UV, je vais m'informer sur Mari.
Je le vois plus comme un outil qui permet de peindre avec des calques et je ne vois pas comment il peut corriger des erreurs d'UV tout seul.
Le vertueux
 
Dans 3ds max c'est flatten mapping, Maya auto mapping, dans Mudbox c'est create uvs, dans Zbrush c'est Auvtiles.

Aucun de ces dépliages automatiques ne créent de superposition quelle que soit la nature du mesh, que les vertex soient mergés ou non et sont parfaitement exploitables pour du texturing via Mudbox ou Mari et pour du rendu.


Maintenant, je n'utiliserai pas l'auto mapping pour déplier un perso définitif, ça m'arrive de le faire pour faire des tests de rendu sur des projets persos et ça marche parfaitement, mais puisque j'utilise encore un peu Photoshop pour le texturing j'ai encore besoin d'un dépliage lisible.
Et fort heureusement, le dépliage d'un perso complet ne prend pas des heures, avec un logiciel comme headus uvlayout c'est vite fait, on est loin de la pénibilité d'autrefois.

Pour ce qui est des distorsions, Mudbox ou Mari vont adapter ton texturing au dépliage, ainsi étirer, tordre en temps réel ton painting pour s'adapter aux UVs. Plus la résolution de ta texture est grande, plus Mudbox ou Mari ont de la place pour s'adapter à ces distorsions.
Évidemment, il ne s'agit pas d'avoir des uvs avec des distorsions importantes, mais de pouvoir rester tolérants sur les petites et ne pas passer des heures à déplier un objet.
Pour ce qui est du mapping auto, les distorsions sont très faibles.
Ze_PilOt
 
On utilise pas mal UVLayout (principalement pour tout ce qui n'est pas organique), et Zbrush pour l'organique (ca tabasse bien aussi niveau rapidité pour dépliage auto).

Dans tous les cas (zbrush, UVLayout, maya,..) l'auto-map gère correctement l'aire des surfaces, ce qui est aussi important que la non-superpositions des UVs, ce qui évite donc les problèmes de distortions.
LeGreg
 
De mon point de vue (du hardware), les coutures restent problématiques en temps réel. Après je ne connais pas tous les outils et peut-être qu'ils sont excellents à cacher les coutures automatiquement aujourd'hui sur n'importe quelle topologie.

En temps réel, Ptex n'est pas (encore) faisable vraiment même s'il y a une ou deux démos temps réel qui traînent par ci par là (on parle bien de "démos" qui ne font que ça).
D-Kalcke
 
Merci Poltro d'avoir rendu le débat encore moins compréhensible en effaçant tes posts...
mustach_cuir
 
C'est un peu flippant toutes ces contraintes techniques pour développer un look particulier. Pour un artiste avec une vision il faut 100 techniciens qui soient aussi un peu artiste en meme temps pendant tout le temps de la prod ? On risque pas de voir quelque chose de nouveau avant un moment.

Dans la post-prod aujourd'hui ou trouve t'on l'artiste ? Au montage, au compositing, au lighting, au modeling ?
Ouhlala
 
Bah le look particulier, c'est normalement le rôle du DA de s'en assurer. Je pense pas que l'absence de nouveauté à ce niveau là, soit réellement à cause d'une contrainte technique quelconques , mais juste de DA,TD ou de producteurs/réalisateur(ils ont aussi largement leur mot à dire sur l'aspect visuel) un peu frileux.
Des artistes, on en trouve absolument partout, juste qu'aujourd'hui il est aussi utile d'avoir connaissance des contraintes techniques en plus (surtout pour les superviseurs) pour ne pas demander l'impossible selon le budget alloué . Mais il est très courant , pour rassurer les producteurs, qu'on limite les risques, et donc qu'on se contente du "déjà fait", en terme visuel et technique.
JusdePoubelle
 
mustach_cuir a écrit :
C'est un peu flippant toutes ces contraintes techniques pour développer un look particulier. Pour un artiste avec une vision il faut 100 techniciens qui soient aussi un peu artiste en meme temps pendant tout le temps de la prod ? On risque pas de voir quelque chose de nouveau avant un moment.

Dans la post-prod aujourd'hui ou trouve t'on l'artiste ? Au montage, au compositing, au lighting, au modeling ?


Je trouve que c'est plutot le contraire. Ce dont parle Ze_Pilot c'est d'une uniformisation des techniques pour obtenir un environnement réaliste. Avant c'était seulement donné aux grosses structures qui se développaient des outils et une pipeline internes. Donc en tant qu'indé ou graphiste dans une petite boite tu regardais leur making of en bandant et tu tripotais tes outils de merde pour arriver à qlqchose de correct.
Plus ca va et plus on aura des outils de base logiques, ce qui implique bcp moins de prise de tete pour un "artiste".

Bon ensuite on revient sur le débat réaliste/artistique... C'est vrai que tous les films d'animation essayent de singer Pixar et les films FX baaaahh, c'est réaliste quoi. Apres il faut aller voir en dehors pour découvrir d'autres esthétiques. L'animation traditionnelle essaye de faire autre chose, en particulier en france, mais personne ne veut aller voir ca.
Ya aussi toute la scene motion design qui s’efforce de trouver de nouvelles esthétiques. Et ca passe souvent par les logiciels de 3D, qui ont complètement débrider la créativité ces dernières décennies. Donc non je pense pas que des outils peuvent uniformiser la production artistique.
Vous devez être connecté pour pouvoir participer à la discussion.
Cliquez ici pour vous connecter ou vous inscrire.
Soutenez Factornews.com

Tribune

Le vertueux
(17h22) Le vertueux Je croyais qu'il était mort il y a 20 ans.
Niko
(17h21) Niko Je refuse.
Doc_Nimbus
(17h14) Doc_Nimbus :(
_Kame_
(16h21) _Kame_ Gotlib est mort :'(
Zakwil
(14h52) Zakwil [youtube.com] très bon film et bonne BO
Laurent
(10h39) Laurent LeGreg > Oui, c'est un petit bijou. Il y a des moments où tu te dis "ah ouais, quand même !"
LeGreg
(07h06) LeGreg Crusing > MrPapillon > en tout cas pour l'instant I'm in love avec l'esthétique et les puzzles.
samedi 03 décembre 2016
Yolteotl
(23h55) Yolteotl Mais The last of us II !
Crusing
(23h42) Crusing Non, c'est un remaster.
Yolteotl
(19h15) Yolteotl Nouveau Wipeouit!
Yolteotl
(19h15) Yolteotl Nouveau Marvel vs capcom!
Yolteotl
(19h09) Yolteotl Et un nouveau uncharted
Yolteotl
(19h07) Yolteotl ça ressemble carrément à du Naughty dog ce premier jeu
Yolteotl
(18h39) Yolteotl [live.playstation.com]
Yolteotl
(18h39) Yolteotl Il n'y aura probablement pas grand chose d'excitant mais Playstation Expérience démarre à 19h
Crusing
(14h27) Crusing Big Apple > On dirait le pitch d'un épisode d'une vieille saison de south park.
Big Apple
(12h18) Big Apple l'info WTF du jour :)
Big Apple
(12h18) Big Apple "L'agent des services secrets allemands qui voulait commettre un attentat est un ancien acteur porno gay converti à l’islam en 2014."
vendredi 02 décembre 2016
Crusing
(21h37) Crusing (21h24) Y'a un paquet de puzzle qui mérite plus qu'une session au chiotte.La plupart en fait.
Crusing
(21h36) Crusing Evidemment, puisque tu fais les mauvais choix systématiquement, c'est bien légitime.
MrPapillon
(21h25) MrPapillon Crusing, tu savais que j'avais une WiiU ?
MrPapillon
(21h24) MrPapillon N'écoute pas Crusing.
MrPapillon
(21h24) MrPapillon On peut facilement faire des pauses de The Witness. C'est facile d'y replonger. En plus c'est vraiment un jeu qui peut se jouer par tout petits morceaux.
Crusing
(20h54) Crusing LeGreg > Bein le tout début oui, après ça demande quand même un poil d'abnégation, comprendre que certains puzzle peuvent soit te bloquer soit te prendre du temps. Et y'en a environs 600... donc en gros tu peux en faire une centaine en "casu"
LeGreg
(20h48) LeGreg Crusing > oui je sais. la question c'est est-ce que je pourrai y jouer en casual ou pas
Crusing
(20h40) Crusing LeGreg > Si t'as pas de temps, prendre the witness n'est pas très malin.
LeGreg
(20h32) LeGreg Bon j'ai choppé Doom et The Witness en solde. Faut juste que je trouve du temps pour y jouer un peu :/
zouz
(16h08) zouz Overwatch élu jeu de l'année aux game awards, content de voir que cette supercherie reste dans son élément.
Darkigo
(14h21) Darkigo MrPapillon > Ca me fait aussi penser à cet épisode de Battlestar où ils cherchent à atteindre une station spatiale au milieu d'un nuage de poussière...
Darkigo
(14h17) Darkigo MrPapillon > stylé ce rendu volumétrique ! Ca donne envie de faire une simu aérienne avec cette qualité de rendu !
Zakwil
(14h05) Zakwil [youtube.com] je laisse ça là
Khdot
(11h44) Khdot [nextinpact.com]
Doc_Nimbus
(10h03) Doc_Nimbus hohun > Oh oui, avec Gad Elmaleh et Kev Adams. <3
hohun
(09h55) hohun [lefigaro.fr] une bien bonne nouvelle en ces temps maussades
_Kame_
(09h00) _Kame_ LeGreg > J'ai pas dis que j'avais pas d'explications à ça, je soulignais juste le fait qu'on est une race stupide, et que oui, on regrettera Hollande.
LeGreg
(03h07) LeGreg Bon ça n'a pas marché pour Clinton.. mais elle a fait l'erreur de refaire parler d'elle :)
LeGreg
(03h05) LeGreg Les gens étaient jeunes quand il y avait Y.. du coup les problèmes liés à la vieillesse sont confondus avec la disparition de Y ou l'apparition de Z.
LeGreg
(03h04) LeGreg Kame> nostalgie. C'est comme pour les jeux vidéo
Crusing
(00h19) Crusing ♪ ♫ vooooootez jAcques chirAc ♫ ♪
_Kame_
(00h07) _Kame_ Chirac: en juin 2006, 27% de favorable, aujourd'hui, 83% disent qu'en fait c'était bien sous son mandat. D'accord les gens.
jeudi 01 décembre 2016
thedan
(23h46) thedan moi, je vous mets mon billet que dans 2 ou 3 ans, on le regrettera !
_Kame_
(23h23) _Kame_ Oh oui, l'impact de sa non candidature est tellement quantifiable et qualifiable sur la destinée de chacun de nous et de celle du pays, que c'est forcément une super nouvelle.
Laurent
(23h16) Laurent (20h13) Meilleure nouvelle de l'année
MrPapillon
(21h12) MrPapillon Les jeux du "lineup" de la sortie de l'Oculus Touch : [oculus.com] . Pas beaucoup de surprises, principalement des portages sur le Touch de trucs de l'Oculus Home et de Steam.
Crusing
(21h07) Crusing Haha Macron qui avait prévu une ITW en suivant, quel ténia ce mec.
Big Apple
(20h13) Big Apple Ah non, il déclare forfait
Big Apple
(19h56) Big Apple S'il a le sens de l'humour, il faudrait qu'il annonce la dissolution de l'assemblée nationale :)
Big Apple
(19h55) Big Apple Attention, événement : François Hollande va parler à 20h00
hohun
(18h27) hohun Encore un noob qui croit qu'il va mieux jouer parce qu'il a une bande passante de ouf !
hohun
(18h27) hohun [lexpress.fr] "Le très haut débit, ce n'est pas uniquement pour que tout le monde puisse jouer à Warcraft"
MrPapillon
(11h55) MrPapillon (Il y a une vidéo dans l'article).
MrPapillon
(11h55) MrPapillon Un peu de rendu volumétrique sous Unreal : [shaderbits.com] (Donc pas de triangles/polys pour ça, c'est une forme de rendu très praticulière).
MrPapillon
(08h55) MrPapillon Crusing > [theguardian.com]
Crusing
(08h31) Crusing MrPapillon > Je crois que c'est clair, un mec qui conduit n'importe comment en Lada dans un monde désolé rempli de tarés violents, c'est une allégorie de la Russie.
mercredi 30 novembre 2016
MrPapillon
(20h37) MrPapillon Lien sans la ponctuation : [vimeo.com]
MrPapillon
(20h36) MrPapillon Crusing > Le gars a l'air d'avoir un trip surréaliste cartoon bizarre assez maîtrisé ([vimeo.com] Du coup je vais attendre que ça soit plus avancé pour mieux comprendre où il veut en venir.
Crusing
(20h23) Crusing MrPapillon > Sympa, dommage que ce soit pas avec BeamNG, et que la caisse m'ai fait instantanément penser à ça [youtube.com]
Crusing
(20h08) Crusing CBL > Je viens de enfin convertir un vieil ipod3G en clef USB, alors très peu pour moi apeul. Non mais la samsung à l'air de faire le job.
CBL
(19h09) CBL Des graphistes de ma boite l'utilise comme une Cintiq grace à l'appli Duet et ca defonce
CBL
(19h08) CBL Crusing > Ipad Pro ?
MrPapillon
(17h25) MrPapillon Un survival en caisse : [forums.tigsource.com]
Crusing
(15h46) Crusing Niko > tu ferais mieux de trouver qui se cache derrière MetalSmileGeishAsh95, au lieu de dire des cochoncetés.
MrPapillon
(15h06) MrPapillon Il change une fois tous les 30 ans.
Niko
(14h33) Niko - Merde, on a un spambot! - Ah non, c'est juste Crusing qui a changé d'avatar
Crusing
(14h14) Crusing Krita a peut etre du couteau depuis.
Crusing
(14h13) Crusing Sinon Painter quoi...
Crusing
(14h12) Crusing Zakwil > C'est vieux Artrage, je sais pas comment ça a évolué.
Crusing
(14h12) Crusing Dites, à part la Galaxy View , y'a quoi comme tablette grand format?
Zakwil
(14h10) Zakwil bah on recherchait l'effet au couteau, ce qu'artrage a mais verve à l'air de mieux gérer les pâtés de peinture (plus 3d)
Crusing
(14h03) Crusing Zakwil > Artrage est mieux?
Zakwil
(13h49) Zakwil Crusing > merci c'est mieux
Crusing
(11h27) Crusing Zakwil > C'est quoi la diff avec Artrage?
Zakwil
(10h37) Zakwil il y a freshpaint sur la surface (mais pas d'effet couteau)
Zakwil
(09h54) Zakwil salut, il existe une alternative à [taron.de] un peu plus récente?
mardi 29 novembre 2016
MrPapillon
(23h14) MrPapillon Life is short : [youtube.com]
MrPapillon
(23h12) MrPapillon Ça devrait directement faire partie de Windows.
MrPapillon
(23h09) MrPapillon Faudrait la même chose sur FFXV.
Le vertueux
(22h58) Le vertueux Big Apple > c'est pas mal, faudrait la même chose sur des consoles portables.
Big Apple
(22h44) Big Apple MrPapillon > le meilleur filtre crt est le HLSL sur mame, vidéo de démonstration avant/après sur Street Fighter 2 [youtube.com]
Big Apple
(22h27) Big Apple si le space jockey d'alien avait une Gameboy, ça serait celle de Real Phoenix :)
The Real Phoenix
(20h43) The Real Phoenix Crusing > Pour que ca donne du gout.
Crusing
(20h23) Crusing Pourquoi diable l'avoir fait en pâte à sel!
The Real Phoenix
(17h06) The Real Phoenix Tiends en parlant d'emulation, j'ai fini ca hier pour un pote: [i.imgur.com] [i.imgur.com]
noir_desir
(16h54) noir_desir wata_ > Sur que ça motive vachement moins :(
dagon
(16h04) dagon (10h45) Crusing > toute la presse l'a annoncé, mais le site est de nouveau en ligne... efficace ^^
Crusing
(14h11) Crusing c'est l'anniversaire!! [youtube.com]
MrPapillon
(14h00) MrPapillon Et la basse résolution c'est moin joli sur un écran plat que sur un CRT.
MrPapillon
(13h59) MrPapillon Du bilinear + une haute résolution et on a l'impression que les décors sont plus vides que l'impression que ça donnait à l'époque. (Une des raisons pour lesquelles je préfère jouer de l'époque en basse réso et sans bilinear).
MrPapillon
(13h58) MrPapillon Crusing > Bah les graphs de l'époque fonctionnaient bien parce que les jeux étaient en basse résolution. Les pixels qui gigotaient de partout, ça créait du détail visuel, et quand on lisse tout ça on perd.
Crusing
(13h53) Crusing wata_ > Tu confonds pixel art et jeux 3D, personne veut du scanline sur MK64.
fwouedd
(13h50) fwouedd wata_ > Pas vraiment, tu peux améliorer le rendu quand c'est affiché en 3D. Mais avec les sprites de la 2D qui ont été conçu autour des imperfections du CRT, c'est plus moche avec un LCD que ça l'était.
wata_
(13h45) wata_ noir_desir > sûr que la patience d'attendre les soldes Steam & co sont le retour de baton de l'armure pour cheval d'Oblivion et ses nombreux émules
wata_
(13h43) wata_ Il y a vraiment deux école niveau émulation : "ouais Zelda64 en 4K antialiasing 120fps" et "bon faut que ce soit crado comme dans mon enfance"
fwouedd
(12h59) fwouedd Du coup, à moins d'être un vrai passionné du balayage, ça le fait. Par contre, c'est vraiment chiant à parametrer.
fwouedd
(12h58) fwouedd Ca prends tout en compte, le type de dalle, l'éclairage, ça simule le rafraichissement, les couleurs, les formes des ecrans.
fwouedd
(12h57) fwouedd MrPapillon > Ah clairement, mais les filtres CRT depuis quelques années sont vraiment balaises.
MrPapillon
(12h51) MrPapillon fwouedd > La vidéo était pas pour toi. On y voit clairement le gain de qualité entre un jeu sans filtre CRT et un vrai CRT.
fwouedd
(12h23) fwouedd (08h44) Je comprends pas ce que tu me montres. Ta video on voit un mame sans config HLSL.
rEkOM
(11h56) rEkOM Et en fouillant dans le github y'a même un patch POC pour jouer en VR :) [github.com]
rEkOM
(11h56) rEkOM Il vient d'avoir un hotfix du patch d'aout de Fez... [github.com]