Connexion
Pour récupérer votre compte, veuillez saisir votre adresse email. Vous allez recevoir un email contenant une adresse pour récupérer votre compte.
Inscription
En vous inscrivant, vous acceptez les conditions d'utilisation du site et de nous vendre votre âme pour un euro symbolique. Amusez vous, mais pliez vous à la charte.
 

Forums

The Physical Based Rendering Dossier - Partie II
Le vertueux
J'aime les films de karaté
Redac 4681 msgs
si pour toi tous les films (non 3d) se ressemblent, et que la seule esthétique qui s'en détache est le dessin animé,


Mais c'est pourtant un problème, puisque justement on est vite limité dès qu'on ne veut pas faire du réaliste avec des moteurs PBR.
Pacific Rim et Gravity ne se ressemblent pas, admettons, mais quand les gens parlent de craintes d'avoir des rendus identiques, c'est la crainte de ne pas avoir des rendus à la meet buck, de ne pas avoir du Okami, du Ninokuni, ça n'est pas la crainte de voir disparaitre la diversité des filtres vert ou caca marron qu'on peut mettre sur l'image.

Pour l'instant ça reste possible même si je ne crois pas que vray où arnold soient les mieux adaptés, mais surtout on reste dans le bricolage ou dans le développement d'outils très complexes inaccessibles à la plus part des boites.
J'aurais aimé justement qu'une boite sorte un moteur qui cherche complètement à s'éloigner de la réalité plutôt qu'un énième moteur physiquement réaliste.

Pas tant sur l'utilisation des courbes que les réglages des samples dans tous les sens. J'avoue, autant j'aime bien Vray par ce qu'il nous a permis de monter en niveaux sur de la petite prod, autant maintenant ca me saoule. Je suis pas spécialisé rendu et j'aimerais avoir un moteur qui me prend pas le choux à ce point. Surtout sur du rendu réaliste. Au final on perd du temps sur la technique, là ou on devrait se poser des questions artistiques.


La force de Vray c'est justement la possibilité d'optimiser, si tu ne veux pas te prendre la tête, tu mets tout en brute force et les subdiv des shaders et des lights à un nombre élevé. Mais du coup tu vas te retrouver avec un temps par image ingérable pour une petite boite.
Mais je suis d'accord avec toi, moi aussi ça me les brise et mes connaissances techniques sont limitées, rien que de mettre en cache la gi ou de la calculer une image sur 2 a failli avoir raison de nous. On a préféré laissé tomber d'ailleurs et admettre un peu de flickering.
 
Ze_PilOt
Membre Factor
Redac 3282 msgs
JusdePoubelle a écrit :
Au final on perd du temps sur la technique, là ou on devrait se poser des questions artistiques.


Le jour où il n'y aura plus de questions techniques est loin, mais quand le ratio devient trop important, il faut effectivement songer à changer.

JusdePoubelle a écrit :

Sinon Ze_Pilot, je vais peut etre posé une question conne, mais quant est il du "linear workflow" dans le temps reel? Ca a un impact non négligeable sur l'éclairage dans le précalc, donc j'imagine que ca devrait aussi etre implémenté ds le jv non?


C'est vrai que je ne l'ai pas du tout abordé. Mais oui c'est essentiel, et le temps réel travaille en linéaire également.
 
Ze_PilOt
Membre Factor
Redac 3282 msgs
Le vertueux a écrit :
mais quand les gens parlent de craintes d'avoir des rendus identiques, c'est la crainte de ne pas avoir des rendus à la meet buck, de ne pas avoir du Okami, du Ninokuni


On parle de quel % de la production de jeu vidéo? Tu peux m'en citer combien sorti en 2014? (et qui ne sont pas en 2d ou 2.5d?)
Ça a déjà disparu, c'est un peu tard pour s'interroger dessus. Fallait acheter Okami plutôt que COD 4 :)

Regarde les telltale, sorti de leur style ultra-codifié ( "coups de crayon dans les textures"), utilisé sur 3 jeux, c'est pas folichon (l'espèce de gribouillis infâme de Games of Thrones).

Le vertueux a écrit :
Pour l'instant ça reste possible même si je ne crois pas que vray où arnold soient les mieux adaptés, mais surtout on reste dans le bricolage ou dans le développement d'outils très complexes inaccessibles à la plus part des boites.
J'aurais aimé justement qu'une boite sorte un moteur qui cherche complètement à s'éloigner de la réalité plutôt qu'un énième moteur physiquement réaliste.


Le problème, c'est qu'il y a autant de style NPR que d'artistes. Pour reproduire un style, il faut passer par un dev custom, c'est quasiment obligatoire. Et pour le jeu aussi. Et encore, c'est la partie "facile". Après faut des mecs capable de le reproduire. Ca tombe pas des arbres.
C'est bien pour ça que sorti des contours noirs ajouté à la va-vite, ca a disparu des jeux 3d. Trop cher.

Sinon qui peut le plus peut le moins, tant que le moteur est ouvert, même s'il est prévu pour le PBR à la base, tu y arriveras. Mais faut développer.


Le vertueux a écrit :
Mais je suis d'accord avec toi, moi aussi ça me les brise et mes connaissances techniques sont limitées, rien que de mettre en cache la gi ou de la calculer une image sur 2 a failli avoir raison de nous. On a préféré laissé tomber d'ailleurs et admettre un peu de flickering.


C'est la principale raison qui me fait détester Vray alors que sur le papier, c'est un peu un rêve mouillé pour un mec qui fait du shading/lighting.
Pour chaque truc t'as au minimum 2 façons de faire, mais aucune des deux n'est parfaite. J'ai l'impression de jouer à un telltale : "Le mec du lighting se souviendra de ça".
 
Le vertueux
J'aime les films de karaté
Redac 4681 msgs
Je suppose qu'Arnold est plus rapide que le Brute force de Vray, parce que pour ce dernier y a vraiment rien à paramétrer, c'est hyper simple et hyper long.

Après pour de l'image fixe, irradiance map et light cache suffisent, sont unanimement utilisés et ça n'est pas très compliqué. Si on veut animer avec ces algo il suffit de booster les paramètres, y en a pas 36 non plus. Perso je dessine un pentacle rouge sur chaque pc de la renderfarm pour limiter le flickering.
Ensuite il y a les fonctions avancées comme mettre la GI en cache et faire une interpolation des images (si j'ai bien compris). Mais on avait des bugs avec la version sous Maya, on a laissé tombé, mais on peut s'en passer, ça n'est pas obligatoire, ce sont des fonctions facultatives.
 
Ze_PilOt
Membre Factor
Redac 3282 msgs
Poltro a écrit :
Je ne vois pas en quoi le pipeline PBR nécessite une plus grande maitrise des mathématiques ou de la physique de la lumière par l'artiste que les formes de rendus et d'art actuelles.


Au contraire, elle en demande moins, car elle est plus logique.

Poltro a écrit :
Il est évident qu'une maîtrise des propriétés de la lumière et de ce qu'elle évoque est utile mais j'ai juste l'impression qu'on est en plein bullshit technique en 10 ans de métier j'en ai vu des révolutions à deux balles mais là on touche vraiment un cas d'école.

En création et surtout en infographie on à des vraies révolutions plus souvent que dans d'autres métiers mais du coup on se tape aussi beaucoup d'enfumages.


Le PBR n'est pas une révolution. C'est des années d'intégrations de procédés qui se sont accumulés.

Poltro a écrit :
Ensuite il y a les avancées purement techniques comme l'AO ou la GI qui on réellement apportés un plus.


La GI est une composante du PBR justement.


Poltro a écrit :
Mais là on parle juste d'un nouveau pipeline qui est certes plus performant (réutilisation des textures/shaders et facilité à créer des bibliothèques cohérentes). Mais qui ne se traduit pas par une évolution des possibilités artistiques ou même par un meilleur réalisme technique.

Ce n'est pas un "pipeline". Ce sont une série de règle physiques appliquées au rendu.
Et au contraire, ça se traduit par un réalisme atteignable plus facilement, grace à la conservation de l'énergie, la gestion de sources lumineuses en tant que surfaces émitrices,...

Poltro a écrit :
Toutes les propriétés physiques dont tu parle sont déja bien simulées (au delà de la sensibilité humaine)


Justement non, elles ne l'étaient pas avant le PBR.
Pas de conservation de l'energie et des paramètres arbitraire pour les sources lumineuses (début page 2).

Poltro a écrit :
ou imitées et ne sont en rien plus cohérentes ou réalistes que le mix raytrace/post simulations actuels.


Le raytracing prend tout son sens en PBR, mais dire "le raytracing fait mieux" ne veut absolument rien dire.
Lancer des rayons dans une scène ne défini absolument pas comment un matériau se comporte. Ne confondons pas tout.

Et sinon si, le PBR est plus cohérent (voir page 2).

Poltro a écrit :
Pour moi les prochaines grosses révolutions qui vont changer la 3D sont plutôt par ordre probable d'arrivé :
- L'automatisation et la qualité des déplieurs UV

Déjà fait. Ca fait des années qu'on s'emmerde plus à déplier des meshes.

Poltro a écrit :
- La création de bibliothèques géantes.

Impossible sans PBR :)

Poltro a écrit :
- La maturité du rendu parallèle.


Aucune idée de ce que tu veux dire par là.

Poltro a écrit :
Très bon article, très intéressant j’espère qu'on en aura d'autres.


Soit il n'est pas bon car tu ne l'as pas compris, soit tu as raté la deuxième page :)
 
Le vertueux
J'aime les films de karaté
Redac 4681 msgs
La lisibilité des uvs est de moins en moins importante depuis qu'on utilise des logiciels de texturing 3d comme Mudbox, Substance ou Mari. On se passe de Photoshop, Disney utilisait même le Ptex où les uvs sont inexistants.
Il existe déjà des outils de dépliage automatique, combinés avec les outils de peinture 3d il n'y a pas besoin de d'avantages.

De plus l'augmentation des résolution supporte bien la tolérance sur de légères distorsions, inutile de passer un temps fou à optimiser.

Donc honnêtement je ne vois pas trop ce que tu imagines comme nouvel outil révolutionnaire pour les uvs.
Une IA qui reconnait que tu es en train de faire le dépliage d'un desert eagle plutôt que d'un Ak74, analyse la topologie, place les seams à la perfection pour avoir les shells les plus lisibles possibles, le tout sans distorsion et en un seul clic ?
 
Ze_PilOt
Membre Factor
Redac 3282 msgs
Poltro a écrit :
" Déjà fait. Ca fait des années qu'on s'emmerde plus à déplier des meshes. "
Non mais t'est sérieux ? Toutes les prods que je connais le font encore.


Ha bon? Ils connaissent pas Mari? :)

Poltro a écrit :
PS : Le rendu parallèle c'est le rendu GPU. Actuellement on est en progression rapide mais ce n'est pas encore mature.

Et ça ne le sera pas avant un paquet de temps. Pas assez de ram sur le GPU, et les solutions out of core sont pas forcément plus rapide.

Poltro a écrit :
Et je persiste, toutes les propriétés physiques dont tu parle sont déjà simulées,


Exactement. Tu es en train de me dire que le PBR est inutile parce que le PBR existe déjà :-)
Ca n'est rien d'autre que ça, et c'est l'intro de la première partie : Ca existe depuis des années en offline, le temps réel le découvre maintenant seulement.

Poltro a écrit :
Le PBR c'est juste une nouvelle organisation dans les maps des shaders et une normalisation des constantes afin qu'on puisse facilement créer des bibliothèques comme je le disais.


Non, relis la première partie, j'explique en quoi ça s'applique pour les matériaux.
Il est possible que pour une implementation dans un soft ça signifie qu'il y ait une uniformisation des paramètres, mais c'est une conséquence, pas le but.

Poltro a écrit :
Je n'ai pas comparé la performance du raytracing puisqu'il est le même dans un rendu PBR ou non.
La GI est une passe qui n'est pas liée au PBR puisqu'on peut la passer sans PBR.


Je pense que tu n'as pas compris ce qu'était le PBR. J'ai du très mal expliquer.

Ce n'est qu'une façon de respecter des phénomènes physiques défini par des formules mathématiques.
la GI est une de ces formules. Ca n'a aucun sens de dire que la GI n'est pas liée au PBR, le PBR n'est pas une chose, mais un ensemble de chose, dont la GI fait partie.

Oui elle a existé sans les micro-facettes, ca n'en reste pas moins un cacul physique de la lumière indirecte. "Demain", on utilisera de nouvelles en plus.
 
Ze_PilOt
Membre Factor
Redac 3282 msgs
Poltro a écrit :
Mais Mari ne déplie absolument pas les UV, c'est un logiciel qui permet de peindre sur l'objet mais un objet qui a déjà ses UV.
T'y connais rien en fait.


Mais le dépliage d'uv se fait en un clic (automatic mapping, zbrush, uvlayout, et zou). Ca fait bien longtemps qu'on ne passe plus des heures à faire des uvs, et encore moins à la main.
 
Le vertueux
J'aime les films de karaté
Redac 4681 msgs
Tu n'as pas compris ce qu'il a dit, ni ce que j'ai dit.
Pourquoi parle t-on de Mari ? Non pas parce qu'il déplie les uvs effectivement, mais parce qu'il peut gérer des uvs illisibles. Il est désormais inutile de faire de beaux dépliages que l'on peut voir parfaitement dans photoshop.

Donc tu vas dans n'importe quel logiciel de 3d, tu appuies sur auto mapping et c'est terminé. C'est fait en un clic, c'est instantané et tu as tes uvs sans distorsion que des logiciels de texturing modernes vont gérer sans problèmes.
 
Le vertueux
J'aime les films de karaté
Redac 4681 msgs
L'automaping crée des superpositions des polygones sur la map


Absolument pas. Tu es complètement déphasé.
 
Ze_PilOt
Membre Factor
Redac 3282 msgs
Je ne pense pas avoir employé une seule fois le mot "révolution" dans les deux articles. C'est clairement un empilage de techniques ayant pour but d'être physiquement correct, je pensais avoir était clair à ce propos dans l'intro du premier article.
 
Nicaulas
Footix
Redac 1453 msgs
Tu fais bien ce que tu veux, mais je trouverais ça dommage. Les commentaires sont un espace de discussion, et même si je n'en ai pas compris un traître mot, elle semblait vachement intéressante.
 
Ze_PilOt
Membre Factor
Redac 3282 msgs
Je pense que tu lis de travers. Je n'ai jamais dis que Mari dépliait les UVs, mais j'insinuais que Mari rendait le dépliage d'uv de façon hyper-méthodique obselete.
Ce qui est complétement vrai : Le soucis de coupure que tu signales n'arrive plus avec Mari.
 
Poltro
Membre Factor
Membre 23 msgs
Oui mais j'avais dépassé les bornes que je m'impose car je parlais de compétences alors que ça na rien a voir.
Du coup je préfère effacer.
 
Poltro
Membre Factor
Membre 23 msgs
Je connais mal Mari donc je vais voir mais j'ai du mal à croire qu'il peut se passer d'UV propres car jusqu’à maintenant je n'ai jamais vus un processus pro sans.
C'est vrais que toutes les prods sur les quelles j'ai bossé sont assez classiques avec des riggers qui s'occupent des UV, je vais m'informer sur Mari.
Je le vois plus comme un outil qui permet de peindre avec des calques et je ne vois pas comment il peut corriger des erreurs d'UV tout seul.
 
Le vertueux
J'aime les films de karaté
Redac 4681 msgs
Dans 3ds max c'est flatten mapping, Maya auto mapping, dans Mudbox c'est create uvs, dans Zbrush c'est Auvtiles.

Aucun de ces dépliages automatiques ne créent de superposition quelle que soit la nature du mesh, que les vertex soient mergés ou non et sont parfaitement exploitables pour du texturing via Mudbox ou Mari et pour du rendu.


Maintenant, je n'utiliserai pas l'auto mapping pour déplier un perso définitif, ça m'arrive de le faire pour faire des tests de rendu sur des projets persos et ça marche parfaitement, mais puisque j'utilise encore un peu Photoshop pour le texturing j'ai encore besoin d'un dépliage lisible.
Et fort heureusement, le dépliage d'un perso complet ne prend pas des heures, avec un logiciel comme headus uvlayout c'est vite fait, on est loin de la pénibilité d'autrefois.

Pour ce qui est des distorsions, Mudbox ou Mari vont adapter ton texturing au dépliage, ainsi étirer, tordre en temps réel ton painting pour s'adapter aux UVs. Plus la résolution de ta texture est grande, plus Mudbox ou Mari ont de la place pour s'adapter à ces distorsions.
Évidemment, il ne s'agit pas d'avoir des uvs avec des distorsions importantes, mais de pouvoir rester tolérants sur les petites et ne pas passer des heures à déplier un objet.
Pour ce qui est du mapping auto, les distorsions sont très faibles.
 
Ze_PilOt
Membre Factor
Redac 3282 msgs
On utilise pas mal UVLayout (principalement pour tout ce qui n'est pas organique), et Zbrush pour l'organique (ca tabasse bien aussi niveau rapidité pour dépliage auto).

Dans tous les cas (zbrush, UVLayout, maya,..) l'auto-map gère correctement l'aire des surfaces, ce qui est aussi important que la non-superpositions des UVs, ce qui évite donc les problèmes de distortions.
 
LeGreg
Membre Factor
Redac 1513 msgs
De mon point de vue (du hardware), les coutures restent problématiques en temps réel. Après je ne connais pas tous les outils et peut-être qu'ils sont excellents à cacher les coutures automatiquement aujourd'hui sur n'importe quelle topologie.

En temps réel, Ptex n'est pas (encore) faisable vraiment même s'il y a une ou deux démos temps réel qui traînent par ci par là (on parle bien de "démos" qui ne font que ça).
 
D-Kalcke
L-O-U-R-D
Membre 4054 msgs
Merci Poltro d'avoir rendu le débat encore moins compréhensible en effaçant tes posts...
 
mustach_cuir
Membre Factor
Membre 54 msgs
C'est un peu flippant toutes ces contraintes techniques pour développer un look particulier. Pour un artiste avec une vision il faut 100 techniciens qui soient aussi un peu artiste en meme temps pendant tout le temps de la prod ? On risque pas de voir quelque chose de nouveau avant un moment.

Dans la post-prod aujourd'hui ou trouve t'on l'artiste ? Au montage, au compositing, au lighting, au modeling ?
 
Vous devez être connecté pour pouvoir participer à la discussion.
Cliquez ici pour vous connecter ou vous inscrire.

Règles à suivre

Écrire dans un français correct et lisible : ni phonétique, ni style SMS. Le warez et les incitations au piratage sont interdits. La pornographie est interdite. Le racisme et les incitations au racisme sont interdits. L'agressivité envers d'autres membres, les menaces, le dénigrement systématique sont interdits. Éviter les messages inutiles

 
Rechercher sur Factornews