Connexion
Pour récupérer votre compte, veuillez saisir votre adresse email. Vous allez recevoir un email contenant une adresse pour récupérer votre compte.
Inscription
En vous inscrivant, vous acceptez les conditions d'utilisation du site et de nous vendre votre âme pour un euro symbolique. Amusez vous, mais pliez vous à la charte.
 
ARTICLE

The Physical Based Rendering Dossier - Partie II

Ze_PilOt par Ze_PilOt,  email  @@Ze_PilOt
 
Dans la première partie de ce dossier, nous avons survolé la physique des matériaux. Mais ce n'est qu'une partie du problème. Sans lumière, pas d'image!

Nous allons dans cette partie nous concentrer sur la gestion des sources d'éclairage, mais également voir en quoi elle est différente de la méthode "historique".
Pour un moteur de rendu physiquement plausible, la lumière, ou plutôt les sources de lumière visibles (pas d'infra-rouge ou l'ultra-violet) se doivent de respecter certaines lois.
  • Une source de lumière n'est jamais de taille nulle.
  • Une source de lumière est omni-directionnelle.
En plus de sa position, une source est définie par sa taille, son intensité et sa température.

La température

Mesurée en Kelvin, elle correspond à la teinte de la source lumineuse.

On pourra dans la plupart des moteurs sortir des clous et employer directement une teinte (en RGB) afin de simuler les gélatines (calques colorés placé devant des éclairages pour les teinter) ou certains éclairages artificiels (LED, lampes au mercure,...).

L'intensité

L'intensité d'une source de lumière se mesure (en système international) en candela. Elle est valable dans une direction donnée (n'importe laquelle, une source est omni-directionelle, donc éclaire dans toutes les directions à la fois à la même intensité), et dont la quantité d'énergie dans cette direction est de 1/683 watt par stéradian.

un stéradian?

C'est l'unité de mesure d'angle solides.

Un angle solide?

Comme ça ne vous avance pas beaucoup, il me faut expliquer quelques concepts fondamentaux utilisés en physique (et donc en PBR). Comme nous ne sommes pas à l'école, faisons ça de manière ludique.

Imaginez une sphère autour de votre oeil. Maintenant, prenez n'importe quel objet autour de vous, et projetez-le sur cette sphère. Vous noterez que quelque soit la taille de votre sphère, les objets projetés dessus auront toujours la même taille relativement à la sphère. Nous sommes désormais dans un espace bi-dimensionnel. Les objets lointains sont plus petits plutôt que plus loin.

Chaque objet a donc une taille. L'angle solide permet de mesure cette taille.
 
Si la surface de cet objet est égale au rayon de cette sphère au carré, il mesure un stéradian. Cette unité a l'avantage d'être indépendante de la taille ou de la distance réelle de l'objet. Et comme un stéradian est relatif au rayon de la sphère, sa taille n'importe pas non plus (et parce que de toutes façons, même si cette sphère était deux fois plus grosse, la taille des objets sur celle-ci ne changerait pas).

Okay... Et le Watt?

Et le watt, c'est l'unité internationale de puissance ou de flux énergétique. Si je dois définir chaque mot, on y sera encore demain!
Reprenons :  Une lampe émettant 0,0014 watt sur un stéradian a une intensité de 1 candela. C'est ce que ferait une chandelle/bougie (d'où le nom si vous n'aviez pas encore deviné).

C'était pas si dur...

Non, mais nous avons également le lux et le lumen. Cette dernière prend en compte le flux lumineux. De toutes façons, dans un moteur de rendu, connaître l'intensité exacte d'une lampe importe peu. Mais cela permet d'introduire des notions qui seront importantes par la suite.

La taille

On a failli l'oublier celle-là. Il faudrait plutôt dire: la taille relative par rapport à un point de l'objet que l'on éclaire. La raison de cette précision : L'intensité lumineuse décroit selon l'inverse du carré de la distance.
Prenez une feuille blanche et une ampoule. Enfin ne prenez pas l'ampoule, mettez là plutôt dans un socket et allumez-la. Mettez la feuille proche de l'ampoule. Reculez. La feuille est de moins en moins éclairée. On est d'accord, il n'y a rien de magique. Mais pourquoi ? La lumière est-elle absorbée par l'air ? Oui, mais si peu que c'est négligeable. De plus, si vous remplacez votre feuille par un miroir, la lampe ne va pas paraitre plus sombre dans le reflet lorsque vous vous éloignez. Et là ça commence à être magique.
 
Elle ne va pas devenir plus sombre, mais elle va devenir plus petite. Et c'est bien ceci qui est en jeu ici. Prenez un point sur votre feuille. La lumière que ce point reçoit provient de tout autour de lui. Nous pourrions dire : d'une sphère autour de lui. Et revoici notre sphère virtuelle et ses angles solides!
Si votre lampe ne perd pas d'intensité quand vous vous éloignez, sa projection sur cette sphère est par contre de plus en plus petite.

Si l'on faisait une moyenne de la lumière de toute la sphère, plus la lampe s'éloigne, plus elle fait baisser la moyenne. Moins elle a d'importance. Moins elle éclaire. C'est comme vous voulez.
La surface d'une sphère étant de 4*pi*r²  (r étant son rayon), si votre lampe éclaire sur toute sa surface à une puissance "P", sa contribution sur notre point sera donc de P / 4*pi*r². La contribution de votre lampe diminue donc par 4 chaque fois que la distance r est doublée. Autrement dit, elle décroit de 1 / r².  La lumière décroit selon l'inverse du carré de la distance. C'est la loi du carré inverse.

Le point de notre feuille serait au centre de la sphère. La porte n'est évidemment pas plus petite que le réflecteur blanc, mais son angle solide est plus petit. Mais concentrons nous sur la lampe de cette image.

"Mais pourquoi ne diminue telle pas dans le cas du miroir ?" me demanderez-vous. C'est pourtant le cas. Si vous faîtes la moyenne de l'énergie reçue par le miroir, elle diminuera de 4 fois à chaque fois que vous doublez la distance. Car la lampe sera plus petite dans le miroir.
C'est très important et je ne veux pas porter à confusion : Un photon ne se dissipe pas avec la distance qu'il a parcouru. Par contre, un ensemble de photons va de plus en plus s'écarter avec la distance, et la quantité de photons que vous recevez au final diminue. Et c'est cette quantité de photons qui détermine l'intensité de votre source.

Relation avec les matériaux

Repensez aux micro-facettes de la première partie du dossier.

Le miroir à gauche, la feuille à droite.

Dans le cas de la feuille, les rayons frappant la surface partent dans toutes les directions. Dans le cas du miroir, les rayons partent tous dans la même direction. Dans les deux cas, ce qui importe est la lumière frappant votre rétine.
Le schéma ne montre qu'une seule direction de rayon. Mais la lumière, comme nous l'avons vu précédemment, vient de toutes les directions. Vous pouvez inversez le sens des flèches sur le dessin.

Dans le cas de la feuille, pour un point de la surface, vous voyez la totalité de la sphère autour de ce point. Et donc, plus la lumière est loin, moins elle y contribue.
Dans le cas du miroir, vous ne recevez qu'un angle précis sur cette sphère. Plus la lumière est loin, moins vous avez "de chance" de voir la source de lumière car elle prend "moins de place".
Ce qui signifie que plus votre materiau a une surface lisse, plus il ré-émettra de la lumière venant d'un point précis selon votre point de vue. Plus la surface sera perturbée, plus il réémettra de la lumière venant de toute part, et moins votre point de vue aura d'importance.

Plus la surface est perturbée, plus la lumière reçue est uniforme, comme une moyenne de la "sphère" autour de chaque point de la surface.

A noter que dans les moteurs de rendu, on ne considère souvent pas une sphère complète autour du point, mais un hémisphère (une demi-sphère) : A moins que le materiau soit translucide, l'autre moitié de l'hemisphère ne reçoit pas de lumière (imaginez être à l'intérieur du bois). Le calcul en est deux fois plus rapide.

En page deux, vous découvrirez enfin à quoi cela sert de s'embêter avec tout ça!
 

Commentaires

Masquer les commentaires lus.
Ouhlala
 
Intéressant . Ca me donne sérieusement envie de me remettre au rendu . La dernière fois que je m'y suis mis, Mental Ray c'était le top avec renderman (c'est pour dire combien çà date :P)
hiroshimacc
 
Juste pour info Ze_Pilot, tu fais quoi dans la vie ? Je me tâtais entre dev et artiste, mais me rappelant que tu as fais un launcher pour SupCom, j'imagine que tu es dev :P. Spécifiquement moteur ?
Paulozz
 
hiroshimacc a écrit :
JJe me tâtais entre dev et artiste


Un artiste avec un doctorat de physique ?
Ze_PilOt
 
Même si je fais du dev, je ne suis pas dev mais superviseur/TD lighting/shading (et j'en fais pas mal aussi du coup). Donc rien n'empêche de faire les deux (c'est le cas de tous les bons directeurs techniques).

Les principes physiques que j'explique ici sont normallement tous connus par un élève de terminale, pas besoin de doctorat :)
mustach_cuir
 
Ze_PilOt a écrit :
Même si je fais du dev, je ne suis pas dev mais superviseur/TD lighting/shading (et j'en fais pas mal aussi du coup). Donc rien n'empêche de faire les deux (c'est le cas de tous les bons directeurs techniques).


Pour de la prod de VFX ou de jeux vidéos ?
Je demande mais je n'ai aucune idée si les 2 ont la même organisation.
D-Kalcke
 
mustach_cuir a écrit :
Ze_PilOt a écrit :
Même si je fais du dev, je ne suis pas dev mais superviseur/TD lighting/shading (et j'en fais pas mal aussi du coup). Donc rien n'empêche de faire les deux (c'est le cas de tous les bons directeurs techniques).


Pour de la prod de VFX ou de jeux vidéos ?
Visiblement, il fait pas de jeux vidéos, puisque si j'ai bien compris, il fait pas trop dans le temps réel.
Paulozz
 
Ze_PilOt a écrit :

Les principes physiques que j'explique ici sont normallement tous connus par un élève de terminale, pas besoin de doctorat :)


On exagere tous les 2. Bien sur qu'il faut pas un doctorat. Mais ton éleve de terminal il est en S, et il est plutot bon.
De plus, si je ne me trompe pas, le programme de physique de terminal ne fait que survoler tout ca. Typiquement, je pense que l'angle solide n'est meme pas évoqué pour me pas troubler les éleves.

Je disais ca parce que clairement tu n'es pas un artiste. Je pense que je dois en avoir renconter maximum 2 qui savaient calculer l'aire d'un cercle ^^
Ze_PilOt
 
Paulozz a écrit :
On exagere tous les 2. Bien sur qu'il faut pas un doctorat. Mais ton éleve de terminal il est en S, et il est plutot bon.


Je ne connais pas les équivalents français, mais je me souviens d'avoir vu tout ça dans l'équivalent de vos terminales. Bon après j'avais oublié la moitié parce qu'on ne m'avait jamais expliqué que ça pouvait servir dans ce que je voulais faire plus tard.
Idem avec les matrices en math...

Paulozz a écrit :
Je disais ca parce que clairement tu n'es pas un artiste. Je pense que je dois en avoir renconter maximum 2 qui savaient calculer l'aire d'un cercle ^^


Pourtant je sors d'une académie de beaux arts... L'un empêche pas l'autre, et les deux sont nécessaires pour certains postes.
Paulozz
 
Ze_PilOt a écrit :


Je ne connais pas les équivalents français, mais je me souviens d'avoir vu tout ça dans l'équivalent de vos terminales. Bon après j'avais oublié la moitié parce qu'on ne m'avait jamais expliqué que ça pouvait servir dans ce que je voulais faire plus tard.
Idem avec les matrices en math...


Tout s'explique !
En France la terminal c'est beaucoup plus simple depuis les années 90.
Par exemple en maths, on entends pas parler de matrice avant le bac.
D'ailleurs, quand je suis arrivé en fac ca m'avais choqué. Les types venues des ex colonies d'afrique avaient un tres bon niveau comparé a moi. En fait ils utilisent encore le programme du bac des années 60, du coup, ils connaissaient déja tres bien les matrices, et plein d'autres trucs. C'est que vers la fin de la 2eme années qu'on commencait a faire des trucs qu'ils ne connaissaient pas (ce qui leur fait un gros choc en général).

Ze_PilOt a écrit :
Pourtant je sors d'une académie de beaux arts... L'un empêche pas l'autre, et les deux sont nécessaires pour certains postes.

Dans ce cas, je n'ai qu'une chose a dire : chapeau l'artiste !
LeGreg
 
Quelques compléments :

Pour ceux qui se demandent pourquoi on parle de "température" de lumière, cela n'est pas toujours très clair. Mais ça a une base physique, il s'agit de la forme de la radiation d'un corps noir ("black body radiation" en anglais). Un corps qui est chauffé va spontanément émettre des photons. Au départ ces photons ne seront pas très énergétique, par exemple votre corps à 37 degrés celsius émet des photons dans l'infrarouge (lumière non directement visible). Mais si on vous chauffait très très fort vous commenceriez à émettre des photons de plus en plus énergétique jusqu'au point ou finalement ils seront visibles. C'est le principe des lampes à incandescence, un bout de métal est chauffé par la circulation de courant jusqu'à ce que le métal émette dans tout le spectre visible. Le spectre émis est donc directement lié à la température du métal. Plus bleu si plus chaud, et plus rouge si plus froid (l'inverse de la convention artistique de la "température des couleurs").
Cette dénomination est évidemment un raccourci pour des sources de lumière plus complexes, un spectre ne peut pas être résumé à un chiffre dans une dimension. Mais c'est une convention qui faisait sens quand les lumières étaient basées sur des sources à incandescence.

Blinn/Phong : Il est possible qu'ils restent utilisé pendant encore un temps en temps réel. 1 pour leur simplicité, 2 parce que on peut appliquer les mêmes principes que pour les autres modèles à base de microfacettes à Blinn/Phong. Certains moteurs de jeu utilisent par exemple un modèle Blinn Phong qui conserve (plus ou moins) l'énergie (le lobe et l'intensité ne sont plus réglables séparément mais sont fonction de la même variable "rugosité/roughness", les métaux étant séparés des diélectriques par l'application de Fresnel). Il est possible de combiner Blinn Phong avec un modèle d'éclairage à base d'image (en l'exprimant en terme de distribution de probabilité), ou des sources non ponctuelles, etc. Et pour certains matériaux/configurations le résultat visible ne sera pas fondamentalement différent que d'autres modèles basés sur les micro-facettes (Distribution de facettes de Beckmann, GGX, etc). Au moins suffisant pour le temps réel (par exemple dans un jeu on va tout préfiltrer.. Ce qui est parfois une plus grosse approximation que l'utilisation de tel ou tel modèle).
Le vertueux
 
Au final dans votre pipeline vous faites quelque chose de spécial de plus que de poser des lights, mettre au pifomètre une intensité, une température et mettre une éventuelle hdri dans l’environnement ?
JusdePoubelle
 
Le vertueux a écrit :
Au final dans votre pipeline vous faites quelque chose de spécial de plus que de poser des lights, mettre au pifomètre une intensité, une température et mettre une éventuelle hdri dans l’environnement ?


m'enfin... c'est MON pipeline !
Le vertueux
 
Le miens aussi ^^
Si, depuis quelques mois je mets une courbe au lieu d'une simple valeur numérique dans l'IOR pour les shaders comme je l'ai vu dans un tuto de Grant Warwick, ça les rends plus réaliste, m'enfin ça ne change pas la phase du monde.
Ze_PilOt
 
Le vertueux a écrit :
Au final dans votre pipeline vous faites quelque chose de spécial de plus que de poser des lights, mettre au pifomètre une intensité, une température et mettre une éventuelle hdri dans l’environnement ?


Le lighting 3d devient effectivement un job de directeur photo et non plus un job d'électro. Dieu merci.
Par contre, c'est bien plus facile de trouver quelqu'un qui tape des résolutions de shadow map que de trouver quelqu'un qui a l'oeil :)
Le vertueux
 
Ah oui je ne dis pas du tout que c'est facile de placer des lights mais je me demandais si ça n'allait pas plus loin avec des équations ou ce genre de trucs nébuleux. Au final la théorie ne semble pas vraiment avoir d'influence sur le travail.


Le dernier Pixar, Gravity et Pacific Rim utilisent tous les 3 un moteur et des techniques PBR. Se ressemblent-ils?

En l’occurrence Gravity et Pacific Rim se ressemblent comme 2 goutes d'eau et c'est normal puisqu'ils tentent de singer le photo réalisme, pas toujours très adroitement d'ailleurs, les moteurs ont encore du progrès à faire sur certains trucs.
Quant aux Pixar c'est du cartoon dans la forme, mais dans le rendu il ne diffère pas tant que ça, le plastique ressemble à du plastique réel, les vêtements ressemblent à du tissu réel etc...
Ne parlons pas du fait que ça fait depuis Toy Story 1 qu'on a des films d'animation en 3d qui ont pratiquement tous le même rendu quelle que soit la boite. Et les différences énormes qui existent entre les recherches graphiques et le rendu à l'écran, comme si la direction artistique était impuissante.

Pour moi ça n'est pas qu'une question de direction artistique. Si tu prends un court métrage comme Paperman de Disney qui lui a un rendu réellement différent, ils ont été obligé de développer leurs propres outils internes. Ça n'est pas du tout à la portée de n'importe qui et c'est un boulot monstre.
Des courts métrages en 3d qui singent l'aspect 2d comme Meet Buck sont le fruit de bricolages et ne sont possibles que parce qu'il y avait des outils non physiquement réalistes encore disponibles.

Il faut vraiment continuer à rendre disponible ce genre d'outil, par exemple la GI ne sert à rien dans un meet buck, ors il me semble que dans Arnold elle est forcement active. Je pense qu'on peut légitimement s'inquiéter d'une uniformisation au delà des considérations de la direction.

Pour l'instant tout reste relativement possible avec les moteurs actuels, mais méfions nous quand même. S'il y a uniformisation c'est aussi parce que les outils proposés ne sont pas simples d'utilisation au delà de leur périmètre d'action pseudo photo réaliste.
Ze_PilOt
 
Le vertueux a écrit :
Ah oui je ne dis pas du tout que c'est facile de placer des lights mais je me demandais si ça n'allait pas plus loin avec des équations ou ce genre de trucs nébuleux. Au final la théorie ne semble pas vraiment avoir d'influence sur le travail.


L'influence, c'est que ça rend le travail logique. Une bonne implémentation est transparente pour l'utilisateur.

Le vertueux a écrit :
ors il me semble que dans Arnold elle est forcement active.


C'est actif de base, rien ne t’empêche de la virer.
PacRim et Gravity n'ont pas la même esthétique, qui va bien au delà des considérations de type de rendu. Teintes, ambiances, ... PacRim jouent souvent avec des couleurs criardes pour colorer les réflexions des robots et ainsi les "dessiner".
Gravity a une approche quasiment chirurgicale de la lumière.





Le NPR (non photo-realistic rendering, comme paperman) n'est pas incompatible avec le PBR d'ailleurs. Comme je le dis dans l'article, si tu tapes des valeurs non-crédibles (qui n'existeraient pas dans la "nature") par exemple, tu auras un rendu qui reste physiquement correct, mais qui ne sera pas photo réaliste.
Ou simplement via le choix des matières et du travail de la lumière.

Par exemple le court Rob'n'Ron

ou



Encore une fois, ce n'est pas une question de moteur mais de DA.
Le vertueux
 
Je ne vois pas trop ce qu'il peut y avoir d'illogique, tu places tes lumières comme il est possible de le faire dans la réalité et tu paramètres tes shaders comme tu désires qu'ils soient. Par exemple le fait de savoir que l'aspect glossy d'un objet est dû à sa paroi lisse à l’échelle microscopique n'a aucune influence.

Et ça n'est qu'un certains type de logique, il y en a d'autres, la logique des contrastes, de couleurs, de composition qui peuvent justement entrer en contradiction avec la logique théorique. Le fait de rajouter des lights alors qu'il n'y a pas de source lumineuse dans la scène est un bon exemple. Pas besoin de connaître les règles théoriques pour les transgresser, il suffit juste d'en suivre d'autres.

Je dirais aussi que pour l'instant tous ces moteurs ne font qu'interpréter la réalité et sans une bonne postprod derrière l'aspect photo réaliste n'est pas toujours convaincant au rendu brut.
Et même chez les grosse prods ça n'est pas parfait, heureusement qu'il y a du motion blur, de la poussière, de la fumée, des plans courts et que ça bouge beaucoup !



Pour les exemples que tu donnes, je suis obligé de dire que ça ne marche pas vraiment.
Le changement de teintes et d'ambiance entre Gravity et un Pacific Rim est tout aussi normal que la différence de photographie entre un Derrick et un Julie Lescault. Ça n'est pas suffisamment différent pour parler de rendu non uniforme.

De même que pour les dessins animés que tu montres, l'image ressemble à du stop motion, et se retrouve donc à singer la réalité. Et l'autre c'est pareil, ça reste très réaliste dans bien des aspects, ça ne s'en détache pas vraiment.
Ze_PilOt
 
Le vertueux a écrit :
Je ne vois pas trop ce qu'il peut y avoir d'illogique, tu places tes lumières comme il est possible de le faire dans la réalité et tu paramètres tes shaders comme tu désires qu'ils soient. Par exemple le fait de savoir que l'aspect glossy d'un objet est dû à sa paroi lisse à l’échelle microscopique n'a aucune influence.


Parce que ce n'était pas le cas avant, simplement. Les contrôles que tu avais n'avaient aucun équivalent réel. le PBR rend ça logique (page 2 de l'article).
Et effectivement, tu n'as pas besoin de savoir pourquoi. Parce que c'est devenu logique justement.

Le vertueux a écrit :
Et ça n'est qu'un certains type de logique, il y en a d'autres, la logique des contrastes, de couleurs, de composition qui peuvent justement entrer en contradiction avec la logique théorique. Le fait de rajouter des lights alors qu'il n'y a pas de source lumineuse dans la scène est un bon exemple. Pas besoin de connaître les règles théoriques pour les transgresser, il suffit juste d'en suivre d'autres.


Oui, un taf de directeur photo donc. Tu ne transgresses rien, tu n'es pas du tout en contradiction avec quoi que ce soit, c'est comme ça qu'on éclaire depuis que le cinéma existe :)


Le vertueux a écrit :
Je dirais aussi que pour l'instant tous ces moteurs ne font qu'interpréter la réalité et sans une bonne postprod derrière l'aspect photo réaliste n'est pas toujours convaincant au rendu brut.


Tout comme un film sera probablement moche sans étalonnage.

Le vertueux a écrit :
Et même chez les grosse prods ça n'est pas parfait, heureusement qu'il y a du motion blur, de la poussière, de la fumée, des plans courts et que ça bouge beaucoup


Le PBR ne remplace pas le travail de l'artiste. Au contraire, être un bon artiste et avoir l'oeil est encore plus important.
C'est plus facile de trouver 5 mecs compétents pour un court que 200 mecs avec les même compétences pour un long. En fait ça n'arrive jamais, d'où les compromis.
Le niveau des artistes dans les grosses boîtes est étonnamment très bas. Enfin étonnant non, historiquement, ce sont des techniciens. Résoudre les probs étaient 90% du taf. La partie technique s'est effacée au fil du temps, mais la façon d'apprendre n'a pas changé.

Le vertueux a écrit :
Pour les exemples que tu donnes, je suis obligé de dire que ça ne marche pas vraiment.
Le changement de teintes et d'ambiance entre Gravity et un Pacific Rim est tout aussi normal que la différence de photographie entre un Derrick et un Julie Lescault. Ça n'est pas suffisamment différent pour parler de rendu non uniforme.

De même que pour les dessins animés que tu montres, l'image ressemble à du stop motion, et se retrouve donc à singer la réalité. Et l'autre c'est pareil, ça reste très réaliste dans bien des aspects, ça ne s'en détache pas vraiment.


On va pas lancer un débat sur l'esthétique, si pour toi tous les films (non 3d) se ressemblent, et que la seule esthétique qui s'en détache est le dessin animé, je vais pas essayer de te faire changer d'avis.
JusdePoubelle
 
Le vertueux a écrit :
Le miens aussi ^^
Si, depuis quelques mois je mets une courbe au lieu d'une simple valeur numérique dans l'IOR pour les shaders comme je l'ai vu dans un tuto de Grant Warwick, ça les rends plus réaliste, m'enfin ça ne change pas la phase du monde.


putain ca m'a valu qlq crises de nerf son pipeline à la mortmoilenoeud. Pas tant sur l'utilisation des courbes que les réglages des samples dans tous les sens. J'avoue, autant j'aime bien Vray par ce qu'il nous a permis de monter en niveaux sur de la petite prod, autant maintenant ca me saoule. Je suis pas spécialisé rendu et j'aimerais avoir un moteur qui me prend pas le choux à ce point. Surtout sur du rendu réaliste. Au final on perd du temps sur la technique, là ou on devrait se poser des questions artistiques.

Sinon Ze_Pilot, je vais peut etre posé une question conne, mais quant est il du "linear workflow" dans le temps reel? Ca a un impact non négligeable sur l'éclairage dans le précalc, donc j'imagine que ca devrait aussi etre implémenté ds le jv non?
Le vertueux
 
si pour toi tous les films (non 3d) se ressemblent, et que la seule esthétique qui s'en détache est le dessin animé,


Mais c'est pourtant un problème, puisque justement on est vite limité dès qu'on ne veut pas faire du réaliste avec des moteurs PBR.
Pacific Rim et Gravity ne se ressemblent pas, admettons, mais quand les gens parlent de craintes d'avoir des rendus identiques, c'est la crainte de ne pas avoir des rendus à la meet buck, de ne pas avoir du Okami, du Ninokuni, ça n'est pas la crainte de voir disparaitre la diversité des filtres vert ou caca marron qu'on peut mettre sur l'image.

Pour l'instant ça reste possible même si je ne crois pas que vray où arnold soient les mieux adaptés, mais surtout on reste dans le bricolage ou dans le développement d'outils très complexes inaccessibles à la plus part des boites.
J'aurais aimé justement qu'une boite sorte un moteur qui cherche complètement à s'éloigner de la réalité plutôt qu'un énième moteur physiquement réaliste.

Pas tant sur l'utilisation des courbes que les réglages des samples dans tous les sens. J'avoue, autant j'aime bien Vray par ce qu'il nous a permis de monter en niveaux sur de la petite prod, autant maintenant ca me saoule. Je suis pas spécialisé rendu et j'aimerais avoir un moteur qui me prend pas le choux à ce point. Surtout sur du rendu réaliste. Au final on perd du temps sur la technique, là ou on devrait se poser des questions artistiques.


La force de Vray c'est justement la possibilité d'optimiser, si tu ne veux pas te prendre la tête, tu mets tout en brute force et les subdiv des shaders et des lights à un nombre élevé. Mais du coup tu vas te retrouver avec un temps par image ingérable pour une petite boite.
Mais je suis d'accord avec toi, moi aussi ça me les brise et mes connaissances techniques sont limitées, rien que de mettre en cache la gi ou de la calculer une image sur 2 a failli avoir raison de nous. On a préféré laissé tomber d'ailleurs et admettre un peu de flickering.
Ze_PilOt
 
JusdePoubelle a écrit :
Au final on perd du temps sur la technique, là ou on devrait se poser des questions artistiques.


Le jour où il n'y aura plus de questions techniques est loin, mais quand le ratio devient trop important, il faut effectivement songer à changer.

JusdePoubelle a écrit :

Sinon Ze_Pilot, je vais peut etre posé une question conne, mais quant est il du "linear workflow" dans le temps reel? Ca a un impact non négligeable sur l'éclairage dans le précalc, donc j'imagine que ca devrait aussi etre implémenté ds le jv non?


C'est vrai que je ne l'ai pas du tout abordé. Mais oui c'est essentiel, et le temps réel travaille en linéaire également.
Ze_PilOt
 
Le vertueux a écrit :
mais quand les gens parlent de craintes d'avoir des rendus identiques, c'est la crainte de ne pas avoir des rendus à la meet buck, de ne pas avoir du Okami, du Ninokuni


On parle de quel % de la production de jeu vidéo? Tu peux m'en citer combien sorti en 2014? (et qui ne sont pas en 2d ou 2.5d?)
Ça a déjà disparu, c'est un peu tard pour s'interroger dessus. Fallait acheter Okami plutôt que COD 4 :)

Regarde les telltale, sorti de leur style ultra-codifié ( "coups de crayon dans les textures"), utilisé sur 3 jeux, c'est pas folichon (l'espèce de gribouillis infâme de Games of Thrones).

Le vertueux a écrit :
Pour l'instant ça reste possible même si je ne crois pas que vray où arnold soient les mieux adaptés, mais surtout on reste dans le bricolage ou dans le développement d'outils très complexes inaccessibles à la plus part des boites.
J'aurais aimé justement qu'une boite sorte un moteur qui cherche complètement à s'éloigner de la réalité plutôt qu'un énième moteur physiquement réaliste.


Le problème, c'est qu'il y a autant de style NPR que d'artistes. Pour reproduire un style, il faut passer par un dev custom, c'est quasiment obligatoire. Et pour le jeu aussi. Et encore, c'est la partie "facile". Après faut des mecs capable de le reproduire. Ca tombe pas des arbres.
C'est bien pour ça que sorti des contours noirs ajouté à la va-vite, ca a disparu des jeux 3d. Trop cher.

Sinon qui peut le plus peut le moins, tant que le moteur est ouvert, même s'il est prévu pour le PBR à la base, tu y arriveras. Mais faut développer.


Le vertueux a écrit :
Mais je suis d'accord avec toi, moi aussi ça me les brise et mes connaissances techniques sont limitées, rien que de mettre en cache la gi ou de la calculer une image sur 2 a failli avoir raison de nous. On a préféré laissé tomber d'ailleurs et admettre un peu de flickering.


C'est la principale raison qui me fait détester Vray alors que sur le papier, c'est un peu un rêve mouillé pour un mec qui fait du shading/lighting.
Pour chaque truc t'as au minimum 2 façons de faire, mais aucune des deux n'est parfaite. J'ai l'impression de jouer à un telltale : "Le mec du lighting se souviendra de ça".
Le vertueux
 
Je suppose qu'Arnold est plus rapide que le Brute force de Vray, parce que pour ce dernier y a vraiment rien à paramétrer, c'est hyper simple et hyper long.

Après pour de l'image fixe, irradiance map et light cache suffisent, sont unanimement utilisés et ça n'est pas très compliqué. Si on veut animer avec ces algo il suffit de booster les paramètres, y en a pas 36 non plus. Perso je dessine un pentacle rouge sur chaque pc de la renderfarm pour limiter le flickering.
Ensuite il y a les fonctions avancées comme mettre la GI en cache et faire une interpolation des images (si j'ai bien compris). Mais on avait des bugs avec la version sous Maya, on a laissé tombé, mais on peut s'en passer, ça n'est pas obligatoire, ce sont des fonctions facultatives.
Ze_PilOt
 
Poltro a écrit :
Je ne vois pas en quoi le pipeline PBR nécessite une plus grande maitrise des mathématiques ou de la physique de la lumière par l'artiste que les formes de rendus et d'art actuelles.


Au contraire, elle en demande moins, car elle est plus logique.

Poltro a écrit :
Il est évident qu'une maîtrise des propriétés de la lumière et de ce qu'elle évoque est utile mais j'ai juste l'impression qu'on est en plein bullshit technique en 10 ans de métier j'en ai vu des révolutions à deux balles mais là on touche vraiment un cas d'école.

En création et surtout en infographie on à des vraies révolutions plus souvent que dans d'autres métiers mais du coup on se tape aussi beaucoup d'enfumages.


Le PBR n'est pas une révolution. C'est des années d'intégrations de procédés qui se sont accumulés.

Poltro a écrit :
Ensuite il y a les avancées purement techniques comme l'AO ou la GI qui on réellement apportés un plus.


La GI est une composante du PBR justement.


Poltro a écrit :
Mais là on parle juste d'un nouveau pipeline qui est certes plus performant (réutilisation des textures/shaders et facilité à créer des bibliothèques cohérentes). Mais qui ne se traduit pas par une évolution des possibilités artistiques ou même par un meilleur réalisme technique.

Ce n'est pas un "pipeline". Ce sont une série de règle physiques appliquées au rendu.
Et au contraire, ça se traduit par un réalisme atteignable plus facilement, grace à la conservation de l'énergie, la gestion de sources lumineuses en tant que surfaces émitrices,...

Poltro a écrit :
Toutes les propriétés physiques dont tu parle sont déja bien simulées (au delà de la sensibilité humaine)


Justement non, elles ne l'étaient pas avant le PBR.
Pas de conservation de l'energie et des paramètres arbitraire pour les sources lumineuses (début page 2).

Poltro a écrit :
ou imitées et ne sont en rien plus cohérentes ou réalistes que le mix raytrace/post simulations actuels.


Le raytracing prend tout son sens en PBR, mais dire "le raytracing fait mieux" ne veut absolument rien dire.
Lancer des rayons dans une scène ne défini absolument pas comment un matériau se comporte. Ne confondons pas tout.

Et sinon si, le PBR est plus cohérent (voir page 2).

Poltro a écrit :
Pour moi les prochaines grosses révolutions qui vont changer la 3D sont plutôt par ordre probable d'arrivé :
- L'automatisation et la qualité des déplieurs UV

Déjà fait. Ca fait des années qu'on s'emmerde plus à déplier des meshes.

Poltro a écrit :
- La création de bibliothèques géantes.

Impossible sans PBR :)

Poltro a écrit :
- La maturité du rendu parallèle.


Aucune idée de ce que tu veux dire par là.

Poltro a écrit :
Très bon article, très intéressant j’espère qu'on en aura d'autres.


Soit il n'est pas bon car tu ne l'as pas compris, soit tu as raté la deuxième page :)
Le vertueux
 
La lisibilité des uvs est de moins en moins importante depuis qu'on utilise des logiciels de texturing 3d comme Mudbox, Substance ou Mari. On se passe de Photoshop, Disney utilisait même le Ptex où les uvs sont inexistants.
Il existe déjà des outils de dépliage automatique, combinés avec les outils de peinture 3d il n'y a pas besoin de d'avantages.

De plus l'augmentation des résolution supporte bien la tolérance sur de légères distorsions, inutile de passer un temps fou à optimiser.

Donc honnêtement je ne vois pas trop ce que tu imagines comme nouvel outil révolutionnaire pour les uvs.
Une IA qui reconnait que tu es en train de faire le dépliage d'un desert eagle plutôt que d'un Ak74, analyse la topologie, place les seams à la perfection pour avoir les shells les plus lisibles possibles, le tout sans distorsion et en un seul clic ?
Ze_PilOt
 
Poltro a écrit :
" Déjà fait. Ca fait des années qu'on s'emmerde plus à déplier des meshes. "
Non mais t'est sérieux ? Toutes les prods que je connais le font encore.


Ha bon? Ils connaissent pas Mari? :)

Poltro a écrit :
PS : Le rendu parallèle c'est le rendu GPU. Actuellement on est en progression rapide mais ce n'est pas encore mature.

Et ça ne le sera pas avant un paquet de temps. Pas assez de ram sur le GPU, et les solutions out of core sont pas forcément plus rapide.

Poltro a écrit :
Et je persiste, toutes les propriétés physiques dont tu parle sont déjà simulées,


Exactement. Tu es en train de me dire que le PBR est inutile parce que le PBR existe déjà :-)
Ca n'est rien d'autre que ça, et c'est l'intro de la première partie : Ca existe depuis des années en offline, le temps réel le découvre maintenant seulement.

Poltro a écrit :
Le PBR c'est juste une nouvelle organisation dans les maps des shaders et une normalisation des constantes afin qu'on puisse facilement créer des bibliothèques comme je le disais.


Non, relis la première partie, j'explique en quoi ça s'applique pour les matériaux.
Il est possible que pour une implementation dans un soft ça signifie qu'il y ait une uniformisation des paramètres, mais c'est une conséquence, pas le but.

Poltro a écrit :
Je n'ai pas comparé la performance du raytracing puisqu'il est le même dans un rendu PBR ou non.
La GI est une passe qui n'est pas liée au PBR puisqu'on peut la passer sans PBR.


Je pense que tu n'as pas compris ce qu'était le PBR. J'ai du très mal expliquer.

Ce n'est qu'une façon de respecter des phénomènes physiques défini par des formules mathématiques.
la GI est une de ces formules. Ca n'a aucun sens de dire que la GI n'est pas liée au PBR, le PBR n'est pas une chose, mais un ensemble de chose, dont la GI fait partie.

Oui elle a existé sans les micro-facettes, ca n'en reste pas moins un cacul physique de la lumière indirecte. "Demain", on utilisera de nouvelles en plus.
Ze_PilOt
 
Poltro a écrit :
Mais Mari ne déplie absolument pas les UV, c'est un logiciel qui permet de peindre sur l'objet mais un objet qui a déjà ses UV.
T'y connais rien en fait.


Mais le dépliage d'uv se fait en un clic (automatic mapping, zbrush, uvlayout, et zou). Ca fait bien longtemps qu'on ne passe plus des heures à faire des uvs, et encore moins à la main.
Le vertueux
 
Tu n'as pas compris ce qu'il a dit, ni ce que j'ai dit.
Pourquoi parle t-on de Mari ? Non pas parce qu'il déplie les uvs effectivement, mais parce qu'il peut gérer des uvs illisibles. Il est désormais inutile de faire de beaux dépliages que l'on peut voir parfaitement dans photoshop.

Donc tu vas dans n'importe quel logiciel de 3d, tu appuies sur auto mapping et c'est terminé. C'est fait en un clic, c'est instantané et tu as tes uvs sans distorsion que des logiciels de texturing modernes vont gérer sans problèmes.
Le vertueux
 
L'automaping crée des superpositions des polygones sur la map


Absolument pas. Tu es complètement déphasé.
Ze_PilOt
 
Je ne pense pas avoir employé une seule fois le mot "révolution" dans les deux articles. C'est clairement un empilage de techniques ayant pour but d'être physiquement correct, je pensais avoir était clair à ce propos dans l'intro du premier article.
Nicaulas
 
Tu fais bien ce que tu veux, mais je trouverais ça dommage. Les commentaires sont un espace de discussion, et même si je n'en ai pas compris un traître mot, elle semblait vachement intéressante.
Ze_PilOt
 
Je pense que tu lis de travers. Je n'ai jamais dis que Mari dépliait les UVs, mais j'insinuais que Mari rendait le dépliage d'uv de façon hyper-méthodique obselete.
Ce qui est complétement vrai : Le soucis de coupure que tu signales n'arrive plus avec Mari.
Poltro
 
Oui mais j'avais dépassé les bornes que je m'impose car je parlais de compétences alors que ça na rien a voir.
Du coup je préfère effacer.
Poltro
 
Je connais mal Mari donc je vais voir mais j'ai du mal à croire qu'il peut se passer d'UV propres car jusqu’à maintenant je n'ai jamais vus un processus pro sans.
C'est vrais que toutes les prods sur les quelles j'ai bossé sont assez classiques avec des riggers qui s'occupent des UV, je vais m'informer sur Mari.
Je le vois plus comme un outil qui permet de peindre avec des calques et je ne vois pas comment il peut corriger des erreurs d'UV tout seul.
Le vertueux
 
Dans 3ds max c'est flatten mapping, Maya auto mapping, dans Mudbox c'est create uvs, dans Zbrush c'est Auvtiles.

Aucun de ces dépliages automatiques ne créent de superposition quelle que soit la nature du mesh, que les vertex soient mergés ou non et sont parfaitement exploitables pour du texturing via Mudbox ou Mari et pour du rendu.


Maintenant, je n'utiliserai pas l'auto mapping pour déplier un perso définitif, ça m'arrive de le faire pour faire des tests de rendu sur des projets persos et ça marche parfaitement, mais puisque j'utilise encore un peu Photoshop pour le texturing j'ai encore besoin d'un dépliage lisible.
Et fort heureusement, le dépliage d'un perso complet ne prend pas des heures, avec un logiciel comme headus uvlayout c'est vite fait, on est loin de la pénibilité d'autrefois.

Pour ce qui est des distorsions, Mudbox ou Mari vont adapter ton texturing au dépliage, ainsi étirer, tordre en temps réel ton painting pour s'adapter aux UVs. Plus la résolution de ta texture est grande, plus Mudbox ou Mari ont de la place pour s'adapter à ces distorsions.
Évidemment, il ne s'agit pas d'avoir des uvs avec des distorsions importantes, mais de pouvoir rester tolérants sur les petites et ne pas passer des heures à déplier un objet.
Pour ce qui est du mapping auto, les distorsions sont très faibles.
Ze_PilOt
 
On utilise pas mal UVLayout (principalement pour tout ce qui n'est pas organique), et Zbrush pour l'organique (ca tabasse bien aussi niveau rapidité pour dépliage auto).

Dans tous les cas (zbrush, UVLayout, maya,..) l'auto-map gère correctement l'aire des surfaces, ce qui est aussi important que la non-superpositions des UVs, ce qui évite donc les problèmes de distortions.
LeGreg
 
De mon point de vue (du hardware), les coutures restent problématiques en temps réel. Après je ne connais pas tous les outils et peut-être qu'ils sont excellents à cacher les coutures automatiquement aujourd'hui sur n'importe quelle topologie.

En temps réel, Ptex n'est pas (encore) faisable vraiment même s'il y a une ou deux démos temps réel qui traînent par ci par là (on parle bien de "démos" qui ne font que ça).
D-Kalcke
 
Merci Poltro d'avoir rendu le débat encore moins compréhensible en effaçant tes posts...
mustach_cuir
 
C'est un peu flippant toutes ces contraintes techniques pour développer un look particulier. Pour un artiste avec une vision il faut 100 techniciens qui soient aussi un peu artiste en meme temps pendant tout le temps de la prod ? On risque pas de voir quelque chose de nouveau avant un moment.

Dans la post-prod aujourd'hui ou trouve t'on l'artiste ? Au montage, au compositing, au lighting, au modeling ?
Ouhlala
 
Bah le look particulier, c'est normalement le rôle du DA de s'en assurer. Je pense pas que l'absence de nouveauté à ce niveau là, soit réellement à cause d'une contrainte technique quelconques , mais juste de DA,TD ou de producteurs/réalisateur(ils ont aussi largement leur mot à dire sur l'aspect visuel) un peu frileux.
Des artistes, on en trouve absolument partout, juste qu'aujourd'hui il est aussi utile d'avoir connaissance des contraintes techniques en plus (surtout pour les superviseurs) pour ne pas demander l'impossible selon le budget alloué . Mais il est très courant , pour rassurer les producteurs, qu'on limite les risques, et donc qu'on se contente du "déjà fait", en terme visuel et technique.
JusdePoubelle
 
mustach_cuir a écrit :
C'est un peu flippant toutes ces contraintes techniques pour développer un look particulier. Pour un artiste avec une vision il faut 100 techniciens qui soient aussi un peu artiste en meme temps pendant tout le temps de la prod ? On risque pas de voir quelque chose de nouveau avant un moment.

Dans la post-prod aujourd'hui ou trouve t'on l'artiste ? Au montage, au compositing, au lighting, au modeling ?


Je trouve que c'est plutot le contraire. Ce dont parle Ze_Pilot c'est d'une uniformisation des techniques pour obtenir un environnement réaliste. Avant c'était seulement donné aux grosses structures qui se développaient des outils et une pipeline internes. Donc en tant qu'indé ou graphiste dans une petite boite tu regardais leur making of en bandant et tu tripotais tes outils de merde pour arriver à qlqchose de correct.
Plus ca va et plus on aura des outils de base logiques, ce qui implique bcp moins de prise de tete pour un "artiste".

Bon ensuite on revient sur le débat réaliste/artistique... C'est vrai que tous les films d'animation essayent de singer Pixar et les films FX baaaahh, c'est réaliste quoi. Apres il faut aller voir en dehors pour découvrir d'autres esthétiques. L'animation traditionnelle essaye de faire autre chose, en particulier en france, mais personne ne veut aller voir ca.
Ya aussi toute la scene motion design qui s’efforce de trouver de nouvelles esthétiques. Et ca passe souvent par les logiciels de 3D, qui ont complètement débrider la créativité ces dernières décennies. Donc non je pense pas que des outils peuvent uniformiser la production artistique.
Vous devez être connecté pour pouvoir participer à la discussion.
Cliquez ici pour vous connecter ou vous inscrire.
Soutenez Factornews.com

Tribune

CBL
(01h29) CBL Je suis sur la news
choo.t
(00h07) choo.t Les jeux de Tomorrow Corporation sur Switch (World of Goo, Little Inferno, Human Ressource Machine) [nintendoeverything.com]
mardi 24 janvier 2017
noir_desir
(23h20) noir_desir Kame> Surtout que les états uniens sont plus armé que les philippins.
noir_desir
(23h20) noir_desir Kame> C'est vrai :) Mais on ne sait jamais Trump peut le faire :)
_Kame_
(23h19) _Kame_ Faudrait que quelqu'un fasse des persos MUGEN avec les grands dirigeant du 21ème siècle, ça pourrait être pas mal.
_Kame_
(23h16) _Kame_ noir_desir > ils sont qd même loin de détrôner le président philippin dans l'humour.
noir_desir
(23h11) noir_desir Khdot > Mais de toute façon, ne t'inquiete pas fillon a de grande chance de passer (ou marine), toi aussi tu pourras profiter de cette même politique à la maison :)
_Kame_
(23h09) _Kame_ Khdot > oh oui, on est tellement haineux et méchant. C'est de la faute de CNN qui nous lobotomise.
noir_desir
(23h09) noir_desir Khdot > Trump vient de redonner les autorisation pour les sables bitumeux et les oléoducs :)
GTB
(23h05) GTB Khdot > Avec Trump il y a pas besoin de sélectionner un bout de vidéo pour ça.
Khdot
(23h03) Khdot vous prenez un bout de vidéo (ou une photo) pour déverser votre haine du personnage... :|
Khdot
(23h02) Khdot à force je vais vous penser sérieux au sujet de Trump
Big Apple
(21h27) Big Apple Trump président, c'est un peu comme télécharger un crack CD no zizi avant de s'apercevoir qu'il s'agit en fait d'une saloperie de malware infestée de pop up puis chercher désespérément un point de restauration dans l'historique de sauvegardes. TROP TARD!
Big Apple
(21h18) Big Apple BeatKitano > 19:10 On dirait qu'ils enterrent l'Amérique...
Crusing
(20h56) Crusing Je les vois bien elle et son fils finir au fond d'un lac dans la voiture, les freins desserrés. Façon L'Épisode de Butters
_Kame_
(20h50) _Kame_ ça parait tellement peu naturel (même le mouvement de tête de Trump) qu'on pourrait le croire
Crusing
(20h34) Crusing Ah non :) [theslot.jezebel.com]
Crusing
(20h31) Crusing Kame> La lecture est inversée...
_Kame_
(19h46) _Kame_ BeatKitano > je préfère ce gif [giphy.com]
BeatKitano
(19h10) BeatKitano Cette photo putain... C'est tellement glauque [pbs.twimg.com]
Le vertueux
(11h39) Le vertueux la différence avec les jeux vidéos c'est qu'Asterix ne prend pas vraiment la place d'une autre bd, Tekken si, soit c'est ça, soit pratiquement rien d'autres.
Le vertueux
(11h34) Le vertueux choo.t > Il n'y a pas grand chose qui me vient à l'esprit là, les comics de super héros font pires.
choo.t
(11h12) choo.t Le vertueux > Ça s'applique à bien d'autres choses que le JV.
Le vertueux
(08h10) Le vertueux choo.t > Ça fait surtout penser que nous, joueurs, avons pris perpet avec les mêmes licences.
CBL
(02h33) CBL (23h38) Tient y'a Akuma
lundi 23 janvier 2017
noir_desir
(23h48) noir_desir choo.t > et que celui-ci était ultra-mauvaus
choo.t
(23h47) choo.t I Am Setsuna dans le le line-up de la Switch. [nintendoeverything.com]
choo.t
(23h38) choo.t [youtu.be] Hop, nouveau trailer du portage de Tekken 7, c'est pas folichon et ça me rappelle surtout que le studio n'a plus sortit de Soul Calibur depuis 5 ans...
noir_desir
(23h33) noir_desir Sacré claude puant oups gueant
noir_desir
(23h32) noir_desir J'ai toujours comme un doute
noir_desir
(23h32) noir_desir Enfin est ce que les lecteurs du figaro que les juges (enfin le plus gros syndicat) est de droite ?
_Kame_
(23h22) _Kame_ c'est rigolo
choo.t
(21h24) choo.t Pas con ce shader pour expliquer la perception fovéale [shadertoy.com]
Crusing
(20h03) Crusing Big Apple > c'est un vrai commentaire :3
Big Apple
(19h57) Big Apple c'est tout à fait ça :)
Big Apple
(19h56) Big Apple Crusing > Ah Ah Ah!
Crusing
(19h25) Crusing Au hasard :"Ce sont les derniers soubresauts de la justice rouge instrumentalisée et dévoyée."
Crusing
(19h23) Crusing Il est temps d'aller se délecter des commentaires sur le figaro
Crusing
(19h21) Crusing Inutile de préciser qu'il aura juste un bracelet, mais quand même, ça fait zizir comme disent les gens en scooter.
Crusing
(19h19) Crusing Guéant, 1 an [mediapart.fr]
Laurent
(19h12) Laurent DukeFreeman > [gamespot.com]
DukeFreeman
(18h28) DukeFreeman tiens une grosse maj de Dishonored 2... y a un changelog qui traine quelque part ?
BeatKitano
(15h13) BeatKitano LeGreg > Se retirer de l'OTAN pas des Nations Unies et oui CBL a raison, apparement ce truc est un running gag depuis 20 ans (effrayant la connerie...)
Toninus
(10h31) Toninus Ah, j'étais complètement passé à coté de ces (vieilles) vidéos de Chuchel, le nouveau jeu de Amanita. Certes c'est du point & click pas très profond, mais on dirait un peu La Linéa en JV [youtube.com]
thedan
(09h39) thedan J'imagine plutôt que comme dans toutes les administrations ou les grandes entreprises, tu dois étudier toutes les possibilités...
LeGreg
(04h29) LeGreg BeatKitano > je ne crois pas que Trump ait parlé de se retirer des nations unies (bon je ne suis pas tout ce qu'il raconte), par contre les précédentes administrations avaient accumulé des arriérés de paiement.
CBL
(02h18) CBL Trump peut raconter beaucoup de conneries mais au bout d'un moment il sera confronté à une dure realite
CBL
(02h17) CBL Et c'est pareil pour l'OTAN. Les US ont besoin des pays europeens pour installer des bases et deployer des systemes anti-missiles
CBL
(02h16) CBL Les US n'ont aucun intérêt à quitter les Nations Unies vu leur pouvoir de veto
CBL
(02h16) CBL Y'a pas beaucoup de soutien
CBL
(02h15) CBL (22h45) BeatKitano > C'est un vieux projet. Cherche H.R.1146
noir_desir
(00h11) noir_desir choo.t > :)
choo.t
(00h10) choo.t [i.redditmedia.com]
dimanche 22 janvier 2017
noir_desir
(23h33) noir_desir BeatKitano > hum l’assassinat c'est plus une idée républicaine...
BeatKitano
(23h19) BeatKitano noir_desir > Faut voir le bon côté des choses, on verra peut-être pas la totalité.
noir_desir
(23h14) noir_desir A la base l'otan n'a pas été créer dans le but d’éviter un conflit généralisé.... 4a c'est long...
noir_desir
(23h13) noir_desir BeatKitano > Ca serait étonnant, mais effectivement trump l'a toujours dit
Crusing
(22h51) Crusing Trop bien ça va renouveler les thèmes des films d'anticipation
BeatKitano
(22h47) BeatKitano C'est qu'on projet, mais ça donne le ton, et avec les décla de Super Carotte sur l'OTAN... il n'y a qu'un pas.
BeatKitano
(22h45) BeatKitano Les US pourraient se retirer des Nations Unies. Fun. [webcache.googleusercontent.com]
aeio
(21h26) aeio (21h20) La page est vieille (4 décembre 2016), Cemu 1.7.0 inclut d'office le correctif pour ce bug.
choo.t
(21h20) choo.t aeio > Ouai, j'ai aucun soucis sur Captain Toad, mais je ne suis pas allé très loin (déjà fini sur WiiU), mais apparemment y'a un bug bloquant au niveau 1-17 selon la config d'emul CPU [compat.cemu.info]
aeio
(21h06) aeio Après Zelda est un cas à part (et il est de toute façon pas super bien émulé, avec des grosses chutes de frame rate inexplicables quelque soit la config). Les autres gros jeux de la console ont 2 à 3 fois moins de shaders.
aeio
(21h01) aeio (20h49) Ah effectivement, j'ai vérifié et j'ai pareil ici (mais je m'en fous j'ai 16 Go).
choo.t
(20h49) choo.t Cemu met tout les shader en ram dès le lancement du jeu, j'ai ±6Go bouffé par Cemu pour jouer à Zelda:WW, c'est n'importe quoi.
choo.t
(20h46) choo.t MrPapillon > C'étais horrible sur Natural Selection 2.
MrPapillon
(19h58) MrPapillon La compilation shader OpenGL c'est très mal foutu et ça empêche d'avoir un truc précompilé dans la distrib. Du coup le driver compile violemment au premier lancement.
MrPapillon
(19h57) MrPapillon La compilation des shaders longues, c'est surtout la faute à OpenGL.
aeio
(19h14) aeio (16h24) T'as téléchargé un cache complet (9000 et quelques shaders pour ce jeu) ? Si oui, alors la compilation va être longue la première fois mais super rapide ensuite.
choo.t
(16h24) choo.t C'est mal branlé leur compil de shader, sur mon vieux laptop je n'ai que 8go de ram et c'est impossible de compiler les shader de Wind Waker, trop nombreux et tout ce fout en ram sans jamais s’effacer....
zouz
(16h11) zouz Khdot > Nous somme tous abonnés à HBO Prime, Netflix US, Amazon Prime et travaillons pour le gouvernement afin de débusquer chaque malware chinois caché dans chaque programme d'émulation. Je ne vois pas où est les problème.
choo.t
(15h45) choo.t Khdot > J'ai littéralement la boite du jeu sur le bureau.
Khdot
(15h40) Khdot nous ne parlons pas du tout de piratage sur la tribune. :p
zouz
(15h31) zouz aeio > Yep cet émulateur est vraiment incroyable, mon week end sur MK8 avec un pote peu en témoigner.
choo.t
(15h29) choo.t Ah, les drivers daté de débuts 2014... ça tourne niquel maintenant. C'est Impressionnant, et les jeux Wii U ne pèsent rien.
choo.t
(14h56) choo.t aeio > Je viens de tester, ça marche nickel sur le GPU intégré, mais ça chie avec la CG activée (Optimus), c'est courant ?
Khdot
(14h17) Khdot (10h24) aeio > mon dieu
choo.t
(14h05) choo.t aeio > Si Zelda BotW tourne correctement dessus à la sortie, ça va être dur de se motiver à prendre une switch...
aeio
(12h55) aeio Captain Toad en 4K sur Cemu [youtube.com] L'émulateur est tellement bien fait qu'on peut même utiliser la souris comme un doigt pour passer certains obstacles (3:15).
Dks
(12h44) Dks je viens de regarder dans ma boite de ma viielle 560ti y a deux adaptateurs molex vers 6 pin. Bon c'est l'affaire de deux jours mais week end un peu triste sur le coup ^^
fwouedd
(12h43) fwouedd Ouais, c'est super moche.
Dks
(12h39) Dks fwouedd > pour un accessoire à 3€ sur une cg déjà à 300.. radinage
fwouedd
(12h31) fwouedd Dks > Tous en fait, ils ne les mettent actuellement que sur les CG HDG j'ai vu.
Dks
(12h25) Dks aeio > oui là dessus gigabyte sont radins :\
Edhen
(12h24) Edhen (11h32) [twitter.com]
hohun
(11h32) hohun C'est le deuxième jour et on est déjà en plein délire cosmique.
hohun
(11h32) hohun Ahah Trump qui part en mode full complot des médias genre "les pelouses vides c'est un mensonge"
aeio
(10h26) aeio Ça m'étonne même un peu quand t'en aies pas eu un dans le bundle de la carte graphique.
aeio
(10h24) aeio (09h46) Comme le dit fwouedd, tu prends ça [media.ldlc.com] et c'est réglé.
Dks
(09h46) Dks fwouedd > l'alim existait avant le format 8 pins pour les cg, faut que je vise un 6 vers 8 p. Ou changer l'alim.. mais c'est moche.
Dks
(09h45) Dks fwouedd > nop en fait un gars de cpc m'a pointé le fait que le 8 pin de l'alim c'est pour l'atx. Genre multi cpu.
miniblob
(09h07) miniblob Kame> J'avais loupé le coche, merci de l'info, ça reste le meilleur moyen de regarder la télé sans la regarder
fwouedd
(08h46) fwouedd Mais d'ici la, tu as pas un adaptateur molex avec la CG?
fwouedd
(08h45) fwouedd Ah ouais, non j'ai rien dit, effectivement, t'as du 8...
fwouedd
(08h44) fwouedd Tu te plantes pas de câbles? Je ne crois pas qu'ils aient changé de format depuis.
samedi 21 janvier 2017
_Kame_
(23h46) _Kame_ pour ceux qui savaient pas, le Zapping a repris sur France2 [twitter.com]
Dks
(22h43) Dks me demande si un simple adaptateur 6pins vers 8 ne ferait pas l'affaire.
Dks
(22h11) Dks Bon au moins je vois que le cable avec le bon connecteur existe : [corsair.com]
Dks
(22h06) Dks Ah comment je suis un gros loser, se dire que mon hx620 corsair avec son connecteur 8 pins ira très bien avec ma nouvelle 1060 gigabyte.... rahhh mais non, pas les même détrompeurs. /dansmoncullulu
Crusing
(21h37) Crusing Big Apple > sur les rat cest juste dans de l'eau 10mg/pdc, 4/11 développent des tumeurs, en peu de temps. Lisez un peu bordel.