Connexion
Pour récupérer votre compte, veuillez saisir votre adresse email. Vous allez recevoir un email contenant une adresse pour récupérer votre compte.
Inscription
En vous inscrivant, vous acceptez les conditions d'utilisation du site et de nous vendre votre âme pour un euro symbolique. Amusez vous, mais pliez vous à la charte.

Un Rédacteur Factornews vous demande :

ACTU

Ludumdare - 48h pour coder un jeu

Skizomeuh par Skizomeuh,  email  @Skizomeuh
 
Pendant que certains s'enfilaient des litres de bières et des tonnes de teutonnes à la Gamescom, ou que d'autres finissaient de saloper leur portage PC, des codeurs de tout poil, redbull au poing et sonde urinaire où vous savez, se tiraient la bourre autour du Ludum Dare, compétition prenant place trois fois par an où tous les participants doivent pondre un jeu en seulement 48h. Comme ça, pour la déconne.

Pour sa 21e édition plus de 500 prototypes ont été déposés, du truc minimaliste au FPS sous Unity3D. Bon forcément en 2 jours il faut pas s'attendre à du Gears of War mais malgré tout il y a moyen d'y trouver certaines perles comme le grand gagnant de l'édition précédente : Appy 1000mg un metroidvania(encore !) étonnant de noirceur.

On y retrouve aussi un habitué de la compétition, un ptit gars peu connu : Notch qui a fait Minecraft je crois et qui se fend d'un dungeon crawler retro plutôt bien fichu jouable ici. Essayez les autres tant qu'à faire, peut-être de bonnes surprises en perspective. Quelques exemples dans la suite :

Stratus : un point & click en vue subjective à la 3D primitive mais agréable comme un Minecraft. Observez bien l'icône en bas à droit pour les indices (pour le premier utilisez l'armoire à pharmacie). Dommage qu'il soit si court.

The Cell de Kevin Glass, un codeur sympa (à qui on doit un petit roguelike casu agréable, Legends of Yore, qui a le mérite d'être complètement cross-platform PC, Mac, Linux, Web, Android et iOS). Derrière son côté Sokobanbête et méchant se cache un puzzlerbien tordu dès qu'il s'agit de se servir de ses doubles ou d'éviter les gardes.

City Runner : une bonne idée de mixer top-down shooter et labyrinthe...

BitScape Goat : encore du labyrinthe (avec un sujet comme escape difficile d'y échapper) mais c'est moins les circonvolutions que les petites énigmes à résoudre qui vous feront perdre votre précieuse énergie.

AWOL : simple mais jolie 3D sous Unity 3D. Fuyez de votre prison à bord d'un tank. Quelques réminiscences de Moon Patrol.

Reach For It : un top down shooter sympa.

Metal Sphere Solid : MGSrencontre Marble Madness en 3D joliment éclairée.
 

Commentaires

Masquer les commentaires lus.
kakek
 
Merci !
Ce genre de news tech / moteur de rendu m'intéressent beaucoup, et les tiennent sont trés bien écrites. Je me suis tapé la video, mais ton résumé en plus aide beaucoup a mieu piger les grandes lignes pour les seli-techniques comme moi.

Mes remarques :

Il jettent des fleurs a quixel megascan, mais c'est vrai que c'est une putain de bibliothèque super adaptée au jeux ! Il y manque juste un peut plus d'objets courants. Elle est trés tournée rochers / bout de bois / nature. A la limite ruines antiques. Mais on y trouve pas tellement de canapés, fauteuil, bureau, des couverts, des livres ... des objets standards pour remplir une scène d'intérieur quoi.
Et justement, une grosse force de megascan c'est que les assets viennent toujours avec un LOD bien branlés et des normal maps / displacement map et tout et tout ... là ou d'autres bibliothèques ne fournissent parfois qu'un modèle high poly et démerde toi avec blender.
Je me demande si dans un futur proche ils vont du coup se metre a ne fournir que les assets highpoly, vu qu'avec nanite le reste devrait ( théoriquement ) devenir bien moins utile ?

Lumen et nanite ont l'air d'être de vrai tueries, mais pour l'instant je n'ai pas été hyper convaincu par chaos, le moteur physique.
Je joue un peut avec différents moteurs pour me faire des petites expérience VR, et peut être que ca peut faire de jolies destructions, mais l'interaction a petite échelle et entre plusieurs objets est bien plus convaincante dans le sources 2 que dans unreal. Typiquement, remplir une caisse d'une dizaine de trucs pour la soulever et la secouer, ou pousser un paquet d'objet avec la main, ca marche nettement mieux sous source que unreal.

Et pour l'instant l'éditeur lui même est un peu a chier niveau outils de modelling intégrés. C'est un relou quand on veut faire la géométrie de son environnement ou modifier un asset sans repasser par un logiciel tier.
Memoire
 
Et du coup que se passera t-il sur PC là ou les SSD ne sont pas une norme absolu (on installe regulierement des jeux sur un disque dur classique), que se passera t-il pour les joueurs PC de ce coté là ?

Est ce qu'a l'avenir un SSD sera obligatoire pour certain jeux ? Tous ?

En tout cas c'etait assez agréable a lire, oui ! Merci
kakek
 
Memoire a écrit :

Est ce qu'a l'avenir un SSD sera obligatoire pour certain jeux ? Tous ?


Franchement ? Je pense oui. Mais on peut parier que n'importe quel PC assez puissant pour faire tourner les jeux en sera de toute facons equipé. Je ne connais pas trop de PCs équipés en RTX 20XX mais dépourvu de SSD.
Plus génant, la RAPIDITE du dit SSD. Parceque si la techno en elle même est déjà devenu une norme dans les configs gaming, il y a par contre pas mal de variations d'un disques à l'autre. Et autant on s'en fout sur les loading globalement, autant si il y a du streaming permanent calibré vraiment pour une vitesse donnée, ca peut faire chier.
Le vertueux
 
Moi j'ai une 2080 ti, j'ai un ssd, mais pour l'OS, pas pour les jeux. Donc avoir un ssd pour les jeux c'est quand même quelque chose de nouveau.
Après pas certains que ça soit obligatoire, j'attends de voir concrètement ce que ça fait de pas avoir de ssd.


Pour megascans, effectivement ça manque d'objet, mais par exemple, c'est pas plus de canapé qu'il faudrait, mais des centaines, voir des milliers de canapés différents.
Si c'est pour que tous les jeux vidéos aient les mêmes assets, c'est pas la peine.
Au bout d'un moment faut se poser la question, c'est quoi le plus rapide ?
Faire une session de shoot photo d'un canapé qu'il faudra, déplacer dans une salle, monter un éclairage, louer une salle pour la session/transporter le canapé puis cleané, baké, retopo, faire les textures ou alors le modéliser vite fait dans maya et zbrush et faire la texture à la main avec substance ?


Perso je préfère la solution du surfacing, c'est à dire qu'on tente de reproduire le photo réalisme avec des textures procédurales qu'on applique sur des assets mid poly.
C'est plus flexible, c'est moins de contraintes et c'est plus diversifié pour le joueur. Même si aujourd'hui c'est souvent dur d'atteindre le photo réalisme avec du procédural, avec des softs comme substance designer on peut faire beaucoup de choses.



kakek a écrit :

Et pour l'instant l'éditeur lui même est un peu a chier niveau outils de modelling intégrés. C'est un relou quand on veut faire la géométrie de son environnement ou modifier un asset sans repasser par un logiciel tier.


Y a pas de raison de modifier ton asset dans Ue4, ça ne serait pas un bon pipe.
En plus on ne peut pas trop alourdir un logiciel en rajoutant des couches et des couches. Comment UE4 pourrait rivaliser avec maya ? En terme d'ergonomie et de fonctionnalité ? Impossible.
Tu mets tes fbx dans un folder, et dans ue4 tu fais reload, c'est facile.
Palido
 
Faire une session de shoot photo d'un canapé qu'il faudra, déplacer dans une salle, monter un éclairage, louer une salle pour la session/transporter le canapé puis cleané, baké, retopo, faire les textures ou alors le modéliser vite fait dans maya et zbrush et faire la texture à la main avec substance ?


Question con, mais on peut pas espérer voir un algorithme qui génèrerait des models 3D, avec "juste une petite retouche manuelle apportant de la substance" derrière ? Il y a une quantité de catalogues à exploiter pour alimenter tout ça et probablement un tas de données décrivant les dimensions exactes et matériaux utilisés ?
kakek
 
Le vertueux a écrit :
Pour megascans, effectivement ça manque d'objet, mais par exemple, c'est pas plus de canapé qu'il faudrait, mais des centaines, voir des milliers de canapés différents.
Si c'est pour que tous les jeux vidéos aient les mêmes assets, c'est pas la peine.


Un canap' c'était pas un trés bon éxemple. Ca se remarque trop, ca influe trop sur le style général, et il y a trop de variations.
Plutot des petis objets, genre des assietes, des casseroles, des livres, des mugs, des outils de bureautique genre agrafeuses, porte documents, classeurs ... peut etre des ecrans plats, des claviers. Ou genre des instruments de musiques.
Franchement, si toutes les trompettes ou guitare que je croisait dans les jeux et qui ne sont pas spécialement mise en valeur etaient les même, je crois pas que je le remarquerais.
Je ne sais pas trop quel temps ca prend de faire un shoot d'un objet et le nettoyer, mais je peut penser a plein d'objets insignifiant que ca ne me generait pas de voir dupliquer dans plein de jeux si ca permet de construire plus vite des environnement détaillés.
Alexor
 
Memoire a écrit :
Et du coup que se passera t-il sur PC là ou les SSD ne sont pas une norme absolu (on installe regulierement des jeux sur un disque dur classique), que se passera t-il pour les joueurs PC de ce coté là ?

Est ce qu'a l'avenir un SSD sera obligatoire pour certain jeux ? Tous ?

En tout cas c'etait assez agréable a lire, oui ! Merci


Franchement faut bien comprendre qu'on ne parle pas de simple SSD, il s'agit la de SSD nvme.2 qui équipent les nouvelles console et offrent de nouvelle possibilité.
si les jeux tirent partis des possibilité de streaming avancée (en utilisant essentiellement des gros fichiers) par exemple. les version PC ne seront probablement pas optimisées car il faut pouvoir aussi gerer les SSD old school et les HDD a l'anciene..)

je pense que les nlle consoles risque de mettre a mal la master race pendant quelques années, (le temps que le pcie 4 et les nvme2 soient vraiment la norme.

en attendant sur PC on va etre a la merci du bon vouloir (et surtout du temps d'optim) que les devs vont bien vouloir nous accorder!
Poltro
 
En fait cette techno est bien plus orientée décors virtuels sur de très grosses configurations avec des terras de raid SSD que jeux vidéo.
Dans la démo il y a très peu d'assets qui remplissent déjà la totalité du SSD du dev kit ps5. Alors qu'il devra accueillir plusieurs jeux.

Dans le temps d'une prod, le baking ce n'est pas énorme comparé à un niveau de détail plus élevé à produire.
Actuellement pour créer les maps indispensables en PBR on ne peut pas se passer de normal map donc on ne gagne en réalité que le baking AO qui prend très peu de temps dans la création d'un asset AAA genre 0.1% du temps de prod.

J'aurais bien aimé en voir plus sur Lumen, c'est vraiment le point que je trouve très impressionnant dans la démo.
CBL
 
Merci pour les retours!

Alexor a écrit :
Franchement faut bien comprendre qu'on ne parle pas de simple SSD, il s'agit la de SSD nvme.2 qui équipent les nouvelles console et offrent de nouvelle possibilité.


Rapidos sur les SSD:
-M.2 est un type de connectique
-SATA est un type de connectique et un type d'interface
-NVMe est un type d'interface

Tous les SSD NVMe sont en M.2 mais tous les M.2 ne sont pas NVMe. Tu peux faire passer du SATA dans un M.2

Au niveau des vitesses de lecture:

SSD SATA : 550 Mo/s
SSD NVMe PCI Express Gen3 4x : 3500 Mo/s (ce qu'utilise la XSeX et la plupart des PCs modernes)
SSD NVMe PCI Express Gen4 4x : 5000 Mo/s (ce qu'utilise la PS5)
Le vertueux
 
Poltro a écrit :


Actuellement pour créer les maps indispensables en PBR on ne peut pas se passer de normal map


Pourquoi t'aurais besoin d'une normal map pour faire les autres ?


Et ça n'est pas que du baking, dans zbrush, je peux te modéliser une statue ultra hight poly, je vais partir sur du dynamesh, ensuite du zremesher, je vais subdiviser et modéliser ma statue sans me soucier de quoi que ce soit.
Je déplie les uvs avec uvmaster, je prends le mid poly, je vais peindre dans substance.

Si je dois faire la même chose pour ue4, je vais devoir faire une retopo optimisée, peut être même plusieurs pour faire les lod.
Je vais devoir baker la normal et la diffuse pour toutes les différentes versions du lod.
C'est quand même intéressant.

Moi je demande, quelle est la différence de performance en fps et poids sur le disque dur entre un asset high poly contre un asset mid poly avec displacement map.
A mon avis leur techno est plus rapide pour afficher un modèle 3d high poly que pour calculer le relief et subdiviser via une height map.
fraido
 
J'ai rien compris mais merci à vous quand même .
__MaX__
 
Le vertueux a écrit :
Moi je demande, quelle est la différence de performance en fps et poids sur le disque dur entre un asset high poly contre un asset mid poly avec displacement map.
A mon avis leur techno est plus rapide pour afficher un modèle 3d high poly que pour calculer le relief et subdiviser via une height map.


Quand tu dis "high" là tu parles de pleine résolution comme leurs statues à 30 millions de polys ? ou tu parles de HP classique comme on a aujourd'hui dans les jeux soit 150k ou plus ?
AlphaBlueLight
 
Quelqu'un me croit si je dis que j'ai tout compris ?
Et le SSD de la marque Kivavite... J'ai cherché sur Amazon, j'ai pas trouvé.
Le vertueux
 
__MaX__ a écrit :
Le vertueux a écrit :
Moi je demande, quelle est la différence de performance en fps et poids sur le disque dur entre un asset high poly contre un asset mid poly avec displacement map.
A mon avis leur techno est plus rapide pour afficher un modèle 3d high poly que pour calculer le relief et subdiviser via une height map.


Quand tu dis "high" là tu parles de pleine résolution comme leurs statues à 30 millions de polys ? ou tu parles de HP classique comme on a aujourd'hui dans les jeux soit 150k ou plus ?


Là j'utilise le terme 3d high poly pour designer le modèle comme sur les statues. Normalement un modèle de travail qu'on utilise pour baker les maps sur le modèle définitif in game.

Pour synthétiser :
Modèle à 30 millions de polygones brut vs modèle à 150k subdivisé en temps réel avec height map pour donner le volume détaillés (contrairement à la normal map qui fake le volume).


Ainsi, même si le baking de textures dans le pipe d'une prod ne prendrait pas de temps comme le dit Poltro, le résultat en terme de qualité de détails et de volume sur les objets de décors seraient inférieurs à un modèle brut car la tesselation avec displace ne serait pas encore suffisamment efficiente en terme de performance sous Ue5.
Sans compter le poids sur le disque dur : modèle brut vs (modèle ingame+ displacement map).
Tout cela est de l'ordre de l'interrogatif.
JoWn3
 
Sur PC Ils vont pas nous emmerder avec leurs SSD, si j'ai 32Go de DDR4 qui va au moins 3x plus vite que le SSD de la PS5, ils ont intérêt à me la remplir ma Ram et pas essayer de me la faire à l'envers à tenter de faire croire aux gens qu'il faut une console ou changer de PC...
CBL
 
Tu aimes les temps de chargement à ce point ?

Je ne pige pas honnêtement. Tu as surement du acheter du matos pour jouer à tel ou tel jeu (RAM, carte graphique, lecteur DVD...) mais là un SSD en NVMe ce serait trop ?
JusdePoubelle
 
Ca me parait un énorme changement en terme de pipe quand même. Je me demande comment va s’opérer la transition. Comment ca va se passer d'une prod à l'autre. Comment les outils vont suivre. T'as déjà essayé d'utiliser un high poly de plusieurs millions de polys dans Painter Le Vertueux ?
Khdot
 
CBL a écrit :
Tu aimes les temps de chargement à ce point ?

Je ne pige pas honnêtement. Tu as surement du acheter du matos pour jouer à tel ou tel jeu (RAM, carte graphique, lecteur DVD...) mais là un SSD en NVMe ce serait trop ?


On va attendre de voir le prix d'un nvme pci-e gen4 avant de remplacer mes SSD en SATA hey. Je comprends donc la réaction de JoWn3.
Le vertueux
 
JusdePoubelle a écrit :
T'as déjà essayé d'utiliser un high poly de plusieurs millions de polys dans Painter Le Vertueux ?


Non c'est mort.
Déjà de base, un soft comme Mari est très gourmand, je n'imagine même pas avec un trucs à plusieurs millions de polys, mais ça peut quand même encaisser des modèles plus lourds que ceux du jeux vidéo.

Je ne pense pas que ça va changer grand chose au pipe actuel.
Faudra quand même générer des maps pour passer d'un soft à l'autre.




Là à gauche, le modèle fait environ 507 000 polygones, au milieu, il en fait 5674 polygones. C'est ce que va voir l'artiste en surfacing dans son soft type mari ou substance.

1 - Tu sculptes ton modèle tranquillement sans te soucier de la topo
2 - tu ne vas pas forcement à un niveau de détails élevé, pas de micro détail, pas de noise de surface.
3 - retopo automatique ou manuel pour avoir un modèle exploitable dans les softs de surfacing, peut être génération d'un displace ou normal pour que les artistes surfaceur récupèrent une partie des détails perdus et puissent les voir dans le soft, mais pour des assets secondaires j'en doute.
4 - export des maps de surfacing, tout ce qui est microdétails, les pores de peau par exemple.
5 - baking de ces maps dans zbrush (ça peut être rapide).
6 - export vers l'UE5.

Dans ce workflow, le gain de temps ne va pas être énorme, ne pas trop se soucier de la topo est quand même un plus, mais surtout en terme de volume, ça sera plus impressionnant visuellement qu'un modèle classique avec normal map.
Je vois un gain visuel, pas forcement un gain de temps.


Sinon, pourquoi est ce qu'on ne peut pas déjà acheter un disque dur comme celui de la ps5 sur nos pc ?
fennec
 
On peut déjà acheter des SSD PCIE 4x sans problèmes, mais j'ai du mal a croire que Sony va mettre un SSD à 250 euros dans sa console. Ca sent la bidouille marketing avec 10GB de SLC en cache et 1TB de QLC et de la compression pour faire joli, donc un truc qui se traine a la vitesse d'un SSD SATA une fois le cache SLC vidé (2 ou 3s). Mais même ça, ça serait très bien par rapport a un HDD classique.


On trouve facilement des SSDs 1TB sous les 100 euros et ça change bien la donne sur certain jeux. Par exemple Star Citizen mets bien 5 minutes a charger sur HDD et 20s sur mon Samsung QVO 860 a 90 euros.
__MaX__
 
Le vertueux a écrit :
Pour synthétiser :
Modèle à 30 millions de polygones brut vs modèle à 150k subdivisé en temps réel avec height map pour donner le volume détaillés (contrairement à la normal map qui fake le volume).

Ainsi, même si le baking de textures dans le pipe d'une prod ne prendrait pas de temps comme le dit Poltro, le résultat en terme de qualité de détails et de volume sur les objets de décors seraient inférieurs à un modèle brut car la tesselation avec displace ne serait pas encore suffisamment efficiente en terme de performance sous Ue5.
Sans compter le poids sur le disque dur : modèle brut vs (modèle ingame+ displacement map).
Tout cela est de l'ordre de l'interrogatif.


A mon avis c'est le jour et la nuit... pour répondre à ta question sur la taille.
Si je prends un modèle importé en uasset de 40k polys environ, on parle de 12 à 15 mégs. Les modèles natifs Zbrush ultra haute déf, déjà les fichiers de base font 5,6,700 mégs voire plus. Même en imaginant poser une compression qui permette un certain gain mais n'impacte pas trop non plus le CPU pour les décompresser, on parle de presque 40/50 fois la taille d'un modèle high poly optimisé actuel.

C'est là que se heurte un peu l'envie des studios de gagner du temps et de la fidélité et la réalité du marché. Quand tu vois la couverture fibre optique en France, je pense que pas mal de joueurs vont gueuler si pour les premiers jeux UE5 les mecs débarquent en mode "Alors tu vois ton jeux de 80 gigs là, bah maintenant il fait 200".

C'est un quart d'un disque de 1to. C'est totalement surréaliste. Un p'ti calcul vite fait : 1to c'est 555h de musique non compressée à 96khz. Quand t'installes un jeu de 100go aujourd'hui, tu t'assoies sur 111h de musique ultra haute fidélité. Tu pourrais faire le même calcul avec de la photo, du film de vacances... peu importe.

Je trouve pas ça cohérent dans le monde où on vit de continuer à faire exploser la quantité de datas échangés... une chose est sûre, si quelqu'un débarque avec une compression de porc qui a quasi aucun coût CPU et se fait à la vitesse de la lumière, cette personne peut vivre tranquille jusqu'à la fin de ses jours ( et ses 160 générations suivantes si l'humanité n'a pas disparu d'ici là ).
Semifer
 
"Et on ne parle pas ici de différents niveaux de détails ou d'assets regroupés entre eux. Chaque objet est indépendant et affiché dans toute sa gloire."

J'ai un peu de mal à croire que chaque objet est totalement indépendant d'autant plus que la techno concerne des éléments purement statiques et que c'est très limité si je me fie à l'article (transform only, pas d'animation, pas de transparence et pas de tesselation). Si tous les objets ont les mêmes propriétés sans qu'on puisse y toucher, c'est bien qu'ils partagent quelque chose non ?
__MaX__
 
Semifer a écrit :
"Et on ne parle pas ici de différents niveaux de détails ou d'assets regroupés entre eux. Chaque objet est indépendant et affiché dans toute sa gloire."

J'ai un peu de mal à croire que chaque objet est totalement indépendant d'autant plus que la techno concerne des éléments purement statiques et que c'est très limité si je me fie à l'article (transform only, pas d'animation, pas de transparence et pas de tesselation). Si tous les objets ont les mêmes propriétés sans qu'on puisse y toucher, c'est bien qu'ils partagent quelque chose non ?


Quand ils parlent d'objets indépendants, ils veulent juste dire que ce sont des objets autonomes qui ont permis la construction du détail de l'environnement... en langage unreal : des static meshes. Si tu regardes la vue splittée en 3 vers la fin, les tours lors du survol sont composées de plein d'objets, contrairement à quelque chose qu'on ferait en un seul modèle à l'heure actuelle par exemple.

En gros, ils disent plus ou moins : à la place de faire du modèle sur mesure, vous prenez votre librairie de boucher avec des milliers d'assets hi-res, et vous fabriquez vous même à la main vos p'tis temple comme l'ont fait les esclaves égyptiens sans vous soucier des perfs.

Mais par contre oui, la logique de static meshes implique pas mal d'optim en mémoire. Une fois un static mesh posé dans la map, sa réutilisation 1500 fois dans le niveau ne "coûte rien". Donc si t'es un level designer malin, tu peux te faire plaisir si le moteur permet encore plus d'instances de static meshes :)

Et les limitations en terme de transparence, tesselation, c'est juste parce que à mon avis, ils optimisent ces objets au niveau des passes de rendu pour le moment. Ca changera certainement à moyen terme.
Semifer
 
Ok je comprends un peu mieux, j'ai une vision un peu trop orientée "code" du truc, je ne connais pas l'UE, je bosse beaucoup avec Unity et même si ce ne sont pas les mêmes technos, j'essaie de faire des ponts pour mieux comprendre. Merci :-)
CBL
 
Khdot a écrit
On va attendre de voir le prix d'un nvme pci-e gen4 avant de remplacer mes SSD en SATA hey. Je comprends donc la réaction de JoWn3.


Les versions NVMe ne sont même pas beaucoup plus chères que les SATA

Pour 1 To chez Crucial:
-140 euros pour du SATA (Crucial MX 5000 - 500 Mo/s)
-220 euros pour du PCIe Gen 3 (Crucial P5 - 3500 Mo/s)

Je comprends les réticences mais pour 80 euros de plus tu multiples par 7 les vitesses de transfert. Les SSDs en SATA sont bridés.

Perso j'ai trois supports de stockage sur mon PC:
-un SSD NVMe pour les projets pros et les futurs jeux qui en auront besoin
-un SSD SATA pour les jeux classiques
-un disque mécanique pour les données qui n'ont pas besoin de vitesse de fou (ROMs, photos, archives...)
aeio
 
Le Corsair MP600 1 To (M.2 NVMe PCIe 4.0) coûte 225 euros actuellement, mais c'est de l'argent mis à la poubelle. Ça n'a aucun intérêt pour l'instant et le jour où ça en aura, on trouvera mieux pour moins cher.
Laurent
 
Mais le tout n'est pas parfait. Pour l'instant, les objets Nanite ne supportent pas la transparence ou la tessellation.

En même temps, de la tesselation sur des objets à 3 millions de polys...
Vous devez être connecté pour pouvoir participer à la discussion.
Cliquez ici pour vous connecter ou vous inscrire.
Rechercher sur Factornews