Connexion
Pour récupérer votre compte, veuillez saisir votre adresse email. Vous allez recevoir un email contenant une adresse pour récupérer votre compte.
Inscription
En vous inscrivant, vous acceptez les conditions d'utilisation du site et de nous vendre votre âme pour un euro symbolique. Amusez vous, mais pliez vous à la charte.

Un Rédacteur Factornews vous demande :

 
ARTICLE

Unreal Engine 5 : des explications sur la démo

CBL par CBL,  email  @CBL_Factor
Il y a quelques mois (années ? décennies ? Je ne sais plus), Epic Games a présenté sa démo de l'Unreal Engine 5 tournant sur PS5. On n'a toujours pas raccroché notre machoire mais on a plein de questions sur le "comment". Epic a répondu à certaines d'entre elles durant son Unreal Fest. Je vais tenter de la résumer en quelques mots pour les néophytes tout en étant suffisamment technique pour ne pas me faire taper dessus par les techos.


UE 5 est donc fondé autour de deux technologies principales : Nanite et Lumen. Nanite permet d'importer les modèles 3D d'ordinaire réservés au pré-calculé directement depuis ZBrush/Maya/Ax sans avoir besoin de réduire le nombre de poly. Dans la démo, une seule statue comportait 33 millions de polygones et la salle principale du temple comportait 500 statues. Nanite permet donc d'afficher une tonne de polygones mais aussi une tonne d'objets (entre 500 000 et un million) tout en gardant un coût CPU faible. Et on ne parle pas ici de différents niveaux de détails ou d'assets regroupés entre eux. Chaque objet est indépendant et affiché dans toute sa gloire.

Epic Games n'a toujours pas expliqué comment ils font et les spéculations vont bon train à base de mesh shaders ou d'incantations vaudou. Tout ce que l'on sait c'est que Nanite repose beaucoup sur le chargement à la volée. UE 5 ne chargera en mémoire que ce qu'on verra et reposera sur un double système de compression : les assets seront compressés aussi bien sur le support de stockage qu'en RAM. Epic a annoncé que la mémoire reservée aux assets streamés dans la démo ne dépassait pas les 768 Mo et qu'ils continuaient d'optimiser ça. Ils ont même précisé qu'un modèle 3D d'un million de polygones avec un seul canal d'UV aurait le même impact mémoire qu'une normal map 4K.

Mais le tout n'est pas parfait. Pour l'instant, les objets Nanite ne supportent pas la transparence ou la tessellation. Au niveau des animations, les objets Nanite supportent uniquement les transformations (translation, rotation, taille) mais pas les animations de squelettes. En gros, Nanite sera parfait pour le décor mais ne fonctionnera pas pour les personnages ou des détails simples comme des feuilles ou des touffes d'herbe.



Lumen est le nouveau système d'illumination globale dynamique. A la place d'être précalculées et préincorporées dans les textures, les ombres et les luminères seront totalement dynamiques y compris les lumières indirectes, la manière dont les couleurs se reflètent et les ombres indirectes. Cela veut dire que la lumière changera de manière dynamique si vous changez la géométrie (objets qui apparaissent ou qui cassent), par exemple sous l'effet de la météo, de l'heure de la journée ou des sources de lumière en allumant une lampe-torche. L'UE 5 comportera aussi un tout nouveau système pour le ciel avec nuages et positionnement dynamique du soleil. Pour l'instant Lumen tourne à 30 FPS sur PS5 mais Epic espère taper les 60. La démo en elle-même tournait en 1440p upscalée en 4K grâce à leur Temporal Anti-Aliasing Upsample maison. On peut voir Lumen en action à la minute 43.

Tout cela a de nombreuses implications pour la création d'assets. Les lightmaps et les Ambient Occlusion maps feront partie du passé. Selon Epic, les statues n'utilisent que trois textures : diffuse, metal/roughness et normal. Normalement les normal maps ne sont plus nécessaires vu que tout se fait à coups de polygones mais elles seront toujours utiles pour les petits détails comme des égratignures. Par contre les assets seront massifs. Histoire d'améliorer un peu les choses, Epic bosse sur un système de virtualisation : à la place de charger tout le projet sur son PC, on ne charge que des références. Les vrais assets sont stockés sur un NAS et sont chargés en local uniquement si besoin.



Epic a introduit dans UE 4 un système de scripting Python pour automatiser certaines tâches et va continuer avec UE 5 afin de faciliter des choses comme l'import d'assets ou le rendu entre les différentes applications (Maya, Houdini, Shotgun...). Pour les équipes qui n'ont pas le temps ou les moyens de créer des tonnes d'assets, le catalogue de megascans Quixel est gratuit pour les utilisateurs d'UE 4 ou d'UE 5 suite au rachat de Quixel par Epic en Novembre dernier. Epic a d'ailleurs utilisé les megascans en question pour une grande partie des assets de la démo. Toujours au niveau outils, UE 5 diminuera le temps nécessaire à préparer les assets pour un build et simplifiera le déploiement sur mobile en automatisant des choses comme signer les applications et installer des profils de provisionnement. J'entends des devs iOS qui viennent de sauter de joie.

L'UE 5 comprendra aussi des versions améliorées d'outils qui sortiront de la phase bêta sur UE 4 : Niagara et Chaos. Le premier est un nouveau système de particules et la version UE 5 permettra aux particules d'intéragir entre elles par exemple pour simuler des liquides ou encore de réagir avec le son. Chaos quant à lui est un moteur physique venant remplacer PhysX. Pour la version UE 5, Epic veut des destructions massives aussi bien en solo qu'en multi. Tout cela arrivera progressivement en 2021 avec une bêta au début de l'année et une vraie 5.0 en fin d'année. En attendant, UE 4 se porte bien. UE 4.25 vient de sortir et supporte la PS5 et la XSeX. Epic va d'ailleurs le prouver en sortant Fortnite sur ces consoles.

La 4.25 comporte aussi des outils d'analyse pointus pour comprendre ce qui se passe dans son jeu aussi bien au niveau du trafic réseau que des animations jouées et de l'impact mémoire. La 4.26 qui sortira cet automne sera sans doute la dernière version de l'UE 4 et uniformisera les différents SDK de réalité augmentée et ajoutera un nouveau système d'animations procédurales. La bonne nouvelle est que les projets UE 4 seront rétro-compatibles UE 5 même si quelques trucs vont surement casser au passage. Cela confirme aussi que les Blueprints, le langage de programmation visuel d'UE 4, est là pour rester et sera aussi présent dans UE 5.

Oups, j'avais dit quelques mots. Mais alors qu'est ce que tout cela signifie pour les studios de jv ? Beaucoup de choses. Créer des assets sera beaucoup plus rapide car il n'y aura plus besoin de baker ou décimer du poly à tout va. Les même modèles utilisés pour les cinématiques serviront au temps réel. La frontière entre temps réel et précalculée est en train de disparaitre rapidement. Pour les joueurs, cela signifie des mondes plus beaux, plus grands et plus détaillés à condition de disposer d'un SSD kivavite.
A une époque où ce sont les jeux indies qui réinventent le gameplay et la manière de raconter des histoires, afficher des milliards de polygones pour le faire semble assez vain. Mais pour les fans de AAA qui tabassent, attendez vous à en prendre plein la gueule. On remarque d'ailleurs un parallèle intéressant avec la peinture de la fin XIX début XXème siècle pendant lesquels les peintre ont abandonné le réalisme pour donner naisssance à toute une série de nouveaux courants et styles.
 

Commentaires

Masquer les commentaires lus.
kakek
 
Merci !
Ce genre de news tech / moteur de rendu m'intéressent beaucoup, et les tiennent sont trés bien écrites. Je me suis tapé la video, mais ton résumé en plus aide beaucoup a mieu piger les grandes lignes pour les seli-techniques comme moi.

Mes remarques :

Il jettent des fleurs a quixel megascan, mais c'est vrai que c'est une putain de bibliothèque super adaptée au jeux ! Il y manque juste un peut plus d'objets courants. Elle est trés tournée rochers / bout de bois / nature. A la limite ruines antiques. Mais on y trouve pas tellement de canapés, fauteuil, bureau, des couverts, des livres ... des objets standards pour remplir une scène d'intérieur quoi.
Et justement, une grosse force de megascan c'est que les assets viennent toujours avec un LOD bien branlés et des normal maps / displacement map et tout et tout ... là ou d'autres bibliothèques ne fournissent parfois qu'un modèle high poly et démerde toi avec blender.
Je me demande si dans un futur proche ils vont du coup se metre a ne fournir que les assets highpoly, vu qu'avec nanite le reste devrait ( théoriquement ) devenir bien moins utile ?

Lumen et nanite ont l'air d'être de vrai tueries, mais pour l'instant je n'ai pas été hyper convaincu par chaos, le moteur physique.
Je joue un peut avec différents moteurs pour me faire des petites expérience VR, et peut être que ca peut faire de jolies destructions, mais l'interaction a petite échelle et entre plusieurs objets est bien plus convaincante dans le sources 2 que dans unreal. Typiquement, remplir une caisse d'une dizaine de trucs pour la soulever et la secouer, ou pousser un paquet d'objet avec la main, ca marche nettement mieux sous source que unreal.

Et pour l'instant l'éditeur lui même est un peu a chier niveau outils de modelling intégrés. C'est un relou quand on veut faire la géométrie de son environnement ou modifier un asset sans repasser par un logiciel tier.
Memoire
 
Et du coup que se passera t-il sur PC là ou les SSD ne sont pas une norme absolu (on installe regulierement des jeux sur un disque dur classique), que se passera t-il pour les joueurs PC de ce coté là ?

Est ce qu'a l'avenir un SSD sera obligatoire pour certain jeux ? Tous ?

En tout cas c'etait assez agréable a lire, oui ! Merci
kakek
 
Memoire a écrit :

Est ce qu'a l'avenir un SSD sera obligatoire pour certain jeux ? Tous ?


Franchement ? Je pense oui. Mais on peut parier que n'importe quel PC assez puissant pour faire tourner les jeux en sera de toute facons equipé. Je ne connais pas trop de PCs équipés en RTX 20XX mais dépourvu de SSD.
Plus génant, la RAPIDITE du dit SSD. Parceque si la techno en elle même est déjà devenu une norme dans les configs gaming, il y a par contre pas mal de variations d'un disques à l'autre. Et autant on s'en fout sur les loading globalement, autant si il y a du streaming permanent calibré vraiment pour une vitesse donnée, ca peut faire chier.
Le vertueux
 
Moi j'ai une 2080 ti, j'ai un ssd, mais pour l'OS, pas pour les jeux. Donc avoir un ssd pour les jeux c'est quand même quelque chose de nouveau.
Après pas certains que ça soit obligatoire, j'attends de voir concrètement ce que ça fait de pas avoir de ssd.


Pour megascans, effectivement ça manque d'objet, mais par exemple, c'est pas plus de canapé qu'il faudrait, mais des centaines, voir des milliers de canapés différents.
Si c'est pour que tous les jeux vidéos aient les mêmes assets, c'est pas la peine.
Au bout d'un moment faut se poser la question, c'est quoi le plus rapide ?
Faire une session de shoot photo d'un canapé qu'il faudra, déplacer dans une salle, monter un éclairage, louer une salle pour la session/transporter le canapé puis cleané, baké, retopo, faire les textures ou alors le modéliser vite fait dans maya et zbrush et faire la texture à la main avec substance ?


Perso je préfère la solution du surfacing, c'est à dire qu'on tente de reproduire le photo réalisme avec des textures procédurales qu'on applique sur des assets mid poly.
C'est plus flexible, c'est moins de contraintes et c'est plus diversifié pour le joueur. Même si aujourd'hui c'est souvent dur d'atteindre le photo réalisme avec du procédural, avec des softs comme substance designer on peut faire beaucoup de choses.



kakek a écrit :

Et pour l'instant l'éditeur lui même est un peu a chier niveau outils de modelling intégrés. C'est un relou quand on veut faire la géométrie de son environnement ou modifier un asset sans repasser par un logiciel tier.


Y a pas de raison de modifier ton asset dans Ue4, ça ne serait pas un bon pipe.
En plus on ne peut pas trop alourdir un logiciel en rajoutant des couches et des couches. Comment UE4 pourrait rivaliser avec maya ? En terme d'ergonomie et de fonctionnalité ? Impossible.
Tu mets tes fbx dans un folder, et dans ue4 tu fais reload, c'est facile.
Palido
 
Faire une session de shoot photo d'un canapé qu'il faudra, déplacer dans une salle, monter un éclairage, louer une salle pour la session/transporter le canapé puis cleané, baké, retopo, faire les textures ou alors le modéliser vite fait dans maya et zbrush et faire la texture à la main avec substance ?


Question con, mais on peut pas espérer voir un algorithme qui génèrerait des models 3D, avec "juste une petite retouche manuelle apportant de la substance" derrière ? Il y a une quantité de catalogues à exploiter pour alimenter tout ça et probablement un tas de données décrivant les dimensions exactes et matériaux utilisés ?
kakek
 
Le vertueux a écrit :
Pour megascans, effectivement ça manque d'objet, mais par exemple, c'est pas plus de canapé qu'il faudrait, mais des centaines, voir des milliers de canapés différents.
Si c'est pour que tous les jeux vidéos aient les mêmes assets, c'est pas la peine.


Un canap' c'était pas un trés bon éxemple. Ca se remarque trop, ca influe trop sur le style général, et il y a trop de variations.
Plutot des petis objets, genre des assietes, des casseroles, des livres, des mugs, des outils de bureautique genre agrafeuses, porte documents, classeurs ... peut etre des ecrans plats, des claviers. Ou genre des instruments de musiques.
Franchement, si toutes les trompettes ou guitare que je croisait dans les jeux et qui ne sont pas spécialement mise en valeur etaient les même, je crois pas que je le remarquerais.
Je ne sais pas trop quel temps ca prend de faire un shoot d'un objet et le nettoyer, mais je peut penser a plein d'objets insignifiant que ca ne me generait pas de voir dupliquer dans plein de jeux si ca permet de construire plus vite des environnement détaillés.
Alexor
 
Memoire a écrit :
Et du coup que se passera t-il sur PC là ou les SSD ne sont pas une norme absolu (on installe regulierement des jeux sur un disque dur classique), que se passera t-il pour les joueurs PC de ce coté là ?

Est ce qu'a l'avenir un SSD sera obligatoire pour certain jeux ? Tous ?

En tout cas c'etait assez agréable a lire, oui ! Merci


Franchement faut bien comprendre qu'on ne parle pas de simple SSD, il s'agit la de SSD nvme.2 qui équipent les nouvelles console et offrent de nouvelle possibilité.
si les jeux tirent partis des possibilité de streaming avancée (en utilisant essentiellement des gros fichiers) par exemple. les version PC ne seront probablement pas optimisées car il faut pouvoir aussi gerer les SSD old school et les HDD a l'anciene..)

je pense que les nlle consoles risque de mettre a mal la master race pendant quelques années, (le temps que le pcie 4 et les nvme2 soient vraiment la norme.

en attendant sur PC on va etre a la merci du bon vouloir (et surtout du temps d'optim) que les devs vont bien vouloir nous accorder!
Poltro
 
En fait cette techno est bien plus orientée décors virtuels sur de très grosses configurations avec des terras de raid SSD que jeux vidéo.
Dans la démo il y a très peu d'assets qui remplissent déjà la totalité du SSD du dev kit ps5. Alors qu'il devra accueillir plusieurs jeux.

Dans le temps d'une prod, le baking ce n'est pas énorme comparé à un niveau de détail plus élevé à produire.
Actuellement pour créer les maps indispensables en PBR on ne peut pas se passer de normal map donc on ne gagne en réalité que le baking AO qui prend très peu de temps dans la création d'un asset AAA genre 0.1% du temps de prod.

J'aurais bien aimé en voir plus sur Lumen, c'est vraiment le point que je trouve très impressionnant dans la démo.
CBL
 
Merci pour les retours!

Alexor a écrit :
Franchement faut bien comprendre qu'on ne parle pas de simple SSD, il s'agit la de SSD nvme.2 qui équipent les nouvelles console et offrent de nouvelle possibilité.


Rapidos sur les SSD:
-M.2 est un type de connectique
-SATA est un type de connectique et un type d'interface
-NVMe est un type d'interface

Tous les SSD NVMe sont en M.2 mais tous les M.2 ne sont pas NVMe. Tu peux faire passer du SATA dans un M.2

Au niveau des vitesses de lecture:

SSD SATA : 550 Mo/s
SSD NVMe PCI Express Gen3 4x : 3500 Mo/s (ce qu'utilise la XSeX et la plupart des PCs modernes)
SSD NVMe PCI Express Gen4 4x : 5000 Mo/s (ce qu'utilise la PS5)
Le vertueux
 
Poltro a écrit :


Actuellement pour créer les maps indispensables en PBR on ne peut pas se passer de normal map


Pourquoi t'aurais besoin d'une normal map pour faire les autres ?


Et ça n'est pas que du baking, dans zbrush, je peux te modéliser une statue ultra hight poly, je vais partir sur du dynamesh, ensuite du zremesher, je vais subdiviser et modéliser ma statue sans me soucier de quoi que ce soit.
Je déplie les uvs avec uvmaster, je prends le mid poly, je vais peindre dans substance.

Si je dois faire la même chose pour ue4, je vais devoir faire une retopo optimisée, peut être même plusieurs pour faire les lod.
Je vais devoir baker la normal et la diffuse pour toutes les différentes versions du lod.
C'est quand même intéressant.

Moi je demande, quelle est la différence de performance en fps et poids sur le disque dur entre un asset high poly contre un asset mid poly avec displacement map.
A mon avis leur techno est plus rapide pour afficher un modèle 3d high poly que pour calculer le relief et subdiviser via une height map.
fraido
 
J'ai rien compris mais merci à vous quand même .
__MaX__
 
Le vertueux a écrit :
Moi je demande, quelle est la différence de performance en fps et poids sur le disque dur entre un asset high poly contre un asset mid poly avec displacement map.
A mon avis leur techno est plus rapide pour afficher un modèle 3d high poly que pour calculer le relief et subdiviser via une height map.


Quand tu dis "high" là tu parles de pleine résolution comme leurs statues à 30 millions de polys ? ou tu parles de HP classique comme on a aujourd'hui dans les jeux soit 150k ou plus ?
AlphaBlueLight
 
Quelqu'un me croit si je dis que j'ai tout compris ?
Et le SSD de la marque Kivavite... J'ai cherché sur Amazon, j'ai pas trouvé.
Le vertueux
 
__MaX__ a écrit :
Le vertueux a écrit :
Moi je demande, quelle est la différence de performance en fps et poids sur le disque dur entre un asset high poly contre un asset mid poly avec displacement map.
A mon avis leur techno est plus rapide pour afficher un modèle 3d high poly que pour calculer le relief et subdiviser via une height map.


Quand tu dis "high" là tu parles de pleine résolution comme leurs statues à 30 millions de polys ? ou tu parles de HP classique comme on a aujourd'hui dans les jeux soit 150k ou plus ?


Là j'utilise le terme 3d high poly pour designer le modèle comme sur les statues. Normalement un modèle de travail qu'on utilise pour baker les maps sur le modèle définitif in game.

Pour synthétiser :
Modèle à 30 millions de polygones brut vs modèle à 150k subdivisé en temps réel avec height map pour donner le volume détaillés (contrairement à la normal map qui fake le volume).


Ainsi, même si le baking de textures dans le pipe d'une prod ne prendrait pas de temps comme le dit Poltro, le résultat en terme de qualité de détails et de volume sur les objets de décors seraient inférieurs à un modèle brut car la tesselation avec displace ne serait pas encore suffisamment efficiente en terme de performance sous Ue5.
Sans compter le poids sur le disque dur : modèle brut vs (modèle ingame+ displacement map).
Tout cela est de l'ordre de l'interrogatif.
JoWn3
 
Sur PC Ils vont pas nous emmerder avec leurs SSD, si j'ai 32Go de DDR4 qui va au moins 3x plus vite que le SSD de la PS5, ils ont intérêt à me la remplir ma Ram et pas essayer de me la faire à l'envers à tenter de faire croire aux gens qu'il faut une console ou changer de PC...
CBL
 
Tu aimes les temps de chargement à ce point ?

Je ne pige pas honnêtement. Tu as surement du acheter du matos pour jouer à tel ou tel jeu (RAM, carte graphique, lecteur DVD...) mais là un SSD en NVMe ce serait trop ?
JusdePoubelle
 
Ca me parait un énorme changement en terme de pipe quand même. Je me demande comment va s’opérer la transition. Comment ca va se passer d'une prod à l'autre. Comment les outils vont suivre. T'as déjà essayé d'utiliser un high poly de plusieurs millions de polys dans Painter Le Vertueux ?
Khdot
 
CBL a écrit :
Tu aimes les temps de chargement à ce point ?

Je ne pige pas honnêtement. Tu as surement du acheter du matos pour jouer à tel ou tel jeu (RAM, carte graphique, lecteur DVD...) mais là un SSD en NVMe ce serait trop ?


On va attendre de voir le prix d'un nvme pci-e gen4 avant de remplacer mes SSD en SATA hey. Je comprends donc la réaction de JoWn3.
Le vertueux
 
JusdePoubelle a écrit :
T'as déjà essayé d'utiliser un high poly de plusieurs millions de polys dans Painter Le Vertueux ?


Non c'est mort.
Déjà de base, un soft comme Mari est très gourmand, je n'imagine même pas avec un trucs à plusieurs millions de polys, mais ça peut quand même encaisser des modèles plus lourds que ceux du jeux vidéo.

Je ne pense pas que ça va changer grand chose au pipe actuel.
Faudra quand même générer des maps pour passer d'un soft à l'autre.




Là à gauche, le modèle fait environ 507 000 polygones, au milieu, il en fait 5674 polygones. C'est ce que va voir l'artiste en surfacing dans son soft type mari ou substance.

1 - Tu sculptes ton modèle tranquillement sans te soucier de la topo
2 - tu ne vas pas forcement à un niveau de détails élevé, pas de micro détail, pas de noise de surface.
3 - retopo automatique ou manuel pour avoir un modèle exploitable dans les softs de surfacing, peut être génération d'un displace ou normal pour que les artistes surfaceur récupèrent une partie des détails perdus et puissent les voir dans le soft, mais pour des assets secondaires j'en doute.
4 - export des maps de surfacing, tout ce qui est microdétails, les pores de peau par exemple.
5 - baking de ces maps dans zbrush (ça peut être rapide).
6 - export vers l'UE5.

Dans ce workflow, le gain de temps ne va pas être énorme, ne pas trop se soucier de la topo est quand même un plus, mais surtout en terme de volume, ça sera plus impressionnant visuellement qu'un modèle classique avec normal map.
Je vois un gain visuel, pas forcement un gain de temps.


Sinon, pourquoi est ce qu'on ne peut pas déjà acheter un disque dur comme celui de la ps5 sur nos pc ?
fennec
 
On peut déjà acheter des SSD PCIE 4x sans problèmes, mais j'ai du mal a croire que Sony va mettre un SSD à 250 euros dans sa console. Ca sent la bidouille marketing avec 10GB de SLC en cache et 1TB de QLC et de la compression pour faire joli, donc un truc qui se traine a la vitesse d'un SSD SATA une fois le cache SLC vidé (2 ou 3s). Mais même ça, ça serait très bien par rapport a un HDD classique.


On trouve facilement des SSDs 1TB sous les 100 euros et ça change bien la donne sur certain jeux. Par exemple Star Citizen mets bien 5 minutes a charger sur HDD et 20s sur mon Samsung QVO 860 a 90 euros.
__MaX__
 
Le vertueux a écrit :
Pour synthétiser :
Modèle à 30 millions de polygones brut vs modèle à 150k subdivisé en temps réel avec height map pour donner le volume détaillés (contrairement à la normal map qui fake le volume).

Ainsi, même si le baking de textures dans le pipe d'une prod ne prendrait pas de temps comme le dit Poltro, le résultat en terme de qualité de détails et de volume sur les objets de décors seraient inférieurs à un modèle brut car la tesselation avec displace ne serait pas encore suffisamment efficiente en terme de performance sous Ue5.
Sans compter le poids sur le disque dur : modèle brut vs (modèle ingame+ displacement map).
Tout cela est de l'ordre de l'interrogatif.


A mon avis c'est le jour et la nuit... pour répondre à ta question sur la taille.
Si je prends un modèle importé en uasset de 40k polys environ, on parle de 12 à 15 mégs. Les modèles natifs Zbrush ultra haute déf, déjà les fichiers de base font 5,6,700 mégs voire plus. Même en imaginant poser une compression qui permette un certain gain mais n'impacte pas trop non plus le CPU pour les décompresser, on parle de presque 40/50 fois la taille d'un modèle high poly optimisé actuel.

C'est là que se heurte un peu l'envie des studios de gagner du temps et de la fidélité et la réalité du marché. Quand tu vois la couverture fibre optique en France, je pense que pas mal de joueurs vont gueuler si pour les premiers jeux UE5 les mecs débarquent en mode "Alors tu vois ton jeux de 80 gigs là, bah maintenant il fait 200".

C'est un quart d'un disque de 1to. C'est totalement surréaliste. Un p'ti calcul vite fait : 1to c'est 555h de musique non compressée à 96khz. Quand t'installes un jeu de 100go aujourd'hui, tu t'assoies sur 111h de musique ultra haute fidélité. Tu pourrais faire le même calcul avec de la photo, du film de vacances... peu importe.

Je trouve pas ça cohérent dans le monde où on vit de continuer à faire exploser la quantité de datas échangés... une chose est sûre, si quelqu'un débarque avec une compression de porc qui a quasi aucun coût CPU et se fait à la vitesse de la lumière, cette personne peut vivre tranquille jusqu'à la fin de ses jours ( et ses 160 générations suivantes si l'humanité n'a pas disparu d'ici là ).
Semifer
 
"Et on ne parle pas ici de différents niveaux de détails ou d'assets regroupés entre eux. Chaque objet est indépendant et affiché dans toute sa gloire."

J'ai un peu de mal à croire que chaque objet est totalement indépendant d'autant plus que la techno concerne des éléments purement statiques et que c'est très limité si je me fie à l'article (transform only, pas d'animation, pas de transparence et pas de tesselation). Si tous les objets ont les mêmes propriétés sans qu'on puisse y toucher, c'est bien qu'ils partagent quelque chose non ?
__MaX__
 
Semifer a écrit :
"Et on ne parle pas ici de différents niveaux de détails ou d'assets regroupés entre eux. Chaque objet est indépendant et affiché dans toute sa gloire."

J'ai un peu de mal à croire que chaque objet est totalement indépendant d'autant plus que la techno concerne des éléments purement statiques et que c'est très limité si je me fie à l'article (transform only, pas d'animation, pas de transparence et pas de tesselation). Si tous les objets ont les mêmes propriétés sans qu'on puisse y toucher, c'est bien qu'ils partagent quelque chose non ?


Quand ils parlent d'objets indépendants, ils veulent juste dire que ce sont des objets autonomes qui ont permis la construction du détail de l'environnement... en langage unreal : des static meshes. Si tu regardes la vue splittée en 3 vers la fin, les tours lors du survol sont composées de plein d'objets, contrairement à quelque chose qu'on ferait en un seul modèle à l'heure actuelle par exemple.

En gros, ils disent plus ou moins : à la place de faire du modèle sur mesure, vous prenez votre librairie de boucher avec des milliers d'assets hi-res, et vous fabriquez vous même à la main vos p'tis temple comme l'ont fait les esclaves égyptiens sans vous soucier des perfs.

Mais par contre oui, la logique de static meshes implique pas mal d'optim en mémoire. Une fois un static mesh posé dans la map, sa réutilisation 1500 fois dans le niveau ne "coûte rien". Donc si t'es un level designer malin, tu peux te faire plaisir si le moteur permet encore plus d'instances de static meshes :)

Et les limitations en terme de transparence, tesselation, c'est juste parce que à mon avis, ils optimisent ces objets au niveau des passes de rendu pour le moment. Ca changera certainement à moyen terme.
Semifer
 
Ok je comprends un peu mieux, j'ai une vision un peu trop orientée "code" du truc, je ne connais pas l'UE, je bosse beaucoup avec Unity et même si ce ne sont pas les mêmes technos, j'essaie de faire des ponts pour mieux comprendre. Merci :-)
CBL
 
Khdot a écrit
On va attendre de voir le prix d'un nvme pci-e gen4 avant de remplacer mes SSD en SATA hey. Je comprends donc la réaction de JoWn3.


Les versions NVMe ne sont même pas beaucoup plus chères que les SATA

Pour 1 To chez Crucial:
-140 euros pour du SATA (Crucial MX 5000 - 500 Mo/s)
-220 euros pour du PCIe Gen 3 (Crucial P5 - 3500 Mo/s)

Je comprends les réticences mais pour 80 euros de plus tu multiples par 7 les vitesses de transfert. Les SSDs en SATA sont bridés.

Perso j'ai trois supports de stockage sur mon PC:
-un SSD NVMe pour les projets pros et les futurs jeux qui en auront besoin
-un SSD SATA pour les jeux classiques
-un disque mécanique pour les données qui n'ont pas besoin de vitesse de fou (ROMs, photos, archives...)
aeio
 
Le Corsair MP600 1 To (M.2 NVMe PCIe 4.0) coûte 225 euros actuellement, mais c'est de l'argent mis à la poubelle. Ça n'a aucun intérêt pour l'instant et le jour où ça en aura, on trouvera mieux pour moins cher.
Laurent
 
Mais le tout n'est pas parfait. Pour l'instant, les objets Nanite ne supportent pas la transparence ou la tessellation.

En même temps, de la tesselation sur des objets à 3 millions de polys...
Vous devez être connecté pour pouvoir participer à la discussion.
Cliquez ici pour vous connecter ou vous inscrire.
Rechercher sur Factornews