Connexion
Pour récupérer votre compte, veuillez saisir votre adresse email. Vous allez recevoir un email contenant une adresse pour récupérer votre compte.
Inscription
En vous inscrivant, vous acceptez les conditions d'utilisation du site et de nous vendre votre âme pour un euro symbolique. Amusez vous, mais pliez vous à la charte.

Un Rédacteur Factornews vous demande :

Forums

RTX 30xx : FLOPS ou flop?
CBL
L.A.mming
Admin 17393 msgs
Ce qu'on désigne par shaders sont des programmes qui tournent sur le GPU. Ils sont plus ou moins complexes en fonction de la tâche et peuvent comprendre des calculs mathématiques lourds. Contrairement aux idées réçues, les shaders ne servent pas qu'à ajouter des effets type bloom ou depth of field. Dans les moteurs 3D modernes, le moindre matériau de base est rendu grâce à une batterie de shaders. On utilise même les shaders pour des tâches sans rapport avec le rendu.

Tout cela pour dire qu'en plein jeu, il y a trois tonnes de shaders qui tournent sur le GPU et que plus vite ils sont calculés, meilleur est le framerate. Les calculs sont pour la plupart fait sur des nombres à virgule flottante comme les coordonnées d'un point dans l'espace. Du coup, parmi tous les chiffres donnés par les constructeurs pour vanter les mérites de leurs cartes graphiques, le plus important est la puissance de calcul en simple précision (FP32 ou float). Cette dernière est donnée en teraflops (TFLOPS. 1 TFLOPS - 1000 GFLOPS) à savoir en mille millards d'opération à virgule flottante par seconde. J'ai collé les données en question pour quatre générations de cartes Nvidia dans un tableur Google.

Lire la suite sur le site : RTX 30xx : FLOPS ou flop?.
 
Manolo
Membre Factor
Membre 170 msgs
J'ai acheté une GTX660 en 2012 et 1060 en 2016 neuves dans les 250€ à leur rentrée respectives sur le marché à cette époque de l'année, quand la nouvelle génération débarquait.
Une autre époque où Nvidia ne se prenait pas encore pour le Apple de la carte graphique et qu'AMD était aussi dans la course niveau performances.
J'espère que ça va bouger chez ces derniers.
 
pimpim
Membre Factor
Membre 64 msgs
Ça m'intéresse grave, notamment pour jouer a cyberpunk dans les meilleures conditions (mais pas a la sortie, je préfère attendre les tests et quelques matchs).

Une idée d'une possible fenêtre de sortie pour une 3060 ?

Et question très bête selon vous quel CPU lier avec de telles cartes ? J'ai actuellement un i5 2700k (de mémoire). Soit disant hyper overclockable mais chez moi des que j'y touche un peu tout part en vrille malgré un ventirad de malade.

Sinon d'accord avec le commentaire ci-dessus : de ma fenêtre les prix des CG augmente. 500€ pour la 3070 ça tapé sévère....!
 
Temujin
Membre Factor
Membre 2358 msgs
Je me pose la même question. J'ai un Ryzen 3 2600X et j'ai aucune idée si upgrader va fonctionner.
 
Krondor
Membre Factor
Membre 1474 msgs
Mais le tout est encore sous-utilisé et n'a donc pas une grande importance pour les jeux. Près de deux ans après l'introduction des 20xx, il n'y a moins de 20 jeux supportant les effets RTX et moins de 20 jeux supportant le DLSS.

20 jeux en 2 ans pour une techno uniquement présente sur PC et uniquement présente chez un des 2 fabricants de gpus, c'est beaucoup. C'est même énorme si on prend en compte la situation du marché du jeu vidéo Pc depuis 20 ans.

"Par contre on attendra les benchmarks et les tests pour avoir un avis définitif et mettre à jour notre dossier."
Digital fundry a déjà fait des benchs de plusieurs jeux avec la 3080 et les résultats sont excellents

" Il est fort possible que les cartes soient limitées par les CPUs actuels. "
C'est surtout fort impossible ou alors en 1080p mais c'est déjà le cas avec une 2080ti.
 
Krondor
Membre Factor
Membre 1474 msgs
Temujin a écrit :
Je me pose la même question. J'ai un Ryzen 3 2600X et j'ai aucune idée si upgrader va fonctionner.


Va fonctionner pour quoi faire?
pimpim a écrit :
Sinon d'accord avec le commentaire ci-dessus : de ma fenêtre les prix des CG augmente. 500€ pour la 3070 ça tapé sévère....!


Une 3070 qui à 515€ fait mieux qu'une 2080ti à 1200€, tu trouves que c'est une augmentation?

Qu'est-ce que ça signifie pour toi augmentation?
 
aeio
Ami des bêtes
Membre 1448 msgs
pimpim a écrit :
Et question très bête selon vous quel CPU lier avec de telles cartes ? J'ai actuellement un i5 2700k (de mémoire). Soit disant hyper overclockable mais chez moi des que j'y touche un peu tout part en vrille malgré un ventirad de malade.

Il faut attendre les benchmarks mais on peut déjà prendre en compte les choses suivantes :
1) NVIDIA fait ses tests avec un Core i9-10900K.
2) Les Core 10000 d'Intel sont environ 20% plus puissants que le Ryzen 3000 d'AMD dans les jeux en 720p.
3) Cet écart est quasiment réduit à zéro dans les jeux en 1440p, où les cartes graphiques actuelles limitent les performances.
4) Cette nouvelle génération de GPU va sans doute lever la limite, et on va voir les CPU Intel dépasser les AMD même en 1440p ou 4K.
5) AMD va répliquer prochainement avec les Ryzen 4000 sur une nouvelle architecture (Zen 3).
6) AMD est le seul à avoir le support du PCIe Gen 4 sur ses cartes mères pour l'instant. Les dernière cartes mères Intel sont encore en PCIe Gen 3 et risquent de voir leurs performances légèrement réduites pour cette raison (c'est NVIDIA qui le dit)
 
redtiger
Membre Factor
Membre 211 msgs
Je trouve que le TFLOPS est une très mauvaise unité de mesure pour les GPU.
Ca donne certes un ordre de grandeur pour comparer 2 générations, mais l'architecture elle même (nombres de multi-processeurs, agencement des mémoire et caches, etc.) a un impact énorme. Et surtout, on peut avoir des résultats très différents selon le type d'application du shader (calcul scientifique, lancer de rayon, post-processing, ...).
Car le problèmes c'est que c'est très difficile d'occuper un GPU à 100% de ses capacités tout le temps : ça dépend de ce qu'on calcule et comment sont distribués ces calculs pour que la myriade de processeurs puissent bosser efficacement.

Attention je schématise :
Un GPU est constitué de plein de processeurs qui bossent en parallèle, c'est pourquoi c'est super efficace pour calculer la couleur de chaque pixel d'un écran de jeu par exemple : en gros, disons que chaque processus s'occupe de son pixel. Le problème c'est que si l'un des pixels dont on calcule la couleur est un cas particulier qui nécessite 15 fois plus de calculs et d'accès mémoire que ses voisins, eh bien les autres processeurs qui ont fini leur travail se tournent les pouces jusqu'à ce que le pixel récalcitrant ait fini de faire chier.
Ce qui fait qu'on a beau avoir des PétaFLOPS plein les procs, il est très courant d'avoir un shader qui rame parce que la charge de calcul est mal équilibrée dans le GPU.

Bon j'ai beaucoup trop schématisé et il se trouve justement que les nouvelles architectures sont de mieux en mieux optimisées pour éviter les mauvaises occupation processeur. Mais c'est là où je veux en venir, le TFLOPS donne une puissance théorique brut qui ne prend pas en compte l'efficience moyenne qu'on peut espérer. Cette efficience dépend de l'architecture et de l'optimisation du code exécuté.
Tout ça pour dire que rien ne vaut un bon benchmark.
 
fennec
Membre Factor
Membre 497 msgs
Super interessant le tableau, merci CBL!
 
CBL
L.A.mming
Admin 17393 msgs
Krondor a écrit :
Digital fundry a déjà fait des benchs de plusieurs jeux avec la 3080 et les résultats sont excellents

C'est surtout fort impossible ou alors en 1080p mais c'est déjà le cas avec une 2080ti.


C'est tellement impossible que les benchs dont tu parles précisent carrément "Nvidia has selected the games covered, for starters, and specified 4K resolution to remove the CPU completely from the test results and in all cases, settings were maxed as much as they could be.". Donc on attendra des benchs indépendants testant et comparant une variété de CPUs, GPUs et résolutions et autrement qu'avec des jeux choisis par Nvidia.

redtiger :Un benchmark dépendra trop d'autres facteurs comme le jeu choisi, les pilotes, l'OS ou le reste des composants. Pour l'architecture, un coeur CUDA Ampère sera plus rapide qu'un coeur CUDA Turing donc le nombre de coeurs est un bon indicateur mais reste faussé.

Mais un TFLOPS est un TFLOPS quel que soit l'architecture. Comme tu le dis c'est une puissance théorique mais c'est le meilleur indicateur qu'on ait pour comparer rapidement deux cartes graphiques. Ou deux supercalculateurs. Ou deux CPUs.

fennec a écrit :
Super interessant le tableau, merci CBL!


Merci! Je le mettrais à jour de temps en temps surtout avec les nouvelles cartes AMD.
 
Dan37
Membre Factor
Membre 2 msgs
Bonjour, petite précision concernant le bottleneck CPU, RTX io qui va sortir plus tard est prévu pour ce problème. C'est une déclinaison du Nvidia Magnum io utilisé dans les datacenters de calcul GPU. Concrètement le GPU va aller chercher des données de texture directement via le bus pci-e sans que cela soit géré à 100% par le CPU.
 
das_Branleur
Membre Factor
Redac 1270 msgs
CBL a écrit :
[...] et mettre à jour notre dossier.

Ouiiiiiiiiiii, please! Je suis bien intéressé par la 3080 avec la config optimale pour du FS TAF en VR avec un G2, mais je me demande ce que le SLI pourrait donner. Y compris un SLI de cartes inférieures, genre 3070 ou 3060.

Je vais sûrement poser une question con qui a peut-être déjà été évoquée, mais avec la VR et ses deux affichages et angles de vue différents, n'y a-t-il pas une utilité maximale à avoir deux GPU identiques au lieu d'un seul? Un SLI arriverait-il "enfin" à réellement multiplier les perf par deux?

Et bravo pour le comparatif, très cool de voir le bond gigantesque... En effet, faudra voir si les CPU suivent.
 
aeio
Ami des bêtes
Membre 1448 msgs
Ça n'existe plus, le SLI.

EDIT : Histoire de préciser, c'était une techno foireuse (mauvais scaling des performances sur la plupart des jeux et frame pacing à la rue, donnant l'impression de saccader même à haut frame rate) et NVIDIA l'a définitivement enterrée il y a déjà quelques années. Tu ne trouveras pas de connecteur SLI sur les cartes RTX.
 
BeatKitano
Bite qui tanne haut
Membre 6378 msgs
ça n'a jamais vraiment existé en fait *geste jedi*
 
das_Branleur
Membre Factor
Redac 1270 msgs
aeio a écrit :
Ça n'existe plus, le SLI.

EDIT : Histoire de préciser, c'était une techno foireuse (mauvais scaling des performances sur la plupart des jeux et frame pacing à la rue, donnant l'impression de saccader même à haut frame rate) et NVIDIA l'a définitivement enterrée il y a déjà quelques années. Tu ne trouveras pas de connecteur SLI sur les cartes RTX.

Merci.
Certes.
J'y connais rien et je dis ptet de la merde, mais avec la VR, on a pas littéralement 2 écrans avec 2 flux vidéos différents à calculer, au lieu d'un seul pour le quel le SLI essayait foireusement de joindre 2 GPU pour rendre un seul flux? Donc qqch de plus logique et réussissable avec la VR, un GPU pour chaque oeil? C'est vraiment une question sans m'y connaître, donc faut pas me juger.
 
CBL
L.A.mming
Admin 17393 msgs
Dan37 a écrit :
Bonjour, petite précision concernant le bottleneck CPU, RTX io qui va sortir plus tard est prévu pour ce problème. C'est une déclinaison du Nvidia Magnum io utilisé dans les datacenters de calcul GPU. Concrètement le GPU va aller chercher des données de texture directement via le bus pci-e sans que cela soit géré à 100% par le CPU.


J'en parle dans une autre news. RTX IO permettra de réduire massivement le coût CPU d'accès aux données mais ne fera pas disparaitre les coûts CPUs liés aux draw calls et à l'exécution du jeu en lui-même.

das_Branleur a écrit :

J'y connais rien et je dis ptet de la merde, mais avec la VR, on a pas littéralement 2 écrans avec 2 flux vidéos différents à calculer, au lieu d'un seul pour le quel le SLI essayait foireusement de joindre 2 GPU pour rendre un seul flux? Donc qqch de plus logique et réussissable avec la VR, un GPU pour chaque oeil? C'est vraiment une question sans m'y connaître, donc faut pas me juger.


Tu as raison et Nvidia y a pensé mais comme le dit aeio le SLI est mort. Son remplacement s'apppelle NVLink et pour les 30xxx il ne sera dispo que sur la 3090.
 
LeGreg
Membre Factor
Redac 1867 msgs
Pour le multi-GPU c'est simple (comme pour Dx12/Vulkan). Quand les devs de jeux ont clamé "qu'ils savaient mieux que tout le monde comment optimiser leur jeu pour A et B".. et bien ils mentaient :)

Mais le multi gpu explicite est plein vivant, et énormément de gens ont plusieurs GPUs dans leur boîtier pour de nombreuses applicatons. Juste un peu moins pour le jeu vidéo.
 
das_Branleur
Membre Factor
Redac 1270 msgs
CBL a écrit :
Tu as raison et Nvidia y a pensé mais comme le dit aeio le SLI est mort. Son remplacement s'apppelle NVLink et pour les 30xxx il ne sera dispo que sur la 3090.

Merci!
Naaaan... Là où ça avait du sens de se contenter d'une 3070 ou éventuellement d'une 3080 pour chaque oeil, ils limitent ça aux 3090 qui coûtent 2x plus cher pour assez peu de perfs en plus...? C'est vraiment pour dire "Y'aura pas de juste milieu ; tu veux être au top du top de la VR, faudra que tu craches le max du max de pognon. Bisous."
Parce que quand je vois que c'était dispo sur les 2070 Super et +, je doute que la limiter aux xx90 sur cette génération soit lié à une limitation technologique -_-

Bon bah un solo de 3080, ça sera déjà bien...
 
CBL
L.A.mming
Admin 17393 msgs
Après je n'ai pas l'impression que VR SLI ait été implémenté par les jeux car c'est du temps de perdu vu que quasiment personne n'est équipé. C'est surtout pour le marché pro ce qui est justement ce que vise la 3090.
 
aeio
Ami des bêtes
Membre 1448 msgs
Pour le besoin de puissance en VR, ils ont quand même annoncé DLSS 2.1 dans le AMA Reddit que j'ai posté plus haut :

What kind of advancements can we expect from DLSS? Most people were expecting a DLSS 3.0, or, at the very least, something like DLSS 2.1. Are you going to keep improving DLSS and offer support for more games while maintaining the same version?

DLSS SDK 2.1 is out and it includes three updates:
- New ultra performance mode for 8K gaming. Delivers 8K gaming on GeForce RTX 3090 with a new 9x scaling option.
- VR support. DLSS is now supported for VR titles.
- Dynamic resolution support. The input buffer can change dimensions from frame to frame while the output size remains fixed. If the rendering engine supports dynamic resolution, DLSS can be used to perform the required upscale to the display resolution.
 
Vous devez être connecté pour pouvoir participer à la discussion.
Cliquez ici pour vous connecter ou vous inscrire.

Règles à suivre

Écrire dans un français correct et lisible : ni phonétique, ni style SMS. Le warez et les incitations au piratage sont interdits. La pornographie est interdite. Le racisme et les incitations au racisme sont interdits. L'agressivité envers d'autres membres, les menaces, le dénigrement systématique sont interdits. Éviter les messages inutiles

 
Rechercher sur Factornews