Connexion
Pour récupérer votre compte, veuillez saisir votre adresse email. Vous allez recevoir un email contenant une adresse pour récupérer votre compte.
Inscription
En vous inscrivant, vous acceptez les conditions d'utilisation du site et de nous vendre votre âme pour un euro symbolique. Amusez vous, mais pliez vous à la charte.

Un Rédacteur Factornews vous demande :

Forums

Le FSR d'AMD souffle sa première bougie
Zaza le Nounours
Connard aigri
Admin 13144 msgs
Il y a un an, AMD sortait la version 1.0 de son FidelityFX Super Resolution, FSR de son petit nom, sa solution d'upscaling maison pour réduire la charge du GPU en affichant les jeux dans une résolution interne plus basse et ensuite agrandie avec théoriquement une perte de qualité assez faible. On sait ce que ça a donné : c'était moche et c'était nul, et ceux qui prétendent le contraire vivent dans le déni.

Il y a quelques mois, AMD revoyait sa copie avec le FSR version 2.0 et si le résultat n'est pas encore parfait, il est tout de même assez bon globalement pour que l'on puisse l'utiliser sans honte si le jeu ne propose pas de DLSS ou si on n'a pas de carte Nvidia. Son seul défaut est pour l'instant d'être encore assez peu répandu puisque à part quelques gros noms comme Flight Simulator, Deathloop ou encore God of War, il n'y a pas grand chose qui permette d'en profiter, certains jeux récents ayant même l'outrecuidance de sortir en ne proposant que la version 1.0 (qui est, on le rappelle, moche et nulle).

Mais ceci pourrait bientôt changer puisque AMD vient de mettre à disposition des développeurs le code source du FSR 2.0. Tout le monde pourra donc s'amuser à intégrer un support du FSR dans ses jeux relativement facilement, tant que ceux-ci tournent sous DirectX 12 ou Vulkan. Et ceci s'accompagne d'une autre annonce, elle aussi assez importante : le support des Xbox Series, qui pourront donc afficher des jeux en résolution plus élevée sans avoir à cracher leurs tripes pour calculer chaque pixel un par un. On espère pour la PS5 qu'elle ne sera pas laissée de côté trop longtemps, ce qui serait quand même malheureux pour une console à l'architecture aussi proche de celle de Microsoft.

Lire la suite sur le site : Le FSR d'AMD souffle sa première bougie.
 
JoWn3
Mini-Draikin
Membre 640 msgs
C'est bien de dire que le FSR avec sa version 2.0 va dans le bon sens, mais comme il ne faut pas être dans le déni qu'en un jeu qui utilise cette méthode sera toujours moins "pixel perfect" qu'un jeu en 4k sans par exemple, il faut préciser aussi que pour le Dlss c'est la même chose.

Faudra toujours se demander avec ces techniques d'upscaling si la perte de qualité vaut vraiment les 10/15fps de gagnés, ça se fera en fonction des jeux, c'est bien d'avoir le choix, mais faut pas se laisser leurrer par le discours marketing(et je sais de quoi je parle j'ai acheté une 3070ti et je regrette déjà...), c'est pas "la" solution miracle pour avoir un jeu qui tourne en très haute résolution de manière fluide sans compromis.
 
Zaza le Nounours
Connard aigri
Admin 13144 msgs
Les jeux modernes ont des images déjà tellement bidouillées (anti-aliasing notamment le TAA de par son fonctionnement, motion blur, et tous les autres effets de post process) que c'est déjà pratiquement impossible d'avoir une image vraiment raw. À partir de là, un DLSS bien implémenté (et peut-être aussi à un FSR 2.0, à terme), ça change environ rien, ça te donne des FPS en plus, et dans le meilleur des cas t'auras même des détails en plus quand la reconstruction marche vraiment bien.

Refuser d'activer ces features par principe, c'est vraiment vivre dans le passé et se priver d'une fonctionnalité qui n'a à peu près que des bons côtés.
 
__MaX__
David Croquette
Admin 4512 msgs
Yup, clairement Zaza.

Et on parle pas de 10/15fps avec une base à 150fps. On parle de beaucoup plus la plupart du temps sur une base de beaucoup moins.
J'vais prendre Control que j'ai poncé il y a quelques mois quand j'ai reçu ma config. J'ai pas d'écran 4K (parce que je m'en branle un peu en fait), l'intérêt par contre, c'est qu'avec le DSR, j'ai une image ultra clean en faisant du super sampling à 1080p.

Control 4K natif (pas de DLSS) TAF RTX & co, DSR : 30/40fps
Control 4K DLSS TAF RTX & co, DSR : 70/75fps

On parle plus de 15fps là, c'est quasi le double la plupart du temps.
Et on a fait le comparo un soir avec Vasquaal sur des configs similaires, de faire des screenshots comparatifs à différents endroit avec et sans. Autant dire qu'en mouvement, la différence est nulle.

Et j'suis vraiment un adepte de photographie virtuelle, donc question tatillon sur la perte de qualité, ça va. Et c'est justement le seul endroit où je dirai que l'enlever pourrait être valable : si tu fais une session de photos. Et encore, le DLSS 2 a des résultat impressionnant sur des micros détails comme les cheveux ou les grilles, parfois sur du portrait, c'est même plus intéressant de l'avoir activé.

Sachant que nos bécanes ne sont pas à même de faire tourner proprement (comme un PC quoi 60fps) des technos type raytracing sur du 4K natif... et que probablement on va avoir des joyeusetés du genre qui vont continuer à arriver. Le DLSS et FSR sont nés pour ça.
Oui, ne pas les activer "parce qu'on perd en qualité", ça serait vraiment rater quelque chose : )
 
Ddomba
Membre Factor
Membre 235 msgs
Je tourne encore sur ma config de 2015 avec ma gtx 970 donc toutes ces techniques me passent au dessus de la tête.

Mais sûrement que dans le 10 ans à venir, je vais changer ma config.

Donc pour savoir, tous ces trucs s'activent automatiquement pour chacun des jeux compatibles ? Faut aller dans les options du jeu ? Dans l'application Nvidia/amd avant de lancer le jeu ?
 
Zaza le Nounours
Connard aigri
Admin 13144 msgs
Non, le DLSS et le nouveau FSR ça s'active dans les jeux directement, à condition qu'ils l'utilisent. C'est pas des trucs génériques, les devs doivent l'implémenter manuellement.
 
Mascouell
Membre Factor
Membre 31 msgs
JoWn3 a écrit :
j'ai acheté une 3070ti et je regrette déjà...


Par curiosité, pourquoi ?
 
Ddomba
Membre Factor
Membre 235 msgs
Mascouell a écrit :
JoWn3 a écrit :
j'ai acheté une 3070ti et je regrette déjà...

Par curiosité, pourquoi ?

Il a dû réaliser qu'il aurait dû prendre une Amd. N'est ce pas zaza ?
 
JoWn3
Mini-Draikin
Membre 640 msgs
Mascouell a écrit :
JoWn3 a écrit :
j'ai acheté une 3070ti et je regrette déjà...


Par curiosité, pourquoi ?



Ayant un écran 4K 120Hz(une télé Oled) la 3070ti est déjà trop limite pour les gros jeux (toutes les cartes actuelles le sont toutes façons).

Après le RTX à l'heure actuelle c'est tellement anecdotique visuellement pour tellement de perte de FPS que c'est ridicule de mettre ça en avant (mais ça marche je me suis fait avoir)

Le Dlls inutile pour ma résolution native.

Donc je préférerais avoir la 6800XT que je considère plus futur proof avec ses 16go et le fait que dans les tests récent hors dlls et raytracing, elle est toujours devant ma 3070ti et connaissant Nvidia et AMD l'écart ne va faire que s'agrandir en faveur de la 6800XT.

En début d'année la seule qui était dans mon budget info (que je devais dépenser avant avril) c'était une 3070ti à 850€...
 
fwouedd
Mylène Farmer Coréen
Redac 5598 msgs
Bin déjà, tu compares des gammes diffèrentes, la 3070TI, c'est la gamme 6700XT ou 6800, ça se vérifie en terme de prix, les 6800XT sont au coude à coude avec les 3080.

Ensuite, je comprends absolument pas pourquoi le DLSS est inutile pour ta résolution native? Sur un 1440P, je l'utilise dès que l'option est proposée et c'est du confort systématiquement. Du coup j'attends l'arrivée de la techno sur MSFS comme le messies.
C'est précisément sur du 4k que le DLSS fait le plus de miracle.

Et le RTX, bah dans Cyberpunk c'est quand même radical la diffèrence. J'ai pu le finir en RTX ultra et c'était quand même une baffe technique assez phénoménale.

T'attends pas à des miracles non plus avec une 6800XT en 4K, le comparo de techspotdonne ça :
"In previous tests, the RTX 3080 was found to be 5% faster on average at 4K, and here across 50 games it was 7% faster, or 6% if you remove the Metro Exodus result."
(et les 34fps de la 6800XT sur total war Warhammer 3 en 4k m'ont fait rigoler, 27% de moins qu'une 3080)
)

Après clairement, la 3070TI ou pas TI manque de ram, elle est parfaite pour du 2560*1440, déjà juste mais ça va en 3440*1440 (ma config) et insuffisante en 4k. Il te faut effectivement une 3080 ou une 6800XT.
 
JoWn3
Mini-Draikin
Membre 640 msgs
Je suis d'accord avec toi, mais dans une dimension parallèle sans la crypto, les scalpers, la covid et la guerre de Poutine, la 3070Ti et la 6800XT sont au même MSRP autour des 640€. (c'était mon espoir de l'avoir à ce prix là mais après 1an et demi d'attente j'ai craqué)

640€ que je n'aurai jamais dépensé en vrai dans cette dimension sans toutes ces emmerdes, puisque depuis que j'ai mis 450€ dans une CG en 2006(qui m'a duré 2ans) je m'étais promis de ne plus mettre au delà de 300€ et ça me réussissais trèèèèès bien avant 2020...
 
fwouedd
Mylène Farmer Coréen
Redac 5598 msgs
Bah le seul conseil que je peux te donner, si tu veux à l'avenir réduire le prix des CG, change de résolution, parce que le 4k à 120hz, tu vas te retrouver systématiquement dans le HdG pendant un long moment (et ça fait déjà 10 ans que le HdG fleurte avec les 1000 euros).
 
aeio
Ami des bêtes
Membre 1234 msgs
Par curiosité, t'as testé DLSS sur quels jeux JoWn3 ?

Selon le jeu et la version, le rendu peut être très inégal, mais dans pas mal de cas ça surpasse la résolution native (et encore plus quand c'est couplé à DLDSR).
 
Zaza le Nounours
Connard aigri
Admin 13144 msgs
JoWn3 a écrit :
Je suis d'accord avec toi, mais dans une dimension parallèle sans la crypto, les scalpers, la covid et la guerre de Poutine, la 3070Ti et la 6800XT sont au même MSRP autour des 640€. (c'était mon espoir de l'avoir à ce prix là mais après 1an et demi d'attente j'ai craqué)

640€ que je n'aurai jamais dépensé en vrai dans cette dimension sans toutes ces emmerdes, puisque depuis que j'ai mis 450€ dans une CG en 2006(qui m'a duré 2ans) je m'étais promis de ne plus mettre au delà de 300€ et ça me réussissais trèèèèès bien avant 2020...

J'ai l'impression que tu prends un peu tes désirs pour des réalités. Les MSRP de la 6800XT et de la 3080, à la sortie, c'était le même, autour des 700€ à 20€ près. C'est littéralement la même gamme de produits, les perfs sont similaires (hors ray tracing ou Nvidia pisse sur AMD de très très haut), AMD ayant un petit avantage en 1080p et Nvidia un petit avantage en 4K. Maintenant on est d'accord qu'en 2020, le MSRP il voulait absolument rien dire et que ça a été la fête du slip sur les prix pendant plus d'un an. Nvidia a depuis revu ses prix officiels un poil à la hausse (pas énorme, une cinquantaine d'euros à tout casser je crois) sur toute sa gamme 3000, je sais pas si AMD a bougé les siens dans un sens ou dans l'autre. Mais ça change rien au fait que ce qui est en face d'une 6800XT, c'est la 3080.

Au delà de ça, les prix augmentent, c'est une réalité, le haut de gamme coûtait dans les 400 balles il y a 15 ans, aujourd'hui il en vaut le double facilement (je parle même pas des ultra hdg débiles façon 6900 XT / 3090 Ti qui sont là juste pour les idiots avec du pognon à ne plus savoir qu'en faire). Même en passant outre les problèmes d'approvisionnement et de crypto-connards, si tu mets le même prix dans un GPU aujourd'hui que ce que tu mettais dans du hdg il y a 10-15 ans, t'auras de l'entrée / petit milieu de gamme.
 
__MaX__
David Croquette
Admin 4512 msgs
Le prends pas mal eing JoWn3, je rejoins Fwouedd... mais je sais pas ce que t'as autour de la 3070Ti (le reste du PC), mais non, toutes les cartes actuelles ne sont pas limite pour les gros jeux. Tu dois être sur un bottleneck quelque part.

A part des jeux optimisés avec le fion ( par ex. Icarus avec son implém de RTGI ), tous les jeux ultra violents sur les 3070Ti et 3080Ti tournent bien à 4K et parfaitement en 1080p.

Par contre si tu parles de faire du natif 4K 120fps ? Oui là c'est différent. Sauf que tu regardes le problème à l'envers : ce sont pas les vendeurs de carte qui t'ont enfilé (même s'il y a beaucoup de bullshit), ce sont les vendeurs d'écrans.

Tu prends le RT et toutes ces technos, déjà même en 1440p les cartes prennent une bonne claque dans la tronche. Derrière, on te vend des écrans 4K 120fps alors que le marché hardware est même pas prêt à gérer la résolution/rafraichissement.

Quand tu t'achètes un écran 4K@120 alors que quand tu regardes les benchmarks qui te sortent des scores de fps inférieur à 120 sur certains titres... bah j'ai envie de dire que tu le savais un p'ti peu quoi. Si ton but c'était d'être à fond de l'écran, ça sous entendait indéniablement qu'il faudrait sacrifier les settings du jeu.

Certain jeux/studios ont déjà du mal à optim du 4K normal. Le marché actuel est pas prêt pour du 4K@120fps. Et pourtant, on s'entête à vendre des trucs pour que les gens changent de TV et d'écrans.

Et je ré-appuie. Le DLSS c'est très bien... peu importe ta résolution :]
 
Zaza le Nounours
Connard aigri
Admin 13144 msgs
__MaX__ a écrit :
Le marché actuel est pas prêt pour du 4K@120fps.]

Du 4k réel sans reconstruction et du 120 FPS locké, non, on est d'accord. Mais du 4K avec DLSS / FSR 2.0 et du G-Sync / FreeSync pour pas avoir à se faire chier avec de la v-sync et du tearing, franchement ça passe.

C'est vraiment super toutes ces technologies qui permettent, si on arrive pas à tenir le maximum possible, d'avoir quelque chose qui s'en approche suffisamment (du 4K reconstruit à partir de la moitié des pixels, un framerate quand même élevé) sans devoir perdre vraiment en confort. Je vois pas pourquoi on voudrait s'en priver.
 
__MaX__
David Croquette
Admin 4512 msgs
Yup! Mais même avec reconstruction, tu tiendras pas du locké 120fps à 4K. Je checkais les benchs par curiosité :

Wolfenstein YB 2160p :
- 99fps 3070Ti
- 135fps 3080Ti

WD Legion 2160p (un bon exemple de codage avec lecul) :
- 17fps 3070Ti
- 50fps 3080Ti

Metro Exodus 2160p ( gourmand mais clean ) :
- 60fps 3070Ti
- 81fps 3080Ti

Néanmoins ouip ! Tu as totalement raison, je réagissais juste puisque JoWn3 à priori lui il lui faut du natif natif. Mais les écran à sync c'est absolument génial même en dessous du refresh rate le plus élevé (et on va dire jusqu'à 60fps quoi, c'est quand même tétrafluide)
 
Zaza le Nounours
Connard aigri
Admin 13144 msgs
Ben oui mais c'est qu'est-ce que je dis : le 120 FPS c'est un plafond haut (sur les télés), mais en vrai à partir du moment où t'as du VRR, tu t'en fous de pas l'atteindre, tu perds pas grand chose en confort (y a pas énorme de diff en terme de ms entre 120 et 80 FPS donc sur le ressenti ça sera pas spécialement violent), et si tu as pas le matos pour locker à 120 FPS 100% du temps, t'as pas non plus besoin de couper ton framerate en deux en le limitant à 60 sous peine de te taper du tearing ou un frame pacing immonde.

Je suis sur un écran G-Sync depuis des années, et pour rien au monde je ne reviendrais en arrière. Je sais que je peux monter à 120, ou même 175 FPS depuis que j'ai changé, au max mais que je les atteindrai à peu près jamais ? Bats les couilles frère, envoie le RT dans tous les sens et fais chauffer le GPU, laisse le framerate faire sa petite vie, même s'il tombe à 80 ou 70 quand ça s'énerve vraiment je sais que je n'en pâtirai pas trop.
 
JoWn3
Mini-Draikin
Membre 640 msgs
J'ai parfaitement conscience qu'en passant d'un 24p 1080p 60Hz à un 55p 4K 120Hz j'ai sauté quelques étapes...

On va dire que ça sera pour la prochaine CG le 4k 120Hz natif, j'ai pris un peu(trop) d'avance.

Après au sujet du G-sync, c'est très bien justement pour mon framerate qui oscille entre 60 et 90fps sur des Control, Hellblade(avec le patch RTX qui est une horreur d'opti pour ce que ça affiche) et autre Anno 1800.

C'est plus "smooth" c'est clair, mais je vais encore faire mon râleur, en tant que vieux de la vieille qui a connu les CRT à 120Hz dés la fin des années 90, je ressens quand même et c'est normal je pense que la fréquence n'est pas à 120Hz, c'est mieux avec mais c'est pas la soluce miracle au niveau du feeling, oui je veux mon 4k 120fps/120Hz rock stable car comme d'hab quand on a vu ce que ça donne, on a du mal à revenir en arrière.

A l'heure actuelle le choix de l'écran en rapport avec sa config est beaucoup plus important qu'avant, j'ai sous estimé ce fait et j'ai fais un achat compulsif plaisir plus que calculé résonné.

(après en dehors des jeux gourmands je regrette pas, paradoxalement au début je trouvais ça trop grand et ça me filais mal à la tête, 2 mois après je me suis dis que j'aurai bien pris plus grand, comme pour les voitures on s'habitue toujours plus vite à la hausse de qualité et après on ne ressent que les défauts si on baisse d'un cran en gamme...)
 
__MaX__
David Croquette
Admin 4512 msgs
JoWn3 a écrit :
oui je veux mon 4k 120fps/120Hz rock stable car comme d'hab quand on a vu ce que ça donne


Ca n'arrivera pas. Tout du moins, si tu joues à des jeux "current gen TAF". Le hardware et le software ne s'attendent pas. Les studios sortent des jeux qui défoncent les CG pour qu'ils soient encore choupis 2/3 ans après. Quand tu feras tourner ton 4K 120hz parfaitement, ça fera déjà trois ans qu'on cherchera à te vendre du 8K 240fps.

Et si t'es toujours tatillon, tu seras déjà sur du 8K 240Hz, et tu viendras raler sur Factor à ce moment là pour dire que ton natif tourne pas ;]
 
Vous devez être connecté pour pouvoir participer à la discussion.
Cliquez ici pour vous connecter ou vous inscrire.

Règles à suivre

Écrire dans un français correct et lisible : ni phonétique, ni style SMS. Le warez et les incitations au piratage sont interdits. La pornographie est interdite. Le racisme et les incitations au racisme sont interdits. L'agressivité envers d'autres membres, les menaces, le dénigrement systématique sont interdits. Éviter les messages inutiles

 
Rechercher sur Factornews