Connexion
Pour récupérer votre compte, veuillez saisir votre adresse email. Vous allez recevoir un email contenant une adresse pour récupérer votre compte.
Inscription
En vous inscrivant, vous acceptez les conditions d'utilisation du site et de nous vendre votre âme pour un euro symbolique. Amusez vous, mais pliez vous à la charte.

Un Rédacteur Factornews vous demande :

Forums

4090 : la preuve par 4 de la folie
zaibatsu
Membre Factor
Membre 906 msgs
3440 x 1440, entre les deux du coup.
 
aeio
Ami des bêtes
Membre 1446 msgs
Ah oui mais c'est très loin de la 4K qui mettrait à coup sûr ta carte sur les rotules, surtout avec DLSS Balanced (le mode recommandé en 4K c'est Performance, même avec une RTX 3090). Comprends notre étonnement du coup.
 
zaibatsu
Membre Factor
Membre 906 msgs
Oui oui, je vois bien, tu as raison et j'ai tendance à me satisfaire d'une expérience correcte, pas ultra confort en général parce que je n'ai plus vraiment le temps de jouer comme avant.

Mais le sujet initial c'était les 4090... On parle de Cyberpunk là, le truc le plus pété de la terre qui défonce toutes les configs, mon avis concernait les jeux plus mainstream. Mon point c'est que la 2080 Ti reste une carte géniale pour faire tourner RDR2 ou n'importe quel AAA tranquillou sur l'année qui vient, perso je ne me vois pas upgrade pour du jeu, plutôt pour du pro. 3080 pour voir à long terme ou pour de la VR, mais c'est déjà le grand luxe.

La 4090, c'est overkill à tous les points de vue, jamais je la considérerais en tant que simple gamer. Je me réjouirais par contre de pouvoir topper des 30xx ou 20xx à moindre coût.
 
leRAFs
Membre Factor
Membre 126 msgs
Bien sûr qu’une 4090 c’est l’opposé du raisonnable, personne ne dira le contraire, il existe néanmoins des cas hyper spécifiques qui pourraient en tirer parti, mais on est d’accord le gros de cette gen sera pas là en terme de volume, il suffit de regarder les stats Steam pour voir ce que les gens achètent dans le monde réel ;)
 
Zaza le Nounours
Connard aigri
Membre 14011 msgs
zaibatsu a écrit :
Mais le sujet initial c'était les 4090... On parle de Cyberpunk là, le truc le plus pété de la terre qui défonce toutes les configs.

C'est pété niveau finition, mais sa gourmandise on voit globalement où elle passe, y a pas beaucoup de jeux qui lui arrivent à la cheville visuellement. Ce qui sera intéressant ça sera de voir comment il se comporte avec du matos plus récent (derniers CPU et GPU), si il scale bien et que tu peux gagner sensiblement en FPS ou si tu arrives à un plafond parce que le truc est fondamentalement mal branlé (voir : à peu près n'importe quel jeu Ubisoft).

Pour ce qui est de dire que la 4090 est overkill et que "ça sert à rien", que la 2080 Ti "ça suffit largement"... on va dire que c'est une question de point de vue. Pour ceux qui jouent en 1080p/1440p et qui sont pas regardants sur le framerate qui se pète la gueule, oui, sûrement. Si t'aimes bien le confort, foutre les settings au max, avoir au moins 120 FPS et pas te poser de question, ça sera sûrement très vite pas du luxe. Je suis très content de ma 3080 Ti, pour l'instant je me sens pas bridé avec (même si les futurs nouveaux effets RT de Cyberpunk vont sûrement lui mettre une grande claque dans la gueule), mais il arrivera bien un jour sûrement pas si lointain où elle commencera à tirer la langue.
 
zaibatsu
Membre Factor
Membre 906 msgs
Je sais que tu te fais l'avocat du diable, mais est-ce que jouer à max settings pour espérer du 120 fps est sérieux ? Y'a pas un moment ou tu te dis, j'ai 60 fps sur de l'ultra wide en ultra sur le plus beau jeu du moment et en fait, ben tu sais quoi, ça va ?

Je suis loin d'être un amish (je bosse dans la 3D, j'ai du mal à me contenter du rendu medium, j'ai besoin de faire cracher les tripes de mes configs et j'ai pas forcément non plus de soucis à investir dans du matos haut de gamme) mais à chier sur les constructeurs qui font la courses au wattage de gogol, faudrait peut-être aussi réévaluer nos standards hors-sol.

Ta 3080 elle va sagement attendre la gen 50xx sans broncher et en kiffant la VR avec peut-être des creux à 55 fps sur GTA 6 mais qui ça gène à part une poignée de petits bourgeois qui se mesurent le sguègue ? Moi je veux bien que la nano seconde te fasse rater un frag sur fortnite et que 240 fps c'est la win, mais on est entre gens sérieux ici il me semble.

Je rejoins complètement le début de la discussion, le sujet c'est la perf / watt avec une gravure qui nous permet de gratter des fps sans niquer trop la planète et Nvidia a décidé de faire tout le contraire dans une logique inique et suicidaire de faire du 4x gonflé par génération alors que personne n'en a besoin à part les mineurs de crypto en perdition ou les pros de la 3D GPU.
 
Zaza le Nounours
Connard aigri
Membre 14011 msgs
Non mais je suis d'accord que tous les constructeurs (Intel depuis des longtemps, Nvidia avec ses modèles hdg toujours plus gourmands, même AMD avec ses derniers Ryzen qui consomment deux fois plus que la génération d'avant et montent en utilisation normale à 95°, sans proposer deux fois plus de perfs, et on verra ce que donnent leurs nouvelles Radeon) se sont lancés dans une fuite en avant qui va forcément les envoyer dans le mur à plus ou moins court terme. Très égoïstement, vu que je suis plutôt bien équipé, j'aurais pas été contre une nouvelle génération focus sur l'efficacité, avec un gain de perfs mesuré mais surtout une consommation contenue. J'aurais pu la zapper sans regret, et ça aurait permis de repartir sur des bases saines pour les générations suivantes.

Maintenant, toute la crise énergétique qui se profile, les prix de l'électricité qui crèvent le plafond, les gouvernements qui vont bientôt nous inciter à faire le choix entre se chauffer et s'éclairer pendant l'hiver... tout ça c'est quand même récent, et ça s'est fortement accéléré au cours des derniers mois. Or le boulot sur les nouvelles générations de CPU/GPU, il a pas commencé le mois dernier, c'est des années de R&D, et donc ça a débuté quand on n'imaginait pas qu'on allait devoir rationner l'électricité. Du coup c'est pas étonnant aujourd'hui de voir débarquer Nvidia et compagnie la bouche en cœur avec des composants à la consommation délirante, ils allaient pas tout foutre à la benne à quelques semaines de la sortie au motif que c'est pas forcément du matos très approprié à ce qu'on traverse actuellement.
 
Manolo
Membre Factor
Membre 170 msgs
Pendant ce temps je joue tout en élevés à deathloop (censé être next-gen) sur une GTX1660 6Go (j'avais une 1650 mais trop juste), modèle sorti en 2019. Et mon I3 10100 sifflote tranquilement en ne dépassant jamais les 40% de charge dessus (ça relativise les pc boostés à l'I7 overclocké et des cartes 3D à 800€ pour afficher 3 poils de chameau de plus en arrière-plan).
Après je reste sur du 1080p qui devient finalement une résolution bon marché pour jouer et très confortable pour le gamer quarantenaire que je suis. Quand on a connu les années 90-2000 avec du 480p voir bien moins on relativise les discours marketing actuels.
J'avais pensé prendre une AMD RX 6600 mais quand je vois 300 à 350€ pour une carte moyen de gamme ça me fait encore tiquer.
Du coup la 1660 m'a coûté même pas la moitié de ce prix (en occasion) pour jouer confortablement, ça me suffira largement le temps que des cartes à prix correct arrivent pour gérer convenablement le Ray-tracing (et plus de jeux le gérant aussi...).

Parce que les RTX 30XX c'est non vu leur prix encore trop élevé 2 ans après leur sortie malgré la chute des tarifs depuis la débandade des cryptomonnaies.
Quand au RTX 40XX ce sera peut être pour une 4060 si Nvidia redescend sur Terre avec un prix raisonnable... (j'y crois moyen) mais AMD aussi aura de solides arguments d'ici là, en tout cas je compte rien changer avant fin 2023 au plus tôt maintenant, quand les jeux dopés à l'UE 5 commenceront à arriver en masse.
 
BeatKitano
Bite qui tanne haut
Membre 6369 msgs
Et après ce message: en route vers le cloud gaming yooooo.

Encore une fois il aura fallu une économie qui s'écroule et l'hyperinflation pour pousser les gens à abandonner leur matériel local trop coûteux pour du déporté.
 
CBL
L.A.mming
Admin 17406 msgs
Ou à acheter des consoles. De plus en plus de monde que je connais achète des Steam Decks. Et ce ne sont pas des joueurs PC à la base.
 
BeatKitano
Bite qui tanne haut
Membre 6369 msgs
Ouais enfin pour le moment. Je vois pas valve sortir des steam decks updatées tous les x années pendant longtemps. Je veux dire on commence à parler de pénuries de cuivre dans les prochaines années... L'électronique va devenir un luxe.
 
lichen
Membre Factor
Membre 260 msgs
BeatKitano a écrit :
Et après ce message: en route vers le cloud gaming yooooo.

Encore une fois il aura fallu une économie qui s'écroule et l'hyperinflation pour pousser les gens à abandonner leur matériel local trop coûteux pour du déporté.


Je pense que le cloud gaming va faire face aux mêmes contraintes que le reste de l'industrie électronique.
Raréfaction des métaux et coût de l'énergie en hausse.

Le cloud gaming continuera sûrement de faire des progrès, la technologie est encore balbutiante mais je ne suis pas certain que ce qui se profile pousse réellement les utilisateurs à passer vers le Cloud Gaming dont les prix vont eux aussi progressivement augmenter pour maintenir leur rentabilité.
La mutualisation du hardware pour le cloud gaming c'est un peu un fantasme, tes machines doivent être proches de l'utilisateur (idéalement même pays) pour garantir une bonne latence, mais dans un même pays tout le monde joue globalement aux mêmes horaires donc on finit quand même par devoir proposer quasiment 1 machine pour 1 joueur en heure de pointe.

Actuellement le cloud gaming ne permet pas du tout de répartir dynamiquement la charge totale de plusieurs utilisateurs sur un nombre de machines inférieur au nombre d'utilisateurs courants. Ca reste quelque chose d'hyper basique : une machine (serveur) pour 1 session active. Et tout le parc doit être dimensionné pour le cas extrême (tout le monde souhaitant se connecter en même temps) pour ne pas se retrouver à ne plus pouvoir fournir le service pour lequel les clients paient.
Espérons que ça soit quelque chose qui s'améliore avec le temps.

Et pour l'efficacité énergétique je ne suis pas certain que les datacenters à refroidir + le coût énergétique du transfert par le net de tout le flux vidéo réussissent à compenser les économies d'énergie faites ailleurs. Si quelqu'un a des infos sur le sujet, je suis preneur.

Poltro a écrit :
Par contre un truc que peu de gens on conscience c'est que si tu te chauffes avec ta 3090 en hiver au lieu d'un radiateur électrique tu peux vite faire des économies d'électricité, car un PC est aussi un radiateur très très performant. Par exemple avec un radiateur classique de 1500W tu chaufferas moins vite et moins bien une pièce de 20 m² qu'une 3090 qui dissipe beaucoup mieux ses 380w de moyenne.


What ?
Comment un appareil spécialisé pour le chauffage (radiateur) pourrait être moins performant pour chauffer qu'un appareil pour lequel on essaie qu'il dégage le moins de chaleur possible (CPU/GPU) ?

Je comprends bien qu'un CPU/GPU convertit la quasi totalité de l'électricité qu'il reçoit en chaleur, mais c'est aussi le cas d'un radiateur électrique ?
 
Le vertueux
J'aime les films de karaté
Membre 6523 msgs
CBL a écrit :
Ou à acheter des consoles. De plus en plus de monde que je connais achète des Steam Decks. Et ce ne sont pas des joueurs PC à la base.


Ou rester sur les anciennes cartes graphiques comme l'ont suggérés zaibatsu et Manolo, non ?
 
Poltro
Membre Factor
Membre 246 msgs
BeatKitano a écrit :

What ?
Comment un appareil spécialisé pour le chauffage (radiateur) pourrait être moins performant pour chauffer qu'un appareil pour lequel on essaie qu'il dégage le moins de chaleur possible (CPU/GPU) ?

Je comprends bien qu'un CPU/GPU convertit la quasi totalité de l'électricité qu'il reçoit en chaleur, mais c'est aussi le cas d'un radiateur électrique ?


En fait ton PC essaye de dégager le plus de chaleur possible.
- Les puces convertissent mieux l'électricité en chaleur que les résistances des radiateurs.
- Les systèmes d'évacuation, ventilos, heat pipes, caloduc, water cooling etc sont plus efficaces et de très loin, que dans un radiateur normal.
 
lichen
Membre Factor
Membre 260 msgs
Les résistances des radiateurs ont un rendement proche de 100%, toute l'électricité consommée est bien transformée en chaleur.
Donc je ne vois pas comment des puces électroniques pourraient avoir un meilleur rendement.
En dehors des pompes à chaleur tu ne peux pas produire de la chaleur à partir de l'électricité qui dépasse un rendement de 100%.

L'évacuation de la chaleur de l'intérieur vers l'extérieur des PC ça n'augmente pas le rendement énergétique, ça augmente juste la vitesse à laquelle l'extérieur du PC va se réchauffer.

Un PC qui évacuerait très mal sa chaleur n'aurait pas un rendement énergétique moins bon, la chaleur qu'il produit finit inexorablement par réchauffer l'air ambiant qui est plus froid.

Est-ce que les PC sont des chauffages efficaces ? Oui certainement.
Est-ce qu'ils sont meilleurs que des chauffages à résistance classiques ? Ca semble peu probable.
 
JusdePoubelle
Membre Factor
Membre 212 msgs
aeio a écrit :
C'est gros mais ça rentre toujours dans la majorité des boîtiers ATX standards (i.e. non compacts) de moins de 10 ans. J'ai une 3080 Strix (une carte géante qui elle aussi peut consommer 450W) dans un Meshify 2 sous le bureau et il reste laaargement assez de place pour accueillir une carte plus grosse.

...



J'ai rien à dire sur le sujet mais ce cable management m'émeut. Tu n'animes pas des ateliers "bureaulogie" par hasard ?
 
aeio
Ami des bêtes
Membre 1446 msgs
Il m'arrive de donner des conseils mais c'est simple honnêtement. Il faut des câbles longs, un chemin de câble sous le bureau, un rouleau de velcro, un paire de ciseaux et une heure de libre.

Le velcro c'est top. Ça se découpe à la longueur souhaitée, ça se détache et rattache à l'envie et ça permet d'empiler des extensions les unes sur les autres pour emprisonner certains câbles séparément des autres. Les colliers serre-câbles, il faut oublier.

T'as d'autres photos ici si tu veux voir comment c'est fait.
 
CBL
L.A.mming
Admin 17406 msgs
lichen a écrit :
Les résistances des radiateurs ont un rendement proche de 100%, toute l'électricité consommée est bien transformée en chaleur.


C'est pas loin pour un CPU :/
Un CPU ne transforme pas un type d'énergie en une autre comme un moteur. Il ne fait que passer du jus dans des transistors. Seule la RAM conserve un peu du jus pour alimenter les cellules mais tout le reste est dissipé en chaleur.
 
CBL
L.A.mming
Admin 17406 msgs
aeio a écrit :
C'est gros mais ça rentre toujours dans la majorité des boîtiers ATX standards (i.e. non compacts) de moins de 10 ans. J'ai une 3080 Strix (une carte géante qui elle aussi peut consommer 450W) dans un Meshify 2 sous le bureau et il reste laaargement assez de place pour accueillir une carte plus grosse..


Il n'y a pas de standard pour les tailles de boitier. Il n'y a de standard que pour les tailles de cartes mère.
Un boitier dit "ATX" te garantit juste que tu peux faire rentrer une CM ATX dedans.

A moins que tu entendes "Mid Tower" par compact mais "mid tower" et "full tower" ne sont pas des standards.
Typiquement chez Corsair la 4090 passera dans un 7000D Airflow mais dans un 4000D il va te rester tout juste quelques millimètres entre la CG et le ventirad s'il est monté devant.

La seule raison pour laquelle elle passerait dans ton Meshify 2 est que tu n'as pas installé les cages pour les disques durs (ce qui est assez logique pour une utilisation joueur).
 
4090 : la preuve par 4 de la folie

Règles à suivre

Écrire dans un français correct et lisible : ni phonétique, ni style SMS. Le warez et les incitations au piratage sont interdits. La pornographie est interdite. Le racisme et les incitations au racisme sont interdits. L'agressivité envers d'autres membres, les menaces, le dénigrement systématique sont interdits. Éviter les messages inutiles

 
Rechercher sur Factornews