Connexion
Pour récupérer votre compte, veuillez saisir votre adresse email. Vous allez recevoir un email contenant une adresse pour récupérer votre compte.
Inscription
En vous inscrivant, vous acceptez les conditions d'utilisation du site et de nous vendre votre âme pour un euro symbolique. Amusez vous, mais pliez vous à la charte.

Un Rédacteur Factornews vous demande :

Forums

4090 : la preuve par 4 de la folie
CBL
L.A.mming
Admin 17384 msgs
Maintenant qu'Nvidia a annoncé ses nouveaux GPUs ainsi que ses cartes de référence, c'est au tour des constructeurs tiers d'annoncer leurs cartes et on prend conscience de la demesure de cette nouvelle génération. Gigabyte a été l'un des premiers à dégainer avec trois versions différentes de la 4090 : la WINDFORCE, la GAMING OC et la MASTER.

La WINDFORCE est la version de base et par "de base" comprenez qu'elle fait déjà trois emplacements PCIe de haut. La version GAMING OC est overclockée tout comme la version MASTER qui en plus est mieux refroidie. Cette dernière est un tank qui vous bouffera QUATRE emplacements PCIe. Elle mesure aussi 36cm de long. Quelle que soit la version, il faudra l'alimenter via une prise à 16 broches transformable en QUATRE prises 8 broches standard via un adaptateur fourni. Gigabyte fournit aussi une barre de soutien histoire que le poids de la carte ne torde pas la connexion PCIe.

Gigabyte recommande une alim de 850W pour la version de base et 1000W pour les autres. On est curieux de voir combien la 4090 va consommer en crête surtout après overclockage. Et soyons clairs : même si la MASTER fait partie des cartes graphiques les plus épaisses jamais produites, les 4090 de la concurrence (Asus au hasard) ne sont pas beaucoup plus petites et sont tout aussi gourmandes.

Lire la suite sur le site : 4090 : la preuve par 4 de la folie.
 
Zaza le Nounours
Connard aigri
Membre 13990 msgs
C'est petit joueur tout ça. Chez Galax, leur barre de soutien c'est le Dark Obelisk, et en plus ils fournissent un quatrième ventilateur optionnel à coller au cul de la carte.

 
Laurent
Membre Factor
Redac 4038 msgs
Je vois passer plein de vidéos youtube disant que la série 40xx est loin de tenir ses promesses mais on va quand même attendre que les cartes soient sur le marché pour se faire un avis.
 
CBL
L.A.mming
Admin 17384 msgs
Mais comment ils savent? Ils ont les cartes?

La 3080 12 Go c'est 8960 coeurs CUDA cadencés à 1,7 GHz.
La 4080 16 Go c'est 9728 coeurs CUDA cadencés à 2,5 GHz.
Soit un gain théorique de 60% et c'est sans compter le changement d'architecture. Et sans RT ou DLSS. En raster pur.
 
Simbad
Membre Factor
Membre 46 msgs
Voilà qui me conforte dans mon choix fait il y a 10 ans de jouer sur laptop.
La prochaine étape : un deuxième boîtier juste pour la carte vidéo (ça coûte déjà le prix d'un deuxième PC).
 
aeio
Ami des bêtes
Membre 1445 msgs
C'est gros mais ça rentre toujours dans la majorité des boîtiers ATX standards (i.e. non compacts) de moins de 10 ans. J'ai une 3080 Strix (une carte géante qui elle aussi peut consommer 450W) dans un Meshify 2 sous le bureau et il reste laaargement assez de place pour accueillir une carte plus grosse.

La taille de la carte c'est pas vraiment un problème. Au contraire, plus le ventirad est gros et plus il est silencieux. Le vrai problème, c'est surtout le dégagement de chaleur qui est insupportable l'été et le coût à long terme avec la facture électrique.

Et soyons clairs : même si la MASTER semble être la carte graphique la plus épaisse jamais produite

C'est toujours la 3080 d'Asus et Noctua qui occupe la première place avec ses 4.3 slots (87.5 mm, contre 75.1 mm pour la 4090 Master).


J'espère qu'ils continueront sur cette voie et que d'autres suivront parce qu'il y en a marre des ventilateurs slim tout nazes sur les cartes graphiques.

Par contre je comprends toujours pas pourquoi ils ne mettent que deux équerres PCI et pas quatre, parce que ça permettrait de supporter le poids sans avoir recours aux barres de soutien moches (mais c'est peut-être justement pour pouvoir vendre lesdites barres).
 
CBL
L.A.mming
Admin 17384 msgs
J'avais oublié la Asus x Noctua.
Je ne dis pas que la taille est un problème mais c'est un symbole clair du vrai problème : la chaleur et la consommation. On a l'impression que Nvidia vit dans un monde parallèle où la crise énergétique et le réchauffement climatique sont des vues de l'esprit.

A la place de sortir des cartes inabordables et limite obscènes, Nvidia aurait dû profiter du passage au 4N pour sortir simplement des cartes qui consomment moins un peu comme ce que faisait Intel avec la stratégie tick tock. Mais bon c'est nettement moins vendeur pour les actionnaires.
 
The Real Phoenix
Membre Factor
Membre 874 msgs
"You have become everything you were fighting against..."
 
Zaza le Nounours
Connard aigri
Membre 13990 msgs
CBL a écrit :
A la place de sortir des cartes inabordables et limite obscènes, Nvidia aurait dû profiter du passage au 4N pour sortir simplement des cartes qui consomment moins un peu comme ce que faisait Intel avec la stratégie tick tock. Mais bon c'est nettement moins vendeur pour les actionnaires.

Personne n'aura jamais les couilles de sortir une nouvelle génération de GPU en la présentant comme "aussi performante que celle d'avant, mais qui consomme nettement moins", c'est absolument pas vendeur. Ca aurait pourtant été la meilleure chose à faire en ce moment, entre le prix de l'énergie et la génération maudite qu'a été celle des 3000, ça aurait pourtant largement trouvé son public et ça aurait permis de repartir sur des bases un peu saines.
 
PandaAnonyme3
Membre Factor
Membre 27 msgs
Laurent a écrit :
Je vois passer plein de vidéos youtube disant que la série 40xx est loin de tenir ses promesses mais on va quand même attendre que les cartes soient sur le marché pour se faire un avis.


En performances, aucune raison de douter: ces GPU seront des monstres de puissance.
En conso, par contre, l'entièreté du marché fait n'importe quoi. Depuis qu'AMD a rattrapé son retard en conso voire a dépassé la concurrence, on a l'impression que tout le monde se dit que 1000W, c'est l'alim de base pour le PC gamer des années 2020.
Parce que attention, il va falloir se cogner les ADA/RDNA3 qui vont téter, et les RPL/ZEN4 et leurs TDP aux nouveaux noms pour faire moins peur, sans compter l'alimentation des contrôleurs PCIE et autres.
 
fennec
Membre Factor
Membre 497 msgs
Zaza le Nounours a écrit :
CBL a écrit :
A la place de sortir des cartes inabordables et limite obscènes, Nvidia aurait dû profiter du passage au 4N pour sortir simplement des cartes qui consomment moins un peu comme ce que faisait Intel avec la stratégie tick tock. Mais bon c'est nettement moins vendeur pour les actionnaires.

Personne n'aura jamais les couilles de sortir une nouvelle génération de GPU en la présentant comme "aussi performante que celle d'avant, mais qui consomme nettement moins", c'est absolument pas vendeur. Ca aurait pourtant été la meilleure chose à faire en ce moment, entre le prix de l'énergie et la génération maudite qu'a été celle des 3000, ça aurait pourtant largement trouvé son public et ça aurait permis de repartir sur des bases un peu saines.


Qui aurait acheté ces cartes? Pas ceux qui ont des 30x0, quel intérêt si t'as déjà une config avec les mêmes perfs. Ceux qui n'ont pas réussi a chopper une 30x0? A moins que les 40x0 soient beaucoup moins chère que les 30x0 d'occase, Nvidia n'en vendrait aucune, et les OEM feraient la gueule pour écouler les stock de 30x0... Les seuls qui pourrait être intéressés par des cartes consommant moins pour les mêmes perfs sont les mineurs de crypto... La stratégie des 40x0 a été pensée avant le crash des crypto, la guerre en Ukraine et la fin de pénurie des GPU, ya des grandes chances que ça marche pas top!

J'ai une 3070 FE, je prendrais pas de 40x0, si j'arrive a chopper une 3080/Ti pour pas cher pourquoi pas, mais j'ai pas vraiment besoin de plus de puissance. Le seul truc que je regrette c'est le DLSS3 qui marche que sur les 40x0.
 
__MaX__
David Croquette
Admin 4841 msgs
ilyon a écrit :
En performances, aucune raison de douter: ces GPU seront des monstres de puissance.


Arrête donc haha. Faut que je ressorte la vidéo originale des 3080Ti / 3090 ? Avec Huang qui te sors "8K full raytracing @ 60fps", et que RDR2 juste en 1440p il te mets une 3080Ti sur les genoux.

C'est tout du débit théorique leur conneries... quand un mec te sors en te regardant droit dans les yeux "cette génération est 4 fois plus puissante" en te collant des images de Cyberpunk en fond, il sait très bien ce que les gens "moyen" entendent : "ho donc Cyberpunk devrait tourner à 400fps s'il tournait à 100".

Alors qu'on sait tous très bien qu'au mieux, y'aura un gain de 30% dans le meilleur des cas. Et j'suis client Nvidia einh. Mais bon, leur "monstres de puissance" avec des vidéos toutes flinguées et des affirmations marketing toutes plus pétées les unes que les autres ça va... ça fait 20 ans qu'on a compris.
 
Zaza le Nounours
Connard aigri
Membre 13990 msgs
fennec a écrit :
Qui aurait acheté ces cartes?

Les gens qui ont pas pu / pas voulu acheter de 3000. Je pense qu'ils sont assez nombreux pour que ça fasse une masse de clients potentiels non-négligeable. Après il aurait fallu aussi que les prix soient corrects, en gros les mêmes que ceux des 3080, sinon ça serait évidemment pas passé.
 
Connard
Membre Factor
Redac 93 msgs
fennec a écrit :
J'ai une 3070 FE, je prendrais pas de 40x0, si j'arrive a chopper une 3080/Ti pour pas cher pourquoi pas, mais j'ai pas vraiment besoin de plus de puissance. Le seul truc que je regrette c'est le DLSS3 qui marche que sur les 40x0.


Je ne comprends pas trop. Avec ta 30x0, t'en as pour bien 2-3 ans sans avoir besoin de quoi que ce soit. Au pire, tu mettras les réglages graphiques en High plutôt que Very High pour rester au dessus des 100 FPS, non ? :P
Pourquoi vouloir en acheter une nouvelle pour passer de 70 à 80Ti ? ^^'

Parce que, normalement, les détenteurs de 30x0 ne sont pas la cible de cette génération. Plutôt ceux qui n'ont pas pu upgrade leurs 10x0 parce que c'tait la galère à trouver. Du coup j'ne suis pas d'accord que des 40x0 qui consomment moins n'auraient pas trouvé leur public. Je pense que la grande majorité n'achète pas d'occasion (donc peu importe le prix d'occasion des 30x0) et que, en suite, c'aurait pu être un peu comme le diesel de l'époque : un poil plus cher à l'achat mais, à long terme, moins cher parce que la consommation est réduite par deux :P

'M'enfin, en vérité, je pense que tu aurais eu raison et que ça n'aurait pas bien marché. On a pas mal de route à faire avant que les gamerz et les entreprises IT se préoccupent de leur impact climatique et leur surconsommation débile. Ce sera probablement plus dû à des pénuries qu'à des décisions conscientes :x
 
jaroh
Membre Factor
Membre 104 msgs
CBL a écrit :
A la place de sortir des cartes inabordables et limite obscènes, Nvidia aurait dû profiter du passage au 4N pour sortir simplement des cartes qui consomment moins un peu comme ce que faisait Intel avec la stratégie tick tock. Mais bon c'est nettement moins vendeur pour les actionnaires.


Avec AMD qui revient dans la course aux perfs Nvidia ne peut pas se permettre un tel luxe malheureusement. Surtout quand on voit Intel ramer depuis l'explosion des Ryzen, obligeant le géant bleu à sortir des chaudières à chaque génération.
 
Le vertueux
J'aime les films de karaté
Membre 6513 msgs
On parle toujours de la facture d'électricité mais c'est jamais vraiment concret.

Combien coute l'électricité pour un gamer/twitcheur qui jouerait 8 heures par jour sur un jeu gourmand avec une 3090 par rapport à une 1080 par exemple ?

Perso je n'ai absolument aucune idée de combien me coute mon pc par mois en électricité.
 
__MaX__
David Croquette
Admin 4841 msgs
C'est pourtant pas très compliqué à monitorer et c'est tout à fait concret :)

C'est minimum 30% de plus à même utilisation pour 1080/3080.
Et c'est la plupart du temps 100% de plus 1080/3090.
 
leRAFs
Membre Factor
Membre 124 msgs
Je vois énormément de gens râler sur cette gen 40 mais je ne comprends pas très bien le souci. Oui les prix en euro sont effectivement très élevés mais ça c’est un problème plus général. Et puis pour le moment nous n’avons que le haut de gamme sous les yeux.
En admettant que les chiffres qu’on a pour l’instant ne soient pas débilement faux, le rapport prix/perf et plutôt bon, le rapport perf/watt est bon. De toute façon le nerf de la guerre c’est le milieu de gamme, et sûrement que les 4060 / 4070 seront bien meilleures que les 3070 et 2070.
En face y’a AMD qui revient en force, bien sûr qu’Nvidia se doit de garder la tête haute. Donc on se retrouve avec une large offre sur le haut de gamme, ça ne change rien pour le gamer raisonnable qui va bénéficier de cette concurrence et aura un grand choix de cartes excellentes d’ici l’année prochaine.
Moi je suis content de voir que les choses avancent, la techno évolue, les impatients fortunés auront leur beaux jouets, et nous on aura aussi du bon matos bientôt, c’est cool :)
 
lichen
Membre Factor
Membre 257 msgs
Nvidia n'était pas obligé de choisir entre les performances et la consommation pour cette nouvelle génération, ils pouvaient tout simplement faire les 2 en même temps :
- Réduire la consommation (un peu)
- Augmenter les performances (un peu moins que prévu)

On ne leur demande pas de faire du jour au lendemain des cartes très économes en énergie, mais juste d'inverser cette tendance dangereuse à l'échelle de toute l'industrie des composants PC (à savoir quasiment aucune limite sur la consommation énergétique).

Naïvement je me dis que si à chaque génération de CPU et GPU on profitait des améliorations technologiques (DLSS, finesse de gravure, nouvelles architectures, etc.) pour à la fois gagner en performances et juste réduire de 10% la consommation énergétique des composants on pourrait peut-être progressivement tendre vers des équipements qui retrouveraient une consommation énergétique raisonnable.

Mais c'est sûrement naïf de raisonner comme cela tant que les clients potentiels de ce genre de composants ne sont pas encore conscients ou concernés par les enjeux énergétiques présents et à venir.

On continue d'évoluer dans le déni :|
 
aeio
Ami des bêtes
Membre 1445 msgs
En admettant que les chiffres qu’on a pour l’instant ne soient pas débilement faux, le rapport prix/perf et plutôt bon [...]

Justement, non. La 3080 était 66% plus puissante que la 2080 pour le même prix. Là on a une 4080 16 Go qui certainement deux fois plus puissante que la 3080 mais qui est aussi plus de deux fois plus chère (1469€-719€=750€ de différence). C'est totalement inédit et c'est la raison de la grogne.

La 4080 12 Go aurait dû être une 70 vendue au prix d'une 70 et la 4080 16 Go aurait dû coûter la même chose que la 3080 originale.
 
Vous devez être connecté pour pouvoir participer à la discussion.
Cliquez ici pour vous connecter ou vous inscrire.

Règles à suivre

Écrire dans un français correct et lisible : ni phonétique, ni style SMS. Le warez et les incitations au piratage sont interdits. La pornographie est interdite. Le racisme et les incitations au racisme sont interdits. L'agressivité envers d'autres membres, les menaces, le dénigrement systématique sont interdits. Éviter les messages inutiles

 
Rechercher sur Factornews