Connexion
Pour récupérer votre compte, veuillez saisir votre adresse email. Vous allez recevoir un email contenant une adresse pour récupérer votre compte.
Inscription
En vous inscrivant, vous acceptez les conditions d'utilisation du site et de nous vendre votre âme pour un euro symbolique. Amusez vous, mais pliez vous à la charte.
 
ACTU

Hard and Heavy

CBL par CBL,  email  @CBL_Factor
 
Il se passe plein de choses rigolotes en ce moment dans le petit monde des cartes graphiques donc il est temps de faire le point.

Chez Nvidia, après avoir fait semblant de ne pas avoir été intéressé pour fournir les puces pour la prochaine génération de consoles, on joue maintenant les snobs en expliquant que des consoles avec des alim de 200/300 Watts ne peuvent pas rivaliser avec des PCs de 1000W. Merci Captain Obvious mais plutôt que de dire des banalités, il faudrait peut être se pencher sur le problème de la consommation des GPU. Personne n'imagine laisser tourner un four à micro-ondes pendant toute une journée mais quand il s'agit de jeux vidéo sur PC on oublie toute notion d'économie d'énergie.

Si Nvidia fait copain-copain avec Linux, c'est pour monter à bord du train Steam OS / Steam Machines. Ce recentrage sur le PC peut s'expliquer par le fait que le Tegra, leur System On A Chip (SoC) pour smartphones et tablettes, ne décolle toujours pas. Pire encore : les nouvelles générations sont moins populaires que les précédentes. Le Tegra 2 était quasiment le standard pour les tablettes Android tournant en 3.x et le Tegra 3 a fait les beaux jours du Nexus 7 et du HTC One X. Le Tegra 4 n'équipe aucun appareil populaire. Nvidia a fini par lancer sa propre ligne d'appareils avec le Nvidia Shield et le Nvidia Note, ce dernier étant plus un design de référence qu'un produit fini. Il faut dire que sur le marché d'Android Nvidia fait face à un poids lourd : Samsung. Le géant coréen domine sans partage la plate-forme et utilise une variété de SoC (le sien, Exynos, mais aussi celui de Qualcomm, Snapdragon) mais très rarement le Tegra. Parmi les autres coups durs récents : Nvidia a perdu l'appel d'offres pour la puce du tout nouveau Kindle Fire HDX. C'est le Snapdragon qui l'a emporté.

Le gag est que Steam OS permettra de faire la même chose que la Shield à savoir streamer ses jeux sauf qu'à la place de le faire sur un petit écran, on le fera sur une grosse télé (il y a trop de lag quand on affiche sur la télé l'écran de la Shield quand elle streame). Au passage, le Tegra 4 est présent dans la Microsoft Surface 2. Dell venant d'abandonner la XPS 10, Microsoft est désormais le seul constructeur à faire des tablettes Windows RT. On espère donc que cette sous-version de Windows va crever prochainement. Pour les Steam Machines, Nvidia part avec un handicap de poids : ils n'ont pas de solution combinant CPU et GPU. Même s'ils ont un très bon milieu et haut de gamme, la majorité des Steam Machines tourneront à base d'Haswell (Intel) et de Jaguar (AMD) sans carte graphique dédiée.

AMD fait des choses intéressantes en ce moment. Alors qu'ils font du x86 depuis l'époque des 286, ils vont lancer leurs premiers CPU ARM 64 Bits. Le but est d'équiper les serveurs. En effet, ces CPUs consomment beaucoup moins que les Opteron (les CPU x86 pour serveurs d'AMD) tout en étant aussi efficaces sinon plus pour les applications web. L'appel du cloud en quelque sorte. Mais revenons dans le monde du jeu vidéo avec Mantle. Il y a fort longtemps, une compagnie appelée 3DFX produisait des cartes graphiques qui ont changé la face du jeu PC. Tout ceux qui ont testé POD, Shadows Of The Empire, Quake, Tomb Raider, Unreal ou EF 2000 à cette époque ont compris que le jeu vidéo venait de franchir un tournant. La force de 3DFX n'était pas seulement de faire des bonnes carte graphiques mais aussi de fournir une API bas niveau, Glide.

C'est exactement ce que Mantle propose : une API bas niveau pour les GPU d'AMD. Même si OpenGL et DirectX sont des API ultra-évoluées, elles ne donnent accès au hardware que via une couche d'abstraction qui simplifie la compatibilité entre les différents GPU mais qui limite les performances. Mantle serait une version Windows de l'API bas niveau de la Xbox One développée en collaboration avec un studios de dev. Le portage de son code vers Mantle serait simple à effectuer (comprenez : ajouter une version Mantle de son jeu ne coûtera pas cher) et vu que les PS4 et la Xbox One ont déjà des API bas niveau tapant dans des GPU AMD, on peut se dire que pas mal de studios vont se mettre à Mantle.

Le studio de dev en question est un poids lourd vu qu'il s'agit de DICE. Le Frostbite 3 tournera sur Mantle à la place de DirectX 11 sur les GPUs AMD supportés (tous les GCN et GCN 2.0 soit les Radeon 7xxx et 8xxx). Le premier jeu qui en tirera partie sera évidemment Battlefield 4 sous forme de mise à jour gratuite en décembre. Ça promet quelques benchmarks intéressants. On devrait voir tourner cela au AMD Developer Summit en Novembre.
 

Commentaires

Masquer les commentaires lus.
gruiiik
 
Glide est loin d'etre une API "bas niveau", c'etait plustot l'OpenGL ( 3DFx avait d'ailleur un driver miniGL pour faire tourner quake si je me souvient bien) du pauvre, mais c'etait la grande classe !

Ce qu'ils appellent "bas niveau" c'est de directement forger les commandes GPU sans passer par la merde COM/DirectX ou La state machine GL.

Ca existe sur toutes les consoles depuis un moment ( me souviens de la dreamcast avec ses differents SDK partant du super haut niveau directx retainted mode, a l'API secrete super bas niveau que seulement il fallait lecher les doigts de pieds de SEGA pour l'avoir "shadow" si je me souviens bien.

La la tres grande force d'AMD c'est qu'ils vont profiter de leur dominantion sur console next-gen pour proposer un lockin API "superior version" sur PC.

En tout cas je sors le POP corn, et je reve que microsoft lache enfin DirectX qui ne sert plus a rien maintenant a part faire chier tout le monde avec une synthaxe horrible.
Temujin
 
Honnetement j'ai pas compris ce que Mantle est, mais j'espere que tu nous donnera des chiffres de perfs en Decembre sur BF4 pour y voir plus clair !
clott
 
Mais pour en profiter il faut un CPU AMD + CG ATI ou un CPU INTEL + CG ATI suffit?
Je comptais me prendre une GTX760 dans les prochains jours, ça vaut le coup d'attendre pour voir ce que ça donne ou on ne verra rien de concret (excepté sur BF4) avant longtemps?
LeGreg
 
L'erreur commise dans la news (mais assez commune dans le public) est de penser que si une société fait une chose elle ne peut pas faire une autre chose en même temps.
LeGreg
 
gruiiik a écrit :
Ce qu'ils appellent "bas niveau" c'est de directement forger les commandes GPU sans passer par la merde COM/DirectX ou La state machine GL.


DirectX est aussi une machine à état (et c'est le cas de tous les GPUs récents -> machine à état codée dans le hardware).
Quant à la remarque entre Dx et COM elle est un peu hors sujet..

gruiiik a écrit :
Ca existe sur toutes les consoles depuis un moment ( me souviens de la dreamcast avec ses differents SDK partant du super haut niveau directx retainted mode, a l'API secrete super bas niveau que seulement il fallait lecher les doigts de pieds de SEGA pour l'avoir "shadow" si je me souviens bien.


Elle n'avait rien de secrète, l'API DirectX like (par dessus Windows CE) de la Dreamcast avait été utilisée par très peu de jeux Dreamcast.

gruiiik a écrit :
En tout cas je sors le POP corn, et je reve que microsoft lache enfin DirectX qui ne sert plus a rien maintenant a part faire chier tout le monde avec une synthaxe horrible.


Je suis sûr que la syntaxe de DirectX ne sera pas son point faible par rapport à une interface bas niveau :).
gruiiik
 
LeGreg a écrit :


DirectX est aussi une machine à état (et c'est le cas de tous les GPUs récents -> machine à état codée dans le hardware).
Quant à la remarque entre Dx et COM elle est un peu hors sujet..


Yep, mais c'est ce que je retiens de DirectX, le COM :)

Elle n'avait rien de secrète, l'API DirectX like (par dessus Windows CE) de la Dreamcast avait été utilisée par très peu de jeux Dreamcast.

Hum il me semble qu'il y avait une API dont les developpeurs tiers n'avait pas acces, mais je peux me tromper.

Je suis sûr que la syntaxe de DirectX ne sera pas son point faible par rapport à une interface bas niveau :).


Je me suis mal exprime, c'est plustot qu'avec opengl ( et surtout ES ) et la merde que c'est sur windows phone, je serais assez comptant si microsoft pouvait arreter DX. Mais c'est vraiment une question de preference personel.
kirk.roundhouse
 
L'article de fanboy AMD mal déguisé...
Temujin
 
Je me demande ce que dirait Zaza sur cette news.
Risbo
 
Zaza reviens <3
pomkucel
 
Je reste circonspect, on parle d'AMD, la boite qui fournit des drivers tout pourri 3 mois après avec ces CG. Mais c'est vrai que avec "monopole console next gen + un gros jeu" ca fait une belle addition.
Yolteotl
 
pomkucel a écrit :
Je reste circonspect, on parle d'AMD, la boite qui fournit des drivers tout pourri 3 mois après avec ces CG. Mais c'est vrai que avec "monopole console next gen + un gros jeu" ca fait une belle addition.


Dans les faits, depuis 1 an, c'est Nvidia qui fait de la merde niveau Drivers, alors que AMD propose de nouvelles technos (TressFX) qui ont le bon goût de fonctionner aussi sur les cartes concurrentes !
reebob
 
Juste une question. Si l'accès à un langage de bas niveau rendant nécessaire tel ou tel types de carte est une si bonne idée, alors pourquoi 3DFx n'est plus là? Si l'on s'évertue depuis de nombreuses années à créer des langages de haut niveau, ce n'est pas pour rien. Sinon on continuerait à programmer en Assembleur.
nono_le_robot
 
J'allais dire pareil. Je vois pas trop pourquoi on devrait se réjouir de l'apparition d'une techno qui ne va apporter que de la fragmentation. Autant la mise à mal de DirectX me réjouit, autant l'apparition de Mantle m'inquiète.
_Kame_
 
Personne n'imagine laisser tourner un four à micro-ondes pendant toute une journée mais quand il s'agit de jeux vidéo sur PC on oublie toute notion d'économie d'énergie


Genre vous regardez la consommation de votre CG avant de l'acheter et pas la performance.

Genre vous laissez votre PC allumé dans un jeu toute la journée pour que la CG consomme à fond. Pasque si oui, c'est comme laisser le micro onde en route toute la journée. Si non, c'est comme le laisser en veille.

Et sinon vous avez un PC allumé en permanence chez vous ? Pour quoi faire ? Du rendering d'images ? Pasque si non, vous êtes pas obligé de mettre une CG qui consomme 500000 watts hein.

Bref, même si Nvidia dit de la merde, ça me fait tjrs marrer cette argumentation sur la consommation. "Wa ce proc consomme moins, c'est trop bien". Dans un laptop c'est hyper important, dans un desktop, non. C'est de la branlette écologiste.

Vous voulez utilisez des PCs de façon écologique ? Alors n'en achetez pas, vous ferez du bien à la planéte.

Qu'on fabrique l'énergie proprement, on aura plus de pb de consommation.


edit: et je ne dis pas qu'il faut que ça consomme moins. Evidemment c'est mieux, mais genre c'est ZE argument de choix. "On pense trop à la planéte nous tavu. Bon on a baisé des tonnes de silicium et de métaux rare pour jouer à des jeux à 5 euros de 1986, mais on est trop écolo"
Yolteotl
 
_Kame_ a écrit :
Et sinon vous avez un PC allumé en permanence chez vous ? Pour quoi faire ?


Cookie Clicker !!
Boudin
 
nono_le_robot a écrit :
J'allais dire pareil. Je vois pas trop pourquoi on devrait se réjouir de l'apparition d'une techno qui ne va apporter que de la fragmentation. Autant la mise à mal de DirectX me réjouit, autant l'apparition de Mantle m'inquiète.


Il va falloir un peu plus d'informations. Si c'est un truc complètement fermé, ce sera pas terrible (mais ça pourrait disparaître aussi vite que c'est apparu du coup). Si Nvidia et Intel ont la possibilité de se greffer sur le truc, ça pourrait être une bonne chose.
kirk.roundhouse
 
_Kame_ a écrit :


Genre vous regardez la consommation de votre CG avant de l'acheter et pas la performance.
(...)

Maintenant oui. J'avais acheté à l’époque une GTX 480, qui était un monstre de consommation électrique et avait énormément d’énergie à dissiper.
Elle faisait un bruit d'aspirateur.
Je l'ai remplacé récemment par une 660 Ti qui a sensiblement les mêmes perfs, c'est une carte excellente avec un suivit driver toujours au top (forcément c'est NV !) et c'est un bonheur pour mes oreilles.

On ne m'y reprendra plus à acheter des cartes trop puissantes et trop bruyantes.
DoubleJ
 
Mantle est une API graphique ouverte, sur le papier, rien n'empêche de l'avoir également sur des GPU NVIDIA ainsi que la possibilité de la porter sous Linux.
Pour une API bas niveau, cela pourrait être pas mal, à voir ce que ça donne à l'AMD Developer Summit.
Boudin
 
DoubleJ a écrit :
Mantle est une API graphique ouverte, sur le papier, rien n'empêche de l'avoir également sur des GPU NVIDIA ainsi que la possibilité de la porter sous Linux.
Pour une API bas niveau, cela pourrait être pas mal, à voir ce que ça donne à l'AMD Developer Summit.


C'est confirmé par AMD que l'API est ouverte ?
Dks
 
Tu as oublié de préciser que la présentation d'AMD était un bide incroyable. Pour ceux qui étaient connectés ce soir là, on sentait les facepalms avec leurs annonces. Rien que le son et le jeu lichdom ahahaha.
zouz
 
En gros dans le meilleur des cas les jeux multi plateformes PC/Console Nesquegéne vont finir par utiliser Mantle non ?
Je vois pas où est le problème si ça permet de profiter plus longtemps de son hardware pour pouvoir jouer à des récents.
DoubleJ
 
Boudin a écrit :


C'est confirmé par AMD que l'API est ouverte ?


Oui, AMD l'a dit lors de la présentation GPU14 Tech Day.

"We've been told at the GPU14 Tech Day event that the Mantle API is open, so theoretically Nvidia could purpose the technology in their GPUs."
http://www.techspot.com/news/54134-amd-launches-mantle-api-to-optimize-pc-gpu-performance.html
Whisper
 
pomkucel a écrit :
Je reste circonspect, on parle d'AMD, la boite qui fournit des drivers tout pourri 3 mois après avec ces CG. Mais c'est vrai que avec "monopole console next gen + un gros jeu" ca fait une belle addition.


C'est dingue ce cliché qui n'en finit pas. Nvidia comme AMD sortent tous les 2 des drivers magiques qui augmentent les perfs dans les jeux 2 semaines après leurs sorties. Et il y a eun des gros bugs nécessitant une update dans les 2 camps ces 12 derniers mois. D'ailleurs, le comparatif dans le dernier Canard PC tant à montrer que l'augmentation des perfs est légèrement supérieur chez Nvidia, ce qui, contrairement à ce qu'ils concluent, peut laisser penser que les drivers Nvidia sont moins "cohérents" et stables qu'AMD, qui eux sont plus proches des performances maximales possibles dès la sortie des jeux. Étrangement, cette possibilité n'est même pas évoqué dans le canard.

Bref, tout ça pour dire que le cliché des drivers ATI bugé a bien vécu. Ou alors apportez des éléments concrets à vos accusations. (j'ai eu des Cg chez les 2 constructeurs et j'ai actuellement une geforce 670, principalement pour les effets Physx que je trouve sympa).

(PS: je ne parle pas d'interface, où là Nvidia a un avantage clair)

Sinon, les autres slides de la présentation explique bien l'avantage que peut apporter Mantle sur pc: http://www.hardware.fr/news/13368/amd-mantle-retour-glide.html
DoubleJ
 
Dks a écrit :
Tu as oublié de préciser que la présentation d'AMD était un bide incroyable. Pour ceux qui étaient connectés ce soir là, on sentait les facepalms avec leurs annonces. Rien que le son et le jeu lichdom ahahaha.


C'est vrai que c'était n'importe quoi, j'avais laissé tomber ^^
Déjà leur stream sur Youtube qui a complètement merdé, ils ont dû passer par un autre fournisseur.
Pour le reste, c'était surtout une présentation marketing, il faut attendre l'AMD Developer Summit, on devrait avoir du concret.
Boudin
 
DoubleJ a écrit :


Oui, AMD l'a dit lors de la présentation GPU14 Tech Day.

"We've been told at the GPU14 Tech Day event that the Mantle API is open, so theoretically Nvidia could purpose the technology in their GPUs."
http://www.techspot.com/news/54134-amd-launches-mantle-api-to-optimize-pc-gpu-performance.html


C'est un peu con qu'ils en aient pas parlé clairement dans la présentation. C'est une bonne chose en tout cas !
Lisa
 
@CBL
Typo : "Il se place? plein de choses ..."
Thesus
 
Whisper a écrit :
Sinon, les autres slides de la présentation explique bien l'avantage que peut apporter Mantle sur pc: http://www.hardware.fr/news/13368/amd-mantle-retour-glide.html

Ils oublient de parler d'un truc qui est quand même important : la rétrocompatibilité.

Si on se passe des drivers et des librairies qui permettent de normalisé tout le petit monde des CG, que va t'il se passer quand la prochaine génération de CG va sortir ?

Comme on sait pas grand chose dessus je me base sur le pire truc qui peut arriver. Et si c'est réellement de la programmation bas niveau proche du hardware on aura des jeux qui ne pourront s’exécuter que sur une seule génération d'hardware : comme sur console. C'est beaucoup moins gênant pour les consoles car ni les devs ni les joueurs ne veulent de la rétrocomp, et comme toutes les consoles sont sous ATI c'est une bonne nouvelle.

Ensuite l'API est ouverte c'est bien beau mais pour de la prog bas niveau il faut qu'il y ait exactement la même architecture derrière. Hors Nvidia et Intel ne le feront jamais, ça reviendrait à fabriquer eux-même des cartes ATI (et de verser des royalties au passage pour l'utilisation des brevets nécessaire).
_Kame_
 
kirk.roundhouse a écrit :

Maintenant oui. J'avais acheté à l’époque une GTX 480, qui était un monstre de consommation électrique et avait énormément d’énergie à dissiper.
Elle faisait un bruit d'aspirateur.
Je l'ai remplacé récemment par une 660 Ti qui a sensiblement les mêmes perfs, c'est une carte excellente avec un suivit driver toujours au top (forcément c'est NV !) et c'est un bonheur pour mes oreilles.

On ne m'y reprendra plus à acheter des cartes trop puissantes et trop bruyantes.


Et si elle consommait à mort et ne faisait pas un bruit ?

Tu l'achèterai. Arrêtez de vous mentir les mecs :)

Il faut réduire la consommation, car ça réduit la dissipation thermique, et donc on peut augmenter les perfs.

Mais parler de la consommation électrique comme d'un argument d'achat direct, c'est vraiment trop lolilol.

Si vous voulez vraiment aider la planète, y'a 10 fois plus à faire dans le recyclage des PCs que dans la baisse de la consommation d'une CG.


edit: et sortir cet argument contre une connerie dite par Nvidia, genre on a tous ds PC avec une alim de 1000 watts...
noir_desir
 
Thesus a écrit :

Ils oublient de parler d'un truc qui est quand même important : la rétrocompatibilité.

Si on se passe des drivers et des librairies qui permettent de normalisé tout le petit monde des CG, que va t'il se passer quand la prochaine génération de CG va sortir ?

Comme on sait pas grand chose dessus je me base sur le pire truc qui peut arriver. Et si c'est réellement de la programmation bas niveau proche du hardware on aura des jeux qui ne pourront s’exécuter que sur une seule génération d'hardware : comme sur console. C'est beaucoup moins gênant pour les consoles car ni les devs ni les joueurs ne veulent de la rétrocomp, et comme toutes les consoles sont sous ATI c'est une bonne nouvelle.

Ensuite l'API est ouverte c'est bien beau mais pour de la prog bas niveau il faut qu'il y ait exactement la même architecture derrière. Hors Nvidia et Intel ne le feront jamais, ça reviendrait à fabriquer eux-même des cartes ATI (et de verser des royalties au passage pour l'utilisation des brevets nécessaire).


Je ne suis pas programmeur, mais le cuda, ce n'est pas du bas niveau ?
spook
 
C'est (pour l'instant ?) limité à la même génération de GPU que sur les X1 et PS4... Je pense que les jeux purement codé en Mantle ne seront plus compatible avec une autre génération de GPU. A voir si les perf' vont faire changer d'avis tout le monde.

Ce genre d'API n'est utile que dans le monde de l'arcade et des consoles, imho.
kirk.roundhouse
 
_Kame_ a écrit :


Et si elle consommait à mort et ne faisait pas un bruit ?

Impossible, les lois de la physique ça ne se contourne pas.
Grosse consommation => grosse dissipation thermique nécessaire.
Boudin
 
spook a écrit :
C'est (pour l'instant ?) limité à la même génération de GPU que sur les X1 et PS4... Je pense que les jeux purement codé en Mantle ne seront plus compatible avec une autre génération de GPU. A voir si les perf' vont faire changer d'avis tout le monde.

Ce genre d'API n'est utile que dans le monde de l'arcade et des consoles, imho.


Faut voir, commercialement parlant ce serait une approche bizarre tout de même. Je ne suis pas sûr que grand monde sur PC serait intéressé pour acheter une carte graphique avec laquelle tu ne peux plus jouer à rien.

C'est un peu difficile de savoir ce que ça vaut vraiment tant qu'AMD ne lâche pas plus d'info.
Thesus
 
noir_desir a écrit :
Je ne suis pas programmeur, mais le cuda, ce n'est pas du bas niveau ?

Oui et non, cuda proposé par Nvidia est plus bas niveau que les cuda-like multi-CG d'où le fait que ce n'est utilisable que sur du matos NVidia, mais c'est plus une lib qui permet d'envoyer des calculs à la CG autre que du calcul graphique.
Mais comme ça passe quand même par les drivers il y aura normalement une rétrocompatibilité pour la prochaine gen de CG.
kgabou
 
kirk.roundhouse a écrit :

Impossible, les lois de la physique ça ne se contourne pas.
Grosse consommation => grosse dissipation thermique nécessaire.

Une grosse dissipation thermique peut se faire en silence, regarde la Titan ou la GTX 690. Sans parler de WC ou autre. Bref il a raison, quand on achète une CG et qu'on fait gaffe à la conso, c'est d'abord pour que ça chauffe pas trop dans la tour, éventuellement pour économiser sur sa facture EDF, et une fois sur un million pour sauver les ours polaires.

Sinon c'est sympa Mantle, ça rattrapera peut être un peu le déficit de perf du aux procos AMD. Hu Hu Hu!
kirk.roundhouse
 
kgabou a écrit :

Une grosse dissipation thermique peut se faire en silence, regarde la Titan ou la GTX 690. Sans parler de WC ou autre. Bref il a raison, quand on achète une CG et qu'on fait gaffe à la conso, c'est d'abord pour que ça chauffe pas trop dans la tour, éventuellement pour économiser sur sa facture EDF, et une fois sur un million pour sauver les ours polaires.


N'importe quoi ...

La titan consome moins de 200W en charge, et la 690 pres de 300W avec une nuisance sonore de plus de 50db.
Je ne sais pas si tu arrive à te rendre compte de ce que c'est 50db :



C'est comme avoir un restaurant chez soi. J'ai connu mieux comme "silence" ...
Thesus
 
kirk.roundhouse a écrit :
C'est comme avoir un restaurant chez soi. J'ai connu mieux comme "silence" ...

C'est le bruit qu'il y a dans ton appart
Kadis Orox
 
Ça sent le concours de Powerpoint.
Paulozz
 
Pour en avoir une, je peux affirmer que la GTX 690 est assez silencieuse, plus que mon laptop en tout cas.
Kreem
 
Whisper a écrit :

Bref, tout ça pour dire que le cliché des drivers ATI bugé a bien vécu. Ou alors apportez des éléments concrets à vos accusations. (j'ai eu des Cg chez les 2 constructeurs et j'ai actuellement une geforce 670, principalement pour les effets Physx que je trouve sympa).

(PS: je ne parle pas d'interface, où là Nvidia a un avantage clair)


J'ai passé 5 ans à me prendre la tête avec les drivers ATI, plusieurs crash dans différent jeux du style le driver ne répond plus.

Le pire étant quand même les problèmes liés à Flash (sur Firefox en tout cas je ne sais pas pour les autres navigateurs) J'ai pris une 760 récemment j'ai plus de soucis. J'ai toujours alterné chez ATI/Nvidia pas de fanboy ici, j'en ai rien à foutre.
Mais il y a toujours ces problèmes de drivers c'est un fait.
Risbo
 
Kreem a écrit :


J'ai passé 5 ans à me prendre la tête avec les drivers ATI, plusieurs crash dans différent jeux du style le driver ne répond plus.

Le pire étant quand même les problèmes liés à Flash (sur Firefox en tout cas je ne sais pas pour les autres navigateurs) J'ai pris une 760 récemment j'ai plus de soucis. J'ai toujours alterné chez ATI/Nvidia pas de fanboy ici, j'en ai rien à foutre.
Mais il y a toujours ces problèmes de drivers c'est un fait.


Qu'est-ce qu'on y peut si y a des gens qui savent pas utiliser un PC.

Dans 99% du temps, le vrai problème est entre le clavier et la chaise =)
divide
 
Faut surtout voir si le gain en vaut les problèmes que ça implique (apprentissage, réécriture complète d'une partie du code moteur, perte de compatibilité avec NVIDIA, API maintenue et documenté par AMD (ils ont un gros historique de non support des dev), dépendance du code bas niveau à l'architecture).
Si c'est pour gagner 10% de perf par rapport à du code optimisé DX/OGL (cas le plus probable à mon avis) je crains que le jeu n'en vaille pas la chandelle.
Histoire de mettre la balle au centre, je n'ai jamais été fan de CUDA non plus, surtout depuis qu'OpenCL est bien supporté.
thedan
 
De toute façon il y a souvent de résurgence d'envie de sortie de directx et d'opengl... Puis bizarrement à chaque fois, tout le monde y reviens
Stoon
 
J'ai monté un nombre incalculable de bécanes et ce depuis plus de dix ans, que ce soit des pc de la NASA qui te coûte un PEL ou des configs à l'arrache parce que t'as pas un rond.

Ce que je peux vous dire d'après mon expérience c'est qu'il n'y a pas vraiment de marque qui prévaut sur l'autre. Chaque société (AMD, ATI, Nvidia ou Intel) a eu sa période de gloire ou de loose.

Les problèmes de drivers, c'est plutôt un faux débat, les deux marques ont eux leur hauts et leur bas, et les pb viennent aussi d'applis/jeux codées avec la b*te plutôt que des drivers eux-même.

Le vrai soucis c'est le budget que vous voulez consacrer à votre config. Arrêtez d'acheter de la merde no-name ou de marque d'entrée de gamme (enfin vous pouvez mais venez pas vous plaindre après). Ce n'est pas parce qu'il y a écrit Geforce ou Radeon sur un carton que c'est un gage de qualité. Beaucoup d'assembleurs tirent les prix vers le bas avec des composants daubés (pcb, condensateurs, étage d'alim etc...)

N’hésitez pas à mettre 50 ou 100 boules de plus sur une CG (à puce équivalente) par exemple, vous ne le regretterez pas.

Des marques comme HIS (pour les Radeon) ou Gigabyte (pour les Geforce) fournissent souvent des modèles remaniés des designs de référence, certes le prix en prend un coup, mais votre cg va durer plus longtemps, va mieux tenir les écarts de température et par conséquent causer beaucoup moins de bugs.
kgabou
 
kirk.roundhouse a écrit :
Des conneries

38dB la Titan en charge (http://www.hardware.fr/articles/887-5/bruit-temperatures.html) donc oui on peut dissiper du lourd en silence. Et la GTX 690 c'est encore plus parlant, c'est un monstre et le bruit reste raisonnable.
spook
 
Stoon, c'est cool, t'as monté des PC pour des potes et t'es donc spécialiste. Génial.

Tu réponds à ça ? https://fr.dolphin-emu.org/blog/2013/09/26/dolphin-emulator-and-opengl-drivers-hall-fameshame/?cr=fr

Hein, allez, prouve moi qu'AMD c'est d'la balle, et si c'est instable c'est de la faute aux condo' chinois. :)
Skizomeuh
 
Vous êtes d'un casse-couille sérieux !
thedan
 
Skizomeuh a écrit :
Vous êtes d'un casse-couille sérieux !


Merci, ,on dirait les forums de hardware.fr sur la gueguerre
kirk.roundhouse
 
kgabou a écrit :

38dB la Titan en charge (http://www.hardware.fr/articles/887-5/bruit-temperatures.html) donc oui on peut dissiper du lourd en silence. Et la GTX 690 c'est encore plus parlant, c'est un monstre et le bruit reste raisonnable.

C'est peut être aussi comme je l'ai dit dans mon post, parce que la titan consomme moins qu'une 680 ...

Et chacun sa référence en matière de silence. J'ai vu des 690 tourner, et c'est bruyant.

Les 660,670,680 et titan en comparaison sont couverte par le bruit du ventilo CPU.
D-Kalcke
 
kirk.roundhouse a écrit :
Les 660,670,680 et titan en comparaison sont couverte par le bruit du ventilo CPU.
Genre ça dépend pas du ventilo de ton CPU.
CBL
 
On ferme. J'essaye de faire un article un poil construit pour expliquer la situation délicate d'Nvidia et la position intéressante d'AMD et tout ce qui sort c'est "AMD c'est de la merde zlol".

Pour info mon nouveau PC portable comporte une Geforce GTX 780M (l'équivalent d'une 660 Ti en carte classique mais avec 4 Go de ram video), un i7-4700MQ et ne consomme pas plus de 180W, écran compris donc.
Vous devez être connecté pour pouvoir participer à la discussion.
Cliquez ici pour vous connecter ou vous inscrire.
Soutenez Factornews.com

Tribune

Le vertueux
(11h39) Le vertueux la différence avec les jeux vidéos c'est qu'Asterix ne prend pas vraiment la place d'une autre bd, Tekken si, soit c'est ça, soit pratiquement rien d'autres.
Le vertueux
(11h34) Le vertueux choo.t > Il n'y a pas grand chose qui me vient à l'esprit là, les comics de super héros font pires.
choo.t
(11h12) choo.t Le vertueux > Ça s'applique à bien d'autres choses que le JV.
Le vertueux
(08h10) Le vertueux choo.t > Ça fait surtout penser que nous, joueurs, avons pris perpet avec les mêmes licences.
CBL
(02h33) CBL (23h38) Tient y'a Akuma
lundi 23 janvier 2017
noir_desir
(23h48) noir_desir choo.t > et que celui-ci était ultra-mauvaus
choo.t
(23h47) choo.t I Am Setsuna dans le le line-up de la Switch. [nintendoeverything.com]
choo.t
(23h38) choo.t [youtu.be] Hop, nouveau trailer du portage de Tekken 7, c'est pas folichon et ça me rappelle surtout que le studio n'a plus sortit de Soul Calibur depuis 5 ans...
noir_desir
(23h33) noir_desir Sacré claude puant oups gueant
noir_desir
(23h32) noir_desir J'ai toujours comme un doute
noir_desir
(23h32) noir_desir Enfin est ce que les lecteurs du figaro que les juges (enfin le plus gros syndicat) est de droite ?
_Kame_
(23h22) _Kame_ c'est rigolo
choo.t
(21h24) choo.t Pas con ce shader pour expliquer la perception fovéale [shadertoy.com]
Crusing
(20h03) Crusing Big Apple > c'est un vrai commentaire :3
Big Apple
(19h57) Big Apple c'est tout à fait ça :)
Big Apple
(19h56) Big Apple Crusing > Ah Ah Ah!
Crusing
(19h25) Crusing Au hasard :"Ce sont les derniers soubresauts de la justice rouge instrumentalisée et dévoyée."
Crusing
(19h23) Crusing Il est temps d'aller se délecter des commentaires sur le figaro
Crusing
(19h21) Crusing Inutile de préciser qu'il aura juste un bracelet, mais quand même, ça fait zizir comme disent les gens en scooter.
Crusing
(19h19) Crusing Guéant, 1 an [mediapart.fr]
Laurent
(19h12) Laurent DukeFreeman > [gamespot.com]
DukeFreeman
(18h28) DukeFreeman tiens une grosse maj de Dishonored 2... y a un changelog qui traine quelque part ?
BeatKitano
(15h13) BeatKitano LeGreg > Se retirer de l'OTAN pas des Nations Unies et oui CBL a raison, apparement ce truc est un running gag depuis 20 ans (effrayant la connerie...)
Toninus
(10h31) Toninus Ah, j'étais complètement passé à coté de ces (vieilles) vidéos de Chuchel, le nouveau jeu de Amanita. Certes c'est du point & click pas très profond, mais on dirait un peu La Linéa en JV [youtube.com]
thedan
(09h39) thedan J'imagine plutôt que comme dans toutes les administrations ou les grandes entreprises, tu dois étudier toutes les possibilités...
LeGreg
(04h29) LeGreg BeatKitano > je ne crois pas que Trump ait parlé de se retirer des nations unies (bon je ne suis pas tout ce qu'il raconte), par contre les précédentes administrations avaient accumulé des arriérés de paiement.
CBL
(02h18) CBL Trump peut raconter beaucoup de conneries mais au bout d'un moment il sera confronté à une dure realite
CBL
(02h17) CBL Et c'est pareil pour l'OTAN. Les US ont besoin des pays europeens pour installer des bases et deployer des systemes anti-missiles
CBL
(02h16) CBL Les US n'ont aucun intérêt à quitter les Nations Unies vu leur pouvoir de veto
CBL
(02h16) CBL Y'a pas beaucoup de soutien
CBL
(02h15) CBL (22h45) BeatKitano > C'est un vieux projet. Cherche H.R.1146
noir_desir
(00h11) noir_desir choo.t > :)
choo.t
(00h10) choo.t [i.redditmedia.com]
dimanche 22 janvier 2017
noir_desir
(23h33) noir_desir BeatKitano > hum l’assassinat c'est plus une idée républicaine...
BeatKitano
(23h19) BeatKitano noir_desir > Faut voir le bon côté des choses, on verra peut-être pas la totalité.
noir_desir
(23h14) noir_desir A la base l'otan n'a pas été créer dans le but d’éviter un conflit généralisé.... 4a c'est long...
noir_desir
(23h13) noir_desir BeatKitano > Ca serait étonnant, mais effectivement trump l'a toujours dit
Crusing
(22h51) Crusing Trop bien ça va renouveler les thèmes des films d'anticipation
BeatKitano
(22h47) BeatKitano C'est qu'on projet, mais ça donne le ton, et avec les décla de Super Carotte sur l'OTAN... il n'y a qu'un pas.
BeatKitano
(22h45) BeatKitano Les US pourraient se retirer des Nations Unies. Fun. [webcache.googleusercontent.com]
aeio
(21h26) aeio (21h20) La page est vieille (4 décembre 2016), Cemu 1.7.0 inclut d'office le correctif pour ce bug.
choo.t
(21h20) choo.t aeio > Ouai, j'ai aucun soucis sur Captain Toad, mais je ne suis pas allé très loin (déjà fini sur WiiU), mais apparemment y'a un bug bloquant au niveau 1-17 selon la config d'emul CPU [compat.cemu.info]
aeio
(21h06) aeio Après Zelda est un cas à part (et il est de toute façon pas super bien émulé, avec des grosses chutes de frame rate inexplicables quelque soit la config). Les autres gros jeux de la console ont 2 à 3 fois moins de shaders.
aeio
(21h01) aeio (20h49) Ah effectivement, j'ai vérifié et j'ai pareil ici (mais je m'en fous j'ai 16 Go).
choo.t
(20h49) choo.t Cemu met tout les shader en ram dès le lancement du jeu, j'ai ±6Go bouffé par Cemu pour jouer à Zelda:WW, c'est n'importe quoi.
choo.t
(20h46) choo.t MrPapillon > C'étais horrible sur Natural Selection 2.
MrPapillon
(19h58) MrPapillon La compilation shader OpenGL c'est très mal foutu et ça empêche d'avoir un truc précompilé dans la distrib. Du coup le driver compile violemment au premier lancement.
MrPapillon
(19h57) MrPapillon La compilation des shaders longues, c'est surtout la faute à OpenGL.
aeio
(19h14) aeio (16h24) T'as téléchargé un cache complet (9000 et quelques shaders pour ce jeu) ? Si oui, alors la compilation va être longue la première fois mais super rapide ensuite.
choo.t
(16h24) choo.t C'est mal branlé leur compil de shader, sur mon vieux laptop je n'ai que 8go de ram et c'est impossible de compiler les shader de Wind Waker, trop nombreux et tout ce fout en ram sans jamais s’effacer....
zouz
(16h11) zouz Khdot > Nous somme tous abonnés à HBO Prime, Netflix US, Amazon Prime et travaillons pour le gouvernement afin de débusquer chaque malware chinois caché dans chaque programme d'émulation. Je ne vois pas où est les problème.
choo.t
(15h45) choo.t Khdot > J'ai littéralement la boite du jeu sur le bureau.
Khdot
(15h40) Khdot nous ne parlons pas du tout de piratage sur la tribune. :p
zouz
(15h31) zouz aeio > Yep cet émulateur est vraiment incroyable, mon week end sur MK8 avec un pote peu en témoigner.
choo.t
(15h29) choo.t Ah, les drivers daté de débuts 2014... ça tourne niquel maintenant. C'est Impressionnant, et les jeux Wii U ne pèsent rien.
choo.t
(14h56) choo.t aeio > Je viens de tester, ça marche nickel sur le GPU intégré, mais ça chie avec la CG activée (Optimus), c'est courant ?
Khdot
(14h17) Khdot (10h24) aeio > mon dieu
choo.t
(14h05) choo.t aeio > Si Zelda BotW tourne correctement dessus à la sortie, ça va être dur de se motiver à prendre une switch...
aeio
(12h55) aeio Captain Toad en 4K sur Cemu [youtube.com] L'émulateur est tellement bien fait qu'on peut même utiliser la souris comme un doigt pour passer certains obstacles (3:15).
Dks
(12h44) Dks je viens de regarder dans ma boite de ma viielle 560ti y a deux adaptateurs molex vers 6 pin. Bon c'est l'affaire de deux jours mais week end un peu triste sur le coup ^^
fwouedd
(12h43) fwouedd Ouais, c'est super moche.
Dks
(12h39) Dks fwouedd > pour un accessoire à 3€ sur une cg déjà à 300.. radinage
fwouedd
(12h31) fwouedd Dks > Tous en fait, ils ne les mettent actuellement que sur les CG HDG j'ai vu.
Dks
(12h25) Dks aeio > oui là dessus gigabyte sont radins :\
Edhen
(12h24) Edhen (11h32) [twitter.com]
hohun
(11h32) hohun C'est le deuxième jour et on est déjà en plein délire cosmique.
hohun
(11h32) hohun Ahah Trump qui part en mode full complot des médias genre "les pelouses vides c'est un mensonge"
aeio
(10h26) aeio Ça m'étonne même un peu quand t'en aies pas eu un dans le bundle de la carte graphique.
aeio
(10h24) aeio (09h46) Comme le dit fwouedd, tu prends ça [media.ldlc.com] et c'est réglé.
Dks
(09h46) Dks fwouedd > l'alim existait avant le format 8 pins pour les cg, faut que je vise un 6 vers 8 p. Ou changer l'alim.. mais c'est moche.
Dks
(09h45) Dks fwouedd > nop en fait un gars de cpc m'a pointé le fait que le 8 pin de l'alim c'est pour l'atx. Genre multi cpu.
miniblob
(09h07) miniblob Kame> J'avais loupé le coche, merci de l'info, ça reste le meilleur moyen de regarder la télé sans la regarder
fwouedd
(08h46) fwouedd Mais d'ici la, tu as pas un adaptateur molex avec la CG?
fwouedd
(08h45) fwouedd Ah ouais, non j'ai rien dit, effectivement, t'as du 8...
fwouedd
(08h44) fwouedd Tu te plantes pas de câbles? Je ne crois pas qu'ils aient changé de format depuis.
samedi 21 janvier 2017
_Kame_
(23h46) _Kame_ pour ceux qui savaient pas, le Zapping a repris sur France2 [twitter.com]
Dks
(22h43) Dks me demande si un simple adaptateur 6pins vers 8 ne ferait pas l'affaire.
Dks
(22h11) Dks Bon au moins je vois que le cable avec le bon connecteur existe : [corsair.com]
Dks
(22h06) Dks Ah comment je suis un gros loser, se dire que mon hx620 corsair avec son connecteur 8 pins ira très bien avec ma nouvelle 1060 gigabyte.... rahhh mais non, pas les même détrompeurs. /dansmoncullulu
Crusing
(21h37) Crusing Big Apple > sur les rat cest juste dans de l'eau 10mg/pdc, 4/11 développent des tumeurs, en peu de temps. Lisez un peu bordel.
Crusing
(21h35) Crusing (20h07) colorant,blanchisseur, anti agglomerant, opacifiant, conservateur pour les fruits/légumes
Big Apple
(20h34) Big Apple C'est en ça que le principe de précaution n'a aucun sens. Tout ce qu'on peut faire, c'est assurer une vigilance permanente et réajuster/retirer un produit commercialisé dès qu'il y a un faisceau de présomptions à son encontre.
Big Apple
(20h30) Big Apple C'est impossible de tester de façon absolue la toxicité des produits car 1) celle-ci peut se révéler qu'après plusieurs années d'exposition 2) celle-ci peut se révéler uniquement lors d'un mélange avec un ou plusieurs autres produits (effet cocktail)
_Kame_
(20h07) _Kame_ Un déal peut-être, mais pr juste un colorant (pas trouvé d'autre utilisation sur le net), je trouve ça pas "idéal" de minimiser les risques pour la santé. Et qu'est-ce que ça vient foutre dans les médicaments... /me prends son Tramadol-E171 quotidien
GTB
(19h50) GTB Or en 2006 il y avait déjà des agents "probablement" cancérogènes à étudier. Bref oui si on avait les moyens d'étudier tout ça en détails et sans priorité ou autres considérations ça serait l'idéal.
Crusing
(19h49) Crusing Jean Michel dialectique
GTB
(19h46) GTB Kame> Évidemment qu'il faudrait dans l'idéal. Maintenant comprend bien que potentiellement dangereux ça veut dire que ça peut être dangereux ou peu dangereux ou pas dangereux...et surtout ça regroupe une tétrachiée de molécules.
Big Apple
(19h27) Big Apple A partir d'aujourd'hui, il n'y a plus de réchauffement climatique. Ca tombe bien, on est en hiver.
_Kame_
(19h03) _Kame_ Et toi ta conclusion c'est "on sait pas, faut faire + d'étude, pas besoin de faire l'alarmiste". Entre cancer, allergie etc, faudra pas s'être alarmé depuis des décennies ?
_Kame_
(18h59) _Kame_ GTB > osef de 2006, donc qd un truc a un potentiel cancérigène quelque soit le mode, faudrait pas vite se grouiller de tester les autres trucs ? Et ça t'alarme pas qu'une substance utilisée depuis des décennies soient seulement testé auj ?
MrPapillon
(18h24) MrPapillon Par contre la différence entre mon programme et celui de Fillon, c'est que moi je n'oblige pas à aller à l'église le dimanche.
MrPapillon
(18h22) MrPapillon Ça permettra de préparer les youtubeurs coréens à la bouffe alien.
GTB
(18h21) GTB Crusing > C'est certain. Vu le nombres d'agents possiblement cancérogène connus, j'imagine qu'il y a un manque de moyens pour approfondir. Et il y a tout ceux qu'on a même pas encore étudié ne serait-ce qu'un peu.
MrPapillon
(18h20) MrPapillon Et après, on va se retrouver avec des humains avec des parois intestinales en graphène naturel capables d'endurer même des cailloux ou du jus de centrale nucléaire.
MrPapillon
(18h19) MrPapillon Moi je propose quelque chose de plus simple : on autorise tout, comme ça quelques générations meurent dans d'atroces souffrances, des attaques de zombies, des humains qui ressemblent plus à des humains, etc...
GTB
(18h18) GTB Crusing > Précisément, osef de 2006 puisque ça concernait que l'inhalation.
Crusing
(18h14) Crusing Moi je pense juste à l'explosion des syndromes colopathiques, alors qu'il suffirait peut être juste de faire le tri la dedans
Crusing
(18h13) Crusing GTB > OSEF de 2006, on parle des résultats d'hier
Crusing
(18h12) Crusing Mais t'aura toujours des abrutis qui achèteront en connaissance de cause, comme pour la radioactivité, c'est invisible donc ça n'existe pas, le bon raisonnement climatosceptique à la Trump.
GTB
(18h10) GTB Crusing > Je sais. Quand j'ai parlé d'inhalation c'était par rapport à la classification de 2006 qu'il a évoqué.