Connexion
Pour récupérer votre compte, veuillez saisir votre adresse email. Vous allez recevoir un email contenant une adresse pour récupérer votre compte.
Inscription
En vous inscrivant, vous acceptez les conditions d'utilisation du site et de nous vendre votre âme pour un euro symbolique. Amusez vous, mais pliez vous à la charte.
 
ACTU

Hard and Heavy

CBL par CBL,  email  @CBL_Factor
 
Il se passe plein de choses rigolotes en ce moment dans le petit monde des cartes graphiques donc il est temps de faire le point.

Chez Nvidia, après avoir fait semblant de ne pas avoir été intéressé pour fournir les puces pour la prochaine génération de consoles, on joue maintenant les snobs en expliquant que des consoles avec des alim de 200/300 Watts ne peuvent pas rivaliser avec des PCs de 1000W. Merci Captain Obvious mais plutôt que de dire des banalités, il faudrait peut être se pencher sur le problème de la consommation des GPU. Personne n'imagine laisser tourner un four à micro-ondes pendant toute une journée mais quand il s'agit de jeux vidéo sur PC on oublie toute notion d'économie d'énergie.

Si Nvidia fait copain-copain avec Linux, c'est pour monter à bord du train Steam OS / Steam Machines. Ce recentrage sur le PC peut s'expliquer par le fait que le Tegra, leur System On A Chip (SoC) pour smartphones et tablettes, ne décolle toujours pas. Pire encore : les nouvelles générations sont moins populaires que les précédentes. Le Tegra 2 était quasiment le standard pour les tablettes Android tournant en 3.x et le Tegra 3 a fait les beaux jours du Nexus 7 et du HTC One X. Le Tegra 4 n'équipe aucun appareil populaire. Nvidia a fini par lancer sa propre ligne d'appareils avec le Nvidia Shield et le Nvidia Note, ce dernier étant plus un design de référence qu'un produit fini. Il faut dire que sur le marché d'Android Nvidia fait face à un poids lourd : Samsung. Le géant coréen domine sans partage la plate-forme et utilise une variété de SoC (le sien, Exynos, mais aussi celui de Qualcomm, Snapdragon) mais très rarement le Tegra. Parmi les autres coups durs récents : Nvidia a perdu l'appel d'offres pour la puce du tout nouveau Kindle Fire HDX. C'est le Snapdragon qui l'a emporté.

Le gag est que Steam OS permettra de faire la même chose que la Shield à savoir streamer ses jeux sauf qu'à la place de le faire sur un petit écran, on le fera sur une grosse télé (il y a trop de lag quand on affiche sur la télé l'écran de la Shield quand elle streame). Au passage, le Tegra 4 est présent dans la Microsoft Surface 2. Dell venant d'abandonner la XPS 10, Microsoft est désormais le seul constructeur à faire des tablettes Windows RT. On espère donc que cette sous-version de Windows va crever prochainement. Pour les Steam Machines, Nvidia part avec un handicap de poids : ils n'ont pas de solution combinant CPU et GPU. Même s'ils ont un très bon milieu et haut de gamme, la majorité des Steam Machines tourneront à base d'Haswell (Intel) et de Jaguar (AMD) sans carte graphique dédiée.

AMD fait des choses intéressantes en ce moment. Alors qu'ils font du x86 depuis l'époque des 286, ils vont lancer leurs premiers CPU ARM 64 Bits. Le but est d'équiper les serveurs. En effet, ces CPUs consomment beaucoup moins que les Opteron (les CPU x86 pour serveurs d'AMD) tout en étant aussi efficaces sinon plus pour les applications web. L'appel du cloud en quelque sorte. Mais revenons dans le monde du jeu vidéo avec Mantle. Il y a fort longtemps, une compagnie appelée 3DFX produisait des cartes graphiques qui ont changé la face du jeu PC. Tout ceux qui ont testé POD, Shadows Of The Empire, Quake, Tomb Raider, Unreal ou EF 2000 à cette époque ont compris que le jeu vidéo venait de franchir un tournant. La force de 3DFX n'était pas seulement de faire des bonnes carte graphiques mais aussi de fournir une API bas niveau, Glide.

C'est exactement ce que Mantle propose : une API bas niveau pour les GPU d'AMD. Même si OpenGL et DirectX sont des API ultra-évoluées, elles ne donnent accès au hardware que via une couche d'abstraction qui simplifie la compatibilité entre les différents GPU mais qui limite les performances. Mantle serait une version Windows de l'API bas niveau de la Xbox One développée en collaboration avec un studios de dev. Le portage de son code vers Mantle serait simple à effectuer (comprenez : ajouter une version Mantle de son jeu ne coûtera pas cher) et vu que les PS4 et la Xbox One ont déjà des API bas niveau tapant dans des GPU AMD, on peut se dire que pas mal de studios vont se mettre à Mantle.

Le studio de dev en question est un poids lourd vu qu'il s'agit de DICE. Le Frostbite 3 tournera sur Mantle à la place de DirectX 11 sur les GPUs AMD supportés (tous les GCN et GCN 2.0 soit les Radeon 7xxx et 8xxx). Le premier jeu qui en tirera partie sera évidemment Battlefield 4 sous forme de mise à jour gratuite en décembre. Ça promet quelques benchmarks intéressants. On devrait voir tourner cela au AMD Developer Summit en Novembre.
 

Commentaires

Masquer les commentaires lus.
gruiiik
 
Glide est loin d'etre une API "bas niveau", c'etait plustot l'OpenGL ( 3DFx avait d'ailleur un driver miniGL pour faire tourner quake si je me souvient bien) du pauvre, mais c'etait la grande classe !

Ce qu'ils appellent "bas niveau" c'est de directement forger les commandes GPU sans passer par la merde COM/DirectX ou La state machine GL.

Ca existe sur toutes les consoles depuis un moment ( me souviens de la dreamcast avec ses differents SDK partant du super haut niveau directx retainted mode, a l'API secrete super bas niveau que seulement il fallait lecher les doigts de pieds de SEGA pour l'avoir "shadow" si je me souviens bien.

La la tres grande force d'AMD c'est qu'ils vont profiter de leur dominantion sur console next-gen pour proposer un lockin API "superior version" sur PC.

En tout cas je sors le POP corn, et je reve que microsoft lache enfin DirectX qui ne sert plus a rien maintenant a part faire chier tout le monde avec une synthaxe horrible.
Temujin
 
Honnetement j'ai pas compris ce que Mantle est, mais j'espere que tu nous donnera des chiffres de perfs en Decembre sur BF4 pour y voir plus clair !
clott
 
Mais pour en profiter il faut un CPU AMD + CG ATI ou un CPU INTEL + CG ATI suffit?
Je comptais me prendre une GTX760 dans les prochains jours, ça vaut le coup d'attendre pour voir ce que ça donne ou on ne verra rien de concret (excepté sur BF4) avant longtemps?
LeGreg
 
L'erreur commise dans la news (mais assez commune dans le public) est de penser que si une société fait une chose elle ne peut pas faire une autre chose en même temps.
LeGreg
 
gruiiik a écrit :
Ce qu'ils appellent "bas niveau" c'est de directement forger les commandes GPU sans passer par la merde COM/DirectX ou La state machine GL.


DirectX est aussi une machine à état (et c'est le cas de tous les GPUs récents -> machine à état codée dans le hardware).
Quant à la remarque entre Dx et COM elle est un peu hors sujet..

gruiiik a écrit :
Ca existe sur toutes les consoles depuis un moment ( me souviens de la dreamcast avec ses differents SDK partant du super haut niveau directx retainted mode, a l'API secrete super bas niveau que seulement il fallait lecher les doigts de pieds de SEGA pour l'avoir "shadow" si je me souviens bien.


Elle n'avait rien de secrète, l'API DirectX like (par dessus Windows CE) de la Dreamcast avait été utilisée par très peu de jeux Dreamcast.

gruiiik a écrit :
En tout cas je sors le POP corn, et je reve que microsoft lache enfin DirectX qui ne sert plus a rien maintenant a part faire chier tout le monde avec une synthaxe horrible.


Je suis sûr que la syntaxe de DirectX ne sera pas son point faible par rapport à une interface bas niveau :).
gruiiik
 
LeGreg a écrit :


DirectX est aussi une machine à état (et c'est le cas de tous les GPUs récents -> machine à état codée dans le hardware).
Quant à la remarque entre Dx et COM elle est un peu hors sujet..


Yep, mais c'est ce que je retiens de DirectX, le COM :)

Elle n'avait rien de secrète, l'API DirectX like (par dessus Windows CE) de la Dreamcast avait été utilisée par très peu de jeux Dreamcast.

Hum il me semble qu'il y avait une API dont les developpeurs tiers n'avait pas acces, mais je peux me tromper.

Je suis sûr que la syntaxe de DirectX ne sera pas son point faible par rapport à une interface bas niveau :).


Je me suis mal exprime, c'est plustot qu'avec opengl ( et surtout ES ) et la merde que c'est sur windows phone, je serais assez comptant si microsoft pouvait arreter DX. Mais c'est vraiment une question de preference personel.
kirk.roundhouse
 
L'article de fanboy AMD mal déguisé...
Temujin
 
Je me demande ce que dirait Zaza sur cette news.
Risbo
 
Zaza reviens <3
pomkucel
 
Je reste circonspect, on parle d'AMD, la boite qui fournit des drivers tout pourri 3 mois après avec ces CG. Mais c'est vrai que avec "monopole console next gen + un gros jeu" ca fait une belle addition.
Yolteotl
 
pomkucel a écrit :
Je reste circonspect, on parle d'AMD, la boite qui fournit des drivers tout pourri 3 mois après avec ces CG. Mais c'est vrai que avec "monopole console next gen + un gros jeu" ca fait une belle addition.


Dans les faits, depuis 1 an, c'est Nvidia qui fait de la merde niveau Drivers, alors que AMD propose de nouvelles technos (TressFX) qui ont le bon goût de fonctionner aussi sur les cartes concurrentes !
reebob
 
Juste une question. Si l'accès à un langage de bas niveau rendant nécessaire tel ou tel types de carte est une si bonne idée, alors pourquoi 3DFx n'est plus là? Si l'on s'évertue depuis de nombreuses années à créer des langages de haut niveau, ce n'est pas pour rien. Sinon on continuerait à programmer en Assembleur.
nono_le_robot
 
J'allais dire pareil. Je vois pas trop pourquoi on devrait se réjouir de l'apparition d'une techno qui ne va apporter que de la fragmentation. Autant la mise à mal de DirectX me réjouit, autant l'apparition de Mantle m'inquiète.
_Kame_
 
Personne n'imagine laisser tourner un four à micro-ondes pendant toute une journée mais quand il s'agit de jeux vidéo sur PC on oublie toute notion d'économie d'énergie


Genre vous regardez la consommation de votre CG avant de l'acheter et pas la performance.

Genre vous laissez votre PC allumé dans un jeu toute la journée pour que la CG consomme à fond. Pasque si oui, c'est comme laisser le micro onde en route toute la journée. Si non, c'est comme le laisser en veille.

Et sinon vous avez un PC allumé en permanence chez vous ? Pour quoi faire ? Du rendering d'images ? Pasque si non, vous êtes pas obligé de mettre une CG qui consomme 500000 watts hein.

Bref, même si Nvidia dit de la merde, ça me fait tjrs marrer cette argumentation sur la consommation. "Wa ce proc consomme moins, c'est trop bien". Dans un laptop c'est hyper important, dans un desktop, non. C'est de la branlette écologiste.

Vous voulez utilisez des PCs de façon écologique ? Alors n'en achetez pas, vous ferez du bien à la planéte.

Qu'on fabrique l'énergie proprement, on aura plus de pb de consommation.


edit: et je ne dis pas qu'il faut que ça consomme moins. Evidemment c'est mieux, mais genre c'est ZE argument de choix. "On pense trop à la planéte nous tavu. Bon on a baisé des tonnes de silicium et de métaux rare pour jouer à des jeux à 5 euros de 1986, mais on est trop écolo"
Yolteotl
 
_Kame_ a écrit :
Et sinon vous avez un PC allumé en permanence chez vous ? Pour quoi faire ?


Cookie Clicker !!
Boudin
 
nono_le_robot a écrit :
J'allais dire pareil. Je vois pas trop pourquoi on devrait se réjouir de l'apparition d'une techno qui ne va apporter que de la fragmentation. Autant la mise à mal de DirectX me réjouit, autant l'apparition de Mantle m'inquiète.


Il va falloir un peu plus d'informations. Si c'est un truc complètement fermé, ce sera pas terrible (mais ça pourrait disparaître aussi vite que c'est apparu du coup). Si Nvidia et Intel ont la possibilité de se greffer sur le truc, ça pourrait être une bonne chose.
kirk.roundhouse
 
_Kame_ a écrit :


Genre vous regardez la consommation de votre CG avant de l'acheter et pas la performance.
(...)

Maintenant oui. J'avais acheté à l’époque une GTX 480, qui était un monstre de consommation électrique et avait énormément d’énergie à dissiper.
Elle faisait un bruit d'aspirateur.
Je l'ai remplacé récemment par une 660 Ti qui a sensiblement les mêmes perfs, c'est une carte excellente avec un suivit driver toujours au top (forcément c'est NV !) et c'est un bonheur pour mes oreilles.

On ne m'y reprendra plus à acheter des cartes trop puissantes et trop bruyantes.
DoubleJ
 
Mantle est une API graphique ouverte, sur le papier, rien n'empêche de l'avoir également sur des GPU NVIDIA ainsi que la possibilité de la porter sous Linux.
Pour une API bas niveau, cela pourrait être pas mal, à voir ce que ça donne à l'AMD Developer Summit.
Boudin
 
DoubleJ a écrit :
Mantle est une API graphique ouverte, sur le papier, rien n'empêche de l'avoir également sur des GPU NVIDIA ainsi que la possibilité de la porter sous Linux.
Pour une API bas niveau, cela pourrait être pas mal, à voir ce que ça donne à l'AMD Developer Summit.


C'est confirmé par AMD que l'API est ouverte ?
Dks
 
Tu as oublié de préciser que la présentation d'AMD était un bide incroyable. Pour ceux qui étaient connectés ce soir là, on sentait les facepalms avec leurs annonces. Rien que le son et le jeu lichdom ahahaha.
zouz
 
En gros dans le meilleur des cas les jeux multi plateformes PC/Console Nesquegéne vont finir par utiliser Mantle non ?
Je vois pas où est le problème si ça permet de profiter plus longtemps de son hardware pour pouvoir jouer à des récents.
DoubleJ
 
Boudin a écrit :


C'est confirmé par AMD que l'API est ouverte ?


Oui, AMD l'a dit lors de la présentation GPU14 Tech Day.

"We've been told at the GPU14 Tech Day event that the Mantle API is open, so theoretically Nvidia could purpose the technology in their GPUs."
http://www.techspot.com/news/54134-amd-launches-mantle-api-to-optimize-pc-gpu-performance.html
Whisper
 
pomkucel a écrit :
Je reste circonspect, on parle d'AMD, la boite qui fournit des drivers tout pourri 3 mois après avec ces CG. Mais c'est vrai que avec "monopole console next gen + un gros jeu" ca fait une belle addition.


C'est dingue ce cliché qui n'en finit pas. Nvidia comme AMD sortent tous les 2 des drivers magiques qui augmentent les perfs dans les jeux 2 semaines après leurs sorties. Et il y a eun des gros bugs nécessitant une update dans les 2 camps ces 12 derniers mois. D'ailleurs, le comparatif dans le dernier Canard PC tant à montrer que l'augmentation des perfs est légèrement supérieur chez Nvidia, ce qui, contrairement à ce qu'ils concluent, peut laisser penser que les drivers Nvidia sont moins "cohérents" et stables qu'AMD, qui eux sont plus proches des performances maximales possibles dès la sortie des jeux. Étrangement, cette possibilité n'est même pas évoqué dans le canard.

Bref, tout ça pour dire que le cliché des drivers ATI bugé a bien vécu. Ou alors apportez des éléments concrets à vos accusations. (j'ai eu des Cg chez les 2 constructeurs et j'ai actuellement une geforce 670, principalement pour les effets Physx que je trouve sympa).

(PS: je ne parle pas d'interface, où là Nvidia a un avantage clair)

Sinon, les autres slides de la présentation explique bien l'avantage que peut apporter Mantle sur pc: http://www.hardware.fr/news/13368/amd-mantle-retour-glide.html
DoubleJ
 
Dks a écrit :
Tu as oublié de préciser que la présentation d'AMD était un bide incroyable. Pour ceux qui étaient connectés ce soir là, on sentait les facepalms avec leurs annonces. Rien que le son et le jeu lichdom ahahaha.


C'est vrai que c'était n'importe quoi, j'avais laissé tomber ^^
Déjà leur stream sur Youtube qui a complètement merdé, ils ont dû passer par un autre fournisseur.
Pour le reste, c'était surtout une présentation marketing, il faut attendre l'AMD Developer Summit, on devrait avoir du concret.
Boudin
 
DoubleJ a écrit :


Oui, AMD l'a dit lors de la présentation GPU14 Tech Day.

"We've been told at the GPU14 Tech Day event that the Mantle API is open, so theoretically Nvidia could purpose the technology in their GPUs."
http://www.techspot.com/news/54134-amd-launches-mantle-api-to-optimize-pc-gpu-performance.html


C'est un peu con qu'ils en aient pas parlé clairement dans la présentation. C'est une bonne chose en tout cas !
Lisa
 
@CBL
Typo : "Il se place? plein de choses ..."
Thesus
 
Whisper a écrit :
Sinon, les autres slides de la présentation explique bien l'avantage que peut apporter Mantle sur pc: http://www.hardware.fr/news/13368/amd-mantle-retour-glide.html

Ils oublient de parler d'un truc qui est quand même important : la rétrocompatibilité.

Si on se passe des drivers et des librairies qui permettent de normalisé tout le petit monde des CG, que va t'il se passer quand la prochaine génération de CG va sortir ?

Comme on sait pas grand chose dessus je me base sur le pire truc qui peut arriver. Et si c'est réellement de la programmation bas niveau proche du hardware on aura des jeux qui ne pourront s’exécuter que sur une seule génération d'hardware : comme sur console. C'est beaucoup moins gênant pour les consoles car ni les devs ni les joueurs ne veulent de la rétrocomp, et comme toutes les consoles sont sous ATI c'est une bonne nouvelle.

Ensuite l'API est ouverte c'est bien beau mais pour de la prog bas niveau il faut qu'il y ait exactement la même architecture derrière. Hors Nvidia et Intel ne le feront jamais, ça reviendrait à fabriquer eux-même des cartes ATI (et de verser des royalties au passage pour l'utilisation des brevets nécessaire).
_Kame_
 
kirk.roundhouse a écrit :

Maintenant oui. J'avais acheté à l’époque une GTX 480, qui était un monstre de consommation électrique et avait énormément d’énergie à dissiper.
Elle faisait un bruit d'aspirateur.
Je l'ai remplacé récemment par une 660 Ti qui a sensiblement les mêmes perfs, c'est une carte excellente avec un suivit driver toujours au top (forcément c'est NV !) et c'est un bonheur pour mes oreilles.

On ne m'y reprendra plus à acheter des cartes trop puissantes et trop bruyantes.


Et si elle consommait à mort et ne faisait pas un bruit ?

Tu l'achèterai. Arrêtez de vous mentir les mecs :)

Il faut réduire la consommation, car ça réduit la dissipation thermique, et donc on peut augmenter les perfs.

Mais parler de la consommation électrique comme d'un argument d'achat direct, c'est vraiment trop lolilol.

Si vous voulez vraiment aider la planète, y'a 10 fois plus à faire dans le recyclage des PCs que dans la baisse de la consommation d'une CG.


edit: et sortir cet argument contre une connerie dite par Nvidia, genre on a tous ds PC avec une alim de 1000 watts...
noir_desir
 
Thesus a écrit :

Ils oublient de parler d'un truc qui est quand même important : la rétrocompatibilité.

Si on se passe des drivers et des librairies qui permettent de normalisé tout le petit monde des CG, que va t'il se passer quand la prochaine génération de CG va sortir ?

Comme on sait pas grand chose dessus je me base sur le pire truc qui peut arriver. Et si c'est réellement de la programmation bas niveau proche du hardware on aura des jeux qui ne pourront s’exécuter que sur une seule génération d'hardware : comme sur console. C'est beaucoup moins gênant pour les consoles car ni les devs ni les joueurs ne veulent de la rétrocomp, et comme toutes les consoles sont sous ATI c'est une bonne nouvelle.

Ensuite l'API est ouverte c'est bien beau mais pour de la prog bas niveau il faut qu'il y ait exactement la même architecture derrière. Hors Nvidia et Intel ne le feront jamais, ça reviendrait à fabriquer eux-même des cartes ATI (et de verser des royalties au passage pour l'utilisation des brevets nécessaire).


Je ne suis pas programmeur, mais le cuda, ce n'est pas du bas niveau ?
spook
 
C'est (pour l'instant ?) limité à la même génération de GPU que sur les X1 et PS4... Je pense que les jeux purement codé en Mantle ne seront plus compatible avec une autre génération de GPU. A voir si les perf' vont faire changer d'avis tout le monde.

Ce genre d'API n'est utile que dans le monde de l'arcade et des consoles, imho.
kirk.roundhouse
 
_Kame_ a écrit :


Et si elle consommait à mort et ne faisait pas un bruit ?

Impossible, les lois de la physique ça ne se contourne pas.
Grosse consommation => grosse dissipation thermique nécessaire.
Boudin
 
spook a écrit :
C'est (pour l'instant ?) limité à la même génération de GPU que sur les X1 et PS4... Je pense que les jeux purement codé en Mantle ne seront plus compatible avec une autre génération de GPU. A voir si les perf' vont faire changer d'avis tout le monde.

Ce genre d'API n'est utile que dans le monde de l'arcade et des consoles, imho.


Faut voir, commercialement parlant ce serait une approche bizarre tout de même. Je ne suis pas sûr que grand monde sur PC serait intéressé pour acheter une carte graphique avec laquelle tu ne peux plus jouer à rien.

C'est un peu difficile de savoir ce que ça vaut vraiment tant qu'AMD ne lâche pas plus d'info.
Thesus
 
noir_desir a écrit :
Je ne suis pas programmeur, mais le cuda, ce n'est pas du bas niveau ?

Oui et non, cuda proposé par Nvidia est plus bas niveau que les cuda-like multi-CG d'où le fait que ce n'est utilisable que sur du matos NVidia, mais c'est plus une lib qui permet d'envoyer des calculs à la CG autre que du calcul graphique.
Mais comme ça passe quand même par les drivers il y aura normalement une rétrocompatibilité pour la prochaine gen de CG.
kgabou
 
kirk.roundhouse a écrit :

Impossible, les lois de la physique ça ne se contourne pas.
Grosse consommation => grosse dissipation thermique nécessaire.

Une grosse dissipation thermique peut se faire en silence, regarde la Titan ou la GTX 690. Sans parler de WC ou autre. Bref il a raison, quand on achète une CG et qu'on fait gaffe à la conso, c'est d'abord pour que ça chauffe pas trop dans la tour, éventuellement pour économiser sur sa facture EDF, et une fois sur un million pour sauver les ours polaires.

Sinon c'est sympa Mantle, ça rattrapera peut être un peu le déficit de perf du aux procos AMD. Hu Hu Hu!
kirk.roundhouse
 
kgabou a écrit :

Une grosse dissipation thermique peut se faire en silence, regarde la Titan ou la GTX 690. Sans parler de WC ou autre. Bref il a raison, quand on achète une CG et qu'on fait gaffe à la conso, c'est d'abord pour que ça chauffe pas trop dans la tour, éventuellement pour économiser sur sa facture EDF, et une fois sur un million pour sauver les ours polaires.


N'importe quoi ...

La titan consome moins de 200W en charge, et la 690 pres de 300W avec une nuisance sonore de plus de 50db.
Je ne sais pas si tu arrive à te rendre compte de ce que c'est 50db :



C'est comme avoir un restaurant chez soi. J'ai connu mieux comme "silence" ...
Thesus
 
kirk.roundhouse a écrit :
C'est comme avoir un restaurant chez soi. J'ai connu mieux comme "silence" ...

C'est le bruit qu'il y a dans ton appart
Kadis Orox
 
Ça sent le concours de Powerpoint.
Paulozz
 
Pour en avoir une, je peux affirmer que la GTX 690 est assez silencieuse, plus que mon laptop en tout cas.
Kreem
 
Whisper a écrit :

Bref, tout ça pour dire que le cliché des drivers ATI bugé a bien vécu. Ou alors apportez des éléments concrets à vos accusations. (j'ai eu des Cg chez les 2 constructeurs et j'ai actuellement une geforce 670, principalement pour les effets Physx que je trouve sympa).

(PS: je ne parle pas d'interface, où là Nvidia a un avantage clair)


J'ai passé 5 ans à me prendre la tête avec les drivers ATI, plusieurs crash dans différent jeux du style le driver ne répond plus.

Le pire étant quand même les problèmes liés à Flash (sur Firefox en tout cas je ne sais pas pour les autres navigateurs) J'ai pris une 760 récemment j'ai plus de soucis. J'ai toujours alterné chez ATI/Nvidia pas de fanboy ici, j'en ai rien à foutre.
Mais il y a toujours ces problèmes de drivers c'est un fait.
Risbo
 
Kreem a écrit :


J'ai passé 5 ans à me prendre la tête avec les drivers ATI, plusieurs crash dans différent jeux du style le driver ne répond plus.

Le pire étant quand même les problèmes liés à Flash (sur Firefox en tout cas je ne sais pas pour les autres navigateurs) J'ai pris une 760 récemment j'ai plus de soucis. J'ai toujours alterné chez ATI/Nvidia pas de fanboy ici, j'en ai rien à foutre.
Mais il y a toujours ces problèmes de drivers c'est un fait.


Qu'est-ce qu'on y peut si y a des gens qui savent pas utiliser un PC.

Dans 99% du temps, le vrai problème est entre le clavier et la chaise =)
divide
 
Faut surtout voir si le gain en vaut les problèmes que ça implique (apprentissage, réécriture complète d'une partie du code moteur, perte de compatibilité avec NVIDIA, API maintenue et documenté par AMD (ils ont un gros historique de non support des dev), dépendance du code bas niveau à l'architecture).
Si c'est pour gagner 10% de perf par rapport à du code optimisé DX/OGL (cas le plus probable à mon avis) je crains que le jeu n'en vaille pas la chandelle.
Histoire de mettre la balle au centre, je n'ai jamais été fan de CUDA non plus, surtout depuis qu'OpenCL est bien supporté.
thedan
 
De toute façon il y a souvent de résurgence d'envie de sortie de directx et d'opengl... Puis bizarrement à chaque fois, tout le monde y reviens
Stoon
 
J'ai monté un nombre incalculable de bécanes et ce depuis plus de dix ans, que ce soit des pc de la NASA qui te coûte un PEL ou des configs à l'arrache parce que t'as pas un rond.

Ce que je peux vous dire d'après mon expérience c'est qu'il n'y a pas vraiment de marque qui prévaut sur l'autre. Chaque société (AMD, ATI, Nvidia ou Intel) a eu sa période de gloire ou de loose.

Les problèmes de drivers, c'est plutôt un faux débat, les deux marques ont eux leur hauts et leur bas, et les pb viennent aussi d'applis/jeux codées avec la b*te plutôt que des drivers eux-même.

Le vrai soucis c'est le budget que vous voulez consacrer à votre config. Arrêtez d'acheter de la merde no-name ou de marque d'entrée de gamme (enfin vous pouvez mais venez pas vous plaindre après). Ce n'est pas parce qu'il y a écrit Geforce ou Radeon sur un carton que c'est un gage de qualité. Beaucoup d'assembleurs tirent les prix vers le bas avec des composants daubés (pcb, condensateurs, étage d'alim etc...)

N’hésitez pas à mettre 50 ou 100 boules de plus sur une CG (à puce équivalente) par exemple, vous ne le regretterez pas.

Des marques comme HIS (pour les Radeon) ou Gigabyte (pour les Geforce) fournissent souvent des modèles remaniés des designs de référence, certes le prix en prend un coup, mais votre cg va durer plus longtemps, va mieux tenir les écarts de température et par conséquent causer beaucoup moins de bugs.
kgabou
 
kirk.roundhouse a écrit :
Des conneries

38dB la Titan en charge (http://www.hardware.fr/articles/887-5/bruit-temperatures.html) donc oui on peut dissiper du lourd en silence. Et la GTX 690 c'est encore plus parlant, c'est un monstre et le bruit reste raisonnable.
spook
 
Stoon, c'est cool, t'as monté des PC pour des potes et t'es donc spécialiste. Génial.

Tu réponds à ça ? https://fr.dolphin-emu.org/blog/2013/09/26/dolphin-emulator-and-opengl-drivers-hall-fameshame/?cr=fr

Hein, allez, prouve moi qu'AMD c'est d'la balle, et si c'est instable c'est de la faute aux condo' chinois. :)
Skizomeuh
 
Vous êtes d'un casse-couille sérieux !
thedan
 
Skizomeuh a écrit :
Vous êtes d'un casse-couille sérieux !


Merci, ,on dirait les forums de hardware.fr sur la gueguerre
kirk.roundhouse
 
kgabou a écrit :

38dB la Titan en charge (http://www.hardware.fr/articles/887-5/bruit-temperatures.html) donc oui on peut dissiper du lourd en silence. Et la GTX 690 c'est encore plus parlant, c'est un monstre et le bruit reste raisonnable.

C'est peut être aussi comme je l'ai dit dans mon post, parce que la titan consomme moins qu'une 680 ...

Et chacun sa référence en matière de silence. J'ai vu des 690 tourner, et c'est bruyant.

Les 660,670,680 et titan en comparaison sont couverte par le bruit du ventilo CPU.
D-Kalcke
 
kirk.roundhouse a écrit :
Les 660,670,680 et titan en comparaison sont couverte par le bruit du ventilo CPU.
Genre ça dépend pas du ventilo de ton CPU.
CBL
 
On ferme. J'essaye de faire un article un poil construit pour expliquer la situation délicate d'Nvidia et la position intéressante d'AMD et tout ce qui sort c'est "AMD c'est de la merde zlol".

Pour info mon nouveau PC portable comporte une Geforce GTX 780M (l'équivalent d'une 660 Ti en carte classique mais avec 4 Go de ram video), un i7-4700MQ et ne consomme pas plus de 180W, écran compris donc.
Vous devez être connecté pour pouvoir participer à la discussion.
Cliquez ici pour vous connecter ou vous inscrire.
Soutenez Factornews.com

Tribune

MrPapillon
(00h20) MrPapillon Exclu temporaire surprise pour les i7 sur Arizona Sunshine : [steamcommunity.com]
mercredi 07 décembre 2016
Mimyke
(23h22) Mimyke bixente > Ouais, du coup je l'ai désinstallé, ça me fera de la place pour d'autres jeux.
Big Apple
(22h21) Big Apple Vous aimez Amazon et le deep Learning, voilà ce qui vous attend : [youtube.com]
Big Apple
(22h02) Big Apple Sympa le magasin d'Amazon. Une entreprise qui ne paye pas d'impôts, qui n'a pas de salariés, c'est formidable. Tant que les clients ne sont pas au chômage, ça peut marcher. Faudrait aussi prévoir un ED 209 à l'entrée pour contrer les vols.
bixente
(19h37) bixente Putain, la moindre MAJ de Doom fait aux alentours de 10 gigas. Entre ça et le récent GOW 4 à 80 gigas... En 2016, les dévs doivent croire que tous les joueurs ont la fibre.
_Kame_
(17h09) _Kame_ Yolteotl > ça revient au problème de redistribution des richesses. D'ailleurs les suisses ont dit non à 80% à une telle chose. Alors bon, peut être après la 3ème guerre mondiale.
Crusing
(14h26) Crusing Le LD est cool, Ca fait bizarre de devoir réfléchir dans un jeu Ubi
Crusing
(14h25) Crusing Et malgré l'aspect kikoo hipster, l'univers parait effectivement plus cohérent que le 1 (en jouant full stealth)
Crusing
(14h24) Crusing Doc_Nimbus > J'ai une gtx1080, donc tout à fond en 4K, sauf le MSAA au delà de 4X qui pompe, ça a l'air bien optimisé, et la ville est vraiment chouette
Doc_Nimbus
(14h02) Doc_Nimbus Crusing > L'optimisation est pas trop aux fraises ?
Crusing
(13h46) Crusing Bon et bien il est très bien ce Watch Dogs 2.
Yolteotl
(13h45) Yolteotl Kame> Ou alors on accepte que le travail devienne quelque chose de secondaire, et on fournit un revenu universel à tout le monde :)
MrPapillon
(13h28) MrPapillon Il faudrait automatiser les tests de Call of Duty et FIFA.
_Kame_
(12h47) _Kame_ Et on accepte que l'avenir de l'humanité, c'est de faire des tâches répétitives, bien souvent rébarbatifs, jusqu'à la fin des temps.
_Kame_
(12h45) _Kame_ Et le pb de supprimer les caissières, c'est un pb plus général quand à l'automatisation, et qui revient tjrs au à la distribution plus équitable des richesses. Ou alors on réintroduit les opératrices téléphoniques.
Crusing
(10h27) Crusing Zakwil > Ouais sauf que pour les sacn achat, y'a des controles aléatoires, j'imagine qu'ils sont pas trop con non plus, et surtout ils ont du calculer qu'il vaut mieux ne pas payer de caissiers et avoir un petit taux de vol hein ;)
Zakwil
(09h59) Zakwil Crusing > Dks > c'était de l'ironie là il y a que des gentils hipsters, dans la vraie vie ça va plus être comment contourner le système genre en prendre 2 en remettre 1 en reprendre un autre...
Zakwil
(09h57) Zakwil Niko > (21h35) ouais \o/
Doc_Nimbus
(09h55) Doc_Nimbus On manque encore beaucoup trop d'infos sur le sujet tout de même : [nextinpact.com] (par contre, l'aspect vie privée va encore régresser avec ce système...)
Dks
(09h54) Dks Y a pas d'énervement, on expose nos sentiments ^^.
Crusing
(09h46) Crusing Calmez vous, c'est pas franchement différent des scan-achat dans les Leclerc.
Dks
(09h32) Dks Enfin après c'est juste une pub hipster instagram d'amazon, comme une pub apple ou crosoft qui présentent un produit.
Dks
(09h31) Dks Risbo > ça n'invalide pas le risque de kicker les hotesses de caisses. Ca peut être bien pour remplacer les actuelles caisses automatique, mais là c'est toutes les caisses.
Dks
(09h29) Dks Risbo > Dans cette vidéo le seul moment où ça parle thunes c'est quand la cliente sort du shop et regarde sa facture. Tu ne vois personne matter son tel en faisant les courses pour être raccord avec son rsa.
Risbo
(09h18) Risbo Dks > Ah bon t'as testé ? Je vois pas ce qui empêche d'avoir le montant au centimes prêt vu que t'es censé être authent par ton smartphone.
Dks
(09h17) Dks Zakwil > plus besoin de caisses, bientôt plus d'humains. Amazon sont sur la bonne voie pour skynet. Et ça joue sur le fait que tu ne fais même attention au montant de tes achats.
Zakwil
(08h54) Zakwil [youtube.com] j'aimerai voir ça à Marseille... sans vigiles bien sûr
Dks
(07h41) Dks Crusing > bug dans la matrice
Crusing
(02h14) Crusing Oulah, Dead Rising 4 a l'air foiré.
mardi 06 décembre 2016
Doc_Nimbus
(22h08) Doc_Nimbus Laurent > Que c'est nul (bis)
Big Apple
(21h55) Big Apple zouz > Que c'est nul.
Laurent
(21h42) Laurent Je viens de découvrir par hasard ce youtuber et je reste sans voix devant ce mélange de Nicolas Hulot et de Julien Lepers [youtube.com]
Asta
(18h39) Asta Crusing > C'est amusant mais ça fait peur. Mais c'est amusant.
Crusing
(16h10) Crusing Laurent > Plutot que de faire un commentaire ironique, je pense que comme pour les comm du figaro, il est plus amusant de poster de vrais commentaires de "fan" [tof.canardpc.com]
Laurent
(15h48) Laurent zouz > Seulement 10 plans d'explosions ? Il perd la main le Michael
zouz
(15h17) zouz Transforportenawaknazichevaliersmetalgearsanthonyhopkinsespacewalbergmers 5 [youtube.com]
Doc_Nimbus
(09h34) Doc_Nimbus Je relance la tribune avec ces quelques planches intemporelles de Gotlib : [lemonde.fr]
lundi 05 décembre 2016
MrPapillon
(22h21) MrPapillon Après on utilisait ça à une distance de 2 mètres des caméras.
MrPapillon
(22h20) MrPapillon Kame> Y a pas trop à s'en faire, c'est hyper précis à l'utilisation. Sur Bullet Train, un vieux truc gratos, les seules fois où ça déconnait, c'était quand la main sortait du champ de vision des cams ou qu'il y avait un bug qui faisait tout clamser.
CBL
(22h14) CBL Le code doit utiliser les donnees brut plutot que d'interpoller pour lisser les valeurs
_Kame_
(21h51) _Kame_ j'suis étonné de voir les armes "trembler" [youtube.com]
MrPapillon
(21h49) MrPapillon Kame> Ouaip, j'attends les tests. Ça sent la durée de vie foireuse.
_Kame_
(21h45) _Kame_ MrPapillon > Superhot VR ça doit être fun qd même
Niko
(21h35) Niko Westworld \o/ [factornews.com]
MrPapillon
(21h29) MrPapillon C'est une embuscade.
MrPapillon
(21h29) MrPapillon Tout le reste est quasi à 15€ minimum.
MrPapillon
(21h28) MrPapillon Du coup 60€ pour faire des gribouillis.
MrPapillon
(21h28) MrPapillon Et 30€ pour Quill, le truc genre peinture.
MrPapillon
(21h28) MrPapillon 30€ pour Medium, comme si les gens allaient payer 30€ pour dessiner des trucs moches.
MrPapillon
(21h27) MrPapillon Wow le prix des jeux Touch.
Khdot
(20h56) Khdot (20h56) Kame> <3
_Kame_
(20h56) _Kame_ Quoique non je veux pas de réponse. Organisons plutôt une purge pour rebooster l'économie.
_Kame_
(20h50) _Kame_ Khdot > Qui serait ? Si on donne pas de sous aux pauvres, ils vont s'enrichir ?
Khdot
(20h44) Khdot (14h23) Crusing > on peut refaire la vidéo avec les mêmes chiffre mais avec une conclusion opposée... #DataGauche.
MrPapillon
(20h30) MrPapillon Niko > Justement, ça permettrait d'avoir un test 100% porté sur la technique du jeu : anti-aliasing, qualité du bloom, nombre de polys sur les plumes, etc... Les vrais détails qui intéressent les joueurs.
kimo
(19h41) kimo noir_desir > je suis p-e fan de COD !
Niko
(18h21) Niko Fougère n'a pas d'émotions
GTB
(18h11) GTB thedan > Vu l'ensemble des reviews largement positives, c'est plutôt jvc qui est à part pour une fois.
Fougère
(17h55) Fougère noir_desir > J'ai pas la couleur émotionnelle qui va bien
thedan
(17h38) thedan ce qui est impressionnant, c'est jv.com qui a mis 3 testeurs à part et qui ont tous les 3 sortis les mêmes choses... Sur le coup, je me demande si Bouleapoire de GK fait pas son fanboy... Je vais regarder l’émission tiens
noir_desir
(17h30) noir_desir Fougère > entre nous ce que met gb c'est un peu comme pisser dans un violon ça sert à rien :p
noir_desir
(17h29) noir_desir Fougère > je voulais que se soit un fan de cod qui y le teste, fougère c'est pour toi
Fougère
(16h46) Fougère C'est Kimo qui fais le test chez nous, on dis qu'on le sort au prochain jeu de Ueda annoncé
Fougère
(16h46) Fougère 10 sur GB, 14 sur JVCOM
noir_desir
(16h21) noir_desir The last guardian réussi, un miracle... 8 sur gk
thedan
(15h30) thedan fwouedd > non, non pas d'OC.... Merci, j'y ai pas pensé hier
fwouedd
(15h27) fwouedd (ca risque rien, par contre ça annule les OC si la config est OC)
fwouedd
(15h26) fwouedd Tu cherches le jumper du clear cmos sur ta CM et tu fais ça : [youtube.com]
thedan
(15h22) thedan fwouedd > ça j'ai pas fait
thedan
(15h22) thedan fwouedd > je vais vérifier. On sait jamais
fwouedd
(15h22) fwouedd Non, je te parle d'un reset hardware, direct par la CM.
thedan
(15h21) thedan fwouedd > ca pas encore....
fwouedd
(15h21) fwouedd Ca peut parraitre con, mais parfois, tu peux avoir un reglage qui fou le bordel.
thedan
(15h21) thedan fwouedd > ben le problème de bios, je le verrais plus car quand je branche la CG de nv, j'ai un affichage figé avec la date de l’émission du bios !... Bon je sens que ça va partir en diagnostic LDLC cette histoire (pas envie ni le matos pour tester)
fwouedd
(15h21) fwouedd T'as essayé un reset du bios?
thedan
(15h19) thedan Crusing > ... Peut étre ce que je ne comprends pas, c'est que j'ai un numéro d'erreur qui apparait sur la CM quand je branche la CG dessus... Et la CG a les ventilos qui tournent... (j'ai une alim 650w Gold Cooler Master)
fwouedd
(15h15) fwouedd thedan > Ah bah c'est hyper moche.
Crusing
(15h14) Crusing thedan > oui le soucis vient surement de la faiblesse de ton alim.
Crusing
(15h14) Crusing fwouedd > Idiocracie incoming!
thedan
(15h14) thedan fwouedd > ça marche avec une vielle quadro (sans port d'alim branché)
fwouedd
(15h11) fwouedd Crusing > Ouais, mais c'est quand même dingue ce syndrome de stockholm généralisé.
Crusing
(15h09) Crusing fwouedd > Ou mieux, commenteront un truc du type "encore de la propagande de la bien pensance de bobo trotskisto judeo islamo sionisto crypto homo fonctonnarial."
fwouedd
(15h09) fwouedd (Par contre, faut revoir la musique, c'est vraiment too much la musique ouinouin)
fwouedd
(15h05) fwouedd (Ou douteront des données)
fwouedd
(15h05) fwouedd Crusing > Le soucis, c'est que les gens qui otn besoin de voir cette vidéo ne la verront jamais.
Crusing
(14h23) Crusing l'assistanat : [youtube.com]
MrPapillon
(14h14) MrPapillon L'espèce de jeu open source de Google Deep Mind, pour entraîner des IAs : [youtube.com]
Risbo
(14h00) Risbo choo.t > Non mais c'est bien, on peut que progresser. Dite moi qu'on ne peut QUE progresser ahah
choo.t
(13h58) choo.t Article L3421-4 du Code de la santé publique : [...] le fait de présenter ces infractions sous un jour favorable est puni de cinq ans d'emprisonnement et de 75000 euros d'amende. [...]
choo.t
(13h57) choo.t Risbo > Tiens, j'avais zappé ce truc ( j'étais à l'étranger avec un accès au net vraiment pourris), mais dans un pays qui t'interdis déjà de dire que le cannabis c'est bien moins dangereux que le tabac ou l'alcool, rien ne me surprend.
Risbo
(13h45) Risbo choo.t > C'est comme l'histoire de la loi anti "anti ivg sur internet". Les gens réfléchissent pas et voient pas les conséquences a long terme. Pcke si le mec qui fait la vidéo est "honnête", alors c'est juste un idiot de plus.. Et putain, le JDG a signé.
choo.t
(13h39) choo.t Risbo > J'hésite entre naïf, débile ou avide masqué, mais dans tout les cas Realmyop baisse bien dans mon estime.
fwouedd
(13h27) fwouedd (Enfin je parle surtout pour moi et mes experiences de reparations qui foirent 80% du temps :) )
fwouedd
(13h27) fwouedd Ca coute moins cher que l'outillage + pieces detachées + kit evo quand t'as tout fait bruler :)
fwouedd
(13h27) fwouedd Non mais c'est bien le kit evo :)
noir_desir
(13h25) noir_desir fwouedd > oui je pense... Je ne me suis jamais amusé à changer de puce interne à cm, peut etre que dan sais le faire?
fwouedd
(13h14) fwouedd Faut pouvoir l'isoler comme fautif, c'est chaud non?
noir_desir
(13h11) noir_desir fwouedd > ou changer la puce qui controle le port pci...
fwouedd
(12h52) fwouedd Ouais. A mon avis le premier truc à faire, c'est tester une vieille CG. M'enfin de toute façon, il est bon pour changer de CM :)
Laurent
(12h51) Laurent ou alors tu as une vieille CM qui ne supporte que le PCI-e 8x (on va dire) et pas le 16x