Connexion
Pour récupérer votre compte, veuillez saisir votre adresse email. Vous allez recevoir un email contenant une adresse pour récupérer votre compte.
Inscription
En vous inscrivant, vous acceptez les conditions d'utilisation du site et de nous vendre votre âme pour un euro symbolique. Amusez vous, mais pliez vous à la charte.
 

Forums

Hard and Heavy
Dks
Membre Factor
Membre 2987 msgs
Tu as oublié de préciser que la présentation d'AMD était un bide incroyable. Pour ceux qui étaient connectés ce soir là, on sentait les facepalms avec leurs annonces. Rien que le son et le jeu lichdom ahahaha.
 
zouz
Membre Factor
Membre 1267 msgs
En gros dans le meilleur des cas les jeux multi plateformes PC/Console Nesquegéne vont finir par utiliser Mantle non ?
Je vois pas où est le problème si ça permet de profiter plus longtemps de son hardware pour pouvoir jouer à des récents.
 
DoubleJ
Membre Factor
Membre 505 msgs
Boudin a écrit :


C'est confirmé par AMD que l'API est ouverte ?


Oui, AMD l'a dit lors de la présentation GPU14 Tech Day.

"We've been told at the GPU14 Tech Day event that the Mantle API is open, so theoretically Nvidia could purpose the technology in their GPUs."
http://www.techspot.com/news/54134-amd-launches-mantle-api-to-optimize-pc-gpu-performance.html
 
Whisper
Membre Factor
Membre 262 msgs
pomkucel a écrit :
Je reste circonspect, on parle d'AMD, la boite qui fournit des drivers tout pourri 3 mois après avec ces CG. Mais c'est vrai que avec "monopole console next gen + un gros jeu" ca fait une belle addition.


C'est dingue ce cliché qui n'en finit pas. Nvidia comme AMD sortent tous les 2 des drivers magiques qui augmentent les perfs dans les jeux 2 semaines après leurs sorties. Et il y a eun des gros bugs nécessitant une update dans les 2 camps ces 12 derniers mois. D'ailleurs, le comparatif dans le dernier Canard PC tant à montrer que l'augmentation des perfs est légèrement supérieur chez Nvidia, ce qui, contrairement à ce qu'ils concluent, peut laisser penser que les drivers Nvidia sont moins "cohérents" et stables qu'AMD, qui eux sont plus proches des performances maximales possibles dès la sortie des jeux. Étrangement, cette possibilité n'est même pas évoqué dans le canard.

Bref, tout ça pour dire que le cliché des drivers ATI bugé a bien vécu. Ou alors apportez des éléments concrets à vos accusations. (j'ai eu des Cg chez les 2 constructeurs et j'ai actuellement une geforce 670, principalement pour les effets Physx que je trouve sympa).

(PS: je ne parle pas d'interface, où là Nvidia a un avantage clair)

Sinon, les autres slides de la présentation explique bien l'avantage que peut apporter Mantle sur pc: http://www.hardware.fr/news/13368/amd-mantle-retour-glide.html
 
DoubleJ
Membre Factor
Membre 505 msgs
Dks a écrit :
Tu as oublié de préciser que la présentation d'AMD était un bide incroyable. Pour ceux qui étaient connectés ce soir là, on sentait les facepalms avec leurs annonces. Rien que le son et le jeu lichdom ahahaha.


C'est vrai que c'était n'importe quoi, j'avais laissé tomber ^^
Déjà leur stream sur Youtube qui a complètement merdé, ils ont dû passer par un autre fournisseur.
Pour le reste, c'était surtout une présentation marketing, il faut attendre l'AMD Developer Summit, on devrait avoir du concret.
 
Boudin
Membre Factor
Membre 32 msgs
DoubleJ a écrit :


Oui, AMD l'a dit lors de la présentation GPU14 Tech Day.

"We've been told at the GPU14 Tech Day event that the Mantle API is open, so theoretically Nvidia could purpose the technology in their GPUs."
http://www.techspot.com/news/54134-amd-launches-mantle-api-to-optimize-pc-gpu-performance.html


C'est un peu con qu'ils en aient pas parlé clairement dans la présentation. C'est une bonne chose en tout cas !
 
Lisa
Beau seske
Membre 67 msgs
@CBL
Typo : "Il se place? plein de choses ..."
 
Thesus
Petit pawné collatéral
Membre 833 msgs
Whisper a écrit :
Sinon, les autres slides de la présentation explique bien l'avantage que peut apporter Mantle sur pc: http://www.hardware.fr/news/13368/amd-mantle-retour-glide.html

Ils oublient de parler d'un truc qui est quand même important : la rétrocompatibilité.

Si on se passe des drivers et des librairies qui permettent de normalisé tout le petit monde des CG, que va t'il se passer quand la prochaine génération de CG va sortir ?

Comme on sait pas grand chose dessus je me base sur le pire truc qui peut arriver. Et si c'est réellement de la programmation bas niveau proche du hardware on aura des jeux qui ne pourront s’exécuter que sur une seule génération d'hardware : comme sur console. C'est beaucoup moins gênant pour les consoles car ni les devs ni les joueurs ne veulent de la rétrocomp, et comme toutes les consoles sont sous ATI c'est une bonne nouvelle.

Ensuite l'API est ouverte c'est bien beau mais pour de la prog bas niveau il faut qu'il y ait exactement la même architecture derrière. Hors Nvidia et Intel ne le feront jamais, ça reviendrait à fabriquer eux-même des cartes ATI (et de verser des royalties au passage pour l'utilisation des brevets nécessaire).
 
_Kame_
Membre Factor
Membre 809 msgs
kirk.roundhouse a écrit :

Maintenant oui. J'avais acheté à l’époque une GTX 480, qui était un monstre de consommation électrique et avait énormément d’énergie à dissiper.
Elle faisait un bruit d'aspirateur.
Je l'ai remplacé récemment par une 660 Ti qui a sensiblement les mêmes perfs, c'est une carte excellente avec un suivit driver toujours au top (forcément c'est NV !) et c'est un bonheur pour mes oreilles.

On ne m'y reprendra plus à acheter des cartes trop puissantes et trop bruyantes.


Et si elle consommait à mort et ne faisait pas un bruit ?

Tu l'achèterai. Arrêtez de vous mentir les mecs :)

Il faut réduire la consommation, car ça réduit la dissipation thermique, et donc on peut augmenter les perfs.

Mais parler de la consommation électrique comme d'un argument d'achat direct, c'est vraiment trop lolilol.

Si vous voulez vraiment aider la planète, y'a 10 fois plus à faire dans le recyclage des PCs que dans la baisse de la consommation d'une CG.


edit: et sortir cet argument contre une connerie dite par Nvidia, genre on a tous ds PC avec une alim de 1000 watts...
 
noir_desir
Membre Factor
Membre 1747 msgs
Thesus a écrit :

Ils oublient de parler d'un truc qui est quand même important : la rétrocompatibilité.

Si on se passe des drivers et des librairies qui permettent de normalisé tout le petit monde des CG, que va t'il se passer quand la prochaine génération de CG va sortir ?

Comme on sait pas grand chose dessus je me base sur le pire truc qui peut arriver. Et si c'est réellement de la programmation bas niveau proche du hardware on aura des jeux qui ne pourront s’exécuter que sur une seule génération d'hardware : comme sur console. C'est beaucoup moins gênant pour les consoles car ni les devs ni les joueurs ne veulent de la rétrocomp, et comme toutes les consoles sont sous ATI c'est une bonne nouvelle.

Ensuite l'API est ouverte c'est bien beau mais pour de la prog bas niveau il faut qu'il y ait exactement la même architecture derrière. Hors Nvidia et Intel ne le feront jamais, ça reviendrait à fabriquer eux-même des cartes ATI (et de verser des royalties au passage pour l'utilisation des brevets nécessaire).


Je ne suis pas programmeur, mais le cuda, ce n'est pas du bas niveau ?
 
spook
Quand c'est nouveau, c'est mauvais. Ne jamais pas avoir peur !
Membre 2438 msgs
C'est (pour l'instant ?) limité à la même génération de GPU que sur les X1 et PS4... Je pense que les jeux purement codé en Mantle ne seront plus compatible avec une autre génération de GPU. A voir si les perf' vont faire changer d'avis tout le monde.

Ce genre d'API n'est utile que dans le monde de l'arcade et des consoles, imho.
 
kirk.roundhouse
White Goodman
Membre 1567 msgs
_Kame_ a écrit :


Et si elle consommait à mort et ne faisait pas un bruit ?

Impossible, les lois de la physique ça ne se contourne pas.
Grosse consommation => grosse dissipation thermique nécessaire.
 
Boudin
Membre Factor
Membre 32 msgs
spook a écrit :
C'est (pour l'instant ?) limité à la même génération de GPU que sur les X1 et PS4... Je pense que les jeux purement codé en Mantle ne seront plus compatible avec une autre génération de GPU. A voir si les perf' vont faire changer d'avis tout le monde.

Ce genre d'API n'est utile que dans le monde de l'arcade et des consoles, imho.


Faut voir, commercialement parlant ce serait une approche bizarre tout de même. Je ne suis pas sûr que grand monde sur PC serait intéressé pour acheter une carte graphique avec laquelle tu ne peux plus jouer à rien.

C'est un peu difficile de savoir ce que ça vaut vraiment tant qu'AMD ne lâche pas plus d'info.
 
Thesus
Petit pawné collatéral
Membre 833 msgs
noir_desir a écrit :
Je ne suis pas programmeur, mais le cuda, ce n'est pas du bas niveau ?

Oui et non, cuda proposé par Nvidia est plus bas niveau que les cuda-like multi-CG d'où le fait que ce n'est utilisable que sur du matos NVidia, mais c'est plus une lib qui permet d'envoyer des calculs à la CG autre que du calcul graphique.
Mais comme ça passe quand même par les drivers il y aura normalement une rétrocompatibilité pour la prochaine gen de CG.
 
kgabou
Membre Factor
Membre 1146 msgs
kirk.roundhouse a écrit :

Impossible, les lois de la physique ça ne se contourne pas.
Grosse consommation => grosse dissipation thermique nécessaire.

Une grosse dissipation thermique peut se faire en silence, regarde la Titan ou la GTX 690. Sans parler de WC ou autre. Bref il a raison, quand on achète une CG et qu'on fait gaffe à la conso, c'est d'abord pour que ça chauffe pas trop dans la tour, éventuellement pour économiser sur sa facture EDF, et une fois sur un million pour sauver les ours polaires.

Sinon c'est sympa Mantle, ça rattrapera peut être un peu le déficit de perf du aux procos AMD. Hu Hu Hu!
 
kirk.roundhouse
White Goodman
Membre 1567 msgs
kgabou a écrit :

Une grosse dissipation thermique peut se faire en silence, regarde la Titan ou la GTX 690. Sans parler de WC ou autre. Bref il a raison, quand on achète une CG et qu'on fait gaffe à la conso, c'est d'abord pour que ça chauffe pas trop dans la tour, éventuellement pour économiser sur sa facture EDF, et une fois sur un million pour sauver les ours polaires.


N'importe quoi ...

La titan consome moins de 200W en charge, et la 690 pres de 300W avec une nuisance sonore de plus de 50db.
Je ne sais pas si tu arrive à te rendre compte de ce que c'est 50db :



C'est comme avoir un restaurant chez soi. J'ai connu mieux comme "silence" ...
 
Thesus
Petit pawné collatéral
Membre 833 msgs
kirk.roundhouse a écrit :
C'est comme avoir un restaurant chez soi. J'ai connu mieux comme "silence" ...

C'est le bruit qu'il y a dans ton appart
 
Kadis Orox
Membre Factor
Membre 316 msgs
Ça sent le concours de Powerpoint.
 
Paulozz
Membre Factor
Membre 1289 msgs
Pour en avoir une, je peux affirmer que la GTX 690 est assez silencieuse, plus que mon laptop en tout cas.
 
Kreem
Membre Factor
Membre 444 msgs
Whisper a écrit :

Bref, tout ça pour dire que le cliché des drivers ATI bugé a bien vécu. Ou alors apportez des éléments concrets à vos accusations. (j'ai eu des Cg chez les 2 constructeurs et j'ai actuellement une geforce 670, principalement pour les effets Physx que je trouve sympa).

(PS: je ne parle pas d'interface, où là Nvidia a un avantage clair)


J'ai passé 5 ans à me prendre la tête avec les drivers ATI, plusieurs crash dans différent jeux du style le driver ne répond plus.

Le pire étant quand même les problèmes liés à Flash (sur Firefox en tout cas je ne sais pas pour les autres navigateurs) J'ai pris une 760 récemment j'ai plus de soucis. J'ai toujours alterné chez ATI/Nvidia pas de fanboy ici, j'en ai rien à foutre.
Mais il y a toujours ces problèmes de drivers c'est un fait.
 
Vous devez être connecté pour pouvoir participer à la discussion.
Cliquez ici pour vous connecter ou vous inscrire.

Règles à suivre

Écrire dans un français correct et lisible : ni phonétique, ni style SMS. Le warez et les incitations au piratage sont interdits. La pornographie est interdite. Le racisme et les incitations au racisme sont interdits. L'agressivité envers d'autres membres, les menaces, le dénigrement systématique sont interdits. Éviter les messages inutiles

 
Rechercher sur Factornews