Connexion
Pour récupérer votre compte, veuillez saisir votre adresse email. Vous allez recevoir un email contenant une adresse pour récupérer votre compte.
Inscription
En vous inscrivant, vous acceptez les conditions d'utilisation du site et de nous vendre votre âme pour un euro symbolique. Amusez vous, mais pliez vous à la charte.

Un Rédacteur Factornews vous demande :

Forums

GPU contre CPU
CBL
L.A.mming
Admin 17404 msgs
Une partie de notre lectorat est en vacances et glande devant GTA IV tandis que l'autre compte les secondes en attendant d'être en week-end prolongé ce soir. Bref, c'est le bon moment pour faire une news technique bien lourde. Avant l'apparition des GPU (processeurs dédidés aux graphismes), le monde était simple : le CPU (processeur central) faisait les calculs pour les jeux et la carte graphique les affichait. Les premières GeForce d'nVidia ont rendu ce shéma caduque en prenant en charge une partie des calculs avec le Transform & Lightning et en introduisant les GPU. Depuis, les GPU n'ont cessé de gagner en complexité et en puissance au point de prendre le pas sur les CPU. Selon ce dossier et d'autres, la montée en fréquence/puissance du CPU ne fait plus gagner beaucoup de FPS.

Lire la suite sur le site : GPU contre CPU.
 
androide
Membre Factor
Membre 517 msgs
nVidia vient de s'associer à Via (un constructeur de CPU peu puissant) pour sortir une plate-forme low coast commune.

Une plateforme sur pilotis _ça va de soi_ si la côte est trop basse.
 
nycoom
Membre Factor
Membre 586 msgs
oui mais tout ça, ça concerne essentiellement je jeu sur pc....donc LOLz quoi.
 
Knibal
Membre Factor
Membre 168 msgs
Et AMD/ATI ? Ils sont déjà hors course ?
 
fwouedd
Mylène Farmer Coréen
Redac 5791 msgs
"les jeux seront bien mieux optimisés car les développeurs travailleront sur une architecture unique"

A moins qu'AMD et que Nvidia coulent, j'imagine mal une architecture unique arriver tant que la concurrence fait rage autour des performances.

Ce qui est a craindre à mon avis, ce serait une solution chez nvidia basé sur un super GPU, une solution chez AMD et une solution chez Intel avec leur GPGPU.
Là les développeurs auront une raison technique en plus de la raison financière pour abandonner définitivement le PC.
 
Onirik
Membre Factor
Membre 1875 msgs
On avait deja du mal avec les SPUs de la PS3, si chaque constructeur y va de sa solution maintenant, on est pas dans la m.....
 
Hettar
Membre Factor
Membre 205 msgs
Euh, le fait que le GPU se charge d'autre chose que d'afficher bêtement et simplement, ça remonte pas à avant les Gforce ? genre aux Voodoo et Mystiques et autres ?
 
Larius
Membre Factor
Membre 365 msgs
développeur du moteur physique PhysX qui est le grand concurrent du Havok


J'en suis au stade de me demander si PhysX concurrence quoi que ce soit, alors "grand" concurrent ...

Et pourquoi pas une alliance entre Nvidia et Amd.
 
kgabou
Membre Factor
Membre 1146 msgs
Mouerf, quand on voit l'absence totale de détails sur Larabee et le foin qu'ils ont fait sur le ray tracing pour finalement le mettre au second plan, on peut dire que le couple CPU/GPU a de beaux jours devant lui, et que loin d'une révolution, INtel ne fera que débarquer dans le domaine des GPU pour joueurs (on verra avec quel succès...). Surtout que la situation actuel tend à montrer que c'est le GPU qui bouffe sur le CPU, et pas l'inverse, avec beaucoup de calculs (encodage/décodage video, physique, traitement d'image, etc) qui sont petit à petit déportés sur la carte graphique.

Dans tous les cas, même si c'est très marketing, je trouve INtel assez prétentieux, et ça sent le bide... Même AMD, dans son projet Fusion, précise qu'il ne s'agit que d'un moyen de diminuer la consommation des machines bas de gammes ou très intégrées.
 
Akshell
Pedobear à poil roux
Membre 4167 msgs
non les Geforce 256 était les première à faire du T&L : http://fr.wikipedia.org/wiki/GeForce#Les_GeForce_256
 
faust
Membre Factor
Membre 295 msgs
nycoom a écrit :
oui mais tout ça, ça concerne essentiellement je jeu sur pc....donc LOLz quoi.

Et tu crois qui a pas de matos PC dans ta console ?
 
Skizomeuh
 Rédacteur Premium 
Admin 8015 msgs
Qu'ils travaillent sur la consommation, la chaleur et les nuisances sonores que ça implique plutôt !
 
no_rick
Membre Factor
Membre 254 msgs
low coast, c'est entre east coast et west coast?

CBL : merci !
 
Message masqué
epsyloN
Membre Factor
Membre 87 msgs
Hettar> non, le GPGPU est apparu avec les GeForce 8. Il faut distinguer les premiers accélérateurs 3D, qui faisaient du Transform & Lighting (en gros de la multiplication de matrice et du produit scalaire en hardware) et l'arrivée des GPU avec shader programmable (un shader est un mini programme executé sur GPU, destiné a effectuer la transformation d'un vertex pour un vertex shader et calculer la couleur d'un pixel pour un pixel shader), et enfin les GPU généralistes programmables (GeForce 8 et CUDA : on utilise les shaders unifiés des GPU pour faire du calcul qui n'a pas forcément à voir avec la synthèse d'image; il s'agit d'adapter à l'architecture spécifique du GPU un probleme parallélisable : une texture est un tableau de nombres, etc... ce que CUDA permet c'est de faire travailler la carte graphique sur des données et avec des programmes quelconques, mais il n'en reste pas moins que le GPU sur lequel sont effectués les calculs reste une architecture fortement orientée pour le rendu d'images de synthèse : il faut donc avoir recours à quelques "ruses" programmatoires).

Les GPU suivent une évolution logique ou on tends à donner plus de flexibilité en codant moins de choses en dur (T&L fixe > shader programmable > CUDA), et Larrabee est EXACTEMENT dans cette logique, c'est à dire le stream processing.

Il faut faire attention parce que cet article est confu sur de plusieurs choses. A l'heure actuelle la tendance générale est a l'asymétrisme : des grosses unités de calcul, avec un "faible" nombre de coeurs (2, 4, 8 coeurs), mais avec beaucoup de cache, gestion de l'out of order, etc... pour les tâches "logiques" : execution du flow d'un programme, calcul d'IA, etc. Ces unités sont les CPU que l'on connait actuellement, et une très grande partie de leur complexité provient du cache et du pipelining. A coté de ça, on rajoute des petites unités, rapides, en grand nombre (16, 32, 64, 128 cores), avec un jeu d'instruction réduit (suffisament général, mais pas trop spécialisé non plus), qui travaillent en parallèle et/ou en chaîne, avec un modèle de mémoire partagée et une architecture bien spécifique pour permettre à ce beau monde de travailler ensemble. Typiquement, ce sont les GPU actuels, avec les shaders unifiés. On retrouve exactement ce type d'architecture dans le Cell d'IBM, avec un processeur PowerPC et les fameuses Synergistic Processing Units.
Il faut bien distinguer deux choses : la venue de nouveaux coeurs pour les CPU "généralistes", qui est le seul moyen qu'ont les ingénieurs de chez Intel et AMD pour augmenter la puissance à l'heure actuelle (puisqu'on commence à atteindre des limites physiques au niveau de l'augmentation de fréquence), et l'apparition de ces Stream Processors, unités de calcul massivement parallèles, qui ne sont adaptées qu'à certaines classes d'algorithmes. Typiquement, les algorithmes de rendu et tout ce qui est gourmand en calcul (la où un CPU et son pipelining et son cache sont plus adaptées aux programmes avec de nombreux branchements logiques et des accès mémoires "aléatoires"). Larrabee, d'après ce que l'on en sait, sera un stream processor complètement générique, la ou les GPU de nVidia et AMD sont encore fortement ancrés dans une architecture optimisée pour la rasterization. Forcément, passer d'une solution codée en hardware à une solution générique demandera des sacrifices à Intel et il est probable que c'est leur savoir faire en fabrication de CPU qui leur permettra de proposer un GPU / SP Larrabee aussi performant que les futures générations d'AMD / nVidia. (John Carmack, dans une interview, disait qu'il pensait qu'intel arriverait a 3 ou 4x le fréquençage par rapport a AMD / nVidia pour compenser le passage hard > soft). Il est cependant probable qu'on trouvera toujours, pour certaines petite tâches simples, des parties hardware spécialisées, comme par exemple pour le filtrage de texture, qui est très très lent sur CPU par rapport à une implémentation hardware (il y a eu une discussion à ce sujet sur les forum de gamedev).

Bref, il faut donc voir que Intel et AMD / nVidia vont dans la même direction générale : reste à savoir la forme "physique" que prendra ce couplage CPU multicore / Stream Processor. Intel voudra probablement une architecture type Cell pour proposer des solutions tout Intel tandis qu'AMD / nVidia continueront de promouvoir une carte externe pour pouvoir garder leur indépendance. Les deux types d'unités (CPU et Stream Processor) ont leur utilité et aucune d'entre elles n'est amené à mourir dans un futur proche, contrairement à ce qu'on pourrait croire en voyant Intel se lancer dans le GPU (pour le Larrabee ce seront bien des core type x86 mais simplifiés, ils seront plus proche de shaders unifiés que de CPU architecturalement parlant).

Concernant la guerre entre raytracing et rasterization, il y a beaucoup a dire mais c'est un sujet qui est "tout autre" et qui a déjà été sujet de nombreux débats (les intéressés pourront lire les forums de gamedev et de beyond3d, il y a pas mal de discussion la bas).
 
fwouedd
Mylène Farmer Coréen
Redac 5791 msgs
Ah bah Skizomeuh, y'a quand même eu pas mal de progrès de ce coté là. Un G92 consomme moins que l'ancien chipset et c'est pareil chez Ati.


Pour ce qui est du refroidissement, certaines des dernières 8800 sont plutôt discrètes.
 
LeGreg
Membre Factor
Redac 1866 msgs
nycoom a écrit :
oui mais tout ça, ça concerne essentiellement je jeu sur pc....donc LOLz quoi.


En fait retrospectivement (on ne peut pas parler du futur de manière certaine), les constructeurs de console (sony, microsoft, nintendo, sega) n'ont plus eu les moyens de développer de solutions graphiques maison (le cpu étant encore une exception pour le CELL co-développé par Sony avec Toshiba et IBM) pour leurs génération de console actuelle. Sauf grand chamboulement, le transfert de compétence pourrait être consommé à la génération suivante (y compris sur les consoles de poche). Bien entendu bien malin sera celui qui prédira quelle forme exacte auront les consoles prochaines.

Pour les joueurs, une fusion GPU-CPU est bénéfique car elle implique qu'il faudra acheter moins de matos


C'est ne regarder qu'une des variables du problème malheureusement.

La dichotomie (séparation des tâches) est plutot bien adapté aux problèmes des jeux vidéos actuels et à venir (qui poussent encore et toujours des tonnes de polygones et de pixels) et revenir au modèle où l'un des deux fait tout n'a de sens que pour une solution low-cost (ou low-power, comme les téléphones intelligents, les consoles de poche).

Ce que l'on pourrait y gagner en capacité de communication poussée entre cpu et gpu (et encore il faudrait un chamboulement au niveau de l'API) on le perdrait en terme de bande passante mémoire etc (qui n'est pas partagée sur les solutions haut de gamme actuelle). Sans parler du nombre de transistors que l'on peut pousser indépendemment sur chaque solution.

Donc moins de matos, oui peut-etre pour le media center dans le salon, le portable light sans espoir de faire tourner ni un jeu intense graphiquement (si le jeu sur PC survit sous sa forme actuelle) ni une adaptation console (puisque les consoles continueront à évoluer de leur côté).

Meme si on peut s'attendre à ce que ces PCs lights constituent sans doute un gros de la croissance du marché PC à venir, j'espère qu'ils ne serviront pas de base à la majorité des nouveaux développement de jeu sur PC.

Sinon minor corrections :
c'est NVIDIA (tout en gros, pas de petit 'n'). Et Ageia ('e' après le 'g').
 
nazg
Rabbi Jacob
Membre 1464 msgs
On est pas dans la merde.
Et après on se demande pourquoi les consoles ont pris tant de terrain dans notre monde vidéo-ludique.

Ça va donner quoi? Une sorte de saloperie comme la gueguerre hddvd/br avec AMD au milieu et encore plus de bordel compliqué?

Levez le doigt ceux qui ont eu le courage de lire epsylon après s'être tapé la news d'une traite.
 
divide
Membre Factor
Redac 1718 msgs
La fusion CPU/GPU je n'y crois pas, tout du moins pas avant encore quelques temps. Parce que dans tous les programmes, il y a toujours 2 parties:

Celle qui nécessite d'executer un grand nombre de calculs/tests en serie (chaque résultat dépendant du précédent),
et celle ou le même petit calcul est répété à l'identique des milliers de fois (indépendement du résultat précedent).

Pour le premier, il faut une seule unité polyvalente capable d'aller très vite (CPU), et pour la deuxième un grand nombre de process parallèle.

16 CPU ou un seul GPU 4 fois plus rapide qu'une geforce actuelle ne serait pas aussi efficace que le couple CPU+GPU actuel. En fait, ce qui faudrait arriver à faire fusionner, c'est plutot la gestion de la mémoire: plus de pertes de temps en allers/retours CPU/GPU.

sinon, j'ai abandonné le post d'epsylon à la moitié (un commentaire doit etre synthetique, sinon c'est un article !) mais moi je ferai plutot remonter le GPGPU aux Geforce FX, les premières à proposer une programmabilité vraiment intéressante (et à partir desquelles on a vu un tas d'applications autres que graphiques apparaitre). D'ailleurs le site GPGPU.org est apparu en 2003, l'année de la sortie de la Geforce FX...
 
Crocopower
Membre Factor
Membre 100 msgs
J'ai lu tout le commentaire d'epsyloN, et avec intérêt.
Comme beaucoup à l'époque, j'ai été frappé par l'incursion des technologies du pc dans les consoles actuelles. Wifi, DD, puces Ati ou NVIDIA, enfin je vais pas faire la liste. Je vois mal la pochaine génération faire autrement.
 
kgabou
Membre Factor
Membre 1146 msgs
C'est clair, les sociétés spécialisés dans la création de composants spécifiques ont tellement cru qu'elles sont maintenant incontournables. On ne verra plus MS ou Sony se dire "Tiens, et si je faisait mon chip graphique dans mon coin...". Le résultat serait juste ridicule face aux armées d'ingénieurs rodés depuis des années et ne travaillant QUE là-dessus.

Déjà que le Graphic Synthetiser de la PS2 était très limite face aux puces ATI de la GC et NVIDIA de la XBox, qu'est-ce que ça serait maintenant... ^^
 
Vous devez être connecté pour pouvoir participer à la discussion.
Cliquez ici pour vous connecter ou vous inscrire.

Règles à suivre

Écrire dans un français correct et lisible : ni phonétique, ni style SMS. Le warez et les incitations au piratage sont interdits. La pornographie est interdite. Le racisme et les incitations au racisme sont interdits. L'agressivité envers d'autres membres, les menaces, le dénigrement systématique sont interdits. Éviter les messages inutiles

 
Rechercher sur Factornews