Connexion
Pour récupérer votre compte, veuillez saisir votre adresse email. Vous allez recevoir un email contenant une adresse pour récupérer votre compte.
Inscription
En vous inscrivant, vous acceptez les conditions d'utilisation du site et de nous vendre votre âme pour un euro symbolique. Amusez vous, mais pliez vous à la charte.

Un Rédacteur Factornews vous demande :

Forums

Nos excuses à Nico Augusto (+ VIDEO EXCLUSIVE)
aeio
Ami des bêtes
Membre 1565 msgs
Un exemple concret qui montre que les Tflops ne se valent pas et que les fans de Nintendo ont peut-être raison d'espérer : la GTX 1060 d'NVIDIA avec ses 4.4 Tflops bat la RX 480 d'AMD qui en a 5.8 dans pratiquement tous les jeux, tout simplement parce que l'architecture Pascal est plus efficace (en DirectX 11 du moins).
 
katsumotosama
Membre Factor
Membre 71 msgs
sese_seko a écrit :
LeGreg a écrit :
sese_seko a écrit :
Je vais faire plus simple que katsumotosama :
C'est aussi con que de comparer 1 kilo de patates et 1 kilo de carottes : 1 kilo reste 1 kilo.


Aucune info sur la switch, ni sur la comparaison gpu ps4/gpu switch (don't quote me).. mais je vais mettre de l'eau dans ton vin.

En pratique les indications de flops sont surtout intéressante sur des longues tendances (progression en flops depuis l'invention du microprocesseur) et pour des comparaisons entre même architecture (les quirks d'une archi se retrouvent également dans la même famille). Dans la nature, les programmeurs ne se fient pas totalement aux flops surtout si ça demande des concessions diverses et variées (et/ou une programmation fondamentalement différente : cf multithreading sur un CPU et multithreading sur un GPU, et parallélisation sur un superordinateur distribué). Il y a des tentatives de benchmarks universels mais c'est évidemment très difficile à faire sans tomber dans des pièges liés aux spécificités d'un bench.

Exemple tout con :


Les gains entre le même CPU et le même GPU (donc le même nombre de flops de chaque côté) va de 6x à 30x (et il y a des benchs non présentés ici qui ne montreraient aucun gain voire une perte). Pourquoi une telle différence ? Parce que le bench à 30x joue avec un algo qui est particulièrement adapté au hardware du GPU et/ou le constructeur a intégré des instructions spécifiques pour accélérer cette charge (et vice versa si le constructeur CPU a ajouté les instructions nécessaires, cf sse/avx).


Alors soit chuis plus beurré que je le pense, soit t'es en train de me dire que 1kg de patate c'est mieux qu'1kg de carotte pour faire du hachi-parmentier. T'as sans doute raison, mais là on passe dans le domaine de la cuisine : untel peut faire un meilleur plat q'untel, mais la matiére de base reste la même.
Pour reprendre ton joli graphe, en partant du fait que ce sont des cpu/gpu différents mais de même puissance, je ne vois pas pourquoi tu dirais que le couple cpu/gpu 30x est meilleur que le 8X soit prétexte qu'il y a une appli optimisée, et une autre codée avec mon cul.

M'enfin, voila ce que j'ai pu comprendre, je vais me coucher, chuis crvé. Joeyeux noel.



aeio a écrit :
Un exemple concret qui montre que les Tflops ne se valent pas et que les fans de Nintendo ont peut-être raison d'espérer : la GTX 1060 d'NVIDIA avec ses 4.4 Tflops bat la RX 480 d'AMD qui en a 5.8 dans pratiquement tous les jeux, tout simplement parce que l'architecture Pascal est plus efficace (en DirectX 11 du moins).


Oui mais si je ne me trompe pas, les Flops indiquent quand même ce que tu pourras faire en nombre de triangle calculés par le processeur et le GPU non?
 
LeGreg
Membre Factor
Redac 1963 msgs
katsumotosama a écrit :
Oui mais si je ne me trompe pas, les Flops indiquent quand même ce que tu pourras faire en nombre de triangle calculés par le processeur et le GPU non?


Comme je disais c'est parfois assez dur de comparer entre archis différentes et entre charges différentes. Par exemple si tu as des opérations vectorielles ou SIMD (single instruction multiple data), tu vas compter le nombre de mul+add (multiplication et addition) faisable si tu arrives à vectoriser assez bien. Une charge peut donc faire complète utilisation de la vectorisation et une autre arriver seulement à utiliser 1/10 des unités de calcul (est-ce que ton programme fait de nombreuses opérations similaires sur un grand nombre de données sans branchement ou avec prédication simple).

La charge graphique habituellement se prête assez bien à la vectorisation (ce qui donne une partie de l'avantage des GPUs sur les rasterizer software), mais si tu as des "bulles" dans ton pipeline ou des triangles mal embouchés ou si la charge dépend plus de la bande passante ou du nombre d'unités COLOR OUTPUT que de nombre d'unités SHADER ALU, tu peux te retrouver avec des problèmes d'utilisation.

Une distinction fréquente en architecture CPU et GPU c'est la notion de Very Long Instruction Word. L'idée que si tu rends la parallélisation explicite tu compliques la tâche du compilateur/assembleur mais tu facilites la tâche du hardware à l'exécution (qui est généralement le benchmark utilisé). Bien exploité ça peut augmenter le taux d'utilisation des unités, mal exploité ça a l'effet inverse (le compilateur n'arrive pas à détecter les dépendances parce que le langage utilisé est de trop haut niveau ou simplement la charge ne se prête pas aux options disponibles).

Chaque décision du design du hardware est une longue série de compromis, parallélisme d'instructions explicite ou sériel (à l'intérieur d'un même thread sachant qu'il peut y avoir un millier de threads en lock step) ou parallélisme automatique, quelle taille pour le fichier de registres, privilégier les ALU ou les TEX, gestion des threads à gros grain ou petit grain (sachant que ça a des effets positifs ou négatifs sur la latence mémoire et/ou la taille du fichier de registres, plus la taille du dispatcher d'instructions par unité de calcul qui coûte des transistors). Effet sur la programmabilité, sur la performance globale (sur un grand nombre d'applications), sur la performance par transistor, par watt dépensé, etc.

Personnellement je ne sais rien sur la Switch, (même si je pense que comme d'hab, certains fanboys Nintendo oublient qu'on parle de Nintendo).

Je réagissais juste à l'argument inverse que "1 flop c'est 1 flop" et que donc on pourrait aisément comparer des archis diverses sur un bout de nappe. (la situation xboxone/ps4 est un peu particulière parce que pour la première fois deux consoles sorties à peu près en même temps utilisent un combo CPU/GPU très comparable).

Sur le papier, un avantage d'une console c'est que le programmeur de jeu a une archi fixe dont il connaît les forces et les faiblesses et donc il peut s'il veut y consacrer du temps adapter la charge (donc le contenu, les algos de rendus, la complexité des modèles, des textures et des shaders) à une architecture particulière pour augmenter le ratio image qualité/cycle d'horloge. C'est un argument qui s'applique à toutes les consoles que ce soit la Xone, la PS4, la Switch etc. Dès que les outils sont adaptés pour exposer la complexité du hardware au programmeur sans le rendre fou. En théorie donc le programmeur peut plus facilement cibler le pic de flops (avec le caveat que pic de flops != pic de qualité d'image si il y a besoin de faire certains compromis à ce niveau).

En pratique ce n'est pas toujours aussi simple. Par exemple la PS2 avait une architecture exotique ce qui fait que le contenu développé en commun avec une autre plateforme aurait pu avoir du mal à atteindre la parité en terme de qualité d'image. Mais avec quelques efforts certains effets possibles sur PS2 n'étaient simplement pas imaginables sur PC ou autre plateforme concurrente (Gamecube, première xbox). Et vice et versa. En pratique tout ce que ça fait c'est que ça donne du grain à moudre aux fan boys des deux camps. Même si au final le grand public finit par choisir un "gagnant" en achetant une des plateformes en plus grand nombre et ce n'est pas toujours celle qui a reçu le plus de boutons cochés dans ce genre de discussion.
 
papysoupape
Membre Factor
Membre 281 msgs
 
MrPapillon
Membre Factor
Membre 1537 msgs
J'ai rarement entendu parler de flops chez des devs jeux. Je crois que tout le monde s'en fout. C'est plus pour les gens qui font du calcul scientifique et qui ont des besoins plus simples.
On veut savoir la puissance approximative, et surtout le reste des specs, les fonctionnalités, l'archi dans les consoles, etc... En fait, surtout s'il y a des gros points faibles et des gros points forts. En général pour le CPU, il faut pas qu'il y ait de gros points faibles, et pour les GPUs, c'est un ensemble de compromis (je suis pas programmeur graphique, et Le Greg explique mieux que moi). Par contre la mémoire c'est un poil plus important.

En fait, comme l'a dit je sais plus qui, le plus important c'est les algos. Les algos pas forcément en fonction des architectures en plus. La plupart des optims dans un jeu, c'est de choisir un algo à la place d'un autre. On a très peu le temps à mettre pour s'attarder sur des petits détails. Du coup, comme un algo ne maximise pas forcément chaque architecture, ça fait une couche de plus qui cache les perfs "métal" simplistes.

En plus, d'une manière générale, les perfs CPU sont très dépendantes du contexte. Ça dépend de ce qu'il y a déjà dans la cache, des calculs précédents, etc... Un CPU va exécuter plein d'opérations en parallèle (pipeline, vectoriel) et faire des prédictions (cache, branching, etc...). C'est extrêmement rare de tenir compte de tout ça.
 
katsumotosama
Membre Factor
Membre 71 msgs
LeGreg a écrit :
katsumotosama a écrit :
Oui mais si je ne me trompe pas, les Flops indiquent quand même ce que tu pourras faire en nombre de triangle calculés par le processeur et le GPU non?


Comme je disais c'est parfois assez dur de comparer entre archis différentes et entre charges différentes. Par exemple si tu as des opérations vectorielles ou SIMD (single instruction multiple data), tu vas compter le nombre de mul+add (multiplication et addition) faisable si tu arrives à vectoriser assez bien. Une charge peut donc faire complète utilisation de la vectorisation et une autre arriver seulement à utiliser 1/10 des unités de calcul (est-ce que ton programme fait de nombreuses opérations similaires sur un grand nombre de données sans branchement ou avec prédication simple).

La charge graphique habituellement se prête assez bien à la vectorisation (ce qui donne une partie de l'avantage des GPUs sur les rasterizer software), mais si tu as des "bulles" dans ton pipeline ou des triangles mal embouchés ou si la charge dépend plus de la bande passante ou du nombre d'unités COLOR OUTPUT que de nombre d'unités SHADER ALU, tu peux te retrouver avec des problèmes d'utilisation.

Une distinction fréquente en architecture CPU et GPU c'est la notion de Very Long Instruction Word. L'idée que si tu rends la parallélisation explicite tu compliques la tâche du compilateur/assembleur mais tu facilites la tâche du hardware à l'exécution (qui est généralement le benchmark utilisé). Bien exploité ça peut augmenter le taux d'utilisation des unités, mal exploité ça a l'effet inverse (le compilateur n'arrive pas à détecter les dépendances parce que le langage utilisé est de trop haut niveau ou simplement la charge ne se prête pas aux options disponibles).

Chaque décision du design du hardware est une longue série de compromis, parallélisme d'instructions explicite ou sériel (à l'intérieur d'un même thread sachant qu'il peut y avoir un millier de threads en lock step) ou parallélisme automatique, quelle taille pour le fichier de registres, privilégier les ALU ou les TEX, gestion des threads à gros grain ou petit grain (sachant que ça a des effets positifs ou négatifs sur la latence mémoire et/ou la taille du fichier de registres, plus la taille du dispatcher d'instructions par unité de calcul qui coûte des transistors). Effet sur la programmabilité, sur la performance globale (sur un grand nombre d'applications), sur la performance par transistor, par watt dépensé, etc.

Personnellement je ne sais rien sur la Switch, (même si je pense que comme d'hab, certains fanboys Nintendo oublient qu'on parle de Nintendo).

Je réagissais juste à l'argument inverse que "1 flop c'est 1 flop" et que donc on pourrait aisément comparer des archis diverses sur un bout de nappe. (la situation xboxone/ps4 est un peu particulière parce que pour la première fois deux consoles sorties à peu près en même temps utilisent un combo CPU/GPU très comparable).

Sur le papier, un avantage d'une console c'est que le programmeur de jeu a une archi fixe dont il connaît les forces et les faiblesses et donc il peut s'il veut y consacrer du temps adapter la charge (donc le contenu, les algos de rendus, la complexité des modèles, des textures et des shaders) à une architecture particulière pour augmenter le ratio image qualité/cycle d'horloge. C'est un argument qui s'applique à toutes les consoles que ce soit la Xone, la PS4, la Switch etc. Dès que les outils sont adaptés pour exposer la complexité du hardware au programmeur sans le rendre fou. En théorie donc le programmeur peut plus facilement cibler le pic de flops (avec le caveat que pic de flops != pic de qualité d'image si il y a besoin de faire certains compromis à ce niveau).

En pratique ce n'est pas toujours aussi simple. Par exemple la PS2 avait une architecture exotique ce qui fait que le contenu développé en commun avec une autre plateforme aurait pu avoir du mal à atteindre la parité en terme de qualité d'image. Mais avec quelques efforts certains effets possibles sur PS2 n'étaient simplement pas imaginables sur PC ou autre plateforme concurrente (Gamecube, première xbox). Et vice et versa. En pratique tout ce que ça fait c'est que ça donne du grain à moudre aux fan boys des deux camps. Même si au final le grand public finit par choisir un "gagnant" en achetant une des plateformes en plus grand nombre et ce n'est pas toujours celle qui a reçu le plus de boutons cochés dans ce genre de discussion.


Ok merci pour l'explication.
Tu as l'air vachement calé en technique.
 
Memoire
Membre Factor
Membre 154 msgs
C'est très intéressant a lire en tout cas, merci.

Et ce que c'est pour ça que sur la théorie la PS3 est plus puissante que la 360 mais que dans la pratique personne ne fait le nécessaire pour s'approprier correctement la machine et que du coup les version 360 soient toutes sortie mieux opti ? (sauf les exclus ps3)
 
papysoupape
Membre Factor
Membre 281 msgs
Quand même celle qui est a l origine du buzz trouve qu elle s est fait prendre pour un jambon:




->https://www.reddit.com/r/NintendoSwitch/comments/5keire/im_laurakbuzz_nintendo_switch_leaker_and_full/
 
katsumotosama
Membre Factor
Membre 71 msgs
papysoupape a écrit :
Quand même celle qui est a l origine du buzz trouve qu elle s est fait prendre pour un jambon:




->https://www.reddit.com/r/NintendoSwitch/comments/5keire/im_laurakbuzz_nintendo_switch_leaker_and_full/


Je sais pas qui l'ahuri qui s'agite (carmenmachin là), mais pou lui il aurait fallut que s'on laisse mythoner.
Sans doute un fanboy qui a lu le livre de Nico Augusto :P
 
aeio
Ami des bêtes
Membre 1565 msgs
T'as rien compris à son post je pense. En tant qu'indé, il lui reproche d'avoir niqué la com de ses confrères en postant des photos volées début décembre.

Elle lui explique que les confrères en question sont des enfoirés qui lui ont tendu un piège et que les photos faisaient en fait partie de la com.

Il la remercie et fait son mea culpa.
 
katsumotosama
Membre Factor
Membre 71 msgs
aeio a écrit :
T'as rien compris à son post je pense. En tant qu'indé, il lui reproche d'avoir niqué la com de ses confrères en postant des photos volées début décembre.

Elle lui explique que les confrères en question sont des enfoirés qui lui ont tendu un piège et que les photos faisaient en fait partie de la com.

Il la remercie et fait son mea culpa.


Bah elle parle du fait qu'ils ont pas de devkit, donc j'ai pensé que le gars s'excité d'avoir dévoilé ce fait.
Et elle explique, qu'ils ont voulu sûrement faire de la Hype sur son dos pour une exclue switch via un futur KS ce qui apparemment a marché.

Enfin je le comprends comme ça.

Franchement, je pense pas qu'il s'excite sur le leak d'image, mais sur le fait qu'elle révéle que ça tourne sur PC et qu'ils ont pas de devkit Switch.
 
ptitbgaz
Membre Factor
Membre 2021 msgs
Je pense que Aeio a raison dans sa traduction. Je pense aussi que le mec a pas tout capté au fonds de l'affaire (d'ailleurs, il s'excuse de son ton) , c'est pourquoi elle explique qu'elle pense s'être faite manipulée... comme d'autres gaziers par ici ;D (même si j'aime pas trop les tribunaux populaires).
 
kgabou
Membre Factor
Membre 1146 msgs
D'acc avec Aeio, CarmenX blâme les gens qui leakent des infos sur les indés, de façon générale.
 
katsumotosama
Membre Factor
Membre 71 msgs
ptitbgaz a écrit :
Je pense que Aeio a raison dans sa traduction. Je pense aussi qu'il a pas tout capté au fonds de l'affaire (d'ailleurs, il s'excuse de son ton) , c'est pourquoi elle explique qu'elle pense s'être faite manipulée... comme d'autres gaziers par ici ;D (même si j'aime pas trop les tribunaux populaires).



kgabou a écrit :
D'acc avec Aeio, CarmenX blâme les gens qui leakent des infos sur les indés, de façon générale.


Oui mais pourquoi il fait son caca nerveux spécifiquement sur ce "jeu"?
Des jeux leakés et même chez les indés c'est régulier.
 
choo.t
Saint rââle
Redac 4294 msgs
katsumotosama a écrit :
Oui mais pourquoi il fait son caca nerveux spécifiquement sur ce "jeu"?

Bha, Laura Kate Dale n'a pas leaké beaucoup de jeu non plus, et c'est son AMA sur reddit , à quelques jours de toute la shitstorm sur Season of Heaven, donc la question semble logique.
 
lirian
Membre Factor
Membre 661 msgs
Il devrait fonder une secte ce mec, il pourrait se faire des couilles en or.
 
Jeanquille
Membre Factor
Membre 442 msgs
okamy a écrit :
Ton âme à nue.


Merci d'avoir partagé tout ça avec nous.
Je retiens de cette histoire qu'à présent il doit y avoir 2 choses qui le retiennent sur terre.
Sauf si tu as été remplacé par un bouledogue Français.
 
Crusing
Membre Factor
Membre 3915 msgs
Tu devrais remonter le topic et lire les comms d'Alyena ou whatever soit son nom. :)
 
okamy
Membre Factor
Membre 2 msgs
Merci Crusing mais j'ai déjà presque tout lu.
 
Vous devez être connecté pour pouvoir participer à la discussion.
Cliquez ici pour vous connecter ou vous inscrire.

Règles à suivre

Écrire dans un français correct et lisible : ni phonétique, ni style SMS. Le warez et les incitations au piratage sont interdits. La pornographie est interdite. Le racisme et les incitations au racisme sont interdits. L'agressivité envers d'autres membres, les menaces, le dénigrement systématique sont interdits. Éviter les messages inutiles

 
Rechercher sur Factornews