sese_seko a écrit :LeGreg a écrit :sese_seko a écrit :
Je vais faire plus simple que katsumotosama :
C'est aussi con que de comparer 1 kilo de patates et 1 kilo de carottes : 1 kilo reste 1 kilo.
Aucune info sur la switch, ni sur la comparaison gpu ps4/gpu switch (don't quote me).. mais je vais mettre de l'eau dans ton vin.
En pratique les indications de flops sont surtout intéressante sur des longues tendances (progression en flops depuis l'invention du microprocesseur) et pour des comparaisons entre même architecture (les quirks d'une archi se retrouvent également dans la même famille). Dans la nature, les programmeurs ne se fient pas totalement aux flops surtout si ça demande des concessions diverses et variées (et/ou une programmation fondamentalement différente : cf multithreading sur un CPU et multithreading sur un GPU, et parallélisation sur un superordinateur distribué). Il y a des tentatives de benchmarks universels mais c'est évidemment très difficile à faire sans tomber dans des pièges liés aux spécificités d'un bench.
Exemple tout con :
Les gains entre le même CPU et le même GPU (donc le même nombre de flops de chaque côté) va de 6x à 30x (et il y a des benchs non présentés ici qui ne montreraient aucun gain voire une perte). Pourquoi une telle différence ? Parce que le bench à 30x joue avec un algo qui est particulièrement adapté au hardware du GPU et/ou le constructeur a intégré des instructions spécifiques pour accélérer cette charge (et vice versa si le constructeur CPU a ajouté les instructions nécessaires, cf sse/avx).
Alors soit chuis plus beurré que je le pense, soit t'es en train de me dire que 1kg de patate c'est mieux qu'1kg de carotte pour faire du hachi-parmentier. T'as sans doute raison, mais là on passe dans le domaine de la cuisine : untel peut faire un meilleur plat q'untel, mais la matiére de base reste la même.
Pour reprendre ton joli graphe, en partant du fait que ce sont des cpu/gpu différents mais de même puissance, je ne vois pas pourquoi tu dirais que le couple cpu/gpu 30x est meilleur que le 8X soit prétexte qu'il y a une appli optimisée, et une autre codée avec mon cul.
M'enfin, voila ce que j'ai pu comprendre, je vais me coucher, chuis crvé. Joeyeux noel.
aeio a écrit :
Un exemple concret qui montre que les Tflops ne se valent pas et que les fans de Nintendo ont peut-être raison d'espérer : la GTX 1060 d'NVIDIA avec ses 4.4 Tflops bat la RX 480 d'AMD qui en a 5.8 dans pratiquement tous les jeux, tout simplement parce que l'architecture Pascal est plus efficace (en DirectX 11 du moins).
katsumotosama a écrit :
Oui mais si je ne me trompe pas, les Flops indiquent quand même ce que tu pourras faire en nombre de triangle calculés par le processeur et le GPU non?
LeGreg a écrit :katsumotosama a écrit :
Oui mais si je ne me trompe pas, les Flops indiquent quand même ce que tu pourras faire en nombre de triangle calculés par le processeur et le GPU non?
Comme je disais c'est parfois assez dur de comparer entre archis différentes et entre charges différentes. Par exemple si tu as des opérations vectorielles ou SIMD (single instruction multiple data), tu vas compter le nombre de mul+add (multiplication et addition) faisable si tu arrives à vectoriser assez bien. Une charge peut donc faire complète utilisation de la vectorisation et une autre arriver seulement à utiliser 1/10 des unités de calcul (est-ce que ton programme fait de nombreuses opérations similaires sur un grand nombre de données sans branchement ou avec prédication simple).
La charge graphique habituellement se prête assez bien à la vectorisation (ce qui donne une partie de l'avantage des GPUs sur les rasterizer software), mais si tu as des "bulles" dans ton pipeline ou des triangles mal embouchés ou si la charge dépend plus de la bande passante ou du nombre d'unités COLOR OUTPUT que de nombre d'unités SHADER ALU, tu peux te retrouver avec des problèmes d'utilisation.
Une distinction fréquente en architecture CPU et GPU c'est la notion de Very Long Instruction Word. L'idée que si tu rends la parallélisation explicite tu compliques la tâche du compilateur/assembleur mais tu facilites la tâche du hardware à l'exécution (qui est généralement le benchmark utilisé). Bien exploité ça peut augmenter le taux d'utilisation des unités, mal exploité ça a l'effet inverse (le compilateur n'arrive pas à détecter les dépendances parce que le langage utilisé est de trop haut niveau ou simplement la charge ne se prête pas aux options disponibles).
Chaque décision du design du hardware est une longue série de compromis, parallélisme d'instructions explicite ou sériel (à l'intérieur d'un même thread sachant qu'il peut y avoir un millier de threads en lock step) ou parallélisme automatique, quelle taille pour le fichier de registres, privilégier les ALU ou les TEX, gestion des threads à gros grain ou petit grain (sachant que ça a des effets positifs ou négatifs sur la latence mémoire et/ou la taille du fichier de registres, plus la taille du dispatcher d'instructions par unité de calcul qui coûte des transistors). Effet sur la programmabilité, sur la performance globale (sur un grand nombre d'applications), sur la performance par transistor, par watt dépensé, etc.
Personnellement je ne sais rien sur la Switch, (même si je pense que comme d'hab, certains fanboys Nintendo oublient qu'on parle de Nintendo).
Je réagissais juste à l'argument inverse que "1 flop c'est 1 flop" et que donc on pourrait aisément comparer des archis diverses sur un bout de nappe. (la situation xboxone/ps4 est un peu particulière parce que pour la première fois deux consoles sorties à peu près en même temps utilisent un combo CPU/GPU très comparable).
Sur le papier, un avantage d'une console c'est que le programmeur de jeu a une archi fixe dont il connaît les forces et les faiblesses et donc il peut s'il veut y consacrer du temps adapter la charge (donc le contenu, les algos de rendus, la complexité des modèles, des textures et des shaders) à une architecture particulière pour augmenter le ratio image qualité/cycle d'horloge. C'est un argument qui s'applique à toutes les consoles que ce soit la Xone, la PS4, la Switch etc. Dès que les outils sont adaptés pour exposer la complexité du hardware au programmeur sans le rendre fou. En théorie donc le programmeur peut plus facilement cibler le pic de flops (avec le caveat que pic de flops != pic de qualité d'image si il y a besoin de faire certains compromis à ce niveau).
En pratique ce n'est pas toujours aussi simple. Par exemple la PS2 avait une architecture exotique ce qui fait que le contenu développé en commun avec une autre plateforme aurait pu avoir du mal à atteindre la parité en terme de qualité d'image. Mais avec quelques efforts certains effets possibles sur PS2 n'étaient simplement pas imaginables sur PC ou autre plateforme concurrente (Gamecube, première xbox). Et vice et versa. En pratique tout ce que ça fait c'est que ça donne du grain à moudre aux fan boys des deux camps. Même si au final le grand public finit par choisir un "gagnant" en achetant une des plateformes en plus grand nombre et ce n'est pas toujours celle qui a reçu le plus de boutons cochés dans ce genre de discussion.

papysoupape a écrit :
Quand même celle qui est a l origine du buzz trouve qu elle s est fait prendre pour un jambon:
->https://www.reddit.com/r/NintendoSwitch/comments/5keire/im_laurakbuzz_nintendo_switch_leaker_and_full/
aeio a écrit :
T'as rien compris à son post je pense. En tant qu'indé, il lui reproche d'avoir niqué la com de ses confrères en postant des photos volées début décembre.
Elle lui explique que les confrères en question sont des enfoirés qui lui ont tendu un piège et que les photos faisaient en fait partie de la com.
Il la remercie et fait son mea culpa.
ptitbgaz a écrit :
Je pense que Aeio a raison dans sa traduction. Je pense aussi qu'il a pas tout capté au fonds de l'affaire (d'ailleurs, il s'excuse de son ton) , c'est pourquoi elle explique qu'elle pense s'être faite manipulée... comme d'autres gaziers par ici ;D (même si j'aime pas trop les tribunaux populaires).
kgabou a écrit :
D'acc avec Aeio, CarmenX blâme les gens qui leakent des infos sur les indés, de façon générale.
katsumotosama a écrit :
Oui mais pourquoi il fait son caca nerveux spécifiquement sur ce "jeu"?
okamy a écrit :
Ton âme à nue.
Écrire dans un français correct et lisible : ni phonétique, ni style SMS. Le warez et les incitations au piratage sont interdits. La pornographie est interdite. Le racisme et les incitations au racisme sont interdits. L'agressivité envers d'autres membres, les menaces, le dénigrement systématique sont interdits. Éviter les messages inutiles