Connexion
Pour récupérer votre compte, veuillez saisir votre adresse email. Vous allez recevoir un email contenant une adresse pour récupérer votre compte.
Inscription
En vous inscrivant, vous acceptez les conditions d'utilisation du site et de nous vendre votre âme pour un euro symbolique. Amusez vous, mais pliez vous à la charte.
 

Forums

GPU contre CPU
CBL
L.A.mming
Admin 13738 msgs
Une partie de notre lectorat est en vacances et glande devant GTA IV tandis que l'autre compte les secondes en attendant d'être en week-end prolongé ce soir. Bref, c'est le bon moment pour faire une news technique bien lourde. Avant l'apparition des GPU (processeurs dédidés aux graphismes), le monde était simple : le CPU (processeur central) faisait les calculs pour les jeux et la carte graphique les affichait. Les premières GeForce d'nVidia ont rendu ce shéma caduque en prenant en charge une partie des calculs avec le Transform & Lightning et en introduisant les GPU. Depuis, les GPU n'ont cessé de gagner en complexité et en puissance au point de prendre le pas sur les CPU. Selon ce dossier et d'autres, la montée en fréquence/puissance du CPU ne fait plus gagner beaucoup de FPS.

Lire la suite sur le site : GPU contre CPU.
 
androide
Membre Factor
Membre 484 msgs
nVidia vient de s'associer à Via (un constructeur de CPU peu puissant) pour sortir une plate-forme low coast commune.

Une plateforme sur pilotis _ça va de soi_ si la côte est trop basse.
 
nycoom
Membre Factor
Membre 586 msgs
oui mais tout ça, ça concerne essentiellement je jeu sur pc....donc LOLz quoi.
 
Knibal
Membre Factor
Membre 168 msgs
Et AMD/ATI ? Ils sont déjà hors course ?
 
fwouedd
Mylène Farmer Coréen
Redac 5320 msgs
"les jeux seront bien mieux optimisés car les développeurs travailleront sur une architecture unique"

A moins qu'AMD et que Nvidia coulent, j'imagine mal une architecture unique arriver tant que la concurrence fait rage autour des performances.

Ce qui est a craindre à mon avis, ce serait une solution chez nvidia basé sur un super GPU, une solution chez AMD et une solution chez Intel avec leur GPGPU.
Là les développeurs auront une raison technique en plus de la raison financière pour abandonner définitivement le PC.
 
Onirik
Membre Factor
Membre 1875 msgs
On avait deja du mal avec les SPUs de la PS3, si chaque constructeur y va de sa solution maintenant, on est pas dans la m.....
 
Hettar
Membre Factor
Membre 205 msgs
Euh, le fait que le GPU se charge d'autre chose que d'afficher bêtement et simplement, ça remonte pas à avant les Gforce ? genre aux Voodoo et Mystiques et autres ?
 
Larius
Membre Factor
Membre 365 msgs
développeur du moteur physique PhysX qui est le grand concurrent du Havok


J'en suis au stade de me demander si PhysX concurrence quoi que ce soit, alors "grand" concurrent ...

Et pourquoi pas une alliance entre Nvidia et Amd.
 
kgabou
Membre Factor
Membre 1137 msgs
Mouerf, quand on voit l'absence totale de détails sur Larabee et le foin qu'ils ont fait sur le ray tracing pour finalement le mettre au second plan, on peut dire que le couple CPU/GPU a de beaux jours devant lui, et que loin d'une révolution, INtel ne fera que débarquer dans le domaine des GPU pour joueurs (on verra avec quel succès...). Surtout que la situation actuel tend à montrer que c'est le GPU qui bouffe sur le CPU, et pas l'inverse, avec beaucoup de calculs (encodage/décodage video, physique, traitement d'image, etc) qui sont petit à petit déportés sur la carte graphique.

Dans tous les cas, même si c'est très marketing, je trouve INtel assez prétentieux, et ça sent le bide... Même AMD, dans son projet Fusion, précise qu'il ne s'agit que d'un moyen de diminuer la consommation des machines bas de gammes ou très intégrées.
 
Akshell
Pedobear à poil roux
Membre 4167 msgs
non les Geforce 256 était les première à faire du T&L : http://fr.wikipedia.org/wiki/GeForce#Les_GeForce_256
 
faust
Membre Factor
Membre 295 msgs
nycoom a écrit :
oui mais tout ça, ça concerne essentiellement je jeu sur pc....donc LOLz quoi.

Et tu crois qui a pas de matos PC dans ta console ?
 
Skizomeuh
 Rédacteur Premium 
Admin 7767 msgs
Qu'ils travaillent sur la consommation, la chaleur et les nuisances sonores que ça implique plutôt !
 
no_rick
Membre Factor
Membre 254 msgs
low coast, c'est entre east coast et west coast?

CBL : merci !
 
Message masqué
epsyloN
Membre Factor
Membre 87 msgs
Hettar> non, le GPGPU est apparu avec les GeForce 8. Il faut distinguer les premiers accélérateurs 3D, qui faisaient du Transform & Lighting (en gros de la multiplication de matrice et du produit scalaire en hardware) et l'arrivée des GPU avec shader programmable (un shader est un mini programme executé sur GPU, destiné a effectuer la transformation d'un vertex pour un vertex shader et calculer la couleur d'un pixel pour un pixel shader), et enfin les GPU généralistes programmables (GeForce 8 et CUDA : on utilise les shaders unifiés des GPU pour faire du calcul qui n'a pas forcément à voir avec la synthèse d'image; il s'agit d'adapter à l'architecture spécifique du GPU un probleme parallélisable : une texture est un tableau de nombres, etc... ce que CUDA permet c'est de faire travailler la carte graphique sur des données et avec des programmes quelconques, mais il n'en reste pas moins que le GPU sur lequel sont effectués les calculs reste une architecture fortement orientée pour le rendu d'images de synthèse : il faut donc avoir recours à quelques "ruses" programmatoires).

Les GPU suivent une évolution logique ou on tends à donner plus de flexibilité en codant moins de choses en dur (T&L fixe > shader programmable > CUDA), et Larrabee est EXACTEMENT dans cette logique, c'est à dire le stream processing.

Il faut faire attention parce que cet article est confu sur de plusieurs choses. A l'heure actuelle la tendance générale est a l'asymétrisme : des grosses unités de calcul, avec un "faible" nombre de coeurs (2, 4, 8 coeurs), mais avec beaucoup de cache, gestion de l'out of order, etc... pour les tâches "logiques" : execution du flow d'un programme, calcul d'IA, etc. Ces unités sont les CPU que l'on connait actuellement, et une très grande partie de leur complexité provient du cache et du pipelining. A coté de ça, on rajoute des petites unités, rapides, en grand nombre (16, 32, 64, 128 cores), avec un jeu d'instruction réduit (suffisament général, mais pas trop spécialisé non plus), qui travaillent en parallèle et/ou en chaîne, avec un modèle de mémoire partagée et une architecture bien spécifique pour permettre à ce beau monde de travailler ensemble. Typiquement, ce sont les GPU actuels, avec les shaders unifiés. On retrouve exactement ce type d'architecture dans le Cell d'IBM, avec un processeur PowerPC et les fameuses Synergistic Processing Units.
Il faut bien distinguer deux choses : la venue de nouveaux coeurs pour les CPU "généralistes", qui est le seul moyen qu'ont les ingénieurs de chez Intel et AMD pour augmenter la puissance à l'heure actuelle (puisqu'on commence à atteindre des limites physiques au niveau de l'augmentation de fréquence), et l'apparition de ces Stream Processors, unités de calcul massivement parallèles, qui ne sont adaptées qu'à certaines classes d'algorithmes. Typiquement, les algorithmes de rendu et tout ce qui est gourmand en calcul (la où un CPU et son pipelining et son cache sont plus adaptées aux programmes avec de nombreux branchements logiques et des accès mémoires "aléatoires"). Larrabee, d'après ce que l'on en sait, sera un stream processor complètement générique, la ou les GPU de nVidia et AMD sont encore fortement ancrés dans une architecture optimisée pour la rasterization. Forcément, passer d'une solution codée en hardware à une solution générique demandera des sacrifices à Intel et il est probable que c'est leur savoir faire en fabrication de CPU qui leur permettra de proposer un GPU / SP Larrabee aussi performant que les futures générations d'AMD / nVidia. (John Carmack, dans une interview, disait qu'il pensait qu'intel arriverait a 3 ou 4x le fréquençage par rapport a AMD / nVidia pour compenser le passage hard > soft). Il est cependant probable qu'on trouvera toujours, pour certaines petite tâches simples, des parties hardware spécialisées, comme par exemple pour le filtrage de texture, qui est très très lent sur CPU par rapport à une implémentation hardware (il y a eu une discussion à ce sujet sur les forum de gamedev).

Bref, il faut donc voir que Intel et AMD / nVidia vont dans la même direction générale : reste à savoir la forme "physique" que prendra ce couplage CPU multicore / Stream Processor. Intel voudra probablement une architecture type Cell pour proposer des solutions tout Intel tandis qu'AMD / nVidia continueront de promouvoir une carte externe pour pouvoir garder leur indépendance. Les deux types d'unités (CPU et Stream Processor) ont leur utilité et aucune d'entre elles n'est amené à mourir dans un futur proche, contrairement à ce qu'on pourrait croire en voyant Intel se lancer dans le GPU (pour le Larrabee ce seront bien des core type x86 mais simplifiés, ils seront plus proche de shaders unifiés que de CPU architecturalement parlant).

Concernant la guerre entre raytracing et rasterization, il y a beaucoup a dire mais c'est un sujet qui est "tout autre" et qui a déjà été sujet de nombreux débats (les intéressés pourront lire les forums de gamedev et de beyond3d, il y a pas mal de discussion la bas).
 
fwouedd
Mylène Farmer Coréen
Redac 5320 msgs
Ah bah Skizomeuh, y'a quand même eu pas mal de progrès de ce coté là. Un G92 consomme moins que l'ancien chipset et c'est pareil chez Ati.


Pour ce qui est du refroidissement, certaines des dernières 8800 sont plutôt discrètes.
 
LeGreg
Membre Factor
Redac 1462 msgs
nycoom a écrit :
oui mais tout ça, ça concerne essentiellement je jeu sur pc....donc LOLz quoi.


En fait retrospectivement (on ne peut pas parler du futur de manière certaine), les constructeurs de console (sony, microsoft, nintendo, sega) n'ont plus eu les moyens de développer de solutions graphiques maison (le cpu étant encore une exception pour le CELL co-développé par Sony avec Toshiba et IBM) pour leurs génération de console actuelle. Sauf grand chamboulement, le transfert de compétence pourrait être consommé à la génération suivante (y compris sur les consoles de poche). Bien entendu bien malin sera celui qui prédira quelle forme exacte auront les consoles prochaines.

Pour les joueurs, une fusion GPU-CPU est bénéfique car elle implique qu'il faudra acheter moins de matos


C'est ne regarder qu'une des variables du problème malheureusement.

La dichotomie (séparation des tâches) est plutot bien adapté aux problèmes des jeux vidéos actuels et à venir (qui poussent encore et toujours des tonnes de polygones et de pixels) et revenir au modèle où l'un des deux fait tout n'a de sens que pour une solution low-cost (ou low-power, comme les téléphones intelligents, les consoles de poche).

Ce que l'on pourrait y gagner en capacité de communication poussée entre cpu et gpu (et encore il faudrait un chamboulement au niveau de l'API) on le perdrait en terme de bande passante mémoire etc (qui n'est pas partagée sur les solutions haut de gamme actuelle). Sans parler du nombre de transistors que l'on peut pousser indépendemment sur chaque solution.

Donc moins de matos, oui peut-etre pour le media center dans le salon, le portable light sans espoir de faire tourner ni un jeu intense graphiquement (si le jeu sur PC survit sous sa forme actuelle) ni une adaptation console (puisque les consoles continueront à évoluer de leur côté).

Meme si on peut s'attendre à ce que ces PCs lights constituent sans doute un gros de la croissance du marché PC à venir, j'espère qu'ils ne serviront pas de base à la majorité des nouveaux développement de jeu sur PC.

Sinon minor corrections :
c'est NVIDIA (tout en gros, pas de petit 'n'). Et Ageia ('e' après le 'g').
 
nazg
Rabbi Jacob
Membre 1464 msgs
On est pas dans la merde.
Et après on se demande pourquoi les consoles ont pris tant de terrain dans notre monde vidéo-ludique.

Ça va donner quoi? Une sorte de saloperie comme la gueguerre hddvd/br avec AMD au milieu et encore plus de bordel compliqué?

Levez le doigt ceux qui ont eu le courage de lire epsylon après s'être tapé la news d'une traite.
 
divide
Membre Factor
Redac 1696 msgs
La fusion CPU/GPU je n'y crois pas, tout du moins pas avant encore quelques temps. Parce que dans tous les programmes, il y a toujours 2 parties:

Celle qui nécessite d'executer un grand nombre de calculs/tests en serie (chaque résultat dépendant du précédent),
et celle ou le même petit calcul est répété à l'identique des milliers de fois (indépendement du résultat précedent).

Pour le premier, il faut une seule unité polyvalente capable d'aller très vite (CPU), et pour la deuxième un grand nombre de process parallèle.

16 CPU ou un seul GPU 4 fois plus rapide qu'une geforce actuelle ne serait pas aussi efficace que le couple CPU+GPU actuel. En fait, ce qui faudrait arriver à faire fusionner, c'est plutot la gestion de la mémoire: plus de pertes de temps en allers/retours CPU/GPU.

sinon, j'ai abandonné le post d'epsylon à la moitié (un commentaire doit etre synthetique, sinon c'est un article !) mais moi je ferai plutot remonter le GPGPU aux Geforce FX, les premières à proposer une programmabilité vraiment intéressante (et à partir desquelles on a vu un tas d'applications autres que graphiques apparaitre). D'ailleurs le site GPGPU.org est apparu en 2003, l'année de la sortie de la Geforce FX...
 
Crocopower
Membre Factor
Membre 78 msgs
J'ai lu tout le commentaire d'epsyloN, et avec intérêt.
Comme beaucoup à l'époque, j'ai été frappé par l'incursion des technologies du pc dans les consoles actuelles. Wifi, DD, puces Ati ou NVIDIA, enfin je vais pas faire la liste. Je vois mal la pochaine génération faire autrement.
 
kgabou
Membre Factor
Membre 1137 msgs
C'est clair, les sociétés spécialisés dans la création de composants spécifiques ont tellement cru qu'elles sont maintenant incontournables. On ne verra plus MS ou Sony se dire "Tiens, et si je faisait mon chip graphique dans mon coin...". Le résultat serait juste ridicule face aux armées d'ingénieurs rodés depuis des années et ne travaillant QUE là-dessus.

Déjà que le Graphic Synthetiser de la PS2 était très limite face aux puces ATI de la GC et NVIDIA de la XBox, qu'est-ce que ça serait maintenant... ^^
 
Vous devez être connecté pour pouvoir participer à la discussion.
Cliquez ici pour vous connecter ou vous inscrire.

Règles à suivre

Écrire dans un français correct et lisible : ni phonétique, ni style SMS. Le warez et les incitations au piratage sont interdits. La pornographie est interdite. Le racisme et les incitations au racisme sont interdits. L'agressivité envers d'autres membres, les menaces, le dénigrement systématique sont interdits. Éviter les messages inutiles

 
Soutenez Factornews.com

Tribune

Crusing
(21h37) Crusing (21h24) Y'a un paquet de puzzle qui mérite plus qu'une session au chiotte.La plupart en fait.
Crusing
(21h36) Crusing Evidemment, puisque tu fais les mauvais choix systématiquement, c'est bien légitime.
MrPapillon
(21h25) MrPapillon Crusing, tu savais que j'avais une WiiU ?
MrPapillon
(21h24) MrPapillon N'écoute pas Crusing.
MrPapillon
(21h24) MrPapillon On peut facilement faire des pauses de The Witness. C'est facile d'y replonger. En plus c'est vraiment un jeu qui peut se jouer par tout petits morceaux.
Crusing
(20h54) Crusing LeGreg > Bein le tout début oui, après ça demande quand même un poil d'abnégation, comprendre que certains puzzle peuvent soit te bloquer soit te prendre du temps. Et y'en a environs 600... donc en gros tu peux en faire une centaine en "casu"
LeGreg
(20h48) LeGreg Crusing > oui je sais. la question c'est est-ce que je pourrai y jouer en casual ou pas
Crusing
(20h40) Crusing LeGreg > Si t'as pas de temps, prendre the witness n'est pas très malin.
LeGreg
(20h32) LeGreg Bon j'ai choppé Doom et The Witness en solde. Faut juste que je trouve du temps pour y jouer un peu :/
zouz
(16h08) zouz Overwatch élu jeu de l'année aux game awards, content de voir que cette supercherie reste dans son élément.
Darkigo
(14h21) Darkigo MrPapillon > Ca me fait aussi penser à cet épisode de Battlestar où ils cherchent à atteindre une station spatiale au milieu d'un nuage de poussière...
Darkigo
(14h17) Darkigo MrPapillon > stylé ce rendu volumétrique ! Ca donne envie de faire une simu aérienne avec cette qualité de rendu !
Zakwil
(14h05) Zakwil [youtube.com] je laisse ça là
Khdot
(11h44) Khdot [nextinpact.com]
Doc_Nimbus
(10h03) Doc_Nimbus hohun > Oh oui, avec Gad Elmaleh et Kev Adams. <3
hohun
(09h55) hohun [lefigaro.fr] une bien bonne nouvelle en ces temps maussades
_Kame_
(09h00) _Kame_ LeGreg > J'ai pas dis que j'avais pas d'explications à ça, je soulignais juste le fait qu'on est une race stupide, et que oui, on regrettera Hollande.
LeGreg
(03h07) LeGreg Bon ça n'a pas marché pour Clinton.. mais elle a fait l'erreur de refaire parler d'elle :)
LeGreg
(03h05) LeGreg Les gens étaient jeunes quand il y avait Y.. du coup les problèmes liés à la vieillesse sont confondus avec la disparition de Y ou l'apparition de Z.
LeGreg
(03h04) LeGreg Kame> nostalgie. C'est comme pour les jeux vidéo
Crusing
(00h19) Crusing ♪ ♫ vooooootez jAcques chirAc ♫ ♪
_Kame_
(00h07) _Kame_ Chirac: en juin 2006, 27% de favorable, aujourd'hui, 83% disent qu'en fait c'était bien sous son mandat. D'accord les gens.
jeudi 01 décembre 2016
thedan
(23h46) thedan moi, je vous mets mon billet que dans 2 ou 3 ans, on le regrettera !
_Kame_
(23h23) _Kame_ Oh oui, l'impact de sa non candidature est tellement quantifiable et qualifiable sur la destinée de chacun de nous et de celle du pays, que c'est forcément une super nouvelle.
Laurent
(23h16) Laurent (20h13) Meilleure nouvelle de l'année
MrPapillon
(21h12) MrPapillon Les jeux du "lineup" de la sortie de l'Oculus Touch : [oculus.com] . Pas beaucoup de surprises, principalement des portages sur le Touch de trucs de l'Oculus Home et de Steam.
Crusing
(21h07) Crusing Haha Macron qui avait prévu une ITW en suivant, quel ténia ce mec.
Big Apple
(20h13) Big Apple Ah non, il déclare forfait
Big Apple
(19h56) Big Apple S'il a le sens de l'humour, il faudrait qu'il annonce la dissolution de l'assemblée nationale :)
Big Apple
(19h55) Big Apple Attention, événement : François Hollande va parler à 20h00
hohun
(18h27) hohun Encore un noob qui croit qu'il va mieux jouer parce qu'il a une bande passante de ouf !
hohun
(18h27) hohun [lexpress.fr] "Le très haut débit, ce n'est pas uniquement pour que tout le monde puisse jouer à Warcraft"
MrPapillon
(11h55) MrPapillon (Il y a une vidéo dans l'article).
MrPapillon
(11h55) MrPapillon Un peu de rendu volumétrique sous Unreal : [shaderbits.com] (Donc pas de triangles/polys pour ça, c'est une forme de rendu très praticulière).
MrPapillon
(08h55) MrPapillon Crusing > [theguardian.com]
Crusing
(08h31) Crusing MrPapillon > Je crois que c'est clair, un mec qui conduit n'importe comment en Lada dans un monde désolé rempli de tarés violents, c'est une allégorie de la Russie.
mercredi 30 novembre 2016
MrPapillon
(20h37) MrPapillon Lien sans la ponctuation : [vimeo.com]
MrPapillon
(20h36) MrPapillon Crusing > Le gars a l'air d'avoir un trip surréaliste cartoon bizarre assez maîtrisé ([vimeo.com] Du coup je vais attendre que ça soit plus avancé pour mieux comprendre où il veut en venir.
Crusing
(20h23) Crusing MrPapillon > Sympa, dommage que ce soit pas avec BeamNG, et que la caisse m'ai fait instantanément penser à ça [youtube.com]
Crusing
(20h08) Crusing CBL > Je viens de enfin convertir un vieil ipod3G en clef USB, alors très peu pour moi apeul. Non mais la samsung à l'air de faire le job.
CBL
(19h09) CBL Des graphistes de ma boite l'utilise comme une Cintiq grace à l'appli Duet et ca defonce
CBL
(19h08) CBL Crusing > Ipad Pro ?
MrPapillon
(17h25) MrPapillon Un survival en caisse : [forums.tigsource.com]
Crusing
(15h46) Crusing Niko > tu ferais mieux de trouver qui se cache derrière MetalSmileGeishAsh95, au lieu de dire des cochoncetés.
MrPapillon
(15h06) MrPapillon Il change une fois tous les 30 ans.
Niko
(14h33) Niko - Merde, on a un spambot! - Ah non, c'est juste Crusing qui a changé d'avatar
Crusing
(14h14) Crusing Krita a peut etre du couteau depuis.
Crusing
(14h13) Crusing Sinon Painter quoi...
Crusing
(14h12) Crusing Zakwil > C'est vieux Artrage, je sais pas comment ça a évolué.
Crusing
(14h12) Crusing Dites, à part la Galaxy View , y'a quoi comme tablette grand format?
Zakwil
(14h10) Zakwil bah on recherchait l'effet au couteau, ce qu'artrage a mais verve à l'air de mieux gérer les pâtés de peinture (plus 3d)
Crusing
(14h03) Crusing Zakwil > Artrage est mieux?
Zakwil
(13h49) Zakwil Crusing > merci c'est mieux
Crusing
(11h27) Crusing Zakwil > C'est quoi la diff avec Artrage?
Zakwil
(10h37) Zakwil il y a freshpaint sur la surface (mais pas d'effet couteau)
Zakwil
(09h54) Zakwil salut, il existe une alternative à [taron.de] un peu plus récente?
mardi 29 novembre 2016
MrPapillon
(23h14) MrPapillon Life is short : [youtube.com]
MrPapillon
(23h12) MrPapillon Ça devrait directement faire partie de Windows.
MrPapillon
(23h09) MrPapillon Faudrait la même chose sur FFXV.
Le vertueux
(22h58) Le vertueux Big Apple > c'est pas mal, faudrait la même chose sur des consoles portables.
Big Apple
(22h44) Big Apple MrPapillon > le meilleur filtre crt est le HLSL sur mame, vidéo de démonstration avant/après sur Street Fighter 2 [youtube.com]
Big Apple
(22h27) Big Apple si le space jockey d'alien avait une Gameboy, ça serait celle de Real Phoenix :)
The Real Phoenix
(20h43) The Real Phoenix Crusing > Pour que ca donne du gout.
Crusing
(20h23) Crusing Pourquoi diable l'avoir fait en pâte à sel!
The Real Phoenix
(17h06) The Real Phoenix Tiends en parlant d'emulation, j'ai fini ca hier pour un pote: [i.imgur.com] [i.imgur.com]
noir_desir
(16h54) noir_desir wata_ > Sur que ça motive vachement moins :(
dagon
(16h04) dagon (10h45) Crusing > toute la presse l'a annoncé, mais le site est de nouveau en ligne... efficace ^^
Crusing
(14h11) Crusing c'est l'anniversaire!! [youtube.com]
MrPapillon
(14h00) MrPapillon Et la basse résolution c'est moin joli sur un écran plat que sur un CRT.
MrPapillon
(13h59) MrPapillon Du bilinear + une haute résolution et on a l'impression que les décors sont plus vides que l'impression que ça donnait à l'époque. (Une des raisons pour lesquelles je préfère jouer de l'époque en basse réso et sans bilinear).
MrPapillon
(13h58) MrPapillon Crusing > Bah les graphs de l'époque fonctionnaient bien parce que les jeux étaient en basse résolution. Les pixels qui gigotaient de partout, ça créait du détail visuel, et quand on lisse tout ça on perd.
Crusing
(13h53) Crusing wata_ > Tu confonds pixel art et jeux 3D, personne veut du scanline sur MK64.
fwouedd
(13h50) fwouedd wata_ > Pas vraiment, tu peux améliorer le rendu quand c'est affiché en 3D. Mais avec les sprites de la 2D qui ont été conçu autour des imperfections du CRT, c'est plus moche avec un LCD que ça l'était.
wata_
(13h45) wata_ noir_desir > sûr que la patience d'attendre les soldes Steam & co sont le retour de baton de l'armure pour cheval d'Oblivion et ses nombreux émules
wata_
(13h43) wata_ Il y a vraiment deux école niveau émulation : "ouais Zelda64 en 4K antialiasing 120fps" et "bon faut que ce soit crado comme dans mon enfance"
fwouedd
(12h59) fwouedd Du coup, à moins d'être un vrai passionné du balayage, ça le fait. Par contre, c'est vraiment chiant à parametrer.
fwouedd
(12h58) fwouedd Ca prends tout en compte, le type de dalle, l'éclairage, ça simule le rafraichissement, les couleurs, les formes des ecrans.
fwouedd
(12h57) fwouedd MrPapillon > Ah clairement, mais les filtres CRT depuis quelques années sont vraiment balaises.
MrPapillon
(12h51) MrPapillon fwouedd > La vidéo était pas pour toi. On y voit clairement le gain de qualité entre un jeu sans filtre CRT et un vrai CRT.
fwouedd
(12h23) fwouedd (08h44) Je comprends pas ce que tu me montres. Ta video on voit un mame sans config HLSL.
rEkOM
(11h56) rEkOM Et en fouillant dans le github y'a même un patch POC pour jouer en VR :) [github.com]
rEkOM
(11h56) rEkOM Il vient d'avoir un hotfix du patch d'aout de Fez... [github.com]
Crusing
(10h45) Crusing Zone telechargement fermé [lemonde.fr]
noir_desir
(09h16) noir_desir wata_ > J'attends presque toujours les versions tout intégré, ou alors je n’achète plus (le hype et d'autre truc sont sortis)... Bref cette pol, je pense à largement permis au jeu de se dire, qu'ils n'avaient pas intérêt à acheter tous de suite...
noir_desir
(09h15) noir_desir wata_ > pour moi, c'est en parti les dlc, pourquoi j'acheterai pour ma part, des bouts de jeu. J'ai eu dishonnored 2, car gk me l'a "offert", sinon je n'aurais pas mis la main au portefeuille. Ras le bol d'avoir des morceaux de jeu.
noir_desir
(09h12) noir_desir kimo > le 10 sans plus, j'ai bien aimé le 12, plus de liberté
MrPapillon
(08h44) MrPapillon [youtu.be]
fwouedd
(07h08) fwouedd Comparaison CRT vs HLSL : [youtu.be]
fwouedd
(06h55) fwouedd (Par contre, c'est hardcore niveau configuration)
fwouedd
(06h55) fwouedd MrPapillon > C'est correct depuis un moment. Sur Mame, le filtre HLSL te permet même de choisir l'inclinaison du CRT simulé et même la trame du modèle que tu veux.
_Kame_
(00h06) _Kame_ ahah énorme
lundi 28 novembre 2016
Chouxcoulat
(23h48) Chouxcoulat Le sens de la composition on vous dit : [youtube.com]
MrPapillon
(23h33) MrPapillon Par contre côté éditeur AAA, on est encore très frileux. Au moins Nintendo a fait un pas dans la bonne direction avec leur Mini NES.
MrPapillon
(23h32) MrPapillon Côté ému ça commence à être correct, on est très loin des trucs pourris du temps des premiers émulateurs SNES/MegaDrive : [youtube.com]
MrPapillon
(23h25) MrPapillon LeGreg > [youtube.com]
LeGreg
(23h17) LeGreg sinon quand je jouais en VGA, les pixels étaient carré
LeGreg
(23h12) LeGreg il n'y a pas si longtemps les filtres CRTs ajoutaient des lignes noires ce qui n'est pas forcément le plus représentatif
LeGreg
(23h11) LeGreg Big Apple > en même temps il faut qu'un filtre CRT soit aussi bon qu'un CRT ce qui n'est pas gagné
Big Apple
(21h42) Big Apple MrPapillon > Absolument! Et c'est pourquoi jouer à un émulateur sans utiliser les filtres de rendu CRT est une aberration.
MrPapillon
(21h34) MrPapillon Même s'il y avait pas beaucoup de pixels, ça a été très créatif comme époque.
Communauté