Connexion
Pour récupérer votre compte, veuillez saisir votre adresse email. Vous allez recevoir un email contenant une adresse pour récupérer votre compte.
Inscription
En vous inscrivant, vous acceptez les conditions d'utilisation du site et de nous vendre votre âme pour un euro symbolique. Amusez vous, mais pliez vous à la charte.
 
ACTU

GPU contre CPU

CBL par CBL,  email  @CBL_Factor
 
Une partie de notre lectorat est en vacances et glande devant GTA IV tandis que l'autre compte les secondes en attendant d'être en week-end prolongé ce soir. Bref, c'est le bon moment pour faire une news technique bien lourde. Avant l'apparition des GPU (processeurs dédidés aux graphismes), le monde était simple : le CPU (processeur central) faisait les calculs pour les jeux et la carte graphique les affichait. Les premières GeForce d'nVidia ont rendu ce shéma caduque en prenant en charge une partie des calculs avec le Transform & Lightning et en introduisant les GPU. Depuis, les GPU n'ont cessé de gagner en complexité et en puissance au point de prendre le pas sur les CPU. Selon ce dossier et d'autres, la montée en fréquence/puissance du CPU ne fait plus gagner beaucoup de FPS.

Les deux poids lourds du milieu sont Intel (CPU) et NVIDIA (GPU). L'hégémonie actuelle d'nVidia sur les GPU pour joueurs risque d'être mise à mal par l'arrivée d'Intel sur le marché avec Larrabee, leur GPU maison fondé en partie sur l'architecture x86 qui règne sur le monde des CPU depuis près de 30 ans. En parallèle, les CPU d'Intel sont aussi de plus en plus complexes et comportent surtout de plus en plus de coeurs. Si le double-coeur est la norme actuelle, le prochain CPU que vous acheterez sera surement un octo-coeur. Même si les développeurs de jeux commencent à arriver à exploiter ces architectures multi-coeur, il y a peu de chances pour que les huit coeurs soient exploités un jour. A quoi pourra servir le relicat de puissance ? A traiter les graphismes par exemple. En effet, le but d'Intel est de fondre CPU et GPU en un seul processeur (à la manière de ce que va faire AMD avec les GPU ATI) voir de virer complètement le GPU pour que le CPU s'occupe de tout. Ceux qui se souviennent des promesses du MMX sont en train de rigoler un bon coup.

Evidemment, NVIDIA voit ce futur d'un mauvais oeil et pense l'inverse. Dans les GeForce séries 8xxxx et 9xxx, on trouve des unités de calcul, les fameux stream processors. Ces unités de calcul savent faire bien plus qu'afficher des beaux graphismes. nVidia a même sorti CUDA, une technologie qui permet de développer des programmes en C pour les exécuter sur ... les GPU. Et si un GPU était capable de faire tourner l'ensemble du système ? Le CPU deviendrait alors inutile. Même sans aller jusqu'à cet extrême, un petit CPU pas cher combiné à un gros GPU pourrait bien faire l'affaire. Ca tombe bien, nVidia vient de s'associer à Via (un constructeur de CPU peu puissants) pour sortir une plate-forme low cost commune.

Les moteurs physiques sont un bon exemple de cette lutte entre Intel et NVIDIA. Intel s'est payé Havok, développeur du moteur physique éponyme numéro un sur le marché, et compte se servir de ce moteur pour promouvoir à fond ses CPU multi-coeurs. NVIDIA s'est payé Ageia, développeur du moteur physique PhysX qui est le grand concurrent du Havok, et pourront bientôt booster ce moteur physique. La guerre est déclarée. Pour les joueurs, une fusion GPU-CPU est bénéfique car elle implique qu'il faudra acheter moins de matos et que les jeux seront bien mieux optimisés car les développeurs travailleront sur une architecture unique, transformant finalement les PC en consoles. Par contre pour les constructeurs, elle conduit à la mort ou à la reconversion du perdant.
 

Commentaires

Masquer les commentaires lus.
androide
 
nVidia vient de s'associer à Via (un constructeur de CPU peu puissant) pour sortir une plate-forme low coast commune.

Une plateforme sur pilotis _ça va de soi_ si la côte est trop basse.
nycoom
 
oui mais tout ça, ça concerne essentiellement je jeu sur pc....donc LOLz quoi.
Knibal
 
Et AMD/ATI ? Ils sont déjà hors course ?
fwouedd
 
"les jeux seront bien mieux optimisés car les développeurs travailleront sur une architecture unique"

A moins qu'AMD et que Nvidia coulent, j'imagine mal une architecture unique arriver tant que la concurrence fait rage autour des performances.

Ce qui est a craindre à mon avis, ce serait une solution chez nvidia basé sur un super GPU, une solution chez AMD et une solution chez Intel avec leur GPGPU.
Là les développeurs auront une raison technique en plus de la raison financière pour abandonner définitivement le PC.
Onirik
 
On avait deja du mal avec les SPUs de la PS3, si chaque constructeur y va de sa solution maintenant, on est pas dans la m.....
Hettar
 
Euh, le fait que le GPU se charge d'autre chose que d'afficher bêtement et simplement, ça remonte pas à avant les Gforce ? genre aux Voodoo et Mystiques et autres ?
Larius
 
développeur du moteur physique PhysX qui est le grand concurrent du Havok


J'en suis au stade de me demander si PhysX concurrence quoi que ce soit, alors "grand" concurrent ...

Et pourquoi pas une alliance entre Nvidia et Amd.
kgabou
 
Mouerf, quand on voit l'absence totale de détails sur Larabee et le foin qu'ils ont fait sur le ray tracing pour finalement le mettre au second plan, on peut dire que le couple CPU/GPU a de beaux jours devant lui, et que loin d'une révolution, INtel ne fera que débarquer dans le domaine des GPU pour joueurs (on verra avec quel succès...). Surtout que la situation actuel tend à montrer que c'est le GPU qui bouffe sur le CPU, et pas l'inverse, avec beaucoup de calculs (encodage/décodage video, physique, traitement d'image, etc) qui sont petit à petit déportés sur la carte graphique.

Dans tous les cas, même si c'est très marketing, je trouve INtel assez prétentieux, et ça sent le bide... Même AMD, dans son projet Fusion, précise qu'il ne s'agit que d'un moyen de diminuer la consommation des machines bas de gammes ou très intégrées.
Akshell
 
non les Geforce 256 était les première à faire du T&L : http://fr.wikipedia.org/wiki/GeForce#Les_GeForce_256
faust
 
nycoom a écrit :
oui mais tout ça, ça concerne essentiellement je jeu sur pc....donc LOLz quoi.

Et tu crois qui a pas de matos PC dans ta console ?
Skizomeuh
 
Qu'ils travaillent sur la consommation, la chaleur et les nuisances sonores que ça implique plutôt !
no_rick
 
low coast, c'est entre east coast et west coast?

CBL : merci !
Message masqué
epsyloN
 
Hettar> non, le GPGPU est apparu avec les GeForce 8. Il faut distinguer les premiers accélérateurs 3D, qui faisaient du Transform & Lighting (en gros de la multiplication de matrice et du produit scalaire en hardware) et l'arrivée des GPU avec shader programmable (un shader est un mini programme executé sur GPU, destiné a effectuer la transformation d'un vertex pour un vertex shader et calculer la couleur d'un pixel pour un pixel shader), et enfin les GPU généralistes programmables (GeForce 8 et CUDA : on utilise les shaders unifiés des GPU pour faire du calcul qui n'a pas forcément à voir avec la synthèse d'image; il s'agit d'adapter à l'architecture spécifique du GPU un probleme parallélisable : une texture est un tableau de nombres, etc... ce que CUDA permet c'est de faire travailler la carte graphique sur des données et avec des programmes quelconques, mais il n'en reste pas moins que le GPU sur lequel sont effectués les calculs reste une architecture fortement orientée pour le rendu d'images de synthèse : il faut donc avoir recours à quelques "ruses" programmatoires).

Les GPU suivent une évolution logique ou on tends à donner plus de flexibilité en codant moins de choses en dur (T&L fixe > shader programmable > CUDA), et Larrabee est EXACTEMENT dans cette logique, c'est à dire le stream processing.

Il faut faire attention parce que cet article est confu sur de plusieurs choses. A l'heure actuelle la tendance générale est a l'asymétrisme : des grosses unités de calcul, avec un "faible" nombre de coeurs (2, 4, 8 coeurs), mais avec beaucoup de cache, gestion de l'out of order, etc... pour les tâches "logiques" : execution du flow d'un programme, calcul d'IA, etc. Ces unités sont les CPU que l'on connait actuellement, et une très grande partie de leur complexité provient du cache et du pipelining. A coté de ça, on rajoute des petites unités, rapides, en grand nombre (16, 32, 64, 128 cores), avec un jeu d'instruction réduit (suffisament général, mais pas trop spécialisé non plus), qui travaillent en parallèle et/ou en chaîne, avec un modèle de mémoire partagée et une architecture bien spécifique pour permettre à ce beau monde de travailler ensemble. Typiquement, ce sont les GPU actuels, avec les shaders unifiés. On retrouve exactement ce type d'architecture dans le Cell d'IBM, avec un processeur PowerPC et les fameuses Synergistic Processing Units.
Il faut bien distinguer deux choses : la venue de nouveaux coeurs pour les CPU "généralistes", qui est le seul moyen qu'ont les ingénieurs de chez Intel et AMD pour augmenter la puissance à l'heure actuelle (puisqu'on commence à atteindre des limites physiques au niveau de l'augmentation de fréquence), et l'apparition de ces Stream Processors, unités de calcul massivement parallèles, qui ne sont adaptées qu'à certaines classes d'algorithmes. Typiquement, les algorithmes de rendu et tout ce qui est gourmand en calcul (la où un CPU et son pipelining et son cache sont plus adaptées aux programmes avec de nombreux branchements logiques et des accès mémoires "aléatoires"). Larrabee, d'après ce que l'on en sait, sera un stream processor complètement générique, la ou les GPU de nVidia et AMD sont encore fortement ancrés dans une architecture optimisée pour la rasterization. Forcément, passer d'une solution codée en hardware à une solution générique demandera des sacrifices à Intel et il est probable que c'est leur savoir faire en fabrication de CPU qui leur permettra de proposer un GPU / SP Larrabee aussi performant que les futures générations d'AMD / nVidia. (John Carmack, dans une interview, disait qu'il pensait qu'intel arriverait a 3 ou 4x le fréquençage par rapport a AMD / nVidia pour compenser le passage hard > soft). Il est cependant probable qu'on trouvera toujours, pour certaines petite tâches simples, des parties hardware spécialisées, comme par exemple pour le filtrage de texture, qui est très très lent sur CPU par rapport à une implémentation hardware (il y a eu une discussion à ce sujet sur les forum de gamedev).

Bref, il faut donc voir que Intel et AMD / nVidia vont dans la même direction générale : reste à savoir la forme "physique" que prendra ce couplage CPU multicore / Stream Processor. Intel voudra probablement une architecture type Cell pour proposer des solutions tout Intel tandis qu'AMD / nVidia continueront de promouvoir une carte externe pour pouvoir garder leur indépendance. Les deux types d'unités (CPU et Stream Processor) ont leur utilité et aucune d'entre elles n'est amené à mourir dans un futur proche, contrairement à ce qu'on pourrait croire en voyant Intel se lancer dans le GPU (pour le Larrabee ce seront bien des core type x86 mais simplifiés, ils seront plus proche de shaders unifiés que de CPU architecturalement parlant).

Concernant la guerre entre raytracing et rasterization, il y a beaucoup a dire mais c'est un sujet qui est "tout autre" et qui a déjà été sujet de nombreux débats (les intéressés pourront lire les forums de gamedev et de beyond3d, il y a pas mal de discussion la bas).
fwouedd
 
Ah bah Skizomeuh, y'a quand même eu pas mal de progrès de ce coté là. Un G92 consomme moins que l'ancien chipset et c'est pareil chez Ati.


Pour ce qui est du refroidissement, certaines des dernières 8800 sont plutôt discrètes.
LeGreg
 
nycoom a écrit :
oui mais tout ça, ça concerne essentiellement je jeu sur pc....donc LOLz quoi.


En fait retrospectivement (on ne peut pas parler du futur de manière certaine), les constructeurs de console (sony, microsoft, nintendo, sega) n'ont plus eu les moyens de développer de solutions graphiques maison (le cpu étant encore une exception pour le CELL co-développé par Sony avec Toshiba et IBM) pour leurs génération de console actuelle. Sauf grand chamboulement, le transfert de compétence pourrait être consommé à la génération suivante (y compris sur les consoles de poche). Bien entendu bien malin sera celui qui prédira quelle forme exacte auront les consoles prochaines.

Pour les joueurs, une fusion GPU-CPU est bénéfique car elle implique qu'il faudra acheter moins de matos


C'est ne regarder qu'une des variables du problème malheureusement.

La dichotomie (séparation des tâches) est plutot bien adapté aux problèmes des jeux vidéos actuels et à venir (qui poussent encore et toujours des tonnes de polygones et de pixels) et revenir au modèle où l'un des deux fait tout n'a de sens que pour une solution low-cost (ou low-power, comme les téléphones intelligents, les consoles de poche).

Ce que l'on pourrait y gagner en capacité de communication poussée entre cpu et gpu (et encore il faudrait un chamboulement au niveau de l'API) on le perdrait en terme de bande passante mémoire etc (qui n'est pas partagée sur les solutions haut de gamme actuelle). Sans parler du nombre de transistors que l'on peut pousser indépendemment sur chaque solution.

Donc moins de matos, oui peut-etre pour le media center dans le salon, le portable light sans espoir de faire tourner ni un jeu intense graphiquement (si le jeu sur PC survit sous sa forme actuelle) ni une adaptation console (puisque les consoles continueront à évoluer de leur côté).

Meme si on peut s'attendre à ce que ces PCs lights constituent sans doute un gros de la croissance du marché PC à venir, j'espère qu'ils ne serviront pas de base à la majorité des nouveaux développement de jeu sur PC.

Sinon minor corrections :
c'est NVIDIA (tout en gros, pas de petit 'n'). Et Ageia ('e' après le 'g').
nazg
 
On est pas dans la merde.
Et après on se demande pourquoi les consoles ont pris tant de terrain dans notre monde vidéo-ludique.

Ça va donner quoi? Une sorte de saloperie comme la gueguerre hddvd/br avec AMD au milieu et encore plus de bordel compliqué?

Levez le doigt ceux qui ont eu le courage de lire epsylon après s'être tapé la news d'une traite.
divide
 
La fusion CPU/GPU je n'y crois pas, tout du moins pas avant encore quelques temps. Parce que dans tous les programmes, il y a toujours 2 parties:

Celle qui nécessite d'executer un grand nombre de calculs/tests en serie (chaque résultat dépendant du précédent),
et celle ou le même petit calcul est répété à l'identique des milliers de fois (indépendement du résultat précedent).

Pour le premier, il faut une seule unité polyvalente capable d'aller très vite (CPU), et pour la deuxième un grand nombre de process parallèle.

16 CPU ou un seul GPU 4 fois plus rapide qu'une geforce actuelle ne serait pas aussi efficace que le couple CPU+GPU actuel. En fait, ce qui faudrait arriver à faire fusionner, c'est plutot la gestion de la mémoire: plus de pertes de temps en allers/retours CPU/GPU.

sinon, j'ai abandonné le post d'epsylon à la moitié (un commentaire doit etre synthetique, sinon c'est un article !) mais moi je ferai plutot remonter le GPGPU aux Geforce FX, les premières à proposer une programmabilité vraiment intéressante (et à partir desquelles on a vu un tas d'applications autres que graphiques apparaitre). D'ailleurs le site GPGPU.org est apparu en 2003, l'année de la sortie de la Geforce FX...
Crocopower
 
J'ai lu tout le commentaire d'epsyloN, et avec intérêt.
Comme beaucoup à l'époque, j'ai été frappé par l'incursion des technologies du pc dans les consoles actuelles. Wifi, DD, puces Ati ou NVIDIA, enfin je vais pas faire la liste. Je vois mal la pochaine génération faire autrement.
kgabou
 
C'est clair, les sociétés spécialisés dans la création de composants spécifiques ont tellement cru qu'elles sont maintenant incontournables. On ne verra plus MS ou Sony se dire "Tiens, et si je faisait mon chip graphique dans mon coin...". Le résultat serait juste ridicule face aux armées d'ingénieurs rodés depuis des années et ne travaillant QUE là-dessus.

Déjà que le Graphic Synthetiser de la PS2 était très limite face aux puces ATI de la GC et NVIDIA de la XBox, qu'est-ce que ça serait maintenant... ^^
epsyloN
 
divide a écrit :

sinon, j'ai abandonné le post d'epsylon à la moitié (un commentaire doit etre synthetique, sinon c'est un article !)

Oui j'ai été un peu verbeux, sinon je raconte grosso modo la meme chose que toi.

mais moi je ferai plutot remonter le GPGPU aux Geforce FX, les premières à proposer une programmabilité vraiment intéressante (et à partir desquelles on a vu un tas d'applications autres que graphiques apparaitre). D'ailleurs le site GPGPU.org est apparu en 2003, l'année de la sortie de la Geforce FX...


Oui c'est fort possible.

Il faut voir un truc c'est que Tim Sweeney d'epic (et son interview reprise sur nofrag) raconte des trucs pas inintéressant mais quelques conneries aussi. "Windows pourrait tourner sur un GPU"...
Reblochon
 
kgabou a écrit :
On ne verra plus MS ou Sony se dire "Tiens, et si je faisait mon chip graphique dans mon coin...". Le résultat serait juste ridicule face aux armées d'ingénieurs rodés depuis des années et ne travaillant QUE là-dessus.

Ca me rappelle le jour où Matrox avait essayé de rattraper son retard dans le JV en lancant une nouvelle carte graphique progamer. Elle a du leur tomber sur les pieds. Ca a ete le coup de grace et depuis ils ont abandonné ce secteur. On ne peut pas dire pourtant qu'ils ne connaissaient pas les cartes graphiques !

Personnellement j'aime bien le principe du gros GPU sur la carte graphique qui me permet d'upgrader mon PC à moindre cout. En ce moment, mon PC est moins puissant que les dernieres CG.
Ash_95
 
Message supprimé à la demande d'Ashtivision
fwouedd
 
Oui par contre attention, l'interet des "petits" core2duo avec les grosses cartes, c'est aussi leur possibilités d'overclocking (qui sont vraiment faramineuses, là plupart prennent 1 gigahertz sans broncher).

Ca se perçoit probablement moins, mais le processeur limite toujours le framerate.

De plus , il faut ajouter que les jeux font de plus en plus appels à des disques durs rapide et de grosses quantités de ram, alors qu'il y à peu, un gros proc et une grosse carte suffisait.
kgabou
 
Ben la situation actuelle est pas si mal : un gamer exigeant sur les graphismes peut renouveler sa CG tous les 12/18 mois en ne touchant au bloc mobo/proc qu'une fois tous les 3 ans. Une fusion CPU/GPU (encore une fois totalement utopique dans le haut de gamme) obligerait à tout changer tous les 18 mois... donc tu m'étonnes que c'est le rêve d'INtel! ^^

Sinon par rapport aux consoles on reste loin de leur prix, mais pour un systême qui n'a pas les mêmes utilisations, faut pas l'oublier.
kgabou
 
@foued: pour les DD, tous les jeux passent impec sur un 7200t/mn basique, autrement dit la quasi-totalité du parc. Et sinon par rapport à l'OC apparemment INtel tenterait de supprimer toute possibilité sur le bas et moyen de gamme de ses prochains procos (les Nehalem), en libérant FSB et coef sur le haut de gamme... :(
Ash_95
 
Message supprimé à la demande d'Ashtivision
fwouedd
 
Je suis pas sur Ash, à 1000 euros le processeur haut de gamme dont le coef est debloqué qui s'arrache chez les overclockeurs, sans parler de la pub que ça fait quand "la communauté" apprends que tel modele monte a telle fréquence, je ne suis pas sur que l'OC embette vraiment les Intel et AMD.

D'ailleur, je te copie colle les caractéristiques d'une carte Intel :

"La carte mère Intel® DX38BT est ainsi conçue pour tirer parti de toute la puissance des processeurs Intel® Core™2 Extreme. Avec sa prise en charge d'un bus frontal à 1 333 MHz, d'une mémoire DDR3 plus rapide et de l'overclocking"
Ash_95
 
Message supprimé à la demande d'Ashtivision
Lostsoul
 
"...transformant finalement les PC en consoles. Par contre pour les constructeurs, elle conduit à la mort ou à la reconversion du perdant."
ARG! c'est pas faux. CBL quand tu écrit des articles, pense à relativiser / placer des portes de sorties / raconter des conneries. C'est trop prophétique sans issue sinon. Pas bon pour vendre du papier. Surtout si c'est vrai comme à ton habitude.
M0rb
 
nazg a écrit :
Levez le doigt ceux qui ont eu le courage de lire epsylon après s'être tapé la news d'une traite.

o/


Sinon je connais pas les détails techniques, mais je vois mal une solution aussi fonctionnelle et versatile que les sempiternels CPU/GPU se mettre en place rapidement. Surtout qu'au delà du simple problème technique, c'est toute une industrie à faire bouger : les constructeurs, les développeurs, les consommateurs... On voit déjà le bordel quand il s'agit de passer de l'AGP au PCI-E, ou même à Vista/DX10.
Vous devez être connecté pour pouvoir participer à la discussion.
Cliquez ici pour vous connecter ou vous inscrire.
Soutenez Factornews.com

Tribune

Le vertueux
(17h22) Le vertueux Je croyais qu'il était mort il y a 20 ans.
Niko
(17h21) Niko Je refuse.
Doc_Nimbus
(17h14) Doc_Nimbus :(
_Kame_
(16h21) _Kame_ Gotlib est mort :'(
Zakwil
(14h52) Zakwil [youtube.com] très bon film et bonne BO
Laurent
(10h39) Laurent LeGreg > Oui, c'est un petit bijou. Il y a des moments où tu te dis "ah ouais, quand même !"
LeGreg
(07h06) LeGreg Crusing > MrPapillon > en tout cas pour l'instant I'm in love avec l'esthétique et les puzzles.
samedi 03 décembre 2016
Yolteotl
(23h55) Yolteotl Mais The last of us II !
Crusing
(23h42) Crusing Non, c'est un remaster.
Yolteotl
(19h15) Yolteotl Nouveau Wipeouit!
Yolteotl
(19h15) Yolteotl Nouveau Marvel vs capcom!
Yolteotl
(19h09) Yolteotl Et un nouveau uncharted
Yolteotl
(19h07) Yolteotl ça ressemble carrément à du Naughty dog ce premier jeu
Yolteotl
(18h39) Yolteotl [live.playstation.com]
Yolteotl
(18h39) Yolteotl Il n'y aura probablement pas grand chose d'excitant mais Playstation Expérience démarre à 19h
Crusing
(14h27) Crusing Big Apple > On dirait le pitch d'un épisode d'une vieille saison de south park.
Big Apple
(12h18) Big Apple l'info WTF du jour :)
Big Apple
(12h18) Big Apple "L'agent des services secrets allemands qui voulait commettre un attentat est un ancien acteur porno gay converti à l’islam en 2014."
vendredi 02 décembre 2016
Crusing
(21h37) Crusing (21h24) Y'a un paquet de puzzle qui mérite plus qu'une session au chiotte.La plupart en fait.
Crusing
(21h36) Crusing Evidemment, puisque tu fais les mauvais choix systématiquement, c'est bien légitime.
MrPapillon
(21h25) MrPapillon Crusing, tu savais que j'avais une WiiU ?
MrPapillon
(21h24) MrPapillon N'écoute pas Crusing.
MrPapillon
(21h24) MrPapillon On peut facilement faire des pauses de The Witness. C'est facile d'y replonger. En plus c'est vraiment un jeu qui peut se jouer par tout petits morceaux.
Crusing
(20h54) Crusing LeGreg > Bein le tout début oui, après ça demande quand même un poil d'abnégation, comprendre que certains puzzle peuvent soit te bloquer soit te prendre du temps. Et y'en a environs 600... donc en gros tu peux en faire une centaine en "casu"
LeGreg
(20h48) LeGreg Crusing > oui je sais. la question c'est est-ce que je pourrai y jouer en casual ou pas
Crusing
(20h40) Crusing LeGreg > Si t'as pas de temps, prendre the witness n'est pas très malin.
LeGreg
(20h32) LeGreg Bon j'ai choppé Doom et The Witness en solde. Faut juste que je trouve du temps pour y jouer un peu :/
zouz
(16h08) zouz Overwatch élu jeu de l'année aux game awards, content de voir que cette supercherie reste dans son élément.
Darkigo
(14h21) Darkigo MrPapillon > Ca me fait aussi penser à cet épisode de Battlestar où ils cherchent à atteindre une station spatiale au milieu d'un nuage de poussière...
Darkigo
(14h17) Darkigo MrPapillon > stylé ce rendu volumétrique ! Ca donne envie de faire une simu aérienne avec cette qualité de rendu !
Zakwil
(14h05) Zakwil [youtube.com] je laisse ça là
Khdot
(11h44) Khdot [nextinpact.com]
Doc_Nimbus
(10h03) Doc_Nimbus hohun > Oh oui, avec Gad Elmaleh et Kev Adams. <3
hohun
(09h55) hohun [lefigaro.fr] une bien bonne nouvelle en ces temps maussades
_Kame_
(09h00) _Kame_ LeGreg > J'ai pas dis que j'avais pas d'explications à ça, je soulignais juste le fait qu'on est une race stupide, et que oui, on regrettera Hollande.
LeGreg
(03h07) LeGreg Bon ça n'a pas marché pour Clinton.. mais elle a fait l'erreur de refaire parler d'elle :)
LeGreg
(03h05) LeGreg Les gens étaient jeunes quand il y avait Y.. du coup les problèmes liés à la vieillesse sont confondus avec la disparition de Y ou l'apparition de Z.
LeGreg
(03h04) LeGreg Kame> nostalgie. C'est comme pour les jeux vidéo
Crusing
(00h19) Crusing ♪ ♫ vooooootez jAcques chirAc ♫ ♪
_Kame_
(00h07) _Kame_ Chirac: en juin 2006, 27% de favorable, aujourd'hui, 83% disent qu'en fait c'était bien sous son mandat. D'accord les gens.
jeudi 01 décembre 2016
thedan
(23h46) thedan moi, je vous mets mon billet que dans 2 ou 3 ans, on le regrettera !
_Kame_
(23h23) _Kame_ Oh oui, l'impact de sa non candidature est tellement quantifiable et qualifiable sur la destinée de chacun de nous et de celle du pays, que c'est forcément une super nouvelle.
Laurent
(23h16) Laurent (20h13) Meilleure nouvelle de l'année
MrPapillon
(21h12) MrPapillon Les jeux du "lineup" de la sortie de l'Oculus Touch : [oculus.com] . Pas beaucoup de surprises, principalement des portages sur le Touch de trucs de l'Oculus Home et de Steam.
Crusing
(21h07) Crusing Haha Macron qui avait prévu une ITW en suivant, quel ténia ce mec.
Big Apple
(20h13) Big Apple Ah non, il déclare forfait
Big Apple
(19h56) Big Apple S'il a le sens de l'humour, il faudrait qu'il annonce la dissolution de l'assemblée nationale :)
Big Apple
(19h55) Big Apple Attention, événement : François Hollande va parler à 20h00
hohun
(18h27) hohun Encore un noob qui croit qu'il va mieux jouer parce qu'il a une bande passante de ouf !
hohun
(18h27) hohun [lexpress.fr] "Le très haut débit, ce n'est pas uniquement pour que tout le monde puisse jouer à Warcraft"
MrPapillon
(11h55) MrPapillon (Il y a une vidéo dans l'article).
MrPapillon
(11h55) MrPapillon Un peu de rendu volumétrique sous Unreal : [shaderbits.com] (Donc pas de triangles/polys pour ça, c'est une forme de rendu très praticulière).
MrPapillon
(08h55) MrPapillon Crusing > [theguardian.com]
Crusing
(08h31) Crusing MrPapillon > Je crois que c'est clair, un mec qui conduit n'importe comment en Lada dans un monde désolé rempli de tarés violents, c'est une allégorie de la Russie.
mercredi 30 novembre 2016
MrPapillon
(20h37) MrPapillon Lien sans la ponctuation : [vimeo.com]
MrPapillon
(20h36) MrPapillon Crusing > Le gars a l'air d'avoir un trip surréaliste cartoon bizarre assez maîtrisé ([vimeo.com] Du coup je vais attendre que ça soit plus avancé pour mieux comprendre où il veut en venir.
Crusing
(20h23) Crusing MrPapillon > Sympa, dommage que ce soit pas avec BeamNG, et que la caisse m'ai fait instantanément penser à ça [youtube.com]
Crusing
(20h08) Crusing CBL > Je viens de enfin convertir un vieil ipod3G en clef USB, alors très peu pour moi apeul. Non mais la samsung à l'air de faire le job.
CBL
(19h09) CBL Des graphistes de ma boite l'utilise comme une Cintiq grace à l'appli Duet et ca defonce
CBL
(19h08) CBL Crusing > Ipad Pro ?
MrPapillon
(17h25) MrPapillon Un survival en caisse : [forums.tigsource.com]
Crusing
(15h46) Crusing Niko > tu ferais mieux de trouver qui se cache derrière MetalSmileGeishAsh95, au lieu de dire des cochoncetés.
MrPapillon
(15h06) MrPapillon Il change une fois tous les 30 ans.
Niko
(14h33) Niko - Merde, on a un spambot! - Ah non, c'est juste Crusing qui a changé d'avatar
Crusing
(14h14) Crusing Krita a peut etre du couteau depuis.
Crusing
(14h13) Crusing Sinon Painter quoi...
Crusing
(14h12) Crusing Zakwil > C'est vieux Artrage, je sais pas comment ça a évolué.
Crusing
(14h12) Crusing Dites, à part la Galaxy View , y'a quoi comme tablette grand format?
Zakwil
(14h10) Zakwil bah on recherchait l'effet au couteau, ce qu'artrage a mais verve à l'air de mieux gérer les pâtés de peinture (plus 3d)
Crusing
(14h03) Crusing Zakwil > Artrage est mieux?
Zakwil
(13h49) Zakwil Crusing > merci c'est mieux
Crusing
(11h27) Crusing Zakwil > C'est quoi la diff avec Artrage?
Zakwil
(10h37) Zakwil il y a freshpaint sur la surface (mais pas d'effet couteau)
Zakwil
(09h54) Zakwil salut, il existe une alternative à [taron.de] un peu plus récente?
mardi 29 novembre 2016
MrPapillon
(23h14) MrPapillon Life is short : [youtube.com]
MrPapillon
(23h12) MrPapillon Ça devrait directement faire partie de Windows.
MrPapillon
(23h09) MrPapillon Faudrait la même chose sur FFXV.
Le vertueux
(22h58) Le vertueux Big Apple > c'est pas mal, faudrait la même chose sur des consoles portables.
Big Apple
(22h44) Big Apple MrPapillon > le meilleur filtre crt est le HLSL sur mame, vidéo de démonstration avant/après sur Street Fighter 2 [youtube.com]
Big Apple
(22h27) Big Apple si le space jockey d'alien avait une Gameboy, ça serait celle de Real Phoenix :)
The Real Phoenix
(20h43) The Real Phoenix Crusing > Pour que ca donne du gout.
Crusing
(20h23) Crusing Pourquoi diable l'avoir fait en pâte à sel!
The Real Phoenix
(17h06) The Real Phoenix Tiends en parlant d'emulation, j'ai fini ca hier pour un pote: [i.imgur.com] [i.imgur.com]
noir_desir
(16h54) noir_desir wata_ > Sur que ça motive vachement moins :(
dagon
(16h04) dagon (10h45) Crusing > toute la presse l'a annoncé, mais le site est de nouveau en ligne... efficace ^^
Crusing
(14h11) Crusing c'est l'anniversaire!! [youtube.com]
MrPapillon
(14h00) MrPapillon Et la basse résolution c'est moin joli sur un écran plat que sur un CRT.
MrPapillon
(13h59) MrPapillon Du bilinear + une haute résolution et on a l'impression que les décors sont plus vides que l'impression que ça donnait à l'époque. (Une des raisons pour lesquelles je préfère jouer de l'époque en basse réso et sans bilinear).
MrPapillon
(13h58) MrPapillon Crusing > Bah les graphs de l'époque fonctionnaient bien parce que les jeux étaient en basse résolution. Les pixels qui gigotaient de partout, ça créait du détail visuel, et quand on lisse tout ça on perd.
Crusing
(13h53) Crusing wata_ > Tu confonds pixel art et jeux 3D, personne veut du scanline sur MK64.
fwouedd
(13h50) fwouedd wata_ > Pas vraiment, tu peux améliorer le rendu quand c'est affiché en 3D. Mais avec les sprites de la 2D qui ont été conçu autour des imperfections du CRT, c'est plus moche avec un LCD que ça l'était.
wata_
(13h45) wata_ noir_desir > sûr que la patience d'attendre les soldes Steam & co sont le retour de baton de l'armure pour cheval d'Oblivion et ses nombreux émules
wata_
(13h43) wata_ Il y a vraiment deux école niveau émulation : "ouais Zelda64 en 4K antialiasing 120fps" et "bon faut que ce soit crado comme dans mon enfance"
fwouedd
(12h59) fwouedd Du coup, à moins d'être un vrai passionné du balayage, ça le fait. Par contre, c'est vraiment chiant à parametrer.
fwouedd
(12h58) fwouedd Ca prends tout en compte, le type de dalle, l'éclairage, ça simule le rafraichissement, les couleurs, les formes des ecrans.
fwouedd
(12h57) fwouedd MrPapillon > Ah clairement, mais les filtres CRT depuis quelques années sont vraiment balaises.
MrPapillon
(12h51) MrPapillon fwouedd > La vidéo était pas pour toi. On y voit clairement le gain de qualité entre un jeu sans filtre CRT et un vrai CRT.
fwouedd
(12h23) fwouedd (08h44) Je comprends pas ce que tu me montres. Ta video on voit un mame sans config HLSL.
rEkOM
(11h56) rEkOM Et en fouillant dans le github y'a même un patch POC pour jouer en VR :) [github.com]
rEkOM
(11h56) rEkOM Il vient d'avoir un hotfix du patch d'aout de Fez... [github.com]