Connexion
Pour récupérer votre compte, veuillez saisir votre adresse email. Vous allez recevoir un email contenant une adresse pour récupérer votre compte.
Inscription
En vous inscrivant, vous acceptez les conditions d'utilisation du site et de nous vendre votre âme pour un euro symbolique. Amusez vous, mais pliez vous à la charte.
 
ACTU

GPU contre CPU

CBL par CBL,  email  @CBL_Factor
 
Une partie de notre lectorat est en vacances et glande devant GTA IV tandis que l'autre compte les secondes en attendant d'être en week-end prolongé ce soir. Bref, c'est le bon moment pour faire une news technique bien lourde. Avant l'apparition des GPU (processeurs dédidés aux graphismes), le monde était simple : le CPU (processeur central) faisait les calculs pour les jeux et la carte graphique les affichait. Les premières GeForce d'nVidia ont rendu ce shéma caduque en prenant en charge une partie des calculs avec le Transform & Lightning et en introduisant les GPU. Depuis, les GPU n'ont cessé de gagner en complexité et en puissance au point de prendre le pas sur les CPU. Selon ce dossier et d'autres, la montée en fréquence/puissance du CPU ne fait plus gagner beaucoup de FPS.

Les deux poids lourds du milieu sont Intel (CPU) et NVIDIA (GPU). L'hégémonie actuelle d'nVidia sur les GPU pour joueurs risque d'être mise à mal par l'arrivée d'Intel sur le marché avec Larrabee, leur GPU maison fondé en partie sur l'architecture x86 qui règne sur le monde des CPU depuis près de 30 ans. En parallèle, les CPU d'Intel sont aussi de plus en plus complexes et comportent surtout de plus en plus de coeurs. Si le double-coeur est la norme actuelle, le prochain CPU que vous acheterez sera surement un octo-coeur. Même si les développeurs de jeux commencent à arriver à exploiter ces architectures multi-coeur, il y a peu de chances pour que les huit coeurs soient exploités un jour. A quoi pourra servir le relicat de puissance ? A traiter les graphismes par exemple. En effet, le but d'Intel est de fondre CPU et GPU en un seul processeur (à la manière de ce que va faire AMD avec les GPU ATI) voir de virer complètement le GPU pour que le CPU s'occupe de tout. Ceux qui se souviennent des promesses du MMX sont en train de rigoler un bon coup.

Evidemment, NVIDIA voit ce futur d'un mauvais oeil et pense l'inverse. Dans les GeForce séries 8xxxx et 9xxx, on trouve des unités de calcul, les fameux stream processors. Ces unités de calcul savent faire bien plus qu'afficher des beaux graphismes. nVidia a même sorti CUDA, une technologie qui permet de développer des programmes en C pour les exécuter sur ... les GPU. Et si un GPU était capable de faire tourner l'ensemble du système ? Le CPU deviendrait alors inutile. Même sans aller jusqu'à cet extrême, un petit CPU pas cher combiné à un gros GPU pourrait bien faire l'affaire. Ca tombe bien, nVidia vient de s'associer à Via (un constructeur de CPU peu puissants) pour sortir une plate-forme low cost commune.

Les moteurs physiques sont un bon exemple de cette lutte entre Intel et NVIDIA. Intel s'est payé Havok, développeur du moteur physique éponyme numéro un sur le marché, et compte se servir de ce moteur pour promouvoir à fond ses CPU multi-coeurs. NVIDIA s'est payé Ageia, développeur du moteur physique PhysX qui est le grand concurrent du Havok, et pourront bientôt booster ce moteur physique. La guerre est déclarée. Pour les joueurs, une fusion GPU-CPU est bénéfique car elle implique qu'il faudra acheter moins de matos et que les jeux seront bien mieux optimisés car les développeurs travailleront sur une architecture unique, transformant finalement les PC en consoles. Par contre pour les constructeurs, elle conduit à la mort ou à la reconversion du perdant.
 

Commentaires

Masquer les commentaires lus.
androide
 
nVidia vient de s'associer à Via (un constructeur de CPU peu puissant) pour sortir une plate-forme low coast commune.

Une plateforme sur pilotis _ça va de soi_ si la côte est trop basse.
nycoom
 
oui mais tout ça, ça concerne essentiellement je jeu sur pc....donc LOLz quoi.
Knibal
 
Et AMD/ATI ? Ils sont déjà hors course ?
fwouedd
 
"les jeux seront bien mieux optimisés car les développeurs travailleront sur une architecture unique"

A moins qu'AMD et que Nvidia coulent, j'imagine mal une architecture unique arriver tant que la concurrence fait rage autour des performances.

Ce qui est a craindre à mon avis, ce serait une solution chez nvidia basé sur un super GPU, une solution chez AMD et une solution chez Intel avec leur GPGPU.
Là les développeurs auront une raison technique en plus de la raison financière pour abandonner définitivement le PC.
Onirik
 
On avait deja du mal avec les SPUs de la PS3, si chaque constructeur y va de sa solution maintenant, on est pas dans la m.....
Hettar
 
Euh, le fait que le GPU se charge d'autre chose que d'afficher bêtement et simplement, ça remonte pas à avant les Gforce ? genre aux Voodoo et Mystiques et autres ?
Larius
 
développeur du moteur physique PhysX qui est le grand concurrent du Havok


J'en suis au stade de me demander si PhysX concurrence quoi que ce soit, alors "grand" concurrent ...

Et pourquoi pas une alliance entre Nvidia et Amd.
kgabou
 
Mouerf, quand on voit l'absence totale de détails sur Larabee et le foin qu'ils ont fait sur le ray tracing pour finalement le mettre au second plan, on peut dire que le couple CPU/GPU a de beaux jours devant lui, et que loin d'une révolution, INtel ne fera que débarquer dans le domaine des GPU pour joueurs (on verra avec quel succès...). Surtout que la situation actuel tend à montrer que c'est le GPU qui bouffe sur le CPU, et pas l'inverse, avec beaucoup de calculs (encodage/décodage video, physique, traitement d'image, etc) qui sont petit à petit déportés sur la carte graphique.

Dans tous les cas, même si c'est très marketing, je trouve INtel assez prétentieux, et ça sent le bide... Même AMD, dans son projet Fusion, précise qu'il ne s'agit que d'un moyen de diminuer la consommation des machines bas de gammes ou très intégrées.
Akshell
 
non les Geforce 256 était les première à faire du T&L : http://fr.wikipedia.org/wiki/GeForce#Les_GeForce_256
faust
 
nycoom a écrit :
oui mais tout ça, ça concerne essentiellement je jeu sur pc....donc LOLz quoi.

Et tu crois qui a pas de matos PC dans ta console ?
Skizomeuh
 
Qu'ils travaillent sur la consommation, la chaleur et les nuisances sonores que ça implique plutôt !
no_rick
 
low coast, c'est entre east coast et west coast?

CBL : merci !
Message masqué
epsyloN
 
Hettar> non, le GPGPU est apparu avec les GeForce 8. Il faut distinguer les premiers accélérateurs 3D, qui faisaient du Transform & Lighting (en gros de la multiplication de matrice et du produit scalaire en hardware) et l'arrivée des GPU avec shader programmable (un shader est un mini programme executé sur GPU, destiné a effectuer la transformation d'un vertex pour un vertex shader et calculer la couleur d'un pixel pour un pixel shader), et enfin les GPU généralistes programmables (GeForce 8 et CUDA : on utilise les shaders unifiés des GPU pour faire du calcul qui n'a pas forcément à voir avec la synthèse d'image; il s'agit d'adapter à l'architecture spécifique du GPU un probleme parallélisable : une texture est un tableau de nombres, etc... ce que CUDA permet c'est de faire travailler la carte graphique sur des données et avec des programmes quelconques, mais il n'en reste pas moins que le GPU sur lequel sont effectués les calculs reste une architecture fortement orientée pour le rendu d'images de synthèse : il faut donc avoir recours à quelques "ruses" programmatoires).

Les GPU suivent une évolution logique ou on tends à donner plus de flexibilité en codant moins de choses en dur (T&L fixe > shader programmable > CUDA), et Larrabee est EXACTEMENT dans cette logique, c'est à dire le stream processing.

Il faut faire attention parce que cet article est confu sur de plusieurs choses. A l'heure actuelle la tendance générale est a l'asymétrisme : des grosses unités de calcul, avec un "faible" nombre de coeurs (2, 4, 8 coeurs), mais avec beaucoup de cache, gestion de l'out of order, etc... pour les tâches "logiques" : execution du flow d'un programme, calcul d'IA, etc. Ces unités sont les CPU que l'on connait actuellement, et une très grande partie de leur complexité provient du cache et du pipelining. A coté de ça, on rajoute des petites unités, rapides, en grand nombre (16, 32, 64, 128 cores), avec un jeu d'instruction réduit (suffisament général, mais pas trop spécialisé non plus), qui travaillent en parallèle et/ou en chaîne, avec un modèle de mémoire partagée et une architecture bien spécifique pour permettre à ce beau monde de travailler ensemble. Typiquement, ce sont les GPU actuels, avec les shaders unifiés. On retrouve exactement ce type d'architecture dans le Cell d'IBM, avec un processeur PowerPC et les fameuses Synergistic Processing Units.
Il faut bien distinguer deux choses : la venue de nouveaux coeurs pour les CPU "généralistes", qui est le seul moyen qu'ont les ingénieurs de chez Intel et AMD pour augmenter la puissance à l'heure actuelle (puisqu'on commence à atteindre des limites physiques au niveau de l'augmentation de fréquence), et l'apparition de ces Stream Processors, unités de calcul massivement parallèles, qui ne sont adaptées qu'à certaines classes d'algorithmes. Typiquement, les algorithmes de rendu et tout ce qui est gourmand en calcul (la où un CPU et son pipelining et son cache sont plus adaptées aux programmes avec de nombreux branchements logiques et des accès mémoires "aléatoires"). Larrabee, d'après ce que l'on en sait, sera un stream processor complètement générique, la ou les GPU de nVidia et AMD sont encore fortement ancrés dans une architecture optimisée pour la rasterization. Forcément, passer d'une solution codée en hardware à une solution générique demandera des sacrifices à Intel et il est probable que c'est leur savoir faire en fabrication de CPU qui leur permettra de proposer un GPU / SP Larrabee aussi performant que les futures générations d'AMD / nVidia. (John Carmack, dans une interview, disait qu'il pensait qu'intel arriverait a 3 ou 4x le fréquençage par rapport a AMD / nVidia pour compenser le passage hard > soft). Il est cependant probable qu'on trouvera toujours, pour certaines petite tâches simples, des parties hardware spécialisées, comme par exemple pour le filtrage de texture, qui est très très lent sur CPU par rapport à une implémentation hardware (il y a eu une discussion à ce sujet sur les forum de gamedev).

Bref, il faut donc voir que Intel et AMD / nVidia vont dans la même direction générale : reste à savoir la forme "physique" que prendra ce couplage CPU multicore / Stream Processor. Intel voudra probablement une architecture type Cell pour proposer des solutions tout Intel tandis qu'AMD / nVidia continueront de promouvoir une carte externe pour pouvoir garder leur indépendance. Les deux types d'unités (CPU et Stream Processor) ont leur utilité et aucune d'entre elles n'est amené à mourir dans un futur proche, contrairement à ce qu'on pourrait croire en voyant Intel se lancer dans le GPU (pour le Larrabee ce seront bien des core type x86 mais simplifiés, ils seront plus proche de shaders unifiés que de CPU architecturalement parlant).

Concernant la guerre entre raytracing et rasterization, il y a beaucoup a dire mais c'est un sujet qui est "tout autre" et qui a déjà été sujet de nombreux débats (les intéressés pourront lire les forums de gamedev et de beyond3d, il y a pas mal de discussion la bas).
fwouedd
 
Ah bah Skizomeuh, y'a quand même eu pas mal de progrès de ce coté là. Un G92 consomme moins que l'ancien chipset et c'est pareil chez Ati.


Pour ce qui est du refroidissement, certaines des dernières 8800 sont plutôt discrètes.
LeGreg
 
nycoom a écrit :
oui mais tout ça, ça concerne essentiellement je jeu sur pc....donc LOLz quoi.


En fait retrospectivement (on ne peut pas parler du futur de manière certaine), les constructeurs de console (sony, microsoft, nintendo, sega) n'ont plus eu les moyens de développer de solutions graphiques maison (le cpu étant encore une exception pour le CELL co-développé par Sony avec Toshiba et IBM) pour leurs génération de console actuelle. Sauf grand chamboulement, le transfert de compétence pourrait être consommé à la génération suivante (y compris sur les consoles de poche). Bien entendu bien malin sera celui qui prédira quelle forme exacte auront les consoles prochaines.

Pour les joueurs, une fusion GPU-CPU est bénéfique car elle implique qu'il faudra acheter moins de matos


C'est ne regarder qu'une des variables du problème malheureusement.

La dichotomie (séparation des tâches) est plutot bien adapté aux problèmes des jeux vidéos actuels et à venir (qui poussent encore et toujours des tonnes de polygones et de pixels) et revenir au modèle où l'un des deux fait tout n'a de sens que pour une solution low-cost (ou low-power, comme les téléphones intelligents, les consoles de poche).

Ce que l'on pourrait y gagner en capacité de communication poussée entre cpu et gpu (et encore il faudrait un chamboulement au niveau de l'API) on le perdrait en terme de bande passante mémoire etc (qui n'est pas partagée sur les solutions haut de gamme actuelle). Sans parler du nombre de transistors que l'on peut pousser indépendemment sur chaque solution.

Donc moins de matos, oui peut-etre pour le media center dans le salon, le portable light sans espoir de faire tourner ni un jeu intense graphiquement (si le jeu sur PC survit sous sa forme actuelle) ni une adaptation console (puisque les consoles continueront à évoluer de leur côté).

Meme si on peut s'attendre à ce que ces PCs lights constituent sans doute un gros de la croissance du marché PC à venir, j'espère qu'ils ne serviront pas de base à la majorité des nouveaux développement de jeu sur PC.

Sinon minor corrections :
c'est NVIDIA (tout en gros, pas de petit 'n'). Et Ageia ('e' après le 'g').
nazg
 
On est pas dans la merde.
Et après on se demande pourquoi les consoles ont pris tant de terrain dans notre monde vidéo-ludique.

Ça va donner quoi? Une sorte de saloperie comme la gueguerre hddvd/br avec AMD au milieu et encore plus de bordel compliqué?

Levez le doigt ceux qui ont eu le courage de lire epsylon après s'être tapé la news d'une traite.
divide
 
La fusion CPU/GPU je n'y crois pas, tout du moins pas avant encore quelques temps. Parce que dans tous les programmes, il y a toujours 2 parties:

Celle qui nécessite d'executer un grand nombre de calculs/tests en serie (chaque résultat dépendant du précédent),
et celle ou le même petit calcul est répété à l'identique des milliers de fois (indépendement du résultat précedent).

Pour le premier, il faut une seule unité polyvalente capable d'aller très vite (CPU), et pour la deuxième un grand nombre de process parallèle.

16 CPU ou un seul GPU 4 fois plus rapide qu'une geforce actuelle ne serait pas aussi efficace que le couple CPU+GPU actuel. En fait, ce qui faudrait arriver à faire fusionner, c'est plutot la gestion de la mémoire: plus de pertes de temps en allers/retours CPU/GPU.

sinon, j'ai abandonné le post d'epsylon à la moitié (un commentaire doit etre synthetique, sinon c'est un article !) mais moi je ferai plutot remonter le GPGPU aux Geforce FX, les premières à proposer une programmabilité vraiment intéressante (et à partir desquelles on a vu un tas d'applications autres que graphiques apparaitre). D'ailleurs le site GPGPU.org est apparu en 2003, l'année de la sortie de la Geforce FX...
Crocopower
 
J'ai lu tout le commentaire d'epsyloN, et avec intérêt.
Comme beaucoup à l'époque, j'ai été frappé par l'incursion des technologies du pc dans les consoles actuelles. Wifi, DD, puces Ati ou NVIDIA, enfin je vais pas faire la liste. Je vois mal la pochaine génération faire autrement.
kgabou
 
C'est clair, les sociétés spécialisés dans la création de composants spécifiques ont tellement cru qu'elles sont maintenant incontournables. On ne verra plus MS ou Sony se dire "Tiens, et si je faisait mon chip graphique dans mon coin...". Le résultat serait juste ridicule face aux armées d'ingénieurs rodés depuis des années et ne travaillant QUE là-dessus.

Déjà que le Graphic Synthetiser de la PS2 était très limite face aux puces ATI de la GC et NVIDIA de la XBox, qu'est-ce que ça serait maintenant... ^^
epsyloN
 
divide a écrit :

sinon, j'ai abandonné le post d'epsylon à la moitié (un commentaire doit etre synthetique, sinon c'est un article !)

Oui j'ai été un peu verbeux, sinon je raconte grosso modo la meme chose que toi.

mais moi je ferai plutot remonter le GPGPU aux Geforce FX, les premières à proposer une programmabilité vraiment intéressante (et à partir desquelles on a vu un tas d'applications autres que graphiques apparaitre). D'ailleurs le site GPGPU.org est apparu en 2003, l'année de la sortie de la Geforce FX...


Oui c'est fort possible.

Il faut voir un truc c'est que Tim Sweeney d'epic (et son interview reprise sur nofrag) raconte des trucs pas inintéressant mais quelques conneries aussi. "Windows pourrait tourner sur un GPU"...
Reblochon
 
kgabou a écrit :
On ne verra plus MS ou Sony se dire "Tiens, et si je faisait mon chip graphique dans mon coin...". Le résultat serait juste ridicule face aux armées d'ingénieurs rodés depuis des années et ne travaillant QUE là-dessus.

Ca me rappelle le jour où Matrox avait essayé de rattraper son retard dans le JV en lancant une nouvelle carte graphique progamer. Elle a du leur tomber sur les pieds. Ca a ete le coup de grace et depuis ils ont abandonné ce secteur. On ne peut pas dire pourtant qu'ils ne connaissaient pas les cartes graphiques !

Personnellement j'aime bien le principe du gros GPU sur la carte graphique qui me permet d'upgrader mon PC à moindre cout. En ce moment, mon PC est moins puissant que les dernieres CG.
Ash_95
 
Message supprimé à la demande d'Ashtivision
fwouedd
 
Oui par contre attention, l'interet des "petits" core2duo avec les grosses cartes, c'est aussi leur possibilités d'overclocking (qui sont vraiment faramineuses, là plupart prennent 1 gigahertz sans broncher).

Ca se perçoit probablement moins, mais le processeur limite toujours le framerate.

De plus , il faut ajouter que les jeux font de plus en plus appels à des disques durs rapide et de grosses quantités de ram, alors qu'il y à peu, un gros proc et une grosse carte suffisait.
kgabou
 
Ben la situation actuelle est pas si mal : un gamer exigeant sur les graphismes peut renouveler sa CG tous les 12/18 mois en ne touchant au bloc mobo/proc qu'une fois tous les 3 ans. Une fusion CPU/GPU (encore une fois totalement utopique dans le haut de gamme) obligerait à tout changer tous les 18 mois... donc tu m'étonnes que c'est le rêve d'INtel! ^^

Sinon par rapport aux consoles on reste loin de leur prix, mais pour un systême qui n'a pas les mêmes utilisations, faut pas l'oublier.
kgabou
 
@foued: pour les DD, tous les jeux passent impec sur un 7200t/mn basique, autrement dit la quasi-totalité du parc. Et sinon par rapport à l'OC apparemment INtel tenterait de supprimer toute possibilité sur le bas et moyen de gamme de ses prochains procos (les Nehalem), en libérant FSB et coef sur le haut de gamme... :(
Ash_95
 
Message supprimé à la demande d'Ashtivision
fwouedd
 
Je suis pas sur Ash, à 1000 euros le processeur haut de gamme dont le coef est debloqué qui s'arrache chez les overclockeurs, sans parler de la pub que ça fait quand "la communauté" apprends que tel modele monte a telle fréquence, je ne suis pas sur que l'OC embette vraiment les Intel et AMD.

D'ailleur, je te copie colle les caractéristiques d'une carte Intel :

"La carte mère Intel® DX38BT est ainsi conçue pour tirer parti de toute la puissance des processeurs Intel® Core™2 Extreme. Avec sa prise en charge d'un bus frontal à 1 333 MHz, d'une mémoire DDR3 plus rapide et de l'overclocking"
Ash_95
 
Message supprimé à la demande d'Ashtivision
Lostsoul
 
"...transformant finalement les PC en consoles. Par contre pour les constructeurs, elle conduit à la mort ou à la reconversion du perdant."
ARG! c'est pas faux. CBL quand tu écrit des articles, pense à relativiser / placer des portes de sorties / raconter des conneries. C'est trop prophétique sans issue sinon. Pas bon pour vendre du papier. Surtout si c'est vrai comme à ton habitude.
M0rb
 
nazg a écrit :
Levez le doigt ceux qui ont eu le courage de lire epsylon après s'être tapé la news d'une traite.

o/


Sinon je connais pas les détails techniques, mais je vois mal une solution aussi fonctionnelle et versatile que les sempiternels CPU/GPU se mettre en place rapidement. Surtout qu'au delà du simple problème technique, c'est toute une industrie à faire bouger : les constructeurs, les développeurs, les consommateurs... On voit déjà le bordel quand il s'agit de passer de l'AGP au PCI-E, ou même à Vista/DX10.
Vous devez être connecté pour pouvoir participer à la discussion.
Cliquez ici pour vous connecter ou vous inscrire.
Soutenez Factornews.com

Tribune

Crusing
(20h34) Crusing Ah non :) [theslot.jezebel.com]
Crusing
(20h31) Crusing Kame> La lecture est inversée...
_Kame_
(19h46) _Kame_ BeatKitano > je préfère ce gif [giphy.com]
BeatKitano
(19h10) BeatKitano Cette photo putain... C'est tellement glauque [pbs.twimg.com]
Le vertueux
(11h39) Le vertueux la différence avec les jeux vidéos c'est qu'Asterix ne prend pas vraiment la place d'une autre bd, Tekken si, soit c'est ça, soit pratiquement rien d'autres.
Le vertueux
(11h34) Le vertueux choo.t > Il n'y a pas grand chose qui me vient à l'esprit là, les comics de super héros font pires.
choo.t
(11h12) choo.t Le vertueux > Ça s'applique à bien d'autres choses que le JV.
Le vertueux
(08h10) Le vertueux choo.t > Ça fait surtout penser que nous, joueurs, avons pris perpet avec les mêmes licences.
CBL
(02h33) CBL (23h38) Tient y'a Akuma
lundi 23 janvier 2017
noir_desir
(23h48) noir_desir choo.t > et que celui-ci était ultra-mauvaus
choo.t
(23h47) choo.t I Am Setsuna dans le le line-up de la Switch. [nintendoeverything.com]
choo.t
(23h38) choo.t [youtu.be] Hop, nouveau trailer du portage de Tekken 7, c'est pas folichon et ça me rappelle surtout que le studio n'a plus sortit de Soul Calibur depuis 5 ans...
noir_desir
(23h33) noir_desir Sacré claude puant oups gueant
noir_desir
(23h32) noir_desir J'ai toujours comme un doute
noir_desir
(23h32) noir_desir Enfin est ce que les lecteurs du figaro que les juges (enfin le plus gros syndicat) est de droite ?
_Kame_
(23h22) _Kame_ c'est rigolo
choo.t
(21h24) choo.t Pas con ce shader pour expliquer la perception fovéale [shadertoy.com]
Crusing
(20h03) Crusing Big Apple > c'est un vrai commentaire :3
Big Apple
(19h57) Big Apple c'est tout à fait ça :)
Big Apple
(19h56) Big Apple Crusing > Ah Ah Ah!
Crusing
(19h25) Crusing Au hasard :"Ce sont les derniers soubresauts de la justice rouge instrumentalisée et dévoyée."
Crusing
(19h23) Crusing Il est temps d'aller se délecter des commentaires sur le figaro
Crusing
(19h21) Crusing Inutile de préciser qu'il aura juste un bracelet, mais quand même, ça fait zizir comme disent les gens en scooter.
Crusing
(19h19) Crusing Guéant, 1 an [mediapart.fr]
Laurent
(19h12) Laurent DukeFreeman > [gamespot.com]
DukeFreeman
(18h28) DukeFreeman tiens une grosse maj de Dishonored 2... y a un changelog qui traine quelque part ?
BeatKitano
(15h13) BeatKitano LeGreg > Se retirer de l'OTAN pas des Nations Unies et oui CBL a raison, apparement ce truc est un running gag depuis 20 ans (effrayant la connerie...)
Toninus
(10h31) Toninus Ah, j'étais complètement passé à coté de ces (vieilles) vidéos de Chuchel, le nouveau jeu de Amanita. Certes c'est du point & click pas très profond, mais on dirait un peu La Linéa en JV [youtube.com]
thedan
(09h39) thedan J'imagine plutôt que comme dans toutes les administrations ou les grandes entreprises, tu dois étudier toutes les possibilités...
LeGreg
(04h29) LeGreg BeatKitano > je ne crois pas que Trump ait parlé de se retirer des nations unies (bon je ne suis pas tout ce qu'il raconte), par contre les précédentes administrations avaient accumulé des arriérés de paiement.
CBL
(02h18) CBL Trump peut raconter beaucoup de conneries mais au bout d'un moment il sera confronté à une dure realite
CBL
(02h17) CBL Et c'est pareil pour l'OTAN. Les US ont besoin des pays europeens pour installer des bases et deployer des systemes anti-missiles
CBL
(02h16) CBL Les US n'ont aucun intérêt à quitter les Nations Unies vu leur pouvoir de veto
CBL
(02h16) CBL Y'a pas beaucoup de soutien
CBL
(02h15) CBL (22h45) BeatKitano > C'est un vieux projet. Cherche H.R.1146
noir_desir
(00h11) noir_desir choo.t > :)
choo.t
(00h10) choo.t [i.redditmedia.com]
dimanche 22 janvier 2017
noir_desir
(23h33) noir_desir BeatKitano > hum l’assassinat c'est plus une idée républicaine...
BeatKitano
(23h19) BeatKitano noir_desir > Faut voir le bon côté des choses, on verra peut-être pas la totalité.
noir_desir
(23h14) noir_desir A la base l'otan n'a pas été créer dans le but d’éviter un conflit généralisé.... 4a c'est long...
noir_desir
(23h13) noir_desir BeatKitano > Ca serait étonnant, mais effectivement trump l'a toujours dit
Crusing
(22h51) Crusing Trop bien ça va renouveler les thèmes des films d'anticipation
BeatKitano
(22h47) BeatKitano C'est qu'on projet, mais ça donne le ton, et avec les décla de Super Carotte sur l'OTAN... il n'y a qu'un pas.
BeatKitano
(22h45) BeatKitano Les US pourraient se retirer des Nations Unies. Fun. [webcache.googleusercontent.com]
aeio
(21h26) aeio (21h20) La page est vieille (4 décembre 2016), Cemu 1.7.0 inclut d'office le correctif pour ce bug.
choo.t
(21h20) choo.t aeio > Ouai, j'ai aucun soucis sur Captain Toad, mais je ne suis pas allé très loin (déjà fini sur WiiU), mais apparemment y'a un bug bloquant au niveau 1-17 selon la config d'emul CPU [compat.cemu.info]
aeio
(21h06) aeio Après Zelda est un cas à part (et il est de toute façon pas super bien émulé, avec des grosses chutes de frame rate inexplicables quelque soit la config). Les autres gros jeux de la console ont 2 à 3 fois moins de shaders.
aeio
(21h01) aeio (20h49) Ah effectivement, j'ai vérifié et j'ai pareil ici (mais je m'en fous j'ai 16 Go).
choo.t
(20h49) choo.t Cemu met tout les shader en ram dès le lancement du jeu, j'ai ±6Go bouffé par Cemu pour jouer à Zelda:WW, c'est n'importe quoi.
choo.t
(20h46) choo.t MrPapillon > C'étais horrible sur Natural Selection 2.
MrPapillon
(19h58) MrPapillon La compilation shader OpenGL c'est très mal foutu et ça empêche d'avoir un truc précompilé dans la distrib. Du coup le driver compile violemment au premier lancement.
MrPapillon
(19h57) MrPapillon La compilation des shaders longues, c'est surtout la faute à OpenGL.
aeio
(19h14) aeio (16h24) T'as téléchargé un cache complet (9000 et quelques shaders pour ce jeu) ? Si oui, alors la compilation va être longue la première fois mais super rapide ensuite.
choo.t
(16h24) choo.t C'est mal branlé leur compil de shader, sur mon vieux laptop je n'ai que 8go de ram et c'est impossible de compiler les shader de Wind Waker, trop nombreux et tout ce fout en ram sans jamais s’effacer....
zouz
(16h11) zouz Khdot > Nous somme tous abonnés à HBO Prime, Netflix US, Amazon Prime et travaillons pour le gouvernement afin de débusquer chaque malware chinois caché dans chaque programme d'émulation. Je ne vois pas où est les problème.
choo.t
(15h45) choo.t Khdot > J'ai littéralement la boite du jeu sur le bureau.
Khdot
(15h40) Khdot nous ne parlons pas du tout de piratage sur la tribune. :p
zouz
(15h31) zouz aeio > Yep cet émulateur est vraiment incroyable, mon week end sur MK8 avec un pote peu en témoigner.
choo.t
(15h29) choo.t Ah, les drivers daté de débuts 2014... ça tourne niquel maintenant. C'est Impressionnant, et les jeux Wii U ne pèsent rien.
choo.t
(14h56) choo.t aeio > Je viens de tester, ça marche nickel sur le GPU intégré, mais ça chie avec la CG activée (Optimus), c'est courant ?
Khdot
(14h17) Khdot (10h24) aeio > mon dieu
choo.t
(14h05) choo.t aeio > Si Zelda BotW tourne correctement dessus à la sortie, ça va être dur de se motiver à prendre une switch...
aeio
(12h55) aeio Captain Toad en 4K sur Cemu [youtube.com] L'émulateur est tellement bien fait qu'on peut même utiliser la souris comme un doigt pour passer certains obstacles (3:15).
Dks
(12h44) Dks je viens de regarder dans ma boite de ma viielle 560ti y a deux adaptateurs molex vers 6 pin. Bon c'est l'affaire de deux jours mais week end un peu triste sur le coup ^^
fwouedd
(12h43) fwouedd Ouais, c'est super moche.
Dks
(12h39) Dks fwouedd > pour un accessoire à 3€ sur une cg déjà à 300.. radinage
fwouedd
(12h31) fwouedd Dks > Tous en fait, ils ne les mettent actuellement que sur les CG HDG j'ai vu.
Dks
(12h25) Dks aeio > oui là dessus gigabyte sont radins :\
Edhen
(12h24) Edhen (11h32) [twitter.com]
hohun
(11h32) hohun C'est le deuxième jour et on est déjà en plein délire cosmique.
hohun
(11h32) hohun Ahah Trump qui part en mode full complot des médias genre "les pelouses vides c'est un mensonge"
aeio
(10h26) aeio Ça m'étonne même un peu quand t'en aies pas eu un dans le bundle de la carte graphique.
aeio
(10h24) aeio (09h46) Comme le dit fwouedd, tu prends ça [media.ldlc.com] et c'est réglé.
Dks
(09h46) Dks fwouedd > l'alim existait avant le format 8 pins pour les cg, faut que je vise un 6 vers 8 p. Ou changer l'alim.. mais c'est moche.
Dks
(09h45) Dks fwouedd > nop en fait un gars de cpc m'a pointé le fait que le 8 pin de l'alim c'est pour l'atx. Genre multi cpu.
miniblob
(09h07) miniblob Kame> J'avais loupé le coche, merci de l'info, ça reste le meilleur moyen de regarder la télé sans la regarder
fwouedd
(08h46) fwouedd Mais d'ici la, tu as pas un adaptateur molex avec la CG?
fwouedd
(08h45) fwouedd Ah ouais, non j'ai rien dit, effectivement, t'as du 8...
fwouedd
(08h44) fwouedd Tu te plantes pas de câbles? Je ne crois pas qu'ils aient changé de format depuis.
samedi 21 janvier 2017
_Kame_
(23h46) _Kame_ pour ceux qui savaient pas, le Zapping a repris sur France2 [twitter.com]
Dks
(22h43) Dks me demande si un simple adaptateur 6pins vers 8 ne ferait pas l'affaire.
Dks
(22h11) Dks Bon au moins je vois que le cable avec le bon connecteur existe : [corsair.com]
Dks
(22h06) Dks Ah comment je suis un gros loser, se dire que mon hx620 corsair avec son connecteur 8 pins ira très bien avec ma nouvelle 1060 gigabyte.... rahhh mais non, pas les même détrompeurs. /dansmoncullulu
Crusing
(21h37) Crusing Big Apple > sur les rat cest juste dans de l'eau 10mg/pdc, 4/11 développent des tumeurs, en peu de temps. Lisez un peu bordel.
Crusing
(21h35) Crusing (20h07) colorant,blanchisseur, anti agglomerant, opacifiant, conservateur pour les fruits/légumes
Big Apple
(20h34) Big Apple C'est en ça que le principe de précaution n'a aucun sens. Tout ce qu'on peut faire, c'est assurer une vigilance permanente et réajuster/retirer un produit commercialisé dès qu'il y a un faisceau de présomptions à son encontre.
Big Apple
(20h30) Big Apple C'est impossible de tester de façon absolue la toxicité des produits car 1) celle-ci peut se révéler qu'après plusieurs années d'exposition 2) celle-ci peut se révéler uniquement lors d'un mélange avec un ou plusieurs autres produits (effet cocktail)
_Kame_
(20h07) _Kame_ Un déal peut-être, mais pr juste un colorant (pas trouvé d'autre utilisation sur le net), je trouve ça pas "idéal" de minimiser les risques pour la santé. Et qu'est-ce que ça vient foutre dans les médicaments... /me prends son Tramadol-E171 quotidien
GTB
(19h50) GTB Or en 2006 il y avait déjà des agents "probablement" cancérogènes à étudier. Bref oui si on avait les moyens d'étudier tout ça en détails et sans priorité ou autres considérations ça serait l'idéal.
Crusing
(19h49) Crusing Jean Michel dialectique
GTB
(19h46) GTB Kame> Évidemment qu'il faudrait dans l'idéal. Maintenant comprend bien que potentiellement dangereux ça veut dire que ça peut être dangereux ou peu dangereux ou pas dangereux...et surtout ça regroupe une tétrachiée de molécules.
Big Apple
(19h27) Big Apple A partir d'aujourd'hui, il n'y a plus de réchauffement climatique. Ca tombe bien, on est en hiver.
_Kame_
(19h03) _Kame_ Et toi ta conclusion c'est "on sait pas, faut faire + d'étude, pas besoin de faire l'alarmiste". Entre cancer, allergie etc, faudra pas s'être alarmé depuis des décennies ?
_Kame_
(18h59) _Kame_ GTB > osef de 2006, donc qd un truc a un potentiel cancérigène quelque soit le mode, faudrait pas vite se grouiller de tester les autres trucs ? Et ça t'alarme pas qu'une substance utilisée depuis des décennies soient seulement testé auj ?
MrPapillon
(18h24) MrPapillon Par contre la différence entre mon programme et celui de Fillon, c'est que moi je n'oblige pas à aller à l'église le dimanche.
MrPapillon
(18h22) MrPapillon Ça permettra de préparer les youtubeurs coréens à la bouffe alien.
GTB
(18h21) GTB Crusing > C'est certain. Vu le nombres d'agents possiblement cancérogène connus, j'imagine qu'il y a un manque de moyens pour approfondir. Et il y a tout ceux qu'on a même pas encore étudié ne serait-ce qu'un peu.
MrPapillon
(18h20) MrPapillon Et après, on va se retrouver avec des humains avec des parois intestinales en graphène naturel capables d'endurer même des cailloux ou du jus de centrale nucléaire.
MrPapillon
(18h19) MrPapillon Moi je propose quelque chose de plus simple : on autorise tout, comme ça quelques générations meurent dans d'atroces souffrances, des attaques de zombies, des humains qui ressemblent plus à des humains, etc...
GTB
(18h18) GTB Crusing > Précisément, osef de 2006 puisque ça concernait que l'inhalation.