Miaz3 512 Report post Posté(e) February 25, 2016 Bon je ne vais pas aller plus loin, c'est trop long. Citer Share this post Link to post Share on other sites
metanamorphose 382 Report post Posté(e) February 25, 2016 Magnifique ! taille de l'image? Citer Share this post Link to post Share on other sites
Miaz3 512 Report post Posté(e) February 25, 2016 ha oui j'avais zappé, en 1280x720. edit : j'ai modifié dans le post précédent Citer Share this post Link to post Share on other sites
GHiOM 61 Report post Posté(e) February 25, 2016 MErci Miaz3 voilà, pour ce type d rendu c'est vraiment pas mal . Utilisation d'un HDRI comme illumination, pas trop d'objets, pas trop de textures. Maintenant, c'est aussi possible d'avoir ce rendu en 3 minutes avec Vray en CPu et pas mal de temps d'optimisation de tout les réglages de GI . Tout dépend de ce que l'on cherche, un rendu vite fait bien fait d'un scène éclairée en grande partie avec un HDRI et pas trop d'objets , le rendu GPU est parfait. Une grosse scène d’extérieur avec beaucoup d'objets, de textures des lumières de partout, un sky light .. .la CG va souffrir, voire ne pas avoir assez de ram , et un bon vieux rendu CPU en GI habituelle va être plus intéressant. Après il faut calculer l'investissement et l'usure . Il faut aussi admettre qu'une CG en calcule ça fait pas mal de bruit et que ça peut être assez rédhibitoire pour certains environnements Citer Share this post Link to post Share on other sites
Miaz3 512 Report post Posté(e) February 25, 2016 Exact, c'est pourquoi je DL le pack d'arbre de VizPeople avec 2-3 truc en plus histoire de voir. Citer Share this post Link to post Share on other sites
GHiOM 61 Report post Posté(e) February 25, 2016 Un point important a tester, demande un calcule de 1000 ou 2000 images cette nuit et vérifie la température de ta carte après .. la mémoire va être brulante et le GPU aussi ( si ça n'a pas planté entre temps ) Combien de fois tu penses que ta CG va pouvoir supporter de calculer des animations la nuit, arriver a de telles températures, puis refroidir et ainsi de suite sans défaillir ? Les températures dont je parle sont bien plus importantes qu'un CPU qui à bien chauffé. J'ai souvent eu des piques de plus de 100°C- 105°C ( température limite après laquelle la carte se met normalement en sécurité .. ou pas .. ) , avec un bon watercooling je ne dépassais plus les 80° en moyenne. Il ne faudrait pas dépasser les 70°C pour bien faire et garder une bonne durée de vie. De plus la gravure d'une CG est beaucoup plus fine, plus fragile et craint donc plus les variations de températures. Pour finir, ces cartes sont réalisé façon bon marché en fonction de la marque . Je conseil vivement d'acheter des cartes de marque fiable et cher genre EVGA ou autre, qui propose des version en watercooling d'usine. la durée de vie de la carte sera bien meilleurs. ou alors d'acheter les version PRO de chez nvidia mais qui coûte si cher que tout le monde ne peux pas amortir ce type de matériel . Les cartes dites de jeux dont on se sert pour faire des rendus ne sont je pense pas adapté à cette utilisation. même si elle font très bien le job, dans un jeu la demande de calcule n'est pas aussi soutenu et aussi intensive. il y a beaucoup de variation de charge qui permet à la carte de respirer on va dire . En calcule elle ne fera une pause qu'entre les images à calculer et pour un lourde animation les pauses sont courtes, trop courtes. Citer Share this post Link to post Share on other sites
lolonic 885 Report post Posté(e) February 25, 2016 Peut-etre "downclocker" les cartes afin de ne pas trop les faire chauffer...quitte à perdre un peu en perf. Si cela est possible, bien sur. Citer Share this post Link to post Share on other sites
Miaz3 512 Report post Posté(e) February 25, 2016 C'est un test comme ça "à l’arrache". Il faut bien prendre en compte que je fait ça sur mon pc de maison sans aucune prétention. Donc je ne vais pas non plus taper dans les benchmark. Bien entendu, pour la personne en indep qui veux ce lancer dans le calcul GPU c'est un investissement. Ceci dit la solution du DIY n'est pas bonne, tu l'as bien démontré. Il existe des solutions dédiés à ce type de calcul, comme les VCA, grappe de 8-16GPU et tout se qui va avec. Il faut donc partir sur un investissement sérieux dès le départ. Ensuite pour les studios c'est une autre histoire, car il y a une team de R&D derrière et des salles nodals réfrigérées. cf: le lien de meta plus haut : http://blog.irayrender.com/post/86984047311/from-2d-to-photoreal-making-of-by-delta-tracing 8 NVIDIA Tesla C2050 (en dessous du moniteur) 1 Nicolas Caplat reacted to this Citer Share this post Link to post Share on other sites
metanamorphose 382 Report post Posté(e) February 25, 2016 merci Ghiom Citer Share this post Link to post Share on other sites
metanamorphose 382 Report post Posté(e) April 8, 2016 Pour infos (si vous êtes passé à coté) Pour juin 2016 Iray VR -->http://www.3dvf.com/actualite-16394-iray-vr-moteur-rendu-nvidia-s-attaque-a-realite-virtuelle.html 1 Nicolas Caplat reacted to this Citer Share this post Link to post Share on other sites
Miaz3 512 Report post Posté(e) April 9, 2016 Et bientôt Octane render 3. https://home.otoy.com/octanerender-3-and-roadmap-update/ à masse de nouveauté ! Edit : Seamlessly integrated into OctaneRender 3 and also available May 15th is support for OctaneRender Cloud (ORC), an on-demand cloud rendering service harnessing from 20 to 2,000 GPUs depending on the size of the job. ORC is available on a subscription basis and includes high speed storage, ORBX/OCS file versioning, OctaneRender live app and plug-in delta synching, HTML5 cloud desktop access, Dropbox and Google Drive integration, plus 1,200 GPU minutes of render time starting at $9.99/month. ORC also allows users to pause and resume rendering of Octane film buffers (OXR files), enabling cloud rendering to easily augment any local render jobs, or cloud-based renders to be resumed and completed locally. Citer Share this post Link to post Share on other sites