Jump to content

Lejeune

Members
  • Content Count

    30
  • Joined

  • Last visited

About Lejeune

  • Rank
    Membre Actif
  • Birthday 01/09/1979

Profile Information

  • Gender
    Male
  • Location
    Paris
  1. T'es pas à Montreuil toi ?
  2. C'est un comportement que l'on va retrouver dans la réalité; il faut donc tricher. Peut être avec un include/exclude comme tu le suggérais, en bougeant la source des reflets speculaire afin d'avoir queqlues chose d'équilibré entre les points de vue; tu peux utiliser les scene states ou les states sets pour passer d'une solution d'éclairage à une autre afin de n'avoir qu'une seule scene à gerer. Ou alors tu tournes ton set d'éclairage avec la camera; avec un dummy dans lequel tu linkes tout. Du coup il ne faut pas que ton hdri de l'environement n'émèttes de lumière; afin d'éviter d'avoir toujour le même point de vue en arrière plan. Je ne sais pas si je me fais bien comprendre....
  3. Metanamorphose> C'est effectivement une solution de rendu qui permet de faire ce genre de choses, cependant ici je cherche à utiliser Vray specifiquement. J'ai utilisé par le passé maxwell et fry-render pour faire du rendu de design produit.
  4. Matt> oui c'est ça! J'ai deux sources d'images; une en 3D et une en "vrai"; J'ai shooté mon Hdr avec un objectif 360° au moment de faire la photo de la réalité; et je cherche à "voir" si le résultat entre la réalité et la 3D sortie de Vray est ""iddentique"". Si je valide ça, je suis capable alors de faire des images qui représenterons la réalité; nottament pour des systèmes d'éclairages données (en °k, luminence et formes) ce qui est une procedure intérèssante pour faire accépter une solution d'éclairage. La seconde étape est de valider si Vray est capable de faire des matières suivant des relevées spectraux (relevé exacte du speculaire et du milieu). Auquel cas je suis capable de faire des images qui représente au mieux la réalité; sans interpretations graphique.
  5. Bonjour; J'ai du mal à comprendre. Théoriquement, lorsqu’on utilise une image sphérique .Hdr ou .Exr correctement réalisée; les pixels lumineux doivent générer de la lumière correcte pour illuminer une scène. Il est donc inutile de positionner un Vray sun en plus, et on ne devrait que gérer un facteur de gain sur la puissance max des pixels lumineux de l'image utilisée pour l'éclairage. (le Intensity multiplier donc?) Lorsque l'on photographie une fenêtre un jour de ciel couvert; la quasi-totalité des pixels envoie de la lumière. On obtient donc des ombres très douces et qui ont tendance à ne pas donner d'indice quant à la position du soleil. De plus si on souhaite "voir" l'intérieur; l'exposition est tel que le ciel apparait est très blanc. C'est ce qu'on retrouve en 3D. Au contraire un jour de soleil; la puissance lumineuse du soleil est telle que les pixels bleus du ciel n'envoient pas de lumière. On obtient des ombres marquées sur le sol et il n'y a que le soleil qui est cramé. Théoriquement, Vray est capable d'utiliser ces informations dans l'image pour générer l'éclairage d'une scène 3D en gardant des valeurs telles que la totalité des lights est gérable avec des valeurs proches de la réalité. Je n'ai pas été capable de challenger une photo d'une scène réel (avec un apn et un éclairement totallement maitrisé) et la même chose réalisée en 3D avec Vray; notamment pour les ombres marquées grâce à une image de jour ensoleillé. J'obtiens une image avec une valeur de gain sur le Vray dôme qui ne correspond pas à la luminance du soleil (de loin) malgrès un réglage de la VrayPhysicalCam qui correspond à la réalité. Les ombres générées sont toujours étranges malgré un suréchantillonnage important. En outre, je n'ai pas compris pourquoi retoucher au gamma (gamut?) de l'image comme conseillé ici ou là. 1/2000 200iso Intensity multiplier à 350 lm (à la place de 50000 à 100000 lm)
  6. Je vois qu'on bossent tous à peu près de la même manière. Sauf pour le fait de retoucher les repertoires automatique, je n'aime pas du tout ça et d'expérience, je sais de réccupérer un vieux projet peu devenir fastidieu si TOUTES les textures ne sont pas bien archivé. Metanamorphose> ho! ce script je l'aime déjà! merci! Et tu as raison, vault c'est surtout pour la gamme de rpoduit dit "AEC", mais après une expérience sur des outils comme perfoce, il me fallait quelque chose pour bosser correctement en collaboratif. Par contre je n'ai pas expérimenté à fond les containers. Denfound>
  7. J'ai eu ça avec mental ray et des mrMatteshadowsreflexion, mais c'était dans une vielle version de Max à une époque où deux matérials était incompatible.
  8. RolandB> Bah en fait c'est comme ça que je fait mon lighting studio dans la solution de rendu que j'utilise habituellement; Là grosso modo j'ai une config d'éclairage qui ressemble à un cubelite avec des boites à lumières rectangulaire. clairement avec VRay j'ai un problème de méthode, ce que tu vois ce sont des recherches et de la decouverte! Et oui vos conseils me permette d'avancer! Merci pour tout les autres! je vais bucher un peu et dès que j'ai un peu de temps je m'y remet!
  9. plusieurs réponses pour plusieurs question: Ensuite comment vous faites pour rapatrier les images dans le projet ? --> explorateur windows. si c'est un joyeux bordel, j'ai tendance à faire une archive et reprendre toute les textures et en les coupant/collant dans sceneasset/image/ Comment on fait pour nettoyer les matériaux ? C'est à dire supprimer les images et matériaux non utilisé ? --> $.material = undefined Mais attends... comment ça les Matériaux non utilisé? dans le matérial editor? Bref comment vous faites pour gérer vos projet ?--> Vault et un peu de rangement quotidien.
  10. Dycotomi> Tu sais comment s'appel ce logiciel qui fait des HDRIs studio.... merde..... "c'est" HDRI ligth studio (le con je cherche le nom depuis hier) J'ai vu de beaux exemples sur la toile fait avec ce truc, je vais voir si c'est bien un soft qui fabrique des HDRIs à exploiter dans vRay ou si c'est une solution de rendu. Mais j'ai un problème de méthodes là. comment ferai un photographe pour faire l'image? J'ai ce qui est à droite, et je veux obtenir ce qu'il y a à gauche.
  11. Bon, là je n'arrive pas à faire bien mieux, je suis donc bloqué sur l'éclairage. Je peux sans doute splitter mon fond et y mettre un mat autoilluminant... booster l'expo, mais je ne pense pas que ce soit la bonne méthode. En effet je perdrais alors tout ce qui fait que mon verre est "visible"
  12. Virer le dome light Remplacer les plans avec un shader de lumière, par des lumières en forme de plan. Ya plus qu'a déboucher le fond et je retourne sur mes mats!
  13. Bon ben, pas d'ombre dit forcement de creer une lumière pour en avoir une, donc j'abandonne l'ambiant light pour mettre un dome ligth. Et là c'est le drame! Je reccupère cette température de lumière non maitrisé, et mon métal ressemble à du plastique. sans compter ce bruit dégeux, qui même à grand renfort de DMC sampling ne disparait qu'avec beaucoup, beaucoup trop de temps de calcule. Mais j'ai une ombre...
  14. Sur l'ambiant light j'ai coché "Compensate exposure" J'ai réglé un peu mieux le verre, j'ai encore des efforts à réaliser pour "voir" plus de fog dans l'épaisseur, typiquement sur les bords de l'ampoule. J'ai customisé un poil les coleurs de ma matière "métal" J'ai modifié les valeurs de mes plans lumineux pour qu'ils ressemble plus à la photo. Je suis surpris d'avoir une reflexion tête bêche? ce n'est aps comme ça sur la photo. J'ai activé la reflexion sur le sol, un peu de fresnel à ajouter pour faire une sorte de dégradé de réflexion... ou alors du brdf.. mais je n'aime pas y toucher à voir plus tard... Elle est trop propre cette ampoule
  15. Hahahahahaha! J'ai donc mis tout les polygones dans le même groupe de lissage, ça fonctionne vachement mieux! Bon, j'ai pas d'ombres... juste une ambiant light donc je suppose que c'est normal. Par contre mes plans lumineux ne sont pas sensé en faire des ombres? Ce n'est pas vachement chaud pour du D65?
×
×
  • Create New...