Advertisement · 728 × 90

Posts by Huguuu Guucks

Video

The highest quality video of the moon was just released…
so beautiful

* Artemis II

2 weeks ago 7999 2544 144 138

Le 2 étant pour les deux seuls qui ont prit le temps de croiser les infos. Pour ceux qui veulent aller au rattrapage; voici quelques mots clés:
- virtual frame buffer
- arbitrary output variable
- 2D relight in compositing

3 weeks ago 0 0 0 0

J’ai fait le tour de la presse FR tech et JV sur DLSS5 Ça prouve 2 trucs:
- vous maîtrisez pas votre sujet et sans demander aux intéressés (alors que t’as des proofs of concept d’artistes 3D sous blender partout dans les RS)
- par porosité vous êtes encore plus ignorants du process de gen IA.

2/20

3 weeks ago 0 0 1 0

non c'est un upscale du framebuffer et donc pas besoin de la geometry.

3 weeks ago 0 0 0 0
Coop from Interstellar piloting a spaceship and saying "This little maneuver is gonna cost us 51 years"

Coop from Interstellar piloting a spaceship and saying "This little maneuver is gonna cost us 51 years"

your grandparents voting for reagan

3 weeks ago 15691 2973 127 83
Preview
Implementing a Motion Vectors Pass for Post-processing - Evergine We are introducing new Motion Vectors that allow the GPU to track object and pixel movement between frames, enabling smoother and more accurate effects.

Au sujet de la shitstorm que nvidia se prend pour le DLSS5.

En cherchant je suis tombé sur une compagnie qui a une solution software appliquant la méthode que je suppose etre utlisé par Nvidia. Comme 1 image vaut 100 mots. Please read

evergine.com/implementing...

1 month ago 0 0 0 0

mais en plus c'est pas la vache à lait de UBI rainbow6?

1 month ago 1 0 1 0

Leur com' est catastrophique. Ca a mi tout les potards à fond tout en faisant de l'obscurantisme sur la tech utilisée. Pour mentir par ommission et dire que tout sort de leur cul (alors que ce sont les fondamentaux de la 3d depuis les 70's). Du coup ils prennent toute la sauce en plein visage.

1 month ago 0 0 0 0

Ha ca c'est le classique de circle jerk d'exec dans leur tour d'ivoire. Et comme ils ont deja evincé toute personne qui pourrait leur donner un avis contraire bha c'est sorti en l'état.

1 month ago 0 0 1 0
Advertisement

Je lui ai fait une thérapie à base de TEDx de la 3d du crétacé à nos jours.

Après j'ai lu les commentaires et j'ai facepalm si fort que l'onde de choc a brisé mes vitres

1 month ago 2 0 0 0

Bha le concept est bien pour faire de l’économie de ressources. La ils sont pas foutus de pondre que des effets wahou mais tu pourras tout autant descendre tes specs pour un gain de perf et la qualité qu’on a maintenant.

1 month ago 0 0 1 0

Alors tu vas rire. Ça rajoute rien du tout. Toute la data et dans lasset dorigine.

1 month ago 0 0 1 0

Va falloir renier toutes lá 3D depuis lá ps3 parce que là ça n’a absolument rien inventé. C’est comme renier Photoshop parce que des mecs font des pochettes de disques éclatées au sol avec.

1 month ago 0 0 0 0

Alors comme toute démo de boîte de tech c’est très froid mais les applications dépassent le simple étalonnage. Du coup au lieu de renier en bloc; laisser les artistes s’y acclimater pour des parti pris plus interessant.

1 month ago 0 0 1 0

Juste pour être dans les clous et en allant très vite. Le DLSS5 upscale les composants et pas l’image finale. Mais ça ne vient pas du coller de la data volée dans d’autres images. Uniquement ce que moteur 3D lui donne.

1 month ago 1 0 0 0

Après ça reste beaucoup de bruit pour rien. En l’état ça tourne sur deux 5090. On y est pas du tout.

1 month ago 1 0 0 0

Les cinématiques sont limitées pour pas jurer avec le reste de l’expérience. Et ça reste du temps réel où tout ce qui n’est pas nécessaire est désactivé pour une légère meilleure qualité.

1 month ago 0 0 0 0

Et non les artistes ne font pas en fonction du moteur. Ils mettent le maximum pour être certain que ça marche dans tout les contextes.

1 month ago 0 0 0 0
Advertisement

Je pense que les artistes en build préfèreraient que leur travail soit visible. On peut ne pas aimer le rendu final. Néanmoins DLSS5 ne crée rien. Il compense les 30% de détails perdues entre l’asset original et les limitations du moteur.

1 month ago 0 0 1 0

Et c'est aussi pour ca que le DLSS5 donne cette aspect très gen AI. Parce qu'il utilise strictement le meme process. A cela que l'image est pas pillé dans flickr ou youtube; mais directement généré par le moteur 3d.

1 month ago 0 0 1 0

C'est en parti pour ca aussi que générer un chat qui fait de la muscu brule les ressources d'un petit pays.

Faut analyser la sequence, venir la deformer, reapplique sur une autre image et ceci pour tout les elements.

Je grossis enormement le trait parce que tout expliquer prendrais 2h et flemme.

1 month ago 0 0 2 0
Post image

BONUS STAGE

Et pourquoi tout le monde saute sur la case "mid journey"et la gen AI. Et bien parce que les images générés utilisent strictement les meme composantes. Celle ci sont extrapolé par des mll a partir de sequences d'images 2D.

1 month ago 0 0 1 0

TL; DR c'est pas du mid journey mais juste un traitement d'image habile.

1 month ago 0 0 1 0

A cela tu rajoutes un tricks d'etalonnage se servant de toutes ses couches en modifiant la balance des blancs et on a le résultat qu'on voit.

En vfx et film d'animation c'est ce qu'on appelle le compositing. Et nvidia a "juste" fait du compositing temps réel (sur 2 5090 par contre)

1 month ago 0 0 1 0

Ceci surement couplé avec de l'occlusion super samplée. Je vais pas m'étendre sur se buffer mais en gros c'est là où la lumiére n'arrive pas et c'est la resultante de la depth et la normal. Ca tombe bien elles sont super samplé dans ce contexte.

1 month ago 0 0 1 0

Maintenant les cheuveux. De la meme facon que DLSS5 resample la normal pour plus de details sur les surfaces. Il resample les depth cité au début pour avoir une data precise des cheuveux et par ce biais contrastés les zones sombres.

1 month ago 0 0 1 0
Post image

Là dans le cas du DLSS5. Comme ils ont une meilleur qualité de data grace à la normal; ils poussent la brillance pour donner encore plus de volume. C'est un tricks vieux comme la photographie.

C'est très visible sur ce screen grab.

1 month ago 0 0 1 0
Post image

Maintenant une des resultantes de tout ses buffers et pouvoir extrapoler la speculaire. C'est la brillance d'une matiere. Son niveau de detail depend de la qualité de la normal.

1 month ago 0 0 1 0
Advertisement
Post image

exemple visible dans la démo de nvidia. Ce personnage a exactement la meme qualité en terme de textures et modeling. Juste son buffer de normal est upscale et recomposé avec plus de contraste dans la balance des blancs (c'est un post traitement très simple).

1 month ago 0 0 1 0

DLSS5 ne va pas super samplé l'image finale mais d'abord super samplé la normal et la depth. Les moteurs 3d "baclent" cette partie parce que ca coute cher en process. Mais la data est dans l'objet. DLSS va la prendre, la poussé plus loin et ensuite recomposer dans l'image finale.

1 month ago 0 0 1 0