Dans un article précédent, j’avais testé une IA qui était capable de produire des images à partir d’une description. Cette fois-ci, j’ai repris une des images générées pour la transformer en modèle 3D avec texture. Voici le résultat que j’ai obtenu.

Je trouve ça intéressant de voir l’IA essayer de générer l’information qui se trouve dans la partie non visible de l’image. J’ai testé avec quelque images. Je peux dire que les photos avec des visages humains génèrent des textures de mauvaise qualité. J’ai aussi essayer du pixel art et quand l’image n’a pas de perspective 3D, l’IA est incapable de générer la partie non visible. Elle génère plutôt la forme avec un certaine épaisseur, mais avec la même texture des deux cotés.
L’IA utilise une transformation par diffusion pour la génération d’une forme 3D (DiT-3D). Cette technique peut être testée gratuitement par l’outil de Tencent Hunyuan3D disponible sur https://huggingface.co/spaces/tencent/Hunyuan3D-2.