in

Luma Labs redéfinit les limites du réalisme avec ce nouveau modèle d’IA vidéo

Ray2, IA générative de vidéos Luma Labs

J’aimerais vous dire d’oublier IA et de privilégier cette IA de génération de vidéos de Luma Labs, mais il faut que vous voyiez de quoi elle est capable avant de prendre votre décision. Ce n’est autre que Ray2, le prédécesseur du Dream Machine dont je vous ai parlé il y a quatre mois et qui a bénéficié d’une mise à jour il y a tout juste deux mois.

Dans son ensemble, Ray2 de Luma Labs semble plus rapide que la Dream Machine. Le modèle est même plus performant en termes de compréhension de la physique du monde réel.

Et quand j’ai comparé les vidéos de démonstration de Ray2 par rapport à celles de Sora et de la Gen-3 de Runaway, les résultats sont plus réalistes.

Ne vous inquiétez pas, je vais mettre les publications de ceux qui ont eu l’occasion de tester Ray2 pour que, vous aussi, vous puissiez voir le réalisme des vidéos générées par ce nouveau modèle de Luma Labs.

YouTube video

Ray2, le nouveau bijou de Luma Labs

Second grand avantage du modèle Ray2 de Luma Labs : les vidéos qu’il génère peuvent durée jusqu’à 10 secondes.

Et d’après l’entreprise, Ray2 est plutôt axé sur trois points majeurs. Notamment la cinématographie avancée, les mouvements fluides, ainsi qu’un style de type drame accrocheur.

Quant à son entraînement, Ray2 a été formé sur des données vidéos. Ce qui lui confère une meilleure capacité au niveau de la précision des sujets.

Par contre, le modèle n’est pas encore accessible au grand public. Mais ceux qui ont pu le tester ont, comme je l’ai mentionné plus haut, dont le PDG de Luma, publié sur leur compte X quelques vidéos de démonstrations de Ray2.

5 vidéos de démonstrations révélant l’énorme potentiel de Ray2

La première vidéo de démonstration dont je vais partager avec vous, c’est celle publiée par Amit Jain, PDG de Luma Labs.

Il s’agit d’une vidéo mettant en scène une sphère de matière opaque en rotation, particulièrement adaptée aux représentations planétaires.

Le PDG souligne d’ailleurs que l’amélioration du pré-entraînement permet au modèle Ray2 de créer une physique plus réaliste.

La seconde vidéo, celle de Ryan J Phillips, aka Uncanny Harry, illustre une séquence spectaculaire dans l’esprit de Mad Max.

La scène met en vedette une motarde traversant un désert. Et on voit bien les progrès de Ray2 dans le rendu du mouvement.

Troisième vidéo : une scène qui prouve la maîtrise des mouvements, crée par Theo Panagiotopoulos avec un travelling sur un paysage montagneux complexe.

Dans cette séquence, Ray2 a su comment éviter l’aspect artificiel souvent présent dans d’autres modèles.

Sur son compte X, William Shen expose la finesse du modèle dans la reproduction des mouvements subtils avec une vidéo d’un chat se déplaçant délicatement sur un canapé avant de bondir.

Enfin, la dernière vidéo, c’est celle du cinéaste Allen T, une scène qui livre une séquence saisissante d’un funambule traversant un ravin, remarquable par la précision des mouvements.

Son commentaire « Holodeck arrive » suggère un pas de plus de Ray2 vers l’hyperréalisme.

Un modèle qui mérite toute notre attention

L’évolution des modèles de génération de vidéos par n’a pas de limite si on regarde de près les résultats fournis par les pus récents modèles.

La prochaine génération a une meilleure compréhension de la réalité. Et grâce aux modèles comme Ray2 et Veo2 de Google, on s’approche de plus en plus vers le réalisme.

Personnellement, je n’ai pas pu tester Ray2, vu qu’il n’est pas encore disponible au grand public

Mais d’après les vidéos ci-dessus, il faudra bien surveiller ce modèle puisque jusqu’ici, c’est le seul qui génère les meilleurs rendus.

Alors, restez connecté et abonnez-vous dès maintenant pour plus d’actualité sur ce nouveau modèle de générateur de vidéo de Luma Labs.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *