J’aimerais vous dire d’oublier Sora IA et de privilégier cette IA de génération de vidéos de Luma Labs, mais il faut que vous voyiez de quoi elle est capable avant de prendre votre décision. Ce n’est autre que Ray2, le prédécesseur du Dream Machine dont je vous ai parlé il y a quatre mois et qui a bénéficié d’une mise à jour il y a tout juste deux mois.
Dans son ensemble, Ray2 de Luma Labs semble plus rapide que la Dream Machine. Le modèle est même plus performant en termes de compréhension de la physique du monde réel. Et quand j’ai comparé les vidéos de démonstration de Ray2 par rapport à celles de Sora et de la Gen-3 de Runaway, les résultats sont plus réalistes.
Ne vous inquiétez pas, je vais mettre les publications de ceux qui ont eu l’occasion de tester Ray2. Ainsi, vous pourrez voir le réalisme des vidéos générées par ce nouveau modèle de Luma Labs.
Ray2, le nouveau bijou de Luma Labs
Ray2 est axé sur trois points majeurs. Notamment la cinématographie avancée, les mouvements fluides, ainsi qu’un style de type drame accrocheur. Et il est désormais accessible au grand public via Amazon Bedrock, offrant un accès commercial à ses fonctionnalités. Toutefois, l’accès peut varier selon les régions et les conditions définies par Luma Labs et Amazon Web Services.
Le modèle a été entraîné sur de vastes ensembles de données vidéo, ce qui lui permet de produire des séquences détaillées et réalistes. Il peut générer des vidéos avec une durée jusqu’à 10 secondes.
Les premières démonstrations publiées par les testeurs, comme le PDG de Luma Labs et plusieurs créateurs de contenu. Elles montrent des vidéos allant de scènes de paysages complexes à des mouvements subtils d’animaux ou de personnages.
5 vidéos de démonstrations révélant l’énorme potentiel de Ray2
La première vidéo de démonstration dont je vais partager avec vous, c’est celle publiée par Amit Jain, PDG de Luma Labs.
Il s’agit d’une vidéo mettant en scène une sphère de matière opaque en rotation, particulièrement adaptée aux représentations planétaires.
Le PDG souligne d’ailleurs que l’amélioration du pré-entraînement permet au modèle Ray2 de créer une physique plus réaliste.
Scaling video model pretraining is leading to far more accurate physics! this is #Ray2 pic.twitter.com/BPoFx32VNX
— amit (@gravicle) January 13, 2025
La seconde vidéo, celle de Ryan J Phillips, aka Uncanny Harry, illustre une séquence spectaculaire dans l’esprit de Mad Max.
La scène met en vedette une motarde traversant un désert. Et on voit bien les progrès de Ray2 dans le rendu du mouvement.
I've had access to @LumaLabsAI #Ray2 for the last 24 hours, enjoying the improvements they have made to motion. 🏍️ pic.twitter.com/1uiI0YayIe
— Uncanny Harry AI (@Uncanny_Harry) January 14, 2025
Troisième vidéo : une scène qui prouve la maîtrise des mouvements, crée par Theo Panagiotopoulos avec un travelling sur un paysage montagneux complexe.
Dans cette séquence, Ray2 a su comment éviter l’aspect artificiel souvent présent dans d’autres modèles.
New frontier. This is @LumaLabsAI #Ray2 pic.twitter.com/aQbIMoTCKD
— Theo Panagiotopoulos (@theopanag7) January 14, 2025
Sur son compte X, William Shen expose la finesse du modèle dans la reproduction des mouvements subtils avec une vidéo d’un chat se déplaçant délicatement sur un canapé avant de bondir.
"a cat running and leaping on a couch"
— William Shen (@shenbokui) January 13, 2025
This is @LumaLabsAI #Ray2 in motion. pic.twitter.com/p723Qi4Q36
Enfin, la dernière vidéo, c’est celle du cinéaste Allen T, une scène qui livre une séquence saisissante d’un funambule traversant un ravin, remarquable par la précision des mouvements.
Son commentaire « Holodeck arrive » suggère un pas de plus de Ray2 vers l’hyperréalisme.
Look at the physics in the @LumaLabsAI Ray2 generation…
— Allen T. (@Mr_AllenT) January 13, 2025
Holodeck is coming. #Ray2 pic.twitter.com/oesvP8t9X1
Un modèle qui mérite toute notre attention
L’évolution des modèles de génération de vidéos par intelligence artificielle n’a pas de limite si on regarde de près les résultats fournis par les pus récents modèles.
La prochaine génération a une meilleure compréhension de la réalité. Et grâce aux modèles comme Ray2 et Veo2 de Google, on s’approche de plus en plus vers le réalisme.
Personnellement, je n’ai pas pu tester Ray2, vu qu’il n’est pas encore disponible au grand public.
Mais d’après les vidéos ci-dessus, il faudra bien surveiller ce modèle puisque jusqu’ici, c’est le seul qui génère les meilleurs rendus.
Alors, restez connecté et abonnez-vous dès maintenant pour plus d’actualité sur ce nouveau modèle de générateur de vidéo de Luma Labs.
FAQ
Luma Labs est une entreprise spécialisée dans le développement de modèles d’intelligence artificielle pour la génération vidéo réaliste. Elle crée des outils comme Ray2, capables de produire des vidéos immersives avec une grande précision des mouvements et de la physique. Ses technologies sont utilisées par les créateurs de contenu et les entreprises pour des productions innovantes.
Ray2 est un modèle d’IA générative développé par Luma Labs, conçu pour créer des vidéos réalistes et immersives. Il offre une meilleure fluidité des mouvements, une compréhension avancée de la physique et un rendu cinématographique de haute qualité. Ray2 est désormais accessible commercialement via Amazon Bedrock pour un usage professionnel ou créatif.
Oui, Ray2 est maintenant disponible via Amazon Bedrock, permettant un accès commercial aux entreprises et créateurs de contenu. Cependant, certaines restrictions régionales et conditions d’accès peuvent s’appliquer selon les politiques de Luma Labs et Amazon Web Services. Il est conseillé de vérifier les modalités avant utilisation.
- Partager l'article :
