in ,

Mauvaise nouvelle : OpenAI reporte encore une fois la sortie de GPT-4o Advanced Voice

GPT-4o Advanced Voice: mode vocal ChatGPT

s’est se mois-ci focalisé sur la sortie du mode vocal avancé de . Après la -4o Mini, affirme que leur IA capable de comprendre la voix, la GPT-4o Advanced Voice sera disponible au grand public d’ici quelques semaines. Mais OpenAI va en premier temps lancé le système en limité.

À titre d’information, GPT-4o est un modèle multimodal pouvant comprendre la voix sans qu’il la convertisse en texte.

Par ailleurs, ce nouveau modèle doit encore subir quelques tests de sécurité avant son lancement officiel.

Cela afin de garantir la confidentialité des données des utilisateurs, la véritable bête noire des entreprises d’IA.

YouTube video

Donc en tant qu’assistant vocal, GPT-4o Advanced Voice est plus rapide et plus précise dans la génération de réponses.

Le mode vocal de ChatGPT face à celles Moshi

GPT-4o advanced Voice, plus sophistiqué que son homologue français Moshi, offre des capacités aussi impressionnantes que variées.

Lors des démonstrations, il a fait preuve d’une polyvalence remarquable, réalisant avec précision des tâches plus complexes pour les chatbots traditionnels.

Notamment la création de voix de personnages, la génération d’effets sonores en temps réel pendant la narration d’histoires, et même la simultanée.

Mais le potentiel de GPT-4o Advanced Voice ne se limite pas à ces tâches. Le modèle proposera également des fonctionnalités de vision en direct.

Cela permet à l’IA de percevoir l’environnement de l’utilisateur en temps réel. Et c’est grâce à la combinaison de la perception visuelle et des capacités vocales de GPT4-o Advanced Vocal que nous pourrions profiter d’un chatbot plus intuitif.

YouTube video

Date de sortie de GPT-4o Advanced Voice : OpenAI prend des précautions

En ce qui concerne la date de sortie de GPT-4o Advanced Voice, OpenAI reste très prudent et préfère prendre des précautions.

D’après les déclarations de Sam Altman, il est incontournable d’établir des règles pour les IA à cause des risques liés à son utilisation.

Tout comme les précédents modèles, OpenAI avait peur que le mode vocal de ChatGPT puisse être dangereux s’il était mal utilisé.

Et c’est justement pour éviter ce genre problèmes qu’OpenAI préfère rendre accessible le modèle GPT-4o Advanced Voice petit à petit.

Un déploiement en deux temps pour le mode vocal de ChatGPT

Ils commencent par le donner à des utilisateurs en qui ils ont confiance, puis l’ouvrent à de plus en plus de gens au fil du temps.

La première phase consiste alors à lancer la version alpha de GPT-4o Advanced Voice dans le but d’obtenir des avis et des critiques.

C’est dans une seconde étape qu’OpenAI va lancer une version grand public améliorée en fonction des avis des précédents utilisateurs de la version alpha.

Par contre, jusqu’à l’heure, on n’a pas encore de calendrier exact quant à la sortie de la version alpha.

L’agenda d’OpenAI va dépendre en grande partie de leur capacité à répondre aux normes de sécurités et de la fiabilité de leur modèle.

En attendant, vous pouvez déjà vous familiariser avec le modèle GPT-4o Mini dont les détails sont disponibles dans cet article.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *