Technologie
- ChatGPT a enfin lancé ses quatre nouvelles voix avancées ce mardi.
- Dans un premier temps, elles seront accessibles uniquement à un groupe restreint d’utilisateurs abonnés au service Plus. D’ici cet automne, elles seront disponibles pour tous les utilisateurs Plus.
- Bien que ChatGPT dispose déjà d’un mode vocal, les nouvelles voix avancées sont plus rapides et plus réalistes.
Les modes vocaux avancés de ChatGPT sont désormais disponibles. La société a commencé à les déployer à partir de ce mardi. Dans un premier temps, elles seront accessibles à un petit groupe d’utilisateurs abonnés au forfait « Plus ».
Ces utilisateurs recevront une notification sur leur application ChatGPT, suivie d’un courriel contenant des instructions sur leur utilisation. En fonction de leurs retours, la fonctionnalité sera bientôt étendue à tous les utilisateurs Plus à l’automne 2024.
Qu’est-ce qui rend les voix de ChatGPT uniques ?
Bien que ChatGPT ait déjà un mode vocal, les nouvelles voix avancées se distinguent nettement. L’ancien modèle était relativement lent, car il décomposait le processus en trois étapes :
- Dans la première étape, la voix de l’utilisateur est convertie en texte compréhensible par ChatGPT.
- Dans la deuxième étape, la requête est traitée.
- Enfin, dans la dernière étape, le texte de ChatGPT est transformé en audio.
En revanche, ChatGPT-4o, qui intègre les nouveaux modèles avancés, peut effectuer toutes ces tâches sans recourir à des modèles auxiliaires. Cela le rend beaucoup plus rapide.
De plus, contrairement aux voix robotiques de Siri, Alexa et Google Assistant, les voix de ChatGPT sont très réalistes. Elles répondent en temps réel, peuvent s’adapter aux interruptions (comme dans une conversation humaine), rient à vos blagues et modifient leur ton en fonction des émotions de l’utilisateur.
Les personnes ayant visionné le film « Her », avec Scarlett Johansson dans le rôle d’une IA, auront une meilleure idée de ce à quoi ressemblent ces voix. En effet, l’une des voix, nommée « Sky », présentée lors de la démonstration, ressemblait exactement à celle de Scarlett Johansson dans le film.
La controverse autour des voix AI de ChatGPT
La similitude entre ces voix a suscité de nombreuses controverses. Après que certains utilisateurs aient souligné la ressemblance troublante, Johansson a révélé que le PDG d’OpenAI, Sam Altman, l’avait contactée à plusieurs reprises pour utiliser sa voix. Cependant, elle a refusé à chaque fois.
Suite à la démonstration, elle a engagé un avocat pour empêcher l’utilisation de sa voix dans ChatGPT. Bien qu’Altman ait affirmé à plusieurs reprises que « Sky » n’était pas la voix de Johansson, celle-ci a finalement été retirée en juin.
Actuellement, les quatre voix officielles de ChatGPT sont Juniper, Breeze, Cove et Ember.
Parallèlement, Altman a également annoncé un léger retard dans le lancement du mode vocal avancé en raison de problèmes de sécurité. L’entreprise souhaitait effectuer davantage de tests et ajuster certaines fonctionnalités pour garantir que les voix se comportent de manière appropriée.
- OpenAI a révélé qu’elle a empêché l’ajout de nouvelles voix pour éviter l’usurpation d’identité.
- Elle a également bloqué l’outil pour traiter certaines demandes, notamment celles visant à générer de la musique protégée par des droits d’auteur.
Ces voix ont été testées par plus de 100 testeurs externes parlant 45 langues différentes. Un rapport de sécurité détaillé sera également publié en août.