Google a récemment humanisé son assistant AI Gemini en permettant aux utilisateurs d’interrompre ou de changer de sujet en plein milieu d’une conversation. Lors de l’événement Made by Google 2024, la société a annoncé le lancement tant attendu de Gemini Live pour les appareils mobiles. Contrairement aux commandes spécifiques habituelles des assistants comme Google Assistant ou Alexa, Gemini Live répond à un langage plus décontracté et peut même simuler des réflexions et des séances de brainstorming. L’objectif est de rendre les échanges avec l’IA plus naturels.
Gemini Live ressemble à une conversation téléphonique avec un assistant personnel très réactif. L’IA peut discuter tout en accomplissant des tâches simultanément. Cette fonctionnalité de multitâche est actuellement accessible aux abonnés de Gemini Advanced sur les appareils Android, mais Google a annoncé qu’elle sera bientôt disponible sur iOS. Les utilisateurs peuvent également personnaliser la voix de Gemini, avec dix nouvelles options vocales de styles variés. Selon Google, le moteur vocal amélioré permet des interactions plus expressives et réalistes.
Bien que Gemini Live partage certaines caractéristiques avec le mode vocal avancé de ChatGPT d’OpenAI, il ne s’agit pas simplement d’une imitation. En effet, ChatGPT peut rencontrer des difficultés lors de conversations prolongées. En revanche, Gemini Live est conçu avec une fenêtre contextuelle plus large, ce qui lui permet de mieux se souvenir des informations échangées précédemment.
Gemini Live : une expérience continue
Google a également présenté une liste élargie d’extensions pour Gemini, intégrant l’IA plus profondément dans l’écosystème des applications et services de Google. Parmi les extensions à venir, on trouve des intégrations avec Google Keep, Google Tasks, et des fonctionnalités étendues sur YouTube Music. Par exemple, vous pourriez demander à Gemini Live de récupérer une recette depuis Gmail et d’ajouter les ingrédients à une liste de courses dans Keep, ou de créer une playlist de chansons d’une époque spécifique sur YouTube Music. Ce niveau d’intégration permet à Gemini d’interagir de manière plus fluide avec les applications et le contenu sur l’appareil de l’utilisateur, offrant une assistance adaptée au contexte de ses activités.
Cependant, Gemini Live n’a pas encore atteint le niveau de sophistication présenté lors de la démonstration à Google I/O 2024. Les capacités de traitement visuel mises en avant à cet événement sont encore à venir. Ces fonctionnalités permettront à Gemini de percevoir et de réagir à l’environnement des utilisateurs via des photos et des vidéos prises avec leur appareil mobile, ce qui pourrait considérablement accroître l’utilité de Gemini Live. Les nouvelles fonctionnalités de l’assistant AI s’inscrivent parfaitement dans la vision de Google d’intégrer Gemini dans tous les aspects de la vie quotidienne des utilisateurs, avec l’ambition d’une conversation ininterrompue avec l’IA.
Vous pourriez également aimer
- Le mode d’arrière-plan de Gemini Live et les extensions d’application pourraient surpasser l’intelligence d’Apple
- Qu’est-ce que Google Gemini ? Tout ce que vous devez savoir sur l’IA de nouvelle génération de Google
- La prochaine évolution de Gemini pourrait vous permettre d’utiliser l’IA pendant votre navigation sur Internet