Intelligence artificielle : ces innovations de Google qui vont transformer notre quotidien
Tout cela sera rendu possible grâce à des assistants toujours plus omniscients. Google a présenté, mardi 14 mai, ses dernières innovations en intelligence artificielle (IA) générative, qui vont potentiellement transformer le quotidien de ses utilisateurs, de la recherche en ligne à de nombreuses tâches du quotidien.
"La transformation la plus excitante, c’est évidemment la recherche en ligne générative sur Google", a lancé le patron Sundar Pichai, sur la scène de l’amphithéâtre en plein air de l’entreprise à Mountain View (Californie).
Google testait depuis un an son moteur de recherche dopé à l’IA générative, c’est-à-dire la production de contenus sur simple requête en langage courant. L’internaute entre sa requête et reçoit, en haut de la page de résultats, une réponse générée par Gemini, le modèle d’IA de Google. Il peut ensuite cliquer sur des suggestions de questions, ou, plus bas, sur des liens vers des sites web.
Avec ces nouvelles options, le géant de la tech espère faciliter la tâche des utilisateurs, en les aidant concrètement à composer leurs menus ou planifier leurs vacances. "Les utilisateurs font plus de recherches et sont plus satisfaits", assure Sundar Pichai.
La nouvelle formule - la plus importante transformation du moteur de recherche depuis sa création - sera déployée aux Etats-Unis cette semaine, puis dans d’autres pays, pour atteindre plus d’un milliard de personnes d’ici fin 2024. Google domine la recherche en ligne au point que son nom est synonyme de l’action. Mais l’éruption de ChatGPT et d’autres chatbots capables de répondre aux questions des utilisateurs menace son empire.
Recherche menacée -
Toute la Silicon Valley rivalise de nouveaux outils et interlocuteurs virtuels permettant de contourner le numéro un mondial de la publicité numérique. Sur Facebook, Instagram et WhatsApp par exemple, les utilisateurs peuvent poser des questions à Meta AI, qui a accès à internet. En conséquence, le cabinet Gartner prédit que d’ici 2026, le volume de requêtes adressées aux moteurs de recherche traditionnels chutera de 25 %.
La bataille se déplace donc vers les assistants IA, qui semblent gagner de nouveaux pouvoirs toutes les semaines, grâce aux progrès des modèles d’IA générative.
Le modèle central de Google, Gemini 1.5 Pro, peut ainsi intégrer un volume croissant d’informations de contexte apportées par l’utilisateur (rapports de centaines de pages, vidéos plus longues…) et digérer des formats différents (le modèle "comprend" aussi bien du texte, que du son et des images, et peut répondre à l’écrit, par la voix ou en générant des images).
Google DeepMind, le laboratoire de recherche du groupe, a de son côté présenté d’autres nouveaux modèles : Gemini 1.5 Flash (plus rapide et moins coûteux), Imagen 3 (génération d’images) et Veo (génération de vidéos, un secteur en plein essor). Sur le long terme, Sundar Pichai envisage les agents d’IA comme "des systèmes intelligents capables de raisonner, de planifier et de retenir des informations. Ils anticipent les étapes et savent travailler avec des logiciels pour accomplir des choses en votre nom, sous votre supervision".
Assistants personnalisés
Avec près de 74 milliards de dollars de profits en 2023, et de nombreux services omniprésents au quotidien (Google, Gmail, Maps, Android, YouTube…), l’entreprise est idéalement placée pour donner corps à cette vision. Dans l’application mobile Gemini, les utilisateurs peuvent discuter avec le modèle à l’oral, "comme avec un ami" et ils pourront bientôt créer des "Gems", des assistants personnalisés, comme un sous-chef personnel ou un prof de yoga.
Gemini est en outre intégré directement dans Android, le système d’exploitation mobile de Google. Le modèle peut ainsi intervenir à tout moment pour anticiper les besoins de la personne - lors d’un appel, pour signaler une potentielle fraude, ou dans la messagerie pour composer des réponses. Et les avancées de Project Astra, un prototype d’agent d’IA, doivent enrichir ces expériences.
Google DeepMind a diffusé une démonstration vidéo : on y voit un utilisateur pointer la caméra de son smartphone - ou des lunettes avec caméra intégrée - sur son environnement, et interroger le modèle qui identifie le lieu où il se trouve, résout un problème informatique à partir d’un schéma et se souvient de l’endroit où il a posé un objet.
Lundi, OpenAI, la start-up qui a lancé la révolution de l’IA générative, a réalisé une présentation similaire, où ChatGPT interagit avec un ingénieur d’une façon si naturelle que la machine semble humaine. Mais la fluidité de la conversation ne fait pas encore des chatbots des agents d’IA omniscients, proactifs et personnalisés.