Google a récemment lancé la fonctionnalité Personal Intelligence en version bêta. Limitée pour l’instant aux États-Unis, elle permet de connecter les différentes applications de la firme avec Gemini. L’intelligence artificielle peut alors s’appuyer sur toutes vos données, et apporter des réponses personnalisées à vos requêtes. Cela vaut aussi bien pour le chatbot que pour le mode IA du moteur de recherche de Google.
Une fois activée, Gemini pourra puiser dans vos e-mails, vos photos, vos recherches ou encore votre historique de visionnage sur YouTube. Une fonctionnalité puissante qui améliore la pertinence des réponses, mais aussi qui fait froid dans le dos. Nous avons désormais un premier aperçu de la quantité de données personnelles dont dispose Google, et ce que la firme est capable d’en faire.
Vos données en disent long aussi sur vos proches
Pranav Dixit de Business Insider a testé Personal Intelligence. Il a demandé des suggestions de lieux à visiter pour ses parents dans la baie de San Francisco, et l’IA a suggéré des musées et des jardins, car ses parents ont déjà fait des randonnées et des excursions dans des forêts de séquoias. Le chatbot a indiqué s’être appuyé sur des photos, des e-mails de famille, une réservation de stationnement dans Gmail et son historique de recherche (notamment « randonnées faciles pour seniors »). Il convient de souligner, au cas où il y aurait un doute : ces données proviennent du compte du journaliste, pas de ceux de ses parents.
Le chatbot de Google est désormais capable de puiser dans tous les services de Google pour exploiter vos données. © Image générée avec ChatGPT
En se basant sur des photos, Gemini a su lui dire le numéro d’immatriculation de sa voiture. Grâce à ses e-mails, le chatbot pouvait lui indiquer quand il devait en renouveler l’assurance. En planifiant un voyage, l’IA avait déjà pris en compte le fait qu’ils allaient voyager avec un enfant en bas âge, car Gemini dispose déjà de ce genre de données.
Confier ses données à ces services semblait raisonnable il y a quelques années, avant l’ère de l’IA. À l’époque, Google ne pouvait pas savoir ce que contenaient nos photos à moins que des employés les visualisent directement. Désormais, ce n’est plus nécessaire. Gemini peut analyser une bonne partie de notre vie numérique, et très certainement découvrir des détails que l’on pensait privés, ou que l’on ignorait complètement sur nous-mêmes.
Gemini : simple assistant ou espion ?
Bien entendu, Google a déjà songé à cet aspect de son nouvel outil. Dans l’annonce de Personal Intelligence, Josh Woodward, à la tête de Google Labs et de l’application Gemini, se veut rassurant. « Notre objectif est d’améliorer votre expérience tout en gardant vos données sécurisées et sous votre contrôle. Conçu dès le départ dans une optique de respect de la vie privée, Gemini n’est pas entraîné directement à partir de votre boîte de réception Gmail ni de votre bibliothèque Google Photos. Nous nous entraînons sur des informations limitées, comme certaines requêtes saisies dans Gemini et les réponses du modèle, afin d’améliorer ses fonctionnalités au fil du temps. »
Gemini ne serait pas directement entraîné sur les données personnelles, mais plutôt sait où les trouver lorsqu’il en a besoin. Et bien entendu, il continue à apprendre de vos réponses, découvrant sans doute beaucoup plus d’informations qu’il n’y paraît…
Dans ce domaine, Google dispose d’un immense avantage par rapport à ses concurrents, notamment OpenAI et Anthropic. Android est présent sur 75 % des nouveaux smartphones dans le monde selon les derniers chiffres de l’IDC, et les systèmes d’exploitation de Google sont aussi présents sur les tablettes, les téléviseurs, les ordinateurs (Chromebooks), les montres et même les voitures. Difficile d’imaginer qu’un rival puisse aspirer autant d’informations pour donner vie à son chatbot.
La protection de la vie privée semble déjà largement dépassée. Le prochain risque réside dans des chatbots qui en savent tellement sur nous qu’ils sauront exactement comment nous manipuler, que ce soit pour vendre des produits pour un sponsor ou pour influencer les votes. Et le nombre de personnes avec une relation problématique avec l’IA risque d’augmenter que ce soit ceux qui en tombent amoureux ou ceux s’en servent comme thérapeute.