Google Cloud présente six agents d’IA innovants pour rationaliser le développement et la gestion des données

Google Cloud présente six agents d’IA innovants pour rationaliser le développement et la gestion des données

Google Cloud dévoile six agents d’IA innovants pour améliorer l’utilisation des données

Dans le but de rationaliser la gestion des données et d’améliorer les capacités d’analyse, Google Cloud a lancé six nouveaux agents d’IA, chacun conçu pour servir de partenaire précieux pour divers utilisateurs de données, notamment les scientifiques des données, les ingénieurs et les analystes commerciaux.

Rationalisation de l’ingénierie des données avec l’agent d’ingénierie des données

La première introduction est l’ agent d’ingénierie des données, actuellement en phase de préversion, spécialement conçu pour les ingénieurs de données. Cet outil permet aux utilisateurs de construire et de gérer des pipelines de données dans BigQuery en utilisant un langage simple et courant. Au lieu de naviguer dans des configurations complexes, les utilisateurs peuvent décrire les workflows souhaités, et l’agent les génère et les exécute automatiquement.

Agent d'ingénierie de données pour l'automatisation de pipelines de données complexes

Révolutionner l’analyse des données avec l’agent de science des données

L’ agent Data Science, intégré à la plateforme Colab Enterprise Notebook, prend en charge des workflows analytiques complets, du nettoyage des données aux prédictions issues du machine learning. Il permet aux utilisateurs d’élaborer des plans et d’exécuter du code de manière fluide, simplifiant ainsi le processus de data science.

Agent de science des données pour transformer chaque étape des tâches de science des données

Analyse améliorée à l’aide de l’agent interpréteur de code

L’ agent interpréteur de code s’adresse aux utilisateurs métier et aux analystes en s’appuyant sur l’agent d’analyse conversationnelle annoncé précédemment et présenté lors de Google Cloud Next 2024. Cet agent innovant permet aux utilisateurs de formuler des requêtes complexes en langage naturel et génère du code Python pour y répondre. Par exemple, il peut effectuer une analyse détaillée de la segmentation client à l’aide d’invites simples et fournir des visualisations et des informations directement dans l’environnement sécurisé de la plateforme.

Analyse conversationnelle avec interpréteur de code pour une analyse avancée

Simplifier la migration des données avec l’agent de migration Spanner

Pour les utilisateurs de Spanner, le service de base de données relationnelle compatible ACID de Google, l’introduction de l’ agent de migration Spanner simplifie le transfert des données opérationnelles. De plus, les développeurs ont la possibilité d’utiliser la nouvelle API Gemini Data Agents, qui permet l’intégration directe de ces outils conversationnels dans leurs applications.

Solutions d’automatisation pour les développeurs : actions GitHub Gemini CLI

Google a également déployé Gemini CLI GitHub Actions, conçu pour les utilisateurs de lignes de commande. Cet outil automatise les tâches de gestion des dépôts, comme la vérification des requêtes d’extraction, améliorant ainsi l’efficacité des processus de contrôle de version.

Mises à jour supplémentaires : Innovations en matière d’apprentissage automatique et de recherche

Outre les nouveaux agents, Google a confirmé la disponibilité de Gemini 2.5 Flash pour le traitement localisé du machine learning au Japon et dans plusieurs autres pays. La version préliminaire du moteur de requêtes BigQuery AI vise à transformer l’interaction des utilisateurs avec les données en intégrant l’IA générative directement dans les requêtes SQL.

Pour améliorer ses fonctionnalités de recherche, Google a introduit la recherche hybride dans BigQuery, qui fusionne les capacités de recherche sémantique avec les recherches traditionnelles par mots-clés. De plus, le filtrage adaptatif dans AlloyDB est désormais disponible pour optimiser les requêtes vectorielles, tandis que le nouveau moteur de colonnes Spanner devrait accélérer les requêtes analytiques volumineuses. Enfin, les professionnels des données peuvent désormais exécuter des applications Oracle à Tokyo, et la prise en charge à Osaka est prévue pour début 2026.

Source et images

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *