Google Cloud propose une gamme de produits et d'outils pour l'ensemble du cycle de vie de la création d'applications d'IA générative.

IA générative sur Vertex AI

Accédez aux grands modèles d'IA générative de Google, afin de pouvoir les tester, les régler et les déployer pour les utiliser dans vos applications basées sur l'IA.

Guide de démarrage rapide Gemini

Découvrez comment envoyer des requêtes à l'API Gemini via la plate-forme d'IA et de ML de Google Cloud, Vertex AI.

Choisir une infrastructure pour votre application d'IA générative

Choisissez les meilleurs produits et outils pour votre cas d'utilisation et accédez à la documentation dont vous avez besoin pour vous lancer.

Quand utiliser l'IA générative ?

Déterminez si l'IA générative, l'IA traditionnelle, ou une combinaison des deux, convient à votre cas d'utilisation professionnel.

Développer une application d'IA générative

Découvrez comment relever les défis à chaque étape du développement d'une application d'IA générative.

Exemples de code et applications exemples

Consultez des exemples de code pour des cas d'utilisation courants et déployez des exemples d'applications d'IA générative sécurisées, efficaces, résilientes, performantes et économiques.

Modèles Google sur Vertex AI (Gemini, Imagen)

Découvrez, testez, personnalisez et déployez des modèles et des éléments Google à partir d'une bibliothèque de modèles de ML.

Autres modèles dans Vertex AI Model Garden

Découvrez, testez, personnalisez et déployez des modèles et des éléments OSS sélectionnés à partir d'une bibliothèque de modèles de ML.

Modèles de génération de texte via Hugging Face

Découvrez comment déployer des modèles de génération de texte HuggingFace dans Vertex AI ou Google Kubernetes Engine (GKE).

Orchestration IA/ML sur GKE

GKE orchestre efficacement les charges de travail d'IA/ML, en prenant en charge les GPU et les TPU pour l'entraînement et le service d'IA générative évolutive.

GPU sur Compute Engine

Associez des GPU à des instances de VM pour accélérer les charges de travail d'IA générative sur Compute Engine.

Vertex AI Studio

Concevez, testez et personnalisez les requêtes envoyées aux grands modèles de langage (LLM) Gemini et PaLM 2 de Google.

Présentation des stratégies de requête

Découvrez le workflow de conception de requêtes et les stratégies courantes que vous pouvez utiliser pour affecter les réponses du modèle.
Consultez des exemples d'invites et de réponses pour des cas d'utilisation spécifiques.

Vertex AI grounding

Vous pouvez ancrer les modèles Vertex AI avec la recherche Google ou avec vos propres données stockées dans Vertex AI Search.
Utilisez l'ancrage avec la recherche Google pour associer le modèle aux connaissances à jour disponibles sur Internet.

Embeddings vectoriels dans AlloyDB

Utilisez AlloyDB pour générer et stocker des embeddings vectoriels, puis indexez-les et interrogez-les à l'aide de l'extension pgvector.

Cloud SQL et pgvector

Stockez des embeddings vectoriels dans Postgres SQL, puis indexez-les et interrogez-les à l'aide de l'extension pgvector.

Intégrer des données BigQuery dans votre application LangChain

Utilisez LangChain pour extraire des données de BigQuery, et enrichir et valider les réponses de votre modèle.

Embeddings vectoriels dans Firestore

Créez des embeddings vectoriels à partir de vos données Firestore, puis indexez-les et interrogez-les.

Emplacements vectoriels dans Memorystore (Redis)

Utilisez LangChain pour extraire des données de Memorystore, et enrichir et valider les réponses de votre modèle.

Vertex AI Agent Builder

Exploitez les modèles de fondation, l'expertise en recherche et les technologies d'IA conversationnelle de Google pour créer des applications d'IA générative de niveau professionnel.

Appel de fonction Vertex AI

Ajoutez une fonction d'appel à votre modèle pour permettre des actions telles que la réservation d'un rendez-vous en fonction des informations extraites du calendrier.

Évaluer des modèles dans Vertex AI

Évaluez les performances des modèles de fondation et de vos modèles d'IA générative réglés sur Vertex AI.

Régler les modèles Vertex AI

Les modèles de fondation à usage général peuvent bénéficier d'un réglage pour améliorer leurs performances sur des tâches spécifiques.

Cloud TPU

Les TPU (Tensor Processing Unit) sont des ASIC spécifiquement développés par Google pour accélérer les charges de travail de machine learning, comme l'entraînement d'un LLM.