Présentation de l'IA générative
Google Cloud propose une gamme de produits et d'outils pour l'ensemble du cycle de vie de la création d'applications d'IA générative.
IA générative sur Vertex AI
Accédez aux grands modèles d'IA générative de Google, afin de pouvoir les tester, les régler et les déployer pour les utiliser dans vos applications basées sur l'IA.
Guide de démarrage rapide Gemini
Découvrez comment envoyer des requêtes à l'API Gemini via la plate-forme d'IA et de ML de Google Cloud, Vertex AI.
Choisir une infrastructure pour votre application d'IA générative
Choisissez les meilleurs produits et outils pour votre cas d'utilisation et accédez à la documentation dont vous avez besoin pour vous lancer.
Quand utiliser l'IA générative ?
Déterminez si l'IA générative, l'IA traditionnelle, ou une combinaison des deux, convient à votre cas d'utilisation professionnel.
Développer une application d'IA générative
Découvrez comment relever les défis à chaque étape du développement d'une application d'IA générative.
Exemples de code et applications exemples
Consultez des exemples de code pour des cas d'utilisation courants et déployez des exemples d'applications d'IA générative sécurisées, efficaces, résilientes, performantes et économiques.
Modèles Google sur Vertex AI (Gemini, Imagen)
Découvrez, testez, personnalisez et déployez des modèles et des éléments Google à partir d'une bibliothèque de modèles de ML.
Autres modèles dans Vertex AI Model Garden
Découvrez, testez, personnalisez et déployez des modèles et des éléments OSS sélectionnés à partir d'une bibliothèque de modèles de ML.
Modèles de génération de texte via Hugging Face
Découvrez comment déployer des modèles de génération de texte HuggingFace dans Vertex AI ou Google Kubernetes Engine (GKE).
Orchestration IA/ML sur GKE
GKE orchestre efficacement les charges de travail d'IA/ML, en prenant en charge les GPU et les TPU pour l'entraînement et le service d'IA générative évolutive.
GPU sur Compute Engine
Associez des GPU à des instances de VM pour accélérer les charges de travail d'IA générative sur Compute Engine.
Vertex AI Studio
Concevez, testez et personnalisez les requêtes envoyées aux grands modèles de langage (LLM) Gemini et PaLM 2 de Google.
Présentation des stratégies de requête
Découvrez le workflow de conception de requêtes et les stratégies courantes que vous pouvez utiliser pour affecter les réponses du modèle.
Galerie des invites
Consultez des exemples d'invites et de réponses pour des cas d'utilisation spécifiques.
Vertex AI grounding
Vous pouvez ancrer les modèles Vertex AI avec la recherche Google ou avec vos propres données stockées dans Vertex AI Search.
Ancrer avec la recherche Google
Utilisez l'ancrage avec la recherche Google pour associer le modèle aux connaissances à jour disponibles sur Internet.
Embeddings vectoriels dans AlloyDB
Utilisez AlloyDB pour générer et stocker des embeddings vectoriels, puis indexez-les et interrogez-les à l'aide de l'extension pgvector.
Cloud SQL et pgvector
Stockez des embeddings vectoriels dans Postgres SQL, puis indexez-les et interrogez-les à l'aide de l'extension pgvector.
Intégrer des données BigQuery dans votre application LangChain
Utilisez LangChain pour extraire des données de BigQuery, et enrichir et valider les réponses de votre modèle.
Embeddings vectoriels dans Firestore
Créez des embeddings vectoriels à partir de vos données Firestore, puis indexez-les et interrogez-les.
Emplacements vectoriels dans Memorystore (Redis)
Utilisez LangChain pour extraire des données de Memorystore, et enrichir et valider les réponses de votre modèle.
Vertex AI Agent Builder
Exploitez les modèles de fondation, l'expertise en recherche et les technologies d'IA conversationnelle de Google pour créer des applications d'IA générative de niveau professionnel.
Appel de fonction Vertex AI
Ajoutez une fonction d'appel à votre modèle pour permettre des actions telles que la réservation d'un rendez-vous en fonction des informations extraites du calendrier.
Évaluer des modèles dans Vertex AI
Évaluez les performances des modèles de fondation et de vos modèles d'IA générative réglés sur Vertex AI.
Régler les modèles Vertex AI
Les modèles de fondation à usage général peuvent bénéficier d'un réglage pour améliorer leurs performances sur des tâches spécifiques.
Cloud TPU
Les TPU (Tensor Processing Unit) sont des ASIC spécifiquement développés par Google pour accélérer les charges de travail de machine learning, comme l'entraînement d'un LLM.