Google Cloud bietet eine Reihe an Produkten und Tools für den gesamten Lebenszyklus der Entwicklung generativer KI-Anwendungen.

Generative AI in Vertex AI

Sie können auf die großen generativen KI-Modelle von Google zugreifen, um die Modelle zu testen, zu optimieren und für den Einsatz in Ihren KI-gestützten Anwendungen bereitzustellen.

Gemini-Schnellstart

Hier erfahren Sie, wie Sie über die KI-ML-Plattform Vertex AI von Google Cloud Anfragen an die Gemini API senden.

Infrastruktur für Ihre generative KI-Anwendung auswählen

Wählen Sie die besten Produkte und Tools für Ihren Anwendungsfall aus und greifen Sie auf die Dokumentation zu, die Sie für den Einstieg benötigen.

Wann sollte generative KI verwendet werden?

Ermitteln Sie, ob generative KI, herkömmliche KI oder eine Kombination aus beiden zu Ihrem geschäftlichen Anwendungsfall passen könnte.

Generative KI-Anwendung entwickeln

Hier erfahren Sie, wie Sie die Herausforderungen in jeder Phase der Entwicklung einer Anwendung für generative KI bewältigen.

Codebeispiele und Beispielanwendungen

Sehen Sie sich Codebeispiele für gängige Anwendungsfälle an und implementieren Sie Beispiele für generative KI-Anwendungen, die sicher, effizient, stabil, leistungsstark und kostengünstig sind.

Google-Modelle in Vertex AI (Gemini, Imagen)

ML-Modellbibliothek, mit der Sie Google-Modelle und -Assets entdecken, testen, anpassen und bereitstellen können.

Andere Modelle im Vertex AI Model Garden

ML-Modellbibliothek, mit der Sie ausgewählte OSS-Modelle und -Assets entdecken, testen, anpassen und bereitstellen können.

Textgenerierungsmodelle über Hugging Face

Informationen zum Bereitstellen von HuggingFace-Modellen für die Textgenerierung in Vertex AI oder Google Kubernetes Engine (GKE)

KI‑/ML-Orchestrierung in der GKE

GKE orchestriert KI-/ML-Arbeitslasten effizient und unterstützt GPUs und TPUs für skalierbares Training und Bereitstellen generativer KI.

GPUs in Compute Engine

Hängen Sie GPUs an VM-Instanzen an, um Arbeitslasten für generative KI in der Compute Engine zu beschleunigen.

Vertex AI Studio

Entwerfen, testen und passen Sie Ihre an Gemini 2 und PaLM 2-Large Language Models (LLM) von Google gesendeten Prompts an.

Übersicht über Prompt-Strategien

Informationen zum Workflow für die Prompt-Erstellung und zu gängigen Strategien, mit denen Sie die Modellantworten beeinflussen können.
Beispielprompts und ‑antworten für bestimmte Anwendungsfälle ansehen

Vertex AI-Fundierung

Sie können Vertex AI-Modelle mit der Google Suche oder mit Ihren eigenen Daten fundieren, die in Vertex AI Search gespeichert sind.
Verwenden Sie die Funktion „Mit der Google Suche fundieren“, um das Modell mit dem aktuellen Wissen im Internet zu verknüpfen.

Vektoreinbettungen in AlloyDB

Verwenden Sie AlloyDB, um Vektoreinbettungen zu generieren und zu speichern, und indexieren und fragen Sie die Einbettungen dann mit der pgvector-Erweiterung ab.

Cloud SQL und pgvector

Speichern Sie Vektoreinbettungen in Postgres SQL und indexieren und fragen Sie sie dann mit der pgvector-Erweiterung ab.

BigQuery-Daten in Ihre LangChain-Anwendung einbinden

Verwenden Sie LangChain, um Daten aus BigQuery zu extrahieren und die Antworten Ihres Modells zu ergänzen und zu fundieren.

Vektoreinbettungen in Firestore

Erstellen Sie Vektoreinbettungen aus Ihren Firestore-Daten und indexieren und fragen Sie die Einbettungen dann ab.

Vektoreinbettungen in Memorystore (Redis)

Verwenden Sie LangChain, um Daten aus Memorystore zu extrahieren und die Antworten Ihres Modells zu ergänzen und zu fundieren.

Vertex AI Agent Builder

Nutzen Sie die Foundation Models, die Suchexpertise und die Technologien für konversationelle KI von Google für generative KI-Anwendungen in Unternehmen.

Vertex AI-Funktionsaufruf

Fügen Sie Ihrem Modell Funktionsaufrufe hinzu, um Aktionen wie die Buchung einer Reservierung basierend auf extrahierten Kalenderinformationen zu ermöglichen.

Modelle in Vertex AI bewerten

Bewerten Sie die Leistung von Foundation Models und Ihre abgestimmten generativen KI-Modelle auf Vertex AI.

Vertex AI-Modelle abstimmen

Foundation Models für allgemeine Zwecke können durch eine Abstimmung ihre Leistung bei bestimmten Aufgaben verbessern.

Cloud TPU

TPUs sind von Google speziell entwickelte ASICs, die dazu dienen, ML-Arbeitslasten zu beschleunigen, z. B. das Training eines LLM.